JP6566091B2 - Image generation device and image search device - Google Patents

Image generation device and image search device Download PDF

Info

Publication number
JP6566091B2
JP6566091B2 JP2018122886A JP2018122886A JP6566091B2 JP 6566091 B2 JP6566091 B2 JP 6566091B2 JP 2018122886 A JP2018122886 A JP 2018122886A JP 2018122886 A JP2018122886 A JP 2018122886A JP 6566091 B2 JP6566091 B2 JP 6566091B2
Authority
JP
Japan
Prior art keywords
image
subject
unit
image data
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018122886A
Other languages
Japanese (ja)
Other versions
JP2018196120A (en
Inventor
静二 ▲高▼野
静二 ▲高▼野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018122886A priority Critical patent/JP6566091B2/en
Publication of JP2018196120A publication Critical patent/JP2018196120A/en
Application granted granted Critical
Publication of JP6566091B2 publication Critical patent/JP6566091B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像生成装置、画像検索装置、画像生成プログラム、及び画像検索プログラムに関する。   The present invention relates to an image generation device, an image search device, an image generation program, and an image search program.

画像を検索する装置として、例えば特許文献1に記載されたものがある。この装置においては、CPUが画像の中から人物の顔などの部分画像を抽出し、抽出した部分画像における目、鼻などの位置や位置関係などを数値化した数値データを算出する。そして、CPUは、数値データと検索情報に対応する数値データとを比較して画像検索を行う。また、CPUは、画像の撮影時におけるフォーカス位置(合焦位置)などに基づいて比較対象の部分画像を絞り込む。   As an apparatus for searching for an image, for example, there is one described in Patent Document 1. In this apparatus, the CPU extracts a partial image such as a person's face from the image, and calculates numerical data obtained by quantifying the positions and positional relationships of the eyes and nose in the extracted partial image. Then, the CPU performs an image search by comparing the numerical data with numerical data corresponding to the search information. Further, the CPU narrows down the partial images to be compared based on the focus position (focus position) at the time of image capture.

特開2005−80216号公報JP 2005-80216 A

しかし、上記した装置は、合焦位置を奥行き方向に変更可能な画像(リフォーカス画像という。)の検索には適しておらず、依然として改善の余地がある。   However, the above-described apparatus is not suitable for searching for an image (referred to as a refocus image) whose focus position can be changed in the depth direction, and there is still room for improvement.

本発明の態様では、合焦位置を奥行き方向に変更可能なリフォーカス画像に適した画像検索を行うことを目的とする。   An object of an aspect of the present invention is to perform an image search suitable for a refocus image whose focus position can be changed in the depth direction.

本発明の態様によれば、焦点位置を変更した画像を生成可能な画像データの中から特定の被写体を含む画像を生成可能な画像データを検索する検索部と、検索部により検索された画像データに基づいて、奥行き方向における、特定の被写体を含む所定の範囲の内で所定の位置に合焦している画像を生成する生成部と、を備える画像生成装置が提供される。
本発明の態様によれば、焦点位置を変更した画像を生成可能な画像データの中から特定の被写体を含む画像を生成可能な画像データを検索する検索部と、検索部により検索された画像データに基づいて、生成された画像を表示する表示部と、を備え、表示部に表示される画像は、特定の被写体が含まれた画像である画像検索装置が提供される。
本発明の第1態様によれば、合焦位置を奥行き方向に変更可能な画像データに含まれる被写体を検出するとともに、検出した被写体の奥行き方向の位置を検出する検出部と、検索対象の被写体に関する付随情報を指定する指定部と、指定部で指定された付随情報に対応する被写体を検索する検索部と、検索部で検索された被写体の奥行き方向の位置に応じて所定の合焦位置の画像データを生成する画像生成部と、を備える画像生成装置が提供される。
According to an aspect of the present invention, a search unit that searches for image data that can generate an image including a specific subject from image data that can generate an image with a changed focal position, and image data that is searched by the search unit An image generation apparatus is provided that includes a generation unit that generates an image focused on a predetermined position within a predetermined range including a specific subject in the depth direction.
According to an aspect of the present invention, a search unit that searches for image data that can generate an image including a specific subject from image data that can generate an image with a changed focal position, and image data that is searched by the search unit And a display unit that displays the generated image, and an image search device is provided in which the image displayed on the display unit is an image including a specific subject.
According to the first aspect of the present invention, a detection unit that detects a subject included in image data whose focus position can be changed in the depth direction and detects the position of the detected subject in the depth direction, and a subject to be searched A designation unit for designating accompanying information about the subject, a search unit for searching for a subject corresponding to the accompanying information designated by the designation unit, and a predetermined in-focus position according to the position in the depth direction of the subject searched by the search unit An image generation apparatus including an image generation unit that generates image data is provided.

本発明の第2態様によれば、合焦位置を奥行き方向に変更可能な一又は複数の画像データに含まれる被写体を検出するとともに、検出した被写体の奥行き方向の位置を検出する検出部と、検索対象の被写体の奥行き方向の位置を指定する指定部と、指定部で指定された位置に対応する被写体を含む画像データを検索する検索部と、を備える画像検索装置が提供される。   According to the second aspect of the present invention, a detection unit that detects a subject included in one or a plurality of image data whose focus position can be changed in the depth direction, and detects a position of the detected subject in the depth direction; An image search apparatus is provided that includes a specifying unit that specifies a position in the depth direction of a subject to be searched, and a search unit that searches for image data including a subject corresponding to the position specified by the specifying unit.

本発明の第3態様によれば、コンピュータに、合焦位置を奥行き方向に変更可能な画像データに含まれる被写体を検出するとともに、検出した被写体の奥行き方向の位置を検出する検出処理と、検索対象の被写体に関する付随情報を指定する指定処理と、指定処理で指定された付随情報に対応する被写体を検索する検索処理と、検索処理で検索された被写体の奥行き方向の位置に応じて所定の合焦位置の画像データを生成する画像生成処理と、を実行させる画像生成プログラムが提供される。   According to the third aspect of the present invention, the computer detects the subject included in the image data whose focus position can be changed in the depth direction, and detects the position of the detected subject in the depth direction, and the search A specification process for specifying accompanying information related to the target subject, a search process for searching for a subject corresponding to the accompanying information specified in the specification process, and a predetermined match according to the position in the depth direction of the subject searched by the search process. An image generation program for executing image generation processing for generating image data at a focal position is provided.

本発明の第4態様によれば、コンピュータに、合焦位置を奥行き方向に変更可能な一又は複数の画像データに含まれる被写体を検出するとともに、検出した被写体の奥行き方向の位置を検出する検出処理と、検索対象の被写体の奥行き方向の位置を指定する指定処理と、指定処理で指定された位置に対応する被写体を含む画像データを検索する検索処理と、を実行させる画像検索プログラムが提供される。   According to the fourth aspect of the present invention, the computer detects a subject included in one or a plurality of image data whose focus position can be changed in the depth direction, and detects a position in the depth direction of the detected subject. An image search program is provided that executes a process, a specifying process that specifies a position in the depth direction of a subject to be searched, and a searching process that searches for image data including a subject corresponding to the position specified in the specifying process. The

本発明の態様によれば、合焦位置を奥行き方向に変更可能なリフォーカス画像に適した画像検索を行うことができる。   According to the aspect of the present invention, it is possible to perform an image search suitable for a refocus image whose focus position can be changed in the depth direction.

画像検索・生成装置(画像検索装置)の構成を示すブロック図である。It is a block diagram which shows the structure of an image search / generation apparatus (image search apparatus). 撮像装置の一例であるライトフィールドカメラにおける光学系部分の概略構成を示す断面図である。It is sectional drawing which shows schematic structure of the optical system part in the light field camera which is an example of an imaging device. 撮像素子の画素配列と入射領域とを説明する図である。It is a figure explaining the pixel arrangement | sequence and incident area of an image pick-up element. ライトフィールドカメラの構成を示すブロック図である。It is a block diagram which shows the structure of a light field camera. 画像の再構成を説明する図である。It is a figure explaining the reconstruction of an image. 図1に示す演算部が実行する画像処理を説明するためのフローチャートである。It is a flowchart for demonstrating the image processing which the calculating part shown in FIG. 1 performs. ライトフィールドカメラと各被写体との距離関係を示す図である。It is a figure which shows the distance relationship between a light field camera and each to-be-photographed object. 画像データに付加されるEXIF情報の例を示す図である。It is a figure which shows the example of the EXIF information added to image data. 記憶部に記憶されている画像の表示例を示す図である。It is a figure which shows the example of a display of the image memorize | stored in the memory | storage part. 演算処理部が実行する画像検索・生成処理を説明するためのフローチャートである。It is a flowchart for demonstrating the image search and production | generation process which an arithmetic processing part performs. 第1実施形態の画像検索画面の表示例を示す図である。It is a figure which shows the example of a display of the image search screen of 1st Embodiment. 第1実施形態の画像検索画面の表示例を示す図である。It is a figure which shows the example of a display of the image search screen of 1st Embodiment. 第1実施形態の画像検索画面の表示例を示す図である。It is a figure which shows the example of a display of the image search screen of 1st Embodiment. 第2実施形態の画像検索画面の表示例を示す図である。It is a figure which shows the example of a display of the image search screen of 2nd Embodiment. 視差を有する画像の表示例を示す図である。It is a figure which shows the example of a display of the image which has parallax. 画像検索・生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of an image search and production system.

以下、本発明の実施形態について図面を参照して説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現する場合がある。   Embodiments of the present invention will be described below with reference to the drawings. However, the present invention is not limited to this. Further, in the drawings, in order to describe the embodiment, the scale may be appropriately changed and expressed, for example, a part of the drawing may be enlarged or emphasized.

<第1実施形態>
図1は、画像検索・生成装置101の構成を示すブロック図である。図1に示すように、画像検索・生成装置(画像検索装置、画像生成装置)101は、撮像装置の一例であるライトフィールドカメラ1、表示装置102、キーボード103、及びマウス104と接続されている。ここで、ライトフィールドカメラ1は、撮像部がカメラに入射する多数の光線をライトフィールド(光線空間)として取得する。そして、ライトフィールドカメラ1は、取得したライトフィールドの情報に対して画像処理を施すことで合焦位置などを奥行き方向に変更したリフォーカス画像を生成する。以下の説明では、三次元空間の光線集合であるライトフィールドの情報を光線情報又はRAWデータという。
<First Embodiment>
FIG. 1 is a block diagram showing the configuration of the image search / generation apparatus 101. As illustrated in FIG. 1, an image search / generation device (image search device, image generation device) 101 is connected to a light field camera 1, a display device 102, a keyboard 103, and a mouse 104, which are examples of an imaging device. . Here, the light field camera 1 acquires a large number of light rays incident on the camera by the imaging unit as a light field (light space). Then, the light field camera 1 generates a refocused image in which the in-focus position is changed in the depth direction by performing image processing on the acquired light field information. In the following description, information on a light field that is a set of rays in a three-dimensional space is referred to as ray information or RAW data.

画像検索・生成装置101は、使用者により指定される情報に基づいて、ライトフィールドカメラ1で撮影された画像データに含まれる被写体を検索し、検索した被写体の奥行き方向の位置に合焦した画像データを生成する。なお、ライトフィールドカメラ1から被写体に向かう方向を奥側の方向といい、その反対側の方向を手前側の方向をいう。また、奥側の方向及び手前側の方向を奥行き方向という。   The image search / generation apparatus 101 searches for a subject included in the image data captured by the light field camera 1 based on information specified by the user, and focuses on the position in the depth direction of the searched subject. Generate data. Note that the direction from the light field camera 1 toward the subject is referred to as the back side direction, and the opposite side direction is referred to as the near side direction. The direction on the back side and the direction on the near side are referred to as the depth direction.

画像検索・生成装置101は、例えば、パーソナルコンピュータで実現される。この画像検索・生成装置101は、図1に示すように、演算処理部110及び記憶部120を有している。演算処理部110は、画像データの検索及び生成に関する制御を司る。記憶部120は、ライトフィールドカメラ1で取得されたRAWデータや、このRAWデータから生成される画像データ(この画像データに付加される付随情報を含む)などを記憶する。なお、本実施形態では、画像データに付加される付随情報はEXIF情報(Exchangeable Image file Format)である。EXIF情報には、例えば、画像データごとに付加される撮影シーンの情報(ポートレート、風景など)、画像データ中の被写体ごとに付加される、被写体の種別(種類)を示す被写体種別データ、画像データ中の被写体ごとに付加される、個々の被写体を識別するための被写体識別データ、被写体ごとに付加される、被写体の合焦位置の情報(つまりライトフィールドカメラ1から被写体までの距離を示す距離データ)が含まれる(後述する図8参照)。また、被写体識別データには、被写体の特徴点や被写体の名称などが含まれる。   The image search / generation apparatus 101 is realized by a personal computer, for example. As illustrated in FIG. 1, the image search / generation apparatus 101 includes an arithmetic processing unit 110 and a storage unit 120. The arithmetic processing unit 110 controls the search and generation of image data. The storage unit 120 stores RAW data acquired by the light field camera 1, image data generated from the RAW data (including accompanying information added to the image data), and the like. In the present embodiment, the accompanying information added to the image data is EXIF information (Exchangeable Image file Format). The EXIF information includes, for example, shooting scene information (portrait, landscape, etc.) added to each image data, subject type data indicating the type (type) of the subject added to each subject in the image data, and image Subject identification data for identifying individual subjects added for each subject in the data, information on the focus position of the subject added for each subject (that is, a distance indicating the distance from the light field camera 1 to the subject) Data) (see FIG. 8 described later). The subject identification data includes feature points of the subject, names of subjects, and the like.

被写体の特徴点とは、被写体が同一の被写体であるか異なる被写体であるかを識別するための被写体の特徴的な情報のことをいう。例えば、被写体が人物の場合における人物の顔の形、目の形、目と鼻の位置関係などの情報が特徴点とされ、また、被写体が建物である場合における建物の色や形状などの情報が特徴点とされる。   The feature point of the subject refers to characteristic information of the subject for identifying whether the subject is the same subject or a different subject. For example, when the subject is a person, information such as the shape of the face of the person, the shape of the eyes, the positional relationship between the eyes and the nose is used as the feature point, and when the subject is a building, information such as the color and shape of the building Is a feature point.

演算処理部110は、図1に示すように、表示制御部111、画像入力部112、操作制御部113、及び演算部114を有している。表示制御部111は、例えば液晶表示ディスプレイのような表示装置102の表示画面500に、使用者が画像データの検索を行うための画像検索画面(図11〜図13参照)を表示する制御を行う。画像検索画面は、使用者が画像を検索するときに用いるグラフィカルユーザインタフェイス(GUI)である。また、表示制御部111は、複数の画像データに含まれる複数の被写体を検出し、検出した複数の被写体の画像データを切り出す。そして、表示制御部111は、切り出した複数の被写体の画像データに基づく画像を、表示装置102の表示画面500の第1表示領域(被写体一覧を表示するための第1表示領域501;図11参照)に表示する制御を行う。   As shown in FIG. 1, the arithmetic processing unit 110 includes a display control unit 111, an image input unit 112, an operation control unit 113, and a calculation unit 114. The display control unit 111 performs control to display an image search screen (see FIGS. 11 to 13) for the user to search for image data on the display screen 500 of the display device 102 such as a liquid crystal display. . The image search screen is a graphical user interface (GUI) used when a user searches for an image. Further, the display control unit 111 detects a plurality of subjects included in the plurality of image data, and cuts out the detected image data of the plurality of subjects. Then, the display control unit 111 displays an image based on the extracted image data of the plurality of subjects on the first display region (first display region 501 for displaying the subject list) of the display screen 500 of the display device 102; see FIG. ) Is displayed.

また、表示制御部111は、使用者によるマウス104などの操作(例えばドラッグアンドドロップ操作)によって、第1表示領域に表示されている複数の被写体の画像データに基づく画像を、表示装置102の表示画面500の第2表示領域(検索対象の被写体を表示するための第2表示領域502;図11参照)に移動させる制御を行う。また、表示制御部111は、使用者によるマウス104などの操作(例えばドラッグアンドドロップ操作)によって、複数の被写体の画像データに基づく画像の奥行き方向の表示位置を変更する制御を行う。   In addition, the display control unit 111 displays images based on the image data of the plurality of subjects displayed in the first display area on the display device 102 by the user's operation of the mouse 104 or the like (for example, drag and drop operation). Control to move to the second display area of the screen 500 (second display area 502 for displaying the subject to be searched; see FIG. 11) is performed. In addition, the display control unit 111 performs control to change the display position in the depth direction of the image based on the image data of a plurality of subjects by an operation (for example, drag and drop operation) of the mouse 104 by the user.

画像入力部112は、ライトフィールドカメラ1と接続されることにより、このライトフィールドカメラ1に記憶されているRAWデータ及び画像データ(付随情報を含む)を入力する。この画像入力部112は、ライトフィールドカメラ1から入力したRAWデータ及び画像データ(付随情報を含む)を記憶部120における画像データ記憶領域に記憶する。なお、画像入力部112は、インターネットなど通信ネットワーク(図示せず)を通じてRAWデータなど(RAWデータ、画像データ)を取得し、取得したRAWデータなどを記憶部120における画像データ記憶領域に記憶することも可能である。   The image input unit 112 is connected to the light field camera 1 to input RAW data and image data (including accompanying information) stored in the light field camera 1. The image input unit 112 stores RAW data and image data (including accompanying information) input from the light field camera 1 in an image data storage area in the storage unit 120. The image input unit 112 acquires RAW data (RAW data, image data) through a communication network (not shown) such as the Internet, and stores the acquired RAW data in the image data storage area in the storage unit 120. Is also possible.

操作制御部113は、使用者が操作可能な操作部を構成するキーボード103及びマウス104と接続される。この操作制御部113は、使用者によるキーボード103やマウス104の操作に応じて情報を入力し、その情報を表示制御部111や演算部114に出力する。   The operation control unit 113 is connected to a keyboard 103 and a mouse 104 that constitute an operation unit that can be operated by a user. The operation control unit 113 inputs information according to the operation of the keyboard 103 and the mouse 104 by the user, and outputs the information to the display control unit 111 and the calculation unit 114.

演算部114は、図1に示すように、画像生成部114a、検出部114b、指定部114c、及び検索部114dを備えている。画像生成部114aは、ライトフィールドカメラ1からRAWデータを取得した際に(図6のステップS1参照)、RAWデータに基づいて合焦位置が異なる複数の画像データを生成する。また、画像生成部114aは、合焦位置が異なる複数の画像データに対して、色信号処理(色調補正)、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの各種画像処理を実行する。また、画像生成部114aは、後述する検索部114dが検索条件に対応する被写体(検索対象の被写体)を含む画像データを検索した際に(図10のステップS19参照)、RAWデータに基づいて検索部114dで検索された被写体の奥行き方向の位置に合焦した画像データを生成する。   As shown in FIG. 1, the calculation unit 114 includes an image generation unit 114a, a detection unit 114b, a designation unit 114c, and a search unit 114d. When the RAW data is acquired from the light field camera 1 (see step S1 in FIG. 6), the image generation unit 114a generates a plurality of image data having different in-focus positions based on the RAW data. In addition, the image generation unit 114a performs various image processing such as color signal processing (tone correction), white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on a plurality of image data with different in-focus positions. . Further, the image generation unit 114a searches based on the RAW data when the search unit 114d described later searches for image data including a subject (subject to be searched) corresponding to the search condition (see step S19 in FIG. 10). The image data focused on the position in the depth direction of the subject searched by the unit 114d is generated.

検出部114bは、ライトフィールドカメラ1からRAWデータを取得した際に(図6のステップS1参照)、画像生成部114aがRAWデータに基づいて生成した画像データ中の1つ又は複数の被写体(以下、登録対象の被写体という。)を検出する。また、検出部114bは、検出した登録対象の被写体の特徴点を抽出する。そして、検出部114bは、抽出した登録対象の被写体の特徴点と、記憶部120に記憶されている1つ又は複数の画像データに含まれる複数の被写体の特徴点とを順次照合して、検出した登録対象の被写体と同じ被写体を含む画像データが記憶部120内に存在するか否かを判定する。   When the detection unit 114b acquires RAW data from the light field camera 1 (see step S1 in FIG. 6), the detection unit 114b includes one or more subjects (hereinafter referred to as “subject”) in the image data generated based on the RAW data by the image generation unit 114a. , A subject to be registered). In addition, the detection unit 114b extracts the feature points of the detected subject to be registered. Then, the detection unit 114b sequentially detects the feature points of the registered subject to be registered and the feature points of a plurality of subjects included in one or a plurality of image data stored in the storage unit 120, and detects them. It is determined whether image data including the same subject as the subject to be registered exists in the storage unit 120.

検出部114bは、登録対象の被写体と同じ被写体を含む画像データが記憶部120内に存在しないと判定した場合は、登録対象の被写体を含む画像データのEXIF情報に新たな被写体種別データ及び被写体識別データを被写体ごとに付加する。一方、検出部114bは、登録対象の被写体と同じ被写体を含む画像データが記憶部120内に存在すると判定した場合は、登録対象の被写体を含む画像データのEXIF情報に、記憶部120内の画像データに付加されているEXIF情報の被写体種別データ及び被写体識別データと同じデータを被写体ごとに付加する。なお、検出部114bは、登録対象の被写体を含む画像データのEXIF情報に、画像データごとの撮影シーンの情報も付加する。   When the detection unit 114b determines that image data including the same subject as the registration target subject does not exist in the storage unit 120, the detection unit 114b adds new subject type data and subject identification to the EXIF information of the image data including the registration target subject. Add data for each subject. On the other hand, when the detection unit 114b determines that image data including the same subject as the subject to be registered exists in the storage unit 120, the image in the storage unit 120 is included in the EXIF information of the image data including the subject to be registered. The same data as the subject type data and subject identification data of the EXIF information added to the data is added for each subject. Note that the detection unit 114b also adds shooting scene information for each image data to the EXIF information of the image data including the subject to be registered.

また、検出部114bは、登録対象の被写体の奥行き方向の位置(被写体の合焦位置)を検出する。検出部114bは、登録対象の被写体を含む画像データのEXIF情報に、登録対象の被写体の奥行き方向の位置を示す距離データ(合焦位置)を被写体ごとに付加する。演算部114は、RAWデータとともに、EXIF情報が付加された画像データを記憶部120に記憶する。   In addition, the detection unit 114b detects the position in the depth direction of the subject to be registered (the focus position of the subject). The detection unit 114b adds distance data (in-focus position) indicating the position of the registration target subject in the depth direction to the EXIF information of the image data including the registration target subject for each subject. The calculation unit 114 stores the image data to which the EXIF information is added together with the RAW data in the storage unit 120.

指定部114cは、使用者が画像データを検索する際に、画像データの検索条件を指定する。具体的には、操作制御部113は、使用者が画像データを検索するためにキーボード103やマウス104の操作に合わせて入力する情報を演算部114に出力する。指定部114cは、操作制御部113からの情報を入力し、入力した情報を画像データの検索条件として指定する。検索条件は、上述した被写体種別データ(人物、家、木、山など)、被写体識別データ(被写体の特徴点、被写体の名称)、及び被写体の奥行き方向の位置のうちの少なくともいずれか1つの情報である。   The designation unit 114c designates a search condition for image data when the user searches for image data. Specifically, the operation control unit 113 outputs information input in accordance with the operation of the keyboard 103 and the mouse 104 to the user for searching for image data. The designation unit 114c inputs information from the operation control unit 113 and designates the input information as a search condition for image data. The search condition is information on at least one of the above-described subject type data (person, house, tree, mountain, etc.), subject identification data (subject feature point, subject name), and subject depth direction position. It is.

検索部114dは、記憶部120に記憶されている画像データの中から、指定部114cで指定された検索条件に対応する被写体を含む画像データを検索する。なお、表示制御部111は、検索部114dの画像検索結果である画像の一覧を表示装置102の表示画面500に表示する。   The search unit 114d searches the image data stored in the storage unit 120 for image data including a subject corresponding to the search condition specified by the specifying unit 114c. Note that the display control unit 111 displays a list of images that are image search results of the search unit 114 d on the display screen 500 of the display device 102.

なお、演算処理部110における表示制御部111、画像入力部112、操作制御部113、及び演算部114(画像生成部114a、検出部114b、指定部114c、検索部114d)のそれぞれの構成は、CPU(Central Processing Unit)などの制御装置が記憶部120に記憶されている制御プログラム(画像生成プログラム、画像検索プログラム)に従って実行する処理又は制御に相当する。   The configuration of the display control unit 111, the image input unit 112, the operation control unit 113, and the calculation unit 114 (the image generation unit 114a, the detection unit 114b, the specification unit 114c, and the search unit 114d) in the calculation processing unit 110 is as follows. This corresponds to processing or control executed by a control device such as a CPU (Central Processing Unit) in accordance with a control program (image generation program, image search program) stored in the storage unit 120.

記憶部120には、RAWデータ及び画像データ(付随情報)を記憶するための画像データ記憶領域が形成されている。また、記憶部120には、表示制御部111による画像検索画面などの表示に必要な各種情報が記憶されている。また、記憶部120には、上記したように、演算処理部110における表示制御部111、画像入力部112、操作制御部113、及び演算部114の処理を実行させるための制御プログラム(画像生成プログラム、画像検索プログラム)なども記憶されている。   In the storage unit 120, an image data storage area for storing RAW data and image data (accompanying information) is formed. In addition, the storage unit 120 stores various information necessary for display such as an image search screen by the display control unit 111. Further, as described above, the storage unit 120 has a control program (image generation program) for executing the processing of the display control unit 111, the image input unit 112, the operation control unit 113, and the calculation unit 114 in the calculation processing unit 110. , Image search program) and the like are also stored.

次に、図1に示したライトフィールドカメラ1の構成について説明する。図2は、撮像装置の一例であるライトフィールドカメラ1における光学系部分の概略構成を示す断面図である。なお、図2において、紙面の右方向(光軸方向)をX軸とし、X軸と直交する紙面の上方向をZ軸とし、X軸及びZ軸と直交する紙面の裏から表に向かう方向をY軸としている。また、図2は、ライトフィールドカメラ1における光学系部分を光軸を含む面で切断したときの断面図である。   Next, the configuration of the light field camera 1 shown in FIG. 1 will be described. FIG. 2 is a cross-sectional view illustrating a schematic configuration of an optical system portion in a light field camera 1 which is an example of an imaging apparatus. In FIG. 2, the right direction (optical axis direction) of the paper surface is the X axis, the upward direction of the paper surface orthogonal to the X axis is the Z axis, and the direction from the back of the paper surface orthogonal to the X axis and the Z axis is the direction from the back. Is the Y axis. FIG. 2 is a cross-sectional view when the optical system portion in the light field camera 1 is cut along a plane including the optical axis.

なお、ライトフィールドカメラ1の代表的な機能としては、撮影後の後処理によって焦点距離を変更した画像を生成するリフォーカス機能がある。従って、ライトフィールドカメラ1はリフォーカスカメラとも呼ばれる。   A typical function of the light field camera 1 is a refocus function for generating an image whose focal length is changed by post-processing after shooting. Therefore, the light field camera 1 is also called a refocus camera.

本実施形態のライトフィールドカメラ1は、その光学系部分として、撮影光学系(結像光学系)11及びマイクロレンズアレイ12を備えている。なお、図2には、ライトフィールドカメラ1における光学系部分以外の構成である撮像素子20についても示している。   The light field camera 1 of the present embodiment includes a photographing optical system (imaging optical system) 11 and a microlens array 12 as its optical system part. FIG. 2 also shows the image sensor 20 that is a configuration other than the optical system portion in the light field camera 1.

撮影光学系11は、複数のレンズ群で構成される単焦点レンズである。撮影光学系11は、被写体からの光束をその焦点面(結像面)近傍に結像する。また、撮影光学系11は、撮影時に絞り値(F値)を制御する開口絞り(不図示)を備えている。なお、絞り値は撮影後の画像の再構成によって変更することができるため、開口絞りの開口径は固定でもよい。図2に示すように、撮影光学系11の焦点面近傍にマイクロレンズアレイ12と撮像素子20とが順に配置されている。   The photographing optical system 11 is a single focus lens composed of a plurality of lens groups. The photographing optical system 11 forms an image of a light beam from the subject in the vicinity of its focal plane (imaging plane). Further, the photographing optical system 11 includes an aperture stop (not shown) that controls an aperture value (F value) during photographing. Since the aperture value can be changed by reconstructing the image after shooting, the aperture diameter of the aperture stop may be fixed. As shown in FIG. 2, a microlens array 12 and an image sensor 20 are sequentially arranged near the focal plane of the photographing optical system 11.

マイクロレンズアレイ12は、正のパワーを有した複数のマイクロレンズ(正レンズ)が二次元状に配置された構成となっている。なお、図2に示すマイクロレンズアレイ12においては、3つのマイクロレンズだけがZ軸方向に配されているが、実際はZ軸方向及びY軸方向に多数のマイクロレンズが配されている。   The microlens array 12 has a configuration in which a plurality of microlenses (positive lenses) having positive power are two-dimensionally arranged. In the microlens array 12 shown in FIG. 2, only three microlenses are arranged in the Z-axis direction, but actually, a large number of microlenses are arranged in the Z-axis direction and the Y-axis direction.

撮像素子20は、マイクロレンズアレイ12の後側(撮影光学系11の反対側)に若干の間隔をおいて配置されている。この撮像素子20は、マイクロレンズアレイ12の各マイクロレンズを通過した光束を複数の光電変換素子で受光し、各々の光電変換素子が受光した光束を光電変換して複数の画素信号を生成する。複数の光電変換素子はマトリックス状に配列され、各々の光電変換素子が画素を形成する。本実施形態では、撮像素子20は、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)などの二次元固体撮像素子で構成されている。   The image pickup device 20 is disposed on the rear side of the microlens array 12 (opposite side of the photographing optical system 11) with a slight gap. The image sensor 20 receives light beams that have passed through the microlenses of the microlens array 12 by a plurality of photoelectric conversion elements, and photoelectrically converts the light beams received by the photoelectric conversion elements to generate a plurality of pixel signals. The plurality of photoelectric conversion elements are arranged in a matrix, and each photoelectric conversion element forms a pixel. In the present embodiment, the image sensor 20 is constituted by a two-dimensional solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor).

図2の部分拡大図に示す例では、複数のマイクロレンズ12a,12b,12cの各々の後側に複数個ずつ画素が配列されている。具体的には、マイクロレンズ12aの後側に3つの画素21a,21b,21cが配列され、マイクロレンズ12bの後側に3つの画素22a,22b,22cが配列され、マイクロレンズ12cの後側に3つの画素23a,23b,23cが配列されている。   In the example shown in the partially enlarged view of FIG. 2, a plurality of pixels are arranged on the rear side of each of the plurality of microlenses 12a, 12b, and 12c. Specifically, three pixels 21a, 21b, 21c are arranged on the rear side of the micro lens 12a, three pixels 22a, 22b, 22c are arranged on the rear side of the micro lens 12b, and on the rear side of the micro lens 12c. Three pixels 23a, 23b, and 23c are arranged.

3つの画素21a,21b,21cがマイクロレンズ12aに対応する画素21であり、3つの画素22a,22b,22cがマイクロレンズ12bに対応する画素22であり、3つの画素23a,23b,23cがマイクロレンズ12cに対応する画素23である。なお、図2の部分拡大図では、各マイクロレンズ12a,12b,12cに対応する画素として3つの画素を示しているが、実際はZ軸方向及びY軸方向に多数の画素が配列されている(後述する図3参照)。   Three pixels 21a, 21b, and 21c are pixels 21 corresponding to the microlens 12a, three pixels 22a, 22b, and 22c are pixels 22 corresponding to the microlens 12b, and three pixels 23a, 23b, and 23c are microscopic. This is a pixel 23 corresponding to the lens 12c. In the partially enlarged view of FIG. 2, three pixels are shown as the pixels corresponding to the microlenses 12a, 12b, and 12c, but in reality, a large number of pixels are arranged in the Z-axis direction and the Y-axis direction ( (See FIG. 3 described later).

次に、図2を参照してライトフィールドカメラ1によるライトフィールドの取得について簡単に説明する。図2において、Aの位置にある被写体が撮影光学系11によってマイクロレンズアレイ12の位置に焦点を結ぶものとする。被写体上の点A1からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12aを通過して撮像素子20の画素21cで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12aを通過して撮像素子20の画素21bで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12aを通過して撮像素子20の画素21aで受光される。   Next, acquisition of a light field by the light field camera 1 will be briefly described with reference to FIG. In FIG. 2, it is assumed that the subject at the position A focuses on the position of the microlens array 12 by the photographing optical system 11. The light beam from the point A1 on the subject passes through the partial region 11a on the pupil of the photographing optical system 11, passes through the microlens 12a, and is received by the pixel 21c of the image sensor 20. Further, another light ray from the point A1 on the subject passes through the partial region 11b on the pupil of the photographing optical system 11, passes through the microlens 12a, and is received by the pixel 21b of the imaging device 20. Further, another light ray from the point A1 on the subject passes through the partial region 11c on the pupil of the photographing optical system 11, passes through the microlens 12a, and is received by the pixel 21a of the imaging device 20.

同様に、被写体上の点A2からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12bを通過して撮像素子20の画素22cで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12bを通過して撮像素子20の画素22bで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12bを通過して撮像素子20の画素22aで受光される。   Similarly, the light beam from the point A2 on the subject passes through the partial area 11a on the pupil of the photographing optical system 11, passes through the microlens 12b, and is received by the pixel 22c of the image sensor 20. Further, another ray from the point A2 on the subject passes through the partial region 11b on the pupil of the photographing optical system 11, passes through the microlens 12b, and is received by the pixel 22b of the image sensor 20. Further, another light ray from the point A2 on the subject passes through the partial region 11c on the pupil of the photographing optical system 11, passes through the microlens 12b, and is received by the pixel 22a of the imaging device 20.

さらに、被写体上の点A3からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12cを通過して撮像素子20の画素23cで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12cを通過して撮像素子20の画素23bで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12cを通過して撮像素子20の画素23aで受光される。このように、Aの位置にある被写体からの光線は、マイクロレンズ12a,12b,12cの後側に位置する撮像素子20の画素で受光されることによって明るさと進行方向とが光線情報として取得される。   Further, the light beam from the point A3 on the subject passes through the partial area 11a on the pupil of the photographing optical system 11, passes through the microlens 12c, and is received by the pixel 23c of the image sensor 20. Further, another light ray from the point A3 on the subject passes through the partial region 11b on the pupil of the photographing optical system 11, passes through the microlens 12c, and is received by the pixel 23b of the image sensor 20. Further, another light ray from the point A3 on the subject passes through the partial region 11c on the pupil of the photographing optical system 11, passes through the microlens 12c, and is received by the pixel 23a of the image sensor 20. As described above, the light beam from the subject at the position A is received by the pixels of the image sensor 20 located on the rear side of the microlenses 12a, 12b, and 12c, whereby the brightness and the traveling direction are acquired as light beam information. The

マイクロレンズ12a,12b,12cそれぞれに対応する3つの画素のうち、下側の画素21c,22c,23cの画素信号で生成される画像は、部分領域11aを通過した光線による像である。また、真中の画素21b,22b,23bの画素信号で生成される画像は、部分領域11bを通過した光線による像である。また、上側の画素21a,22a,23aの画素信号で生成される画像は、部分領域11cを通過した光線による像である。例えば各マイクロレンズに対応する画素数がN個である場合、マイクロレンズに対して同じ位置にある画素の画素値を配列して構成されるN個の再構成画像は、撮影光学系11をN個の部分領域に分割して取得されるN個のステレオ画像群を形成する。   Of the three pixels corresponding to the microlenses 12a, 12b, and 12c, the image generated by the pixel signals of the lower pixels 21c, 22c, and 23c is an image of light rays that have passed through the partial region 11a. In addition, the image generated by the pixel signals of the middle pixels 21b, 22b, and 23b is an image of light rays that have passed through the partial region 11b. Further, the image generated by the pixel signals of the upper pixels 21a, 22a, and 23a is an image of light rays that have passed through the partial region 11c. For example, when the number of pixels corresponding to each microlens is N, N reconstructed images configured by arranging pixel values of pixels located at the same position with respect to the microlens are configured to capture the photographing optical system 11 as N. N stereo image groups acquired by dividing into partial regions are formed.

図3は、撮像素子20の画素配列と入射領域とを説明する図である。なお、図3では図2のX軸方向から撮像素子20を観察した様子を示す。図3に示す撮像素子20において、画素が配列された領域を画素領域200という。画素領域200には例えば1000万個以上もの画素がマトリックス状に配列されている。画素領域200における円形の領域は、1つのマイクロレンズを通過した光線が入射する領域である。従って、円形の領域は、複数のマイクロレンズごとに複数形成される。これらの領域を入射領域201,202・・・という。なお、マイクロレンズは例えば586×440個配置される。ただし、このような配置数は一例であって、これよりも多い数でも少ない数でもよい。図3に示す例では、1つのマイクロレンズの直径は13画素分となっている。ただし、このような画素数分に限定されるわけではない。   FIG. 3 is a diagram for explaining the pixel array and the incident region of the image sensor 20. 3 shows a state where the image sensor 20 is observed from the X-axis direction of FIG. In the image sensor 20 shown in FIG. 3, a region where pixels are arranged is referred to as a pixel region 200. In the pixel region 200, for example, 10 million or more pixels are arranged in a matrix. The circular area in the pixel area 200 is an area where light rays that have passed through one microlens are incident. Accordingly, a plurality of circular regions are formed for each of the plurality of microlenses. These regions are referred to as incident regions 201, 202. For example, 586 × 440 microlenses are arranged. However, such an arrangement number is an example, and a larger or smaller number may be used. In the example shown in FIG. 3, the diameter of one microlens is 13 pixels. However, the number of pixels is not limited to this.

上述したように、ライトフィールドカメラ1は、すべてのマイクロレンズから入射領域における同じ位置(入射領域内におけるY軸方向及びZ軸方向の同じ位置)にある画素の画素値を抽出して再構成する。このようにして得られた再構成画像群は、撮影光学系11の異なる部分領域から被写体を観察した画像群に相当する。従って、これらの再構成画像群においては、部分領域の位置と被写体までの距離に応じた視差を有する。例えば、図3に示すように、入射領域201における画素201aと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像と、入射領域201における画素201bと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像とで視差を有する。   As described above, the light field camera 1 extracts and reconstructs pixel values of pixels at the same position in the incident area (the same position in the Y-axis direction and the Z-axis direction in the incident area) from all the microlenses. . The reconstructed image group obtained in this way corresponds to an image group in which a subject is observed from different partial areas of the photographing optical system 11. Therefore, these reconstructed image groups have parallax according to the position of the partial region and the distance to the subject. For example, as shown in FIG. 3, a reconstructed image composed of pixel values of pixels of each microlens located at the same position as the pixel 201a in the incident area 201 and each micro located at the same position as the pixel 201b in the incident area 201 It has parallax with the reconstructed image composed of pixel values of the lens pixels.

図4は、ライトフィールドカメラ1の構成を示すブロック図である。図4に示すライトフィールドカメラ1は、撮像部10、画像処理部30、ワークメモリ40、表示部50、操作部55、記録部60、及びシステム制御部70を備える。撮像部10は、撮影光学系11、マイクロレンズアレイ12、駆動制御部13、撮像素子20、及び駆動部21を有している。撮影光学系11及びマイクロレンズアレイ12は、図2において説明したため、図4においては説明を省略する。   FIG. 4 is a block diagram showing a configuration of the light field camera 1. The light field camera 1 illustrated in FIG. 4 includes an imaging unit 10, an image processing unit 30, a work memory 40, a display unit 50, an operation unit 55, a recording unit 60, and a system control unit 70. The imaging unit 10 includes a photographing optical system 11, a microlens array 12, a drive control unit 13, an imaging element 20, and a drive unit 21. Since the photographing optical system 11 and the microlens array 12 have been described with reference to FIG. 2, description thereof is omitted in FIG.

撮像素子20の撮像面には、例えばベイヤー配列のカラーフィルタアレイが配置されている。撮像素子20は、撮影光学系11及びマイクロレンズアレイ12を通過した光束を入射する。撮像素子20は、入射した光束を光電変換してアナログ信号の各画素の画素信号を生成する。撮像部10において、不図示のアンプがアナログ信号の各画素の画素信号を所定の利得率(増幅率)で増幅する。また、不図示のA/D変換部がアンプにより増幅されたアナログ信号の各画素の画素信号をデジタル信号の各画素の画素信号に変換する。そして、撮像部10は、デジタル信号の各画素の画素信号からなるRAWデータを画像処理部30に出力する。上記したライトフィールドカメラ1が取得する光線情報は、撮像部10から出力されるRAWデータで特定される。   For example, a Bayer array color filter array is disposed on the imaging surface of the imaging element 20. The image sensor 20 makes the light beam that has passed through the photographing optical system 11 and the microlens array 12 enter. The image sensor 20 photoelectrically converts an incident light beam to generate a pixel signal of each pixel of an analog signal. In the imaging unit 10, an amplifier (not shown) amplifies the pixel signal of each pixel of the analog signal with a predetermined gain factor (amplification factor). Further, an A / D converter (not shown) converts the pixel signal of each pixel of the analog signal amplified by the amplifier into the pixel signal of each pixel of the digital signal. Then, the imaging unit 10 outputs RAW data including pixel signals of each pixel of the digital signal to the image processing unit 30. The light ray information acquired by the light field camera 1 is specified by RAW data output from the imaging unit 10.

駆動制御部13は、撮影光学系11が備える開口絞りの開口径調節を行うために、システム制御部70から送信される制御情報に基づいて開口絞りの駆動制御を実行する。駆動部21は、システム制御部70からの指示信号に基づいて設定される撮像条件で撮像素子20の駆動を制御する制御回路である。撮像条件としては、例えば、露光時間(シャッター速度)、フレームレート、ゲインなどがあげられる。   The drive control unit 13 performs aperture stop drive control based on control information transmitted from the system control unit 70 in order to adjust the aperture diameter of the aperture stop included in the photographing optical system 11. The drive unit 21 is a control circuit that controls driving of the image sensor 20 under imaging conditions set based on an instruction signal from the system control unit 70. Examples of imaging conditions include exposure time (shutter speed), frame rate, gain, and the like.

ここで、露光時間とは、撮像素子20の光電変換素子が入射光に応じた電荷の蓄積を開始してから終了するまでの時間のことをいう。また、フレームレートとは、動画において単位時間あたりに処理(表示又は記録)されるフレーム数を表す値のことをいう。フレームレートの単位はfps(Frames Per Second)で表される。また、ゲインとは、画素信号を増幅するアンプの利得率(増幅率)のことをいう。このゲインを変更することにより、ISO感度を変更することができる。このISO感度は、ISOで策定された写真フィルムの規格であり、写真フィルムがどの程度弱い光まで記録することができるかを表す。ただし、一般に、撮像素子20の感度を表現する場合もISO感度が用いられる。この場合、ISO感度は撮像素子20が光をとらえる能力を表す値となる。   Here, the exposure time refers to the time from when the photoelectric conversion element of the image sensor 20 starts to accumulate after the start of charge accumulation according to incident light. The frame rate is a value representing the number of frames processed (displayed or recorded) per unit time in a moving image. The unit of the frame rate is represented by fps (Frames Per Second). The gain refers to a gain factor (amplification factor) of an amplifier that amplifies the pixel signal. By changing this gain, the ISO sensitivity can be changed. This ISO sensitivity is a photographic film standard established by ISO and represents how much light the photographic film can record. However, generally, ISO sensitivity is also used when expressing the sensitivity of the image sensor 20. In this case, the ISO sensitivity is a value representing the ability of the image sensor 20 to capture light.

画像処理部30は、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。画像処理部30が生成する画像データには、静止画、動画、ライブビュー画像の画像データが含まれる。ライブビュー画像は、画像処理部30で生成された画像データを表示部50に順次出力して表示部50に表示される画像である。ライブビュー画像は、撮像部10により撮像されている被写体の画像を使用者が確認するために用いられる。ライブビュー画像は、スルー画やプレビュー画像とも呼ばれる。   The image processing unit 30 performs various kinds of image processing on the RAW data including the pixel signal of each pixel, and generates image data in a predetermined file format (for example, JPEG format). The image data generated by the image processing unit 30 includes image data of still images, moving images, and live view images. The live view image is an image displayed on the display unit 50 by sequentially outputting the image data generated by the image processing unit 30 to the display unit 50. The live view image is used for the user to confirm the image of the subject imaged by the imaging unit 10. The live view image is also called a through image or a preview image.

画像処理部30は、ワークメモリ40をワークスペースとして、各画素の画素信号からなるRAWデータに対して所定の画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。具体的には、画像処理部30は、次に示す画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。   The image processing unit 30 uses the work memory 40 as a work space to generate image data set at an arbitrary focal length by performing predetermined image processing on RAW data composed of pixel signals of each pixel. Specifically, the image processing unit 30 generates image data set at an arbitrary focal length by performing the following image processing.

図5は、画像の再構成を説明する図である。図5に示すように、画像処理部30は、画素領域200における各入射領域201,202・・・に対して同じ位置にある画素201a,202a・・・の画素値(画素信号が示す値)を抽出する。画像処理部30は、抽出した画素値を並べ直して再構成画像データ400aを生成する。各入射領域201,202・・・に対応する画素数がN個である場合、N個の再構成画像データが生成される。   FIG. 5 is a diagram illustrating image reconstruction. As shown in FIG. 5, the image processing unit 30 has pixel values (values indicated by pixel signals) of the pixels 201a, 202a... At the same position with respect to the respective incident areas 201, 202. To extract. The image processing unit 30 rearranges the extracted pixel values to generate reconstructed image data 400a. When the number of pixels corresponding to each of the incident areas 201, 202... Is N, N reconstructed image data are generated.

画像処理部30は、N個の再構成画像データ群を所定の焦点距離に合わせて所定量だけ平行移動させる。そして、画像処理部30は、平行移動後のN個の再構成画像データ群を加算平均する。これにより、所定の焦点距離に設定された画像データが生成される。移動量に応じた奥行きに存在する被写体は像の位置が合うのでシャープな輪郭の像が形成される。移動量に応じた奥行きに存在しない被写体の像はぼける。なお、上記した画像処理は一例であって、画像処理部30は上記した画像処理とは異なる画像処理を実行することにより、任意の焦点距離に設定された画像データを生成してもよい。例えば、画像処理部30は、撮像素子20の各画素が取得する光線を所定の演算を行うことによって算出する。そして、画像処理部30は、算出した光線を所定の焦点距離に設定した仮想的な画像面に投影することにより、所定の焦点距離に設定された画像データを生成する。   The image processing unit 30 translates the N reconstructed image data groups by a predetermined amount in accordance with a predetermined focal length. Then, the image processing unit 30 adds and averages the N reconstructed image data groups after the parallel movement. Thereby, image data set to a predetermined focal length is generated. Since the image of the subject existing at a depth corresponding to the amount of movement is aligned, a sharp contour image is formed. An image of a subject that does not exist at a depth corresponding to the amount of movement is blurred. The image processing described above is an example, and the image processing unit 30 may generate image data set at an arbitrary focal length by executing image processing different from the image processing described above. For example, the image processing unit 30 calculates a light beam acquired by each pixel of the image sensor 20 by performing a predetermined calculation. Then, the image processing unit 30 generates image data set to a predetermined focal length by projecting the calculated light beam onto a virtual image plane set to a predetermined focal length.

本実施形態においては、画像処理部30は、最も手前の被写体に合焦した画像データ、最も奥の被写体に合焦した画像データ、中間位置の被写体に合焦した画像データなど、焦点位置(焦点距離)が異なる複数の画像データを生成する。   In the present embodiment, the image processing unit 30 has a focal position (focal point) such as image data focused on the foremost subject, image data focused on the farthest subject, and image data focused on a subject at an intermediate position. A plurality of image data having different distances are generated.

画像処理部30は、ワークメモリ40をワークスペースとして、任意の焦点に設定された画像データに対して種々の画像処理を施す。例えば、画像処理部30は、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像データを生成する。また、画像処理部30は、RGB画像データに対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を行う。また、画像処理部30は、必要に応じて、所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理を行う。画像処理部30は、生成した画像データを記録部60に出力する。また、画像処理部30は、生成した画像データを表示部50に出力する。   The image processing unit 30 performs various types of image processing on image data set at an arbitrary focus using the work memory 40 as a work space. For example, the image processing unit 30 generates RGB image data by performing color signal processing (tone correction) on a signal obtained by the Bayer array. The image processing unit 30 performs image processing such as white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the RGB image data. Further, the image processing unit 30 performs a process of compressing in a predetermined compression format (JPEG format, MPEG format, etc.) as necessary. The image processing unit 30 outputs the generated image data to the recording unit 60. In addition, the image processing unit 30 outputs the generated image data to the display unit 50.

ワークメモリ40は、画像処理部30による画像処理が行われる際にRAWデータや画像データなどを一時的に記憶する。表示部50は、撮像部10で撮像された画像や各種情報を表示する。この表示部50は、例えば液晶表示パネルなどで構成された表示画面51を有している。なお、表示部50に表示される画像には、静止画、動画、ライブビュー画像が含まれる。   The work memory 40 temporarily stores RAW data, image data, and the like when image processing by the image processing unit 30 is performed. The display unit 50 displays an image captured by the imaging unit 10 and various information. The display unit 50 includes a display screen 51 configured by, for example, a liquid crystal display panel. The image displayed on the display unit 50 includes a still image, a moving image, and a live view image.

操作部55は、使用者によって操作されるレリーズスイッチ(静止画の撮影時に押されるスイッチ)、動画スイッチ(動画の撮影時に押されるスイッチ)、各種の操作スイッチなどである。この操作部55は、使用者による操作に応じた信号をシステム制御部70に出力する。記録部60は、メモリカードなどの記憶媒体を装着可能なカードスロットを有する。記録部60は、カードスロットに装着された記録媒体に画像処理部30において生成された画像データや各種データを記憶する。また、記録部60は、内部メモリを有する。記録部60は、画像処理部30において生成された画像データや各種データを内部メモリに記録することも可能である。   The operation unit 55 includes a release switch (a switch that is pressed when shooting a still image), a moving image switch (a switch that is pressed when shooting a moving image), various operation switches, and the like that are operated by the user. The operation unit 55 outputs a signal corresponding to the operation by the user to the system control unit 70. The recording unit 60 has a card slot into which a storage medium such as a memory card can be mounted. The recording unit 60 stores the image data and various data generated by the image processing unit 30 in a recording medium mounted in the card slot. The recording unit 60 has an internal memory. The recording unit 60 can also record the image data and various data generated by the image processing unit 30 in the internal memory.

システム制御部70は、ライトフィールドカメラ1の全体の処理及び動作を制御する。このシステム制御部70はCPU(Central Processing Unit)を有する。システム制御部70は、画像処理部30で生成された画像データを表示部50に出力させて、表示部50の表示画面51に画像(ライブビュー画像、静止画、動画)を表示させる制御を行う。また、システム制御部70は、記録部60に記録されている画像データを読み出して表示部50に出力させ、表示部50の表示画面51に画像を表示させる制御を行う。   The system control unit 70 controls the overall processing and operation of the light field camera 1. The system control unit 70 has a CPU (Central Processing Unit). The system control unit 70 performs control to output the image data generated by the image processing unit 30 to the display unit 50 and display an image (live view image, still image, moving image) on the display screen 51 of the display unit 50. . Further, the system control unit 70 performs control to read out the image data recorded in the recording unit 60 and output the image data to the display unit 50 and display an image on the display screen 51 of the display unit 50.

また、システム制御部70は、撮像素子20の撮像面(画素領域200)において所定の撮像条件(露光時間、フレームレート、ゲインなど)で撮像を行わせるために、所定の撮像条件を指示する指示信号を駆動部21に対して出力する。また、システム制御部70は、画像処理部30に所定の制御パラメータ(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行させるために、制御パラメータを指示する指示信号を画像処理部30に出力する。また、システム制御部70は、RAWデータを記録部60に出力させて、記録部60にRAWデータを記録させる制御を行う。また、システム制御部70は、画像処理部30で生成された画像データを記録部60に出力させて、記録部60に画像データを記録させる制御を行う。なお、システム制御部70は、上記の制御の他に、撮影光学系11に備えられた開口絞りの開口径調節などの制御も行う。   In addition, the system control unit 70 instructs the predetermined imaging conditions in order to perform imaging with predetermined imaging conditions (exposure time, frame rate, gain, etc.) on the imaging surface (pixel area 200) of the imaging device 20. A signal is output to the drive unit 21. The system control unit 70 also instructs the image processing unit 30 to execute image processing with predetermined control parameters (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate). The instruction signal is output to the image processing unit 30. Further, the system control unit 70 performs control to output the RAW data to the recording unit 60 and cause the recording unit 60 to record the RAW data. Further, the system control unit 70 controls the recording unit 60 to record the image data by causing the recording unit 60 to output the image data generated by the image processing unit 30. In addition to the above control, the system control unit 70 also performs control such as adjustment of the aperture diameter of the aperture stop provided in the photographing optical system 11.

次に、画像検索・生成装置101における演算処理部110の演算部114が実行する画像処理について説明する。図6は、図1に示す演算部114が実行する画像処理を説明するためのフローチャートである。なお、ライトフィールドカメラ1が画像検索・生成装置101に接続されることにより、ライトフィールドカメラ1の記録部60に記録されたRAWデータがライトフィールドカメラ1に出力され、画像入力部112を介して記憶部120の画像データ記憶領域に記憶される。   Next, image processing executed by the calculation unit 114 of the calculation processing unit 110 in the image search / generation apparatus 101 will be described. FIG. 6 is a flowchart for explaining the image processing executed by the calculation unit 114 shown in FIG. When the light field camera 1 is connected to the image search / generation device 101, the RAW data recorded in the recording unit 60 of the light field camera 1 is output to the light field camera 1 via the image input unit 112. It is stored in the image data storage area of the storage unit 120.

図6に示す処理において、演算部114の画像生成部114aは、記憶部120の画像データ記憶領域に記憶されたRAWデータを取得する(ステップS1)。そして、画像生成部114aは、取得したRAWデータに基づいて所定の合焦位置(焦点距離、焦点位置)の画像データを生成する(ステップS2)。ここで、画像生成部114aは、画像処理部30がRAWデータに基づいて画像データを生成する方法(図5参照)と同様の方法を用いて、所定の合焦位置の画像データを生成する。   In the process shown in FIG. 6, the image generation unit 114a of the calculation unit 114 acquires the RAW data stored in the image data storage area of the storage unit 120 (step S1). Then, the image generation unit 114a generates image data of a predetermined in-focus position (focal length, focal position) based on the acquired RAW data (Step S2). Here, the image generation unit 114a generates image data at a predetermined in-focus position using a method similar to the method in which the image processing unit 30 generates image data based on the RAW data (see FIG. 5).

具体的には、上述したように、画像生成部114aは、図5で説明したように、画素領域200における各入射領域に対して同じ位置にある画素の画素値を抽出し、抽出した画素値を再構成して複数個の再構成画像データ群を生成する。そして、画像生成部114aは、複数個の再構成画像データ群を所定の合焦位置に合わせて平行移動させ、平行移動後の複数個の再構成画像データ群を加算平均する。これにより、所定の合焦位置に設定された画像データが生成される。ステップS2において、画像生成部114aは、すべての被写体に対して合焦したパンフォーカスの画像データを生成する。また、ステップS2で生成される画像データは、静止画、動画、ライブビュー画像の画像データが含まれる。   Specifically, as described above, the image generation unit 114a extracts the pixel value of the pixel located at the same position with respect to each incident region in the pixel region 200 as described in FIG. Are reconstructed to generate a plurality of reconstructed image data groups. Then, the image generation unit 114a translates the plurality of reconstructed image data groups according to a predetermined focus position, and adds and averages the plurality of reconstructed image data groups after the parallel movement. As a result, image data set at a predetermined in-focus position is generated. In step S2, the image generation unit 114a generates pan-focus image data focused on all subjects. The image data generated in step S2 includes still image data, moving image data, and live view image data.

図7は、ライトフィールドカメラ1と各被写体O1〜O4との距離関係を示す図である。図7に示す例では、ライトフィールドカメラ1はカメラ位置d0に位置している。また、被写体である人物O1は合焦位置d1に位置している。また、被写体である人物O2は合焦位置d2に位置し、被写体である木O3は合焦位置d3に位置し、被写体である家O4は合焦位置d4に位置している。なお、図7において、ライトフィールドカメラ1から被写体O1〜O4に向かう方向(矢印の方向)を奥側の方向といい、その反対側の方向を手前側の方向をいう。また、奥側の方向及び手前側の方向を奥行き方向という。画像生成部114aは、ステップS2において、例えば各合焦位置d1〜d4における4つの画像データを生成する。   FIG. 7 is a diagram illustrating a distance relationship between the light field camera 1 and each of the subjects O1 to O4. In the example shown in FIG. 7, the light field camera 1 is located at the camera position d0. In addition, the person O1 who is the subject is located at the in-focus position d1. In addition, the person O2 as the subject is located at the focusing position d2, the tree O3 as the subject is located at the focusing position d3, and the house O4 as the subject is located at the focusing position d4. In FIG. 7, the direction from the light field camera 1 toward the subjects O1 to O4 (the direction of the arrow) is referred to as the back side direction, and the opposite direction is referred to as the near side direction. The direction on the back side and the direction on the near side are referred to as the depth direction. In step S2, the image generation unit 114a generates, for example, four image data at the in-focus positions d1 to d4.

次に、画像生成部114aは、ステップS2で生成した所定の合焦位置の画像データに対して、色信号処理(色調補正)、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの各種画像処理を実行する(ステップS3)。なお、画像生成部114aにより実行される各種画像処理は、上述した画像処理部30により実行される各種画像処理と同様である。   Next, the image generation unit 114a performs various processes such as color signal processing (color tone correction), white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the image data at the predetermined in-focus position generated in step S2. Image processing is executed (step S3). The various image processes executed by the image generation unit 114a are the same as the various image processes executed by the image processing unit 30 described above.

また、検出部114bは、生成した画像データ(例えばパンフォーカスの画像データ)から1つ又は複数の被写体を検出する(ステップS4)。本実施形態では、検出部114bは、人物の被写体に対しては、公知の顔検出機能を用いて被写体の検出を行う。また、検出部114bは、人物以外の被写体に対しては、画像データにおける明部と暗部のコントラストや色変化に基づいて被写体の領域の境界を特定して被写体を検出する。なお、検出部114bは、移動する被写体(移動被写体)に対しては、時系列的に得られる複数の画像データを比較して移動被写体を検出してもよい。また、検出部114bは、顔検出に加えて、例えば特開2010−16621号公報(US2010/0002940号)に記載されているように、画像データに含まれる人体を被写体として検出してもよい。   The detecting unit 114b detects one or more subjects from the generated image data (for example, pan focus image data) (step S4). In the present embodiment, the detection unit 114b detects a subject of a human subject using a known face detection function. In addition, for a subject other than a person, the detection unit 114b detects the subject by specifying the boundary of the subject region based on the contrast and color change between the bright and dark portions in the image data. Note that the detection unit 114b may detect a moving subject by comparing a plurality of pieces of image data obtained in time series for a moving subject (moving subject). In addition to the face detection, the detection unit 114b may detect a human body included in the image data as a subject as described in, for example, Japanese Patent Application Laid-Open No. 2010-16621 (US2010 / 0002940).

また、検出部114bは、検出した登録対象の被写体の特徴点を抽出する。そして、検出部114bは、抽出した登録対象の被写体の特徴点と、記憶部120に記憶されている1つ又は複数の画像データに含まれる複数の被写体の特徴点とを順次照合して、検出した登録対象の被写体と同じ被写体を含む画像データが記憶部120内に存在するか否かを判定する(ステップS5)。そして、検出部114bは、その判定結果に基づいて、画像データにEXIF情報を被写体ごとに付加する。   In addition, the detection unit 114b extracts the feature points of the detected subject to be registered. Then, the detection unit 114b sequentially detects the feature points of the registered subject to be registered and the feature points of a plurality of subjects included in one or a plurality of image data stored in the storage unit 120, and detects them. It is determined whether image data including the same subject as the registered subject is present in the storage unit 120 (step S5). Then, the detection unit 114b adds EXIF information to the image data for each subject based on the determination result.

図8は、画像データに付加されるEXIF情報の例を示す図である。なお、図8に示すEXIF情報は、ライトフィールドカメラ1が図7に示す距離関係の被写体O1〜O4を撮像したときのRAWデータに基づいて生成された画像データ(例えばJPEG形式の画像データ)のEXIF情報である。図8に示す例において、検出部114bは、登録対象の被写体O1,O2と同じ被写体を含む画像データが記憶部120内に存在する場合は、登録対象の被写体O1,O2を含む画像データのEXIF情報に、記憶部120内の画像データに付加されているEXIF情報の被写体種別データ(図8中「人物」)及び被写体識別データ(図8中「X、aa」「Y、bb」)と同じデータを被写体O1,O2ごとにそれぞれ付加する。   FIG. 8 is a diagram illustrating an example of EXIF information added to image data. The EXIF information shown in FIG. 8 is image data (for example, JPEG format image data) generated based on RAW data when the light field camera 1 captures the distance-related subjects O1 to O4 shown in FIG. EXIF information. In the example illustrated in FIG. 8, when image data including the same subject as the registration target subjects O1 and O2 exists in the storage unit 120, the detection unit 114b performs EXIF of image data including the registration target subjects O1 and O2. Information is the same as the subject type data (“person” in FIG. 8) and subject identification data (“X, aa”, “Y, bb” in FIG. 8) of the EXIF information added to the image data in the storage unit 120. Data is added to each of the subjects O1 and O2.

ここで、図8の「X」は人物O1の名称(例えば人物O1の名前、愛称)を示し、「aa」は人物O1の特徴点の情報を示す。また、「Y」は人物O2の名称(例えば人物O2の名前、愛称)を示し、「bb」は人物O1の特徴点の情報を示す。   Here, “X” in FIG. 8 indicates the name of the person O1 (for example, the name or nickname of the person O1), and “aa” indicates the feature point information of the person O1. “Y” indicates the name of the person O2 (for example, the name or nickname of the person O2), and “bb” indicates information on the characteristic points of the person O1.

また、図8に示す例において、検出部114bは、登録対象の被写体O3,O4と同じ被写体が記憶部120内に存在しない場合は、登録対象の被写体O3,O4を含む画像データのEXIF情報に新たな被写体種別データ(図8中「木」「家」)及び被写体識別データ(図8中「cc」「dd」)を被写体ごとにそれぞれ付加する。ここで、図8の「cc」は木O3の特徴点の情報を示す。また、「dd」は家O4の特徴点の情報を示す。なお、図8において、木O3及び家O4には名称が付加されていないが、解析部114bは自動的に又は使用者による操作に応じて木O3及び家O4に名称を付加してもよい。   In the example shown in FIG. 8, when the same subject as the registration target subjects O3 and O4 does not exist in the storage unit 120, the detection unit 114b uses the EXIF information of the image data including the registration target subjects O3 and O4. New subject type data (“tree” and “house” in FIG. 8) and subject identification data (“cc” and “dd” in FIG. 8) are added for each subject. Here, “cc” in FIG. 8 indicates feature point information of the tree O3. “Dd” indicates information on the feature point of the house O4. In FIG. 8, no name is added to the tree O3 and the house O4, but the analysis unit 114b may add a name to the tree O3 and the house O4 automatically or according to an operation by the user.

なお、検出部114bは、登録対象の被写体を含む画像データのEXIF情報に、画像データごとの撮影シーンの情報も付加する。解析部114bは、公知のシーン認識技術により撮影シーンを判定し、判定した撮影シーンを画像データにEXIF情報として登録する。図8に示す例では、撮影シーンの情報として「ポートレート」が登録されている。   Note that the detection unit 114b also adds shooting scene information for each image data to the EXIF information of the image data including the subject to be registered. The analysis unit 114b determines a photographic scene using a known scene recognition technique, and registers the determined photographic scene as EXIF information in the image data. In the example illustrated in FIG. 8, “portrait” is registered as information on the shooting scene.

次に、検出部114bは、登録対象の被写体までの距離(合焦位置、焦点距離)を検出する(ステップS6)。例えば、検出部114bは、複数の再構成画像データ(例えば入射領域における2つの特定位置の画素の画素値から構成される再構成画像データ)における各被写体の視差を検出し、検出した視差に基づいて各被写体までの距離を算出する。   Next, the detection unit 114b detects the distance (focus position, focal length) to the subject to be registered (step S6). For example, the detection unit 114b detects the parallax of each subject in a plurality of reconstructed image data (for example, reconstructed image data including pixel values of pixels at two specific positions in the incident region), and based on the detected parallax To calculate the distance to each subject.

図8に示す例では、検出部114bは、ライトフィールドカメラ1から人物O1までの距離をd1と検出し、ライトフィールドカメラ1から人物O2までの距離をd2と検出し、ライトフィールドカメラ1から木O3までの距離をd3と検出し、ライトフィールドカメラ1から家O4までの距離をd4と検出する。検出部114bは、被写体O1〜O4を含む画像データのEXIF情報に、各被写体O1〜O4までの距離を示す距離データを被写体O1〜O4ごとに付加する。その後、演算部114は、RAWデータとともに、EXIF情報が付加された画像データを記憶部120に記憶する(ステップS7)。なお、RAWデータと画像データとは、演算部114により関連付けられて記憶部120に記憶される。   In the example shown in FIG. 8, the detection unit 114b detects the distance from the light field camera 1 to the person O1 as d1, detects the distance from the light field camera 1 to the person O2 as d2, and detects the distance from the light field camera 1 to the tree. The distance to O3 is detected as d3, and the distance from the light field camera 1 to the house O4 is detected as d4. The detection unit 114b adds distance data indicating the distance to each of the subjects O1 to O4 to the EXIF information of the image data including the subjects O1 to O4 for each of the subjects O1 to O4. Thereafter, the arithmetic unit 114 stores the image data to which the EXIF information is added together with the RAW data in the storage unit 120 (step S7). Note that the RAW data and the image data are associated with each other by the calculation unit 114 and stored in the storage unit 120.

次に、第1実施形態に係る演算処理部110による画像検索・生成処理について説明する。図9は、記憶部120に記憶されている画像601〜603の表示例を示す図である。図9(1)に示す画像601には、人物O1と人物O2と木O3と家O4とが写っている。なお、画像601は、ライトフィールドカメラ1が図7に示す距離関係の被写体O1〜O4を撮像したときの画像である。従って、画像601のEXIF情報は図8に示す内容となっている。図9(2)に示す画像602には、人物O1と人物O2と山O5とが写っている。図9(2)に示すように、画像602において、人物O2が最も手前側に位置しており、人物O1は人物O2よりも奥側に位置しており、山O5が最も奥側に位置している。図9(3)に示す画像603には、木O3と山O5とが写っている。図9(3)に示すように、画像603において、木O3が手前側に位置しており、山O5が奥側に位置している。なお、図9(1)及び(2)に示す画像601,602は、撮影シーンが「ポートレート」であり、図9(3)に示す画像603は、撮影シーンが「風景」である。   Next, image search / generation processing by the arithmetic processing unit 110 according to the first embodiment will be described. FIG. 9 is a diagram illustrating a display example of images 601 to 603 stored in the storage unit 120. In the image 601 shown in FIG. 9A, a person O1, a person O2, a tree O3, and a house O4 are shown. Note that the image 601 is an image when the light field camera 1 captures the distance-related subjects O1 to O4 shown in FIG. Therefore, the EXIF information of the image 601 has the contents shown in FIG. In the image 602 shown in FIG. 9B, a person O1, a person O2, and a mountain O5 are shown. As shown in FIG. 9 (2), in the image 602, the person O2 is located on the most front side, the person O1 is located on the back side of the person O2, and the mountain O5 is located on the farthest side. ing. In the image 603 shown in FIG. 9 (3), a tree O3 and a mountain O5 are shown. As shown in FIG. 9 (3), in the image 603, the tree O3 is located on the near side, and the mountain O5 is located on the far side. Note that the images 601 and 602 shown in FIGS. 9A and 9B have the “portrait” shooting scene, and the image 603 shown in FIG. 9C has the “landscape” shooting scene.

図10は、演算処理部110が実行する画像検索・生成処理を説明するためのフローチャートである。図10に示す処理において、使用者によるキーボード103やマウス104の操作に応じて、制御プログラム(例えば画像検索・生成を行うためのアプリケーションソフトウェア)が起動されると、表示制御部111は、画像検索画面を記憶部120から読み出して表示装置102の表示画面500に表示させる(ステップS11)。   FIG. 10 is a flowchart for explaining image search / generation processing executed by the arithmetic processing unit 110. In the processing shown in FIG. 10, when a control program (for example, application software for performing image search / generation) is started in response to a user's operation of the keyboard 103 or the mouse 104, the display control unit 111 performs image search. The screen is read from the storage unit 120 and displayed on the display screen 500 of the display device 102 (step S11).

図11〜図13は、第1実施形態の画像検索画面の表示例を示す図である。表示制御部111は、ステップS11において、図11(1)に示すような画像検索画面を表示装置102の表示画面500に表示する。   11 to 13 are diagrams illustrating display examples of the image search screen according to the first embodiment. In step S <b> 11, the display control unit 111 displays an image search screen as shown in FIG. 11 (1) on the display screen 500 of the display device 102.

次に、表示制御部111は、画像データ(EXIF情報が付加された画像データ)を記憶部120から読み出して取得し、演算部114は、RAWデータ及び画像データ(EXIF情報が付加された画像データ)を記憶部120から読み出して取得する(ステップS12)。図9に示す例では、画像601〜603に対応する画像データが表示制御部111によって読み出され、画像601〜603に対応するRAWデータ及び画像データが演算部114によって読み出される。   Next, the display control unit 111 reads out and acquires image data (image data to which EXIF information is added) from the storage unit 120, and the calculation unit 114 is RAW data and image data (image data to which EXIF information is added). ) Is read from the storage unit 120 and acquired (step S12). In the example illustrated in FIG. 9, image data corresponding to the images 601 to 603 is read by the display control unit 111, and RAW data and image data corresponding to the images 601 to 603 are read by the calculation unit 114.

表示制御部111は、複数の画像データに含まれる複数の被写体を検出し、検出した複数の被写体の画像データ(例えば被写体種別データ、被写体識別データ、距離データが付加された被写体の画像データ)を切り出す。そして、表示制御部111は、切り出した複数の被写体の画像データに基づく画像を、表示装置102の表示画面500の第1表示領域501に一覧表示する(ステップS13)。図11(1)に示す例では、表示制御部111は、複数の画像601〜603に含まれる複数の被写体O1〜O5を検出し、検出した被写体O1〜O5の画像データを切り出す。そして、表示制御部111は、切り出した複数の被写体O1〜O5の画像データに基づく画像を第1表示領域501に一覧表示する。このとき、表示制御部111は、被写体ごとに付加される被写体識別データ(特徴点、名称)に基づいて、複数の画像データに別々に存在する同一の被写体を識別する。そして、表示制御部111は、同一の被写体については1つの画像だけを第1表示領域501に表示する。   The display control unit 111 detects a plurality of subjects included in the plurality of image data, and uses the detected image data of the plurality of subjects (for example, subject image data to which subject type data, subject identification data, and distance data are added). cut. Then, the display control unit 111 displays a list of images based on the extracted image data of the plurality of subjects in the first display area 501 of the display screen 500 of the display device 102 (step S13). In the example illustrated in FIG. 11A, the display control unit 111 detects a plurality of subjects O1 to O5 included in the plurality of images 601 to 603, and cuts out image data of the detected subjects O1 to O5. Then, the display control unit 111 displays a list of images based on the extracted image data of the subjects O1 to O5 in the first display area 501. At this time, the display control unit 111 identifies the same subject that exists separately in the plurality of image data based on subject identification data (feature points, names) added to each subject. Then, the display control unit 111 displays only one image in the first display area 501 for the same subject.

使用者は、検索対象の被写体を指定する場合は、被写体の画像に対してマウス104のドラッグアンドドロップ操作を行うことにより、第1表示領域501に一覧表示されている被写体の画像の中から検索対象の被写体の画像を選択し、選択した被写体の画像を第2表示領域502に移動させる。なお、第2表示領域502は、検索対象の被写体を表示するための表示領域である。   When the user designates the subject to be searched, the user performs a drag-and-drop operation with the mouse 104 on the subject image to search from the subject images listed in the first display area 501. The target subject image is selected, and the selected subject image is moved to the second display area 502. The second display area 502 is a display area for displaying a subject to be searched.

このような使用者によるマウス104の操作に応じて、演算部114の指定部114cは、第2表示領域502に移動された被写体を検索対象の被写体として特定する。具体的には、指定部114cは、操作制御部113からの情報に基づいて、被写体が第2表示領域502に移動されたことを認識する。また、指定部114cは、第2表示領域502に移動された被写体の画像データに付加されている被写体識別データに基づいて被写体を識別する。そして、指定部114cは、識別した被写体の被写体識別データ(特徴点、名称)を検索対象の被写体として指定(設定)する。   In response to such an operation of the mouse 104 by the user, the designation unit 114c of the calculation unit 114 identifies the subject moved to the second display area 502 as a subject to be searched. Specifically, the designation unit 114 c recognizes that the subject has been moved to the second display area 502 based on information from the operation control unit 113. The designation unit 114c identifies the subject based on subject identification data added to the image data of the subject moved to the second display area 502. Then, the designation unit 114c designates (sets) subject identification data (feature point, name) of the identified subject as a subject to be searched.

また、使用者によるマウス104の操作に応じて、表示制御部111は、第1表示領域501に表示されている被写体の画像を第2表示領域502に移動表示させる。図11(2)に示す例では、人物O1の画像と人物O2の画像とが第1表示領域501から第2表示領域502に移動されている。この場合、画像の検索条件として、人物O1及び人物O2の画像を含む画像が指定されたことになる。   In addition, the display control unit 111 moves and displays the subject image displayed in the first display area 501 in the second display area 502 in accordance with the operation of the mouse 104 by the user. In the example shown in FIG. 11B, the image of the person O1 and the image of the person O2 are moved from the first display area 501 to the second display area 502. In this case, an image including the images of the person O1 and the person O2 is designated as the image search condition.

表示制御部111は、検索対象の被写体が指定されたか否か(つまり、被写体の画像が第2表示領域502に移動されたか否か)を判定する(ステップS14)。表示制御部111は、検索対象の被写体が指定されていないと判定した場合は、処理を終了する。一方、表示制御部111は、検索対象の被写体が指定されたと判定した場合は、操作制御部113からの情報に基づいて、画像検索画面の右上に配置されている詳細指定ボタン503が押されたか否か(マウス104でクリックされたか否か)を判定する(ステップS15)。   The display control unit 111 determines whether or not a subject to be searched has been designated (that is, whether or not the subject image has been moved to the second display area 502) (step S14). If the display control unit 111 determines that the subject to be searched is not designated, the display control unit 111 ends the process. On the other hand, if the display control unit 111 determines that the subject to be searched has been specified, based on the information from the operation control unit 113, has the detail specification button 503 arranged at the upper right of the image search screen been pressed? Whether or not (clicked with the mouse 104) is determined (step S15).

表示制御部111は、詳細指定ボタン503が押されたと判定した場合は、図12(3)に示すように、第1表示領域501を消去し、第2表示領域502を拡大し、さらに検索対象の被写体の画像を斜め上から俯瞰したときの俯瞰図300を第2表示領域502に表示する(ステップS16)。図12(3)に示す例では、俯瞰図300上に人物O1及び人物O2の画像が奥行き方向の中心位置付近に並んで表示されている。   If the display control unit 111 determines that the detail designation button 503 has been pressed, the first display area 501 is deleted, the second display area 502 is expanded, and the search target is further displayed, as shown in FIG. Is displayed in the second display area 502 when the image of the subject is viewed from obliquely above (step S16). In the example shown in FIG. 12 (3), images of the person O1 and the person O2 are displayed side by side in the vicinity of the center position in the depth direction on the overhead view 300.

使用者は、画像の検索条件として、複数の検索対象の被写体における奥行き方向の相対位置(ある被写体が他の被写体よりも奥行き方向の手前側か奥側か)を指定することができる。具体的には、使用者は、被写体の画像に対してマウス104のドラッグアンドドロップ操作を行うことにより、俯瞰図300上における複数の検索対象の被写体のいずれか一方又は双方の奥行き方向の位置を移動させる。このような使用者によるマウス104の操作に応じて、表示制御部111は、俯瞰図300上における検索対象の被写体の奥行き方向の表示位置を変更する(ステップS17)。   The user can specify the relative position in the depth direction of a plurality of search target subjects (whether a certain subject is nearer or deeper than the other subjects in the depth direction) as an image search condition. Specifically, the user performs the drag-and-drop operation of the mouse 104 on the subject image to set the position in the depth direction of one or both of the plurality of search target subjects on the overhead view 300. Move. In accordance with such an operation of the mouse 104 by the user, the display control unit 111 changes the display position in the depth direction of the subject to be searched on the overhead view 300 (step S17).

図12(4)に示す例では、使用者によるマウス104の操作によって、人物O1の画像が人物O2の画像よりも奥行き方向の手前側(近距離側)の位置に移動されている。これにより、画像の検索条件として、人物O1及び人物O2の画像を含み、かつ、人物O1の画像が人物O2の画像よりも手前側に位置していることが指定されたことになる。指定部114cは、複数の検索対象の被写体における奥行き方向の相対位置も検索条件として指定(設定)する。   In the example shown in FIG. 12 (4), the image of the person O1 is moved to a position closer to the near side in the depth direction than the image of the person O2 by the operation of the mouse 104 by the user. As a result, it is specified that the image search condition includes the images of the person O1 and the person O2, and that the image of the person O1 is positioned in front of the image of the person O2. The designation unit 114c also designates (sets) the relative position in the depth direction of a plurality of search target subjects as a search condition.

使用者は、画像の検索条件を指定した後に、画像の検索条件に適合した画像の検索を実行する場合は、画像検索画面の右下に配置されている検索ボタン504を押す(マウス104でクリックする)。検索部114dは、操作制御部113からの情報に基づいて、検索ボタン504が押されたか否か(マウス104でクリックされたか否か)を判定する(ステップS18)。なお、使用者は、複数の検索対象の被写体における奥行き方向の位置を元の位置に戻したい場合は、図12(4)に示す画像検索画面の右下に配置されている「元に戻す」ボタン505(検索ボタン504の横に配置されているボタン)をマウス104でクリックする。   When the user searches for an image that matches the image search condition after specifying the image search condition, the user presses the search button 504 arranged in the lower right of the image search screen (clicks with the mouse 104). To do). The search unit 114d determines whether or not the search button 504 has been pressed (whether or not the mouse 104 has been clicked) based on the information from the operation control unit 113 (step S18). When the user wants to return the position in the depth direction of the plurality of search target subjects to the original position, “restore” is arranged at the lower right of the image search screen shown in FIG. A button 505 (a button arranged next to the search button 504) is clicked with the mouse 104.

検索部114dは、検索ボタン504が押されたと判定した場合は、画像検索を実行する(ステップS19)。すなわち、検索部114dは、記憶部120に記憶されている画像データの中から、指定部114cにより指定された検索条件に適合する画像データを検索する。また、画像生成部114aは、検索条件に対応する合焦位置及び被写界深度の範囲の画像データを生成する(ステップS20)。なお、被写界深度とは、焦点が合っているように見える被写体の焦点距離の範囲のことをいう。具体的には、画像生成部114aは、検索条件が人物O1及び人物O2を含むことである場合は、例えば図13(5)に示すように、合焦位置は人物O1の合焦位置d1と人物O2の合焦位置d2との中間の位置dAとし、また被写界深度の範囲が人物O1の合焦位置d1と人物O2の合焦位置d2とを含む範囲(位置d11から位置d12までの範囲)である画像データを生成する。これにより、使用者が確認したい被写体を直ちに表示させることができる。   If the search unit 114d determines that the search button 504 has been pressed, the search unit 114d performs an image search (step S19). That is, the search unit 114d searches the image data stored in the storage unit 120 for image data that meets the search condition specified by the specifying unit 114c. In addition, the image generation unit 114a generates image data in the range of the in-focus position and the depth of field corresponding to the search condition (step S20). Note that the depth of field refers to the range of the focal length of a subject that appears to be in focus. Specifically, when the search condition includes the person O1 and the person O2, the image generation unit 114a sets the in-focus position to the in-focus position d1 of the person O1, for example, as illustrated in FIG. The position dA is an intermediate position between the in-focus position d2 of the person O2, and the range of the depth of field includes the in-focus position d1 of the person O1 and the in-focus position d2 of the person O2 (from the position d11 to the position d12). Range) is generated. As a result, the subject that the user wants to check can be displayed immediately.

そして、表示制御部111は、図13(6)に示すように、検索部114dによる画像検索結果の画像(検索条件に適合する画像データに基づく画像)を、画像検索結果を表示するための第3表示領域506に表示する(ステップS21)。図13(6)に示す例では、画像検索の結果として、図9(1)に示した画像601が表示されている。この画像601は、人物O1及び人物O2の画像を含み、かつ、人物O1の画像が人物O2の画像よりも手前側に位置している画像である。   Then, as shown in FIG. 13 (6), the display control unit 111 displays the image of the image search result by the search unit 114d (the image based on the image data matching the search condition) for displaying the image search result. 3 is displayed in the display area 506 (step S21). In the example shown in FIG. 13 (6), the image 601 shown in FIG. 9 (1) is displayed as a result of the image search. The image 601 includes images of the person O1 and the person O2, and the image of the person O1 is located on the near side of the image of the person O2.

その後、表示制御部111は、使用者によるマウス104の操作によって画像検索結果としての画像が選択されたか否かを判定する(ステップS22)。画像が選択されたと判定した場合は、表示制御部111は、選択された画像を表示画面500に表示する(ステップS23)。   Thereafter, the display control unit 111 determines whether an image as an image search result has been selected by the operation of the mouse 104 by the user (step S22). If it is determined that an image has been selected, the display control unit 111 displays the selected image on the display screen 500 (step S23).

なお、画像生成部114aは、ステップS20において検索条件に応じた合焦位置及び被写界深度の画像データを生成する処理を行わずに、表示制御部111は、所定の合焦位置の画像をサムネイル表示してもよい。そして、画像生成部114aは、ステップS22において使用者により画像が選択されたときに、検索条件に応じた合焦位置及び被写界深度の画像データを生成し、表示制御部111が、その画像データに基づく画像を表示してもよい。なお、サムネイル表示される所定の合焦位置の画像としては、例えば、ステップS12で取得された画像データ(パンフォーカスの画像データ)に基づく画像でもよく、また検索条件で指定された被写体(複数の被写体が指定された場合は複数の被写体のいずれか)に合焦した画像でもよい。   In addition, the image generation unit 114a does not perform the process of generating the image data of the in-focus position and the depth of field according to the search condition in step S20, and the display control unit 111 displays the image at the predetermined in-focus position. Thumbnails may be displayed. Then, when an image is selected by the user in step S22, the image generation unit 114a generates image data of the in-focus position and the depth of field according to the search condition, and the display control unit 111 displays the image. An image based on the data may be displayed. The image displayed at the predetermined focus position displayed as a thumbnail may be, for example, an image based on the image data (pan focus image data) acquired in step S12, or the subject (a plurality of subjects specified by the search condition). When a subject is designated, it may be an image focused on one of a plurality of subjects).

また、画像生成部114aは、検索条件に応じた合焦位置及び被写界深度の画像データとして、検索条件として指定されたすべての被写体の位置が被写界深度の範囲内に含まれる画像データを生成していた。しかし、画像生成部114aは、検索条件として指定された複数の被写体のうちのいずれか1つまたは複数の被写体の位置が被写界深度の範囲内に含まれる画像データを生成してもよい。また、画像生成部114aは、検索条件として指定された複数の被写体のうちの最も手前の被写体に合焦した画像データを生成してもよい。   In addition, the image generation unit 114a, as image data of the in-focus position and the depth of field according to the search condition, includes image data in which the positions of all the subjects specified as the search condition are included within the range of the depth of field. Was generated. However, the image generation unit 114a may generate image data in which the position of any one or a plurality of subjects specified as the search condition is included within the range of the depth of field. The image generation unit 114a may generate image data focused on the foremost subject among the plurality of subjects specified as the search conditions.

また、画像生成部114aは、検索条件に応じた合焦位置及び被写界深度の画像データとして、パンフォーカスの画像を生成してもよい。また、検索部114dが検索条件に適合した画像データを検索することができなかった場合は、検索結果なしであることを報知する表示を行ってもよいし、また検索条件に類似する条件に適合した画像データを画像検索結果として表示してもよい。例えば、複数の被写体が検索条件として指定された場合は、そのうちの1つの被写体を含む画像データを画像検索結果として表示してもよい。   The image generation unit 114a may generate a pan-focus image as the image data of the in-focus position and the depth of field according to the search condition. In addition, when the search unit 114d cannot search for image data that meets the search condition, it may display that there is no search result, or may conform to a condition similar to the search condition. The obtained image data may be displayed as an image search result. For example, when a plurality of subjects are designated as search conditions, image data including one of them may be displayed as an image search result.

以上に説明したように、第1実施形態では、合焦位置を奥行き方向に変更可能な画像データに含まれる被写体を検出するとともに、検出した被写体の奥行き方向の位置を検出する検出部114bと、検索対象の被写体に関する付随情報(例えばEXIF情報)を指定する指定部114cと、指定部114cで指定された付随情報に対応する被写体を検索する検索部114dと、検索部114dで検索された被写体の奥行き方向の位置に応じて所定の合焦位置の画像データを生成する画像生成部114aとを備える。このような構成によれば、合焦位置を奥行き方向に変更可能な画像に適した画像検索を行うことができ、さらに、検索対象の被写体の奥行き方向の位置に応じた合焦位置の画像データを生成することができる。これにより、使用者は、検索結果の画像が表示されたときに検索対象の被写体を直ちに確認することができる。   As described above, in the first embodiment, the detection unit 114b that detects the subject included in the image data whose focus position can be changed in the depth direction and detects the position of the detected subject in the depth direction; A designation unit 114c that designates accompanying information (for example, EXIF information) related to the subject to be searched, a search unit 114d that searches for a subject corresponding to the accompanying information designated by the designation unit 114c, and a subject that has been searched by the search unit 114d An image generation unit 114a that generates image data at a predetermined in-focus position according to the position in the depth direction. According to such a configuration, it is possible to perform an image search suitable for an image whose focus position can be changed in the depth direction, and image data at the focus position corresponding to the position in the depth direction of the subject to be searched. Can be generated. Thus, the user can immediately confirm the subject to be searched when the search result image is displayed.

また、第1実施形態では、指定部114cは、付随情報として奥行き方向の位置を指定可能であり、検索部114dは、指定部114cで指定された位置に対応する被写体を検索する。このような構成によれば、使用者が検索対象の被写体に対して注目して撮影された画像を検索することができる。例えば、最も注目される主要被写体は最も手前に位置していることが多いので、検索対象の被写体が主要被写体となっている画像を検索することができる。   In the first embodiment, the designation unit 114c can designate a position in the depth direction as accompanying information, and the search unit 114d searches for a subject corresponding to the position designated by the designation unit 114c. According to such a configuration, it is possible to search for an image captured by the user paying attention to the subject to be searched. For example, since the main subject that attracts the most attention is often located at the forefront, an image in which the subject to be searched is the main subject can be searched.

また、第1実施形態では、指定部114cは、複数の被写体における奥行き方向の相対位置を指定可能であり、検索部114dは、指定部114cで指定された相対位置に対応する複数の被写体を検索し、画像生成部114aは、検出部114dで検索された複数の被写体のうちの少なくとも一方の奥行き方向の位置に合焦した画像データを生成する。このような構成によれば、より一層、複数の被写体の位置関係に着目した画像検索を行うことができるとともに、その検索結果を反映した画像データを生成することができる。   In the first embodiment, the designation unit 114c can designate the relative positions in the depth direction of a plurality of subjects, and the search unit 114d searches for a plurality of subjects corresponding to the relative positions designated by the designation unit 114c. Then, the image generation unit 114a generates image data focused on the position in the depth direction of at least one of the plurality of subjects searched by the detection unit 114d. According to such a configuration, it is possible to perform an image search paying attention to the positional relationship between a plurality of subjects, and to generate image data reflecting the search results.

また、第1実施形態では、指定部114cは、複数の被写体における奥行き方向の相対位置を指定可能であり、検索部114dは、指定部114cで指定された相対位置に対応する複数の被写体を検索し、画像生成部114aは、検出部114dで検索された複数の被写体の奥行き方向の位置を含む被写界深度の画像データを生成する。このような構成によれば、より一層、複数の被写体の位置関係に着目した画像検索を行うことができるとともに、その検索結果を反映した画像データを生成することができる。   In the first embodiment, the designation unit 114c can designate the relative positions in the depth direction of a plurality of subjects, and the search unit 114d searches for a plurality of subjects corresponding to the relative positions designated by the designation unit 114c. Then, the image generation unit 114a generates image data of the depth of field including the positions in the depth direction of the plurality of subjects searched by the detection unit 114d. According to such a configuration, it is possible to perform an image search paying attention to the positional relationship between a plurality of subjects, and to generate image data reflecting the search results.

また、第1実施形態では、合焦位置を奥行き方向に変更可能な一又は複数の画像データに含まれる被写体を検出するとともに、検出した被写体の奥行き方向の位置を検出する検出部114bと、検索対象の被写体の奥行き方向の位置を指定する指定部114cと、指定部114cで指定された位置に対応する被写体を含む画像データを検索する検索部114dとを備える。このような構成によれば、合焦位置を奥行き方向に変更可能な画像に適した画像検索を行うことができる。また、使用者が検索対象の被写体に対して注目して撮影された画像を検索することができる。   In the first embodiment, the detection unit 114b detects a subject included in one or a plurality of image data whose focus position can be changed in the depth direction, and detects the position of the detected subject in the depth direction. A designation unit 114c that designates the position of the target subject in the depth direction and a search unit 114d that retrieves image data including the subject corresponding to the position designated by the designation unit 114c are provided. According to such a configuration, it is possible to perform an image search suitable for an image whose focus position can be changed in the depth direction. In addition, it is possible to search for an image captured by the user paying attention to the subject to be searched.

また、第1実施形態では、検出部114bで検出された複数の被写体を表示するとともに、指定部114cで指定される複数の被写体の相対位置に応じて該複数の被写体の表示位置を変更する表示制御部111を備える。このような構成によれば、使用者に対して複数の被写体の相対位置を明示することができ、使用者は複数の被写体の相対位置を確認しつつ検索条件を指定することができる。その結果、検索条件を指定する際の使用者の操作性が向上する。   In the first embodiment, a plurality of subjects detected by the detection unit 114b are displayed, and a display for changing the display positions of the plurality of subjects according to the relative positions of the plurality of subjects designated by the designation unit 114c. A control unit 111 is provided. According to such a configuration, the relative positions of a plurality of subjects can be clearly indicated to the user, and the user can specify a search condition while confirming the relative positions of the plurality of subjects. As a result, the operability for the user when specifying the search condition is improved.

<第2実施形態>
上記した第1実施形態では、検索対象の被写体と検索対象の被写体の位置関係とが検索条件として指定されていた。これに対して、第2実施形態では、文字入力により検索条件が指定される。
Second Embodiment
In the first embodiment described above, the search target and the positional relationship between the search target subjects are specified as search conditions. On the other hand, in the second embodiment, a search condition is designated by character input.

図14は、第2実施形態の画像検索画面の表示例を示す図である。図14に示すように、第2実施形態の画像検索画面においては、検索条件としての文字を入力する文字入力欄510が設けられている。図14に示す例では、文字入力欄510には「人物」という文字が入力されている。   FIG. 14 is a diagram illustrating a display example of an image search screen according to the second embodiment. As shown in FIG. 14, the image search screen of the second embodiment is provided with a character input field 510 for inputting characters as search conditions. In the example shown in FIG. 14, a character “person” is input in the character input field 510.

検索部114dは、文字入力欄510に「人物」が入力された場合は、ステップS19において記憶部120に記憶されている画像データにおける被写体種別データが「人物」である画像データを検索する。そして、表示制御部111は、検索部114dによる画像検索結果を表示画面500に表示する(ステップS21)。図14に示す例では、人物O1と人物O2の少なくとも一方を含む画像601,602が表示されている。   When “person” is input in the character input field 510, the search unit 114d searches for image data whose subject type data is “person” in the image data stored in the storage unit 120 in step S19. Then, the display control unit 111 displays the image search result by the search unit 114d on the display screen 500 (step S21). In the example shown in FIG. 14, images 601 and 602 including at least one of a person O1 and a person O2 are displayed.

なお、文字入力欄510には、例えば、人物O1の名称である「X」が入力されたときは、検索部114dによって人物O1を含む画像データが検索される。   In the character input field 510, for example, when “X” that is the name of the person O1 is input, the search unit 114d searches the image data including the person O1.

このように、検索部114dは文字入力によってもEXIF情報(付随情報)に基づいて画像検索を行うことができる。なお、第2実施形態の画像検索と上記した第1実施形態の画像検索とを組み合わせて適用することができる。   As described above, the search unit 114d can perform an image search based on EXIF information (accompanying information) even by inputting characters. Note that the image search of the second embodiment and the image search of the first embodiment described above can be applied in combination.

図15は、視差を有する画像の表示例を示す図である。図15に示す例では、画像604においては、人物O1が左側に表示されている。また、棒O6が人物O1の右横に表示されている。また、人物O2が棒O6の斜め後ろに表示されている。また、木O3が右側に表示され、家O4が中心付近に表示されている。   FIG. 15 is a diagram illustrating a display example of an image having parallax. In the example shown in FIG. 15, in the image 604, the person O1 is displayed on the left side. A bar O6 is displayed on the right side of the person O1. Further, the person O2 is displayed obliquely behind the bar O6. The tree O3 is displayed on the right side, and the house O4 is displayed near the center.

上記したように、画像生成部114aにより生成される再構成画像データ群は、被写体O1〜O4,O6に対して視差を有する。視差は、ライトフィールドカメラ1に近い被写体ほど大きく、ライトフィールドカメラ1に遠い被写体ほど小さくなる。従って、人物O1に対する視差が最も大きく、家O4に対する視差が最も小さい。図15においては、人物O1及び棒O6における視差も示している。ある再構成画像データにおける人物O1’の位置と、他の再構成画像データにおける人物O1”の位置とが視差によって異なっている。また、ある再構成画像データにおける棒O6’の位置と、他の再構成画像データにおける棒O6”の位置とが視差によって異なっている。なお、図15には示していないが、人物O2、木O3、及び家O4についても、複数の再構成画像データ間において視差を有する。   As described above, the reconstructed image data group generated by the image generation unit 114a has parallax with respect to the subjects O1 to O4 and O6. The parallax increases as the subject is closer to the light field camera 1 and decreases as the subject is farther from the light field camera 1. Therefore, the parallax for the person O1 is the largest and the parallax for the house O4 is the smallest. In FIG. 15, the parallax in the person O1 and the stick O6 is also shown. The position of the person O1 ′ in certain reconstructed image data differs from the position of the person O1 ″ in other reconstructed image data due to parallax. Also, the position of the bar O6 ′ in certain reconstructed image data and other positions The position of the bar O6 ″ in the reconstructed image data differs depending on the parallax. Although not shown in FIG. 15, the person O2, the tree O3, and the house O4 also have parallax between a plurality of reconstructed image data.

このような視差を有する画像データに基づいて、画像生成部114aは、検索対象の被写体の手前に位置し、検索対象の被写体を隠す被写体を削除することができる。すなわち、画像生成部114aは、検索対象の被写体(例えば人物O2)を隠す被写体(例えば暴俸O6)を削除し、削除した被写体の領域の画像データを視差を有する画像データで補完する。このような構成によれば、検索対象の被写体をより一層注目させることができる。   Based on the image data having such parallax, the image generation unit 114a can delete a subject that is located in front of the subject to be searched and hides the subject to be searched. That is, the image generation unit 114a deletes a subject (for example, violent O6) that hides a search target subject (for example, the person O2), and complements the image data of the deleted subject area with image data having parallax. According to such a configuration, the subject to be searched can be further paid attention.

<画像検索・生成システム>
上記した各実施形態(第1実施形態、第2実施形態)及び変形例では、それぞれスタンドアローンの形態のシステムである。しかし、そのような形態のシステムには限定されない。例えばクライアントサーバシステムなどの通信ネットワークを通じて接続された画像表示システムSYSについて説明する。以下の説明において、上記の第1〜第2実施形態と同一又は同等の構成部分については同一符号を付けて説明を省略または簡略化する。
<Image search / generation system>
In each of the above-described embodiments (the first embodiment and the second embodiment) and the modifications, the system is a stand-alone system. However, the present invention is not limited to such a system. For example, an image display system SYS connected through a communication network such as a client server system will be described. In the following description, components that are the same as or equivalent to those in the first to second embodiments are assigned the same reference numerals, and descriptions thereof are omitted or simplified.

図16は、画像合成システムSYSの構成を示すブロック図である。図16に示すように、この画像表示システムSYSは、クライアント端末101Bの演算処理部110Bにおいて、表示制御部111、画像入力部112、操作制御部113、及び通信部115を有している。これら表示制御部111、画像入力部112、及び操作制御部113は、図1に示した表示制御部111、画像入力部112、及び操作制御部113に相当する。また、図16に示す記憶部120Bは、図1に示した記憶部120に相当する。   FIG. 16 is a block diagram showing the configuration of the image composition system SYS. As shown in FIG. 16, the image display system SYS includes a display control unit 111, an image input unit 112, an operation control unit 113, and a communication unit 115 in the arithmetic processing unit 110B of the client terminal 101B. The display control unit 111, the image input unit 112, and the operation control unit 113 correspond to the display control unit 111, the image input unit 112, and the operation control unit 113 illustrated in FIG. Further, the storage unit 120B illustrated in FIG. 16 corresponds to the storage unit 120 illustrated in FIG.

図16に示すように、クライアント端末101Bの演算処理部110Bは、通信ネットワーク180を介してサーバ(画像検索装置、画像生成装置)106とデータを送受信する通信部115を有している。また、サーバ106の演算処理部160は、通信ネットワーク180を介してクライアント端末101Bとデータを送受信する通信部161を有している。また、演算処理部160の演算部162は、クライアント端末101Bからの要求に応じて、クライアント端末101Bから送信されるRAWデータ及び画像データを記憶部170に蓄積する。そして、演算部162は、図1に示した演算部114と同様に、RAWデータ及び画像データに基づいて画像検索及び画像生成の制御を実行する。   As illustrated in FIG. 16, the arithmetic processing unit 110 </ b> B of the client terminal 101 </ b> B includes a communication unit 115 that transmits / receives data to / from the server (image search device, image generation device) 106 via the communication network 180. The arithmetic processing unit 160 of the server 106 includes a communication unit 161 that transmits / receives data to / from the client terminal 101 </ b> B via the communication network 180. In addition, the arithmetic unit 162 of the arithmetic processing unit 160 accumulates RAW data and image data transmitted from the client terminal 101B in the storage unit 170 in response to a request from the client terminal 101B. Then, the calculation unit 162 executes image search and image generation control based on the RAW data and the image data, similarly to the calculation unit 114 illustrated in FIG.

なお、通信部115の構成や、演算処理部160における通信部161及び演算部162の構成は、CPUなどの制御装置が記憶部120B,170に記憶されている制御プログラムに従って処理を実行することにより実現される。   Note that the configuration of the communication unit 115 and the configuration of the communication unit 161 and the calculation unit 162 in the calculation processing unit 160 are performed by a control device such as a CPU executing a process according to a control program stored in the storage units 120B and 170. Realized.

このような構成によれば、クライアント端末101Bが大容量のデータを記憶しておく必要がなくなり、データ管理を一元化できるなど、コストを低減させることができる。また、クライアント端末101Bの処理負担も軽減させることができる。   According to such a configuration, it is not necessary for the client terminal 101B to store a large amount of data, and costs can be reduced, for example, data management can be unified. In addition, the processing load on the client terminal 101B can be reduced.

なお、図16に示す画像表示システムSYSでは、クライアント端末101Bの表示制御部111が表示制御を行っているが、これに限定されない。例えば、クライアント端末101Bは、ブラウザを備え、ブラウザを用いて図11等に示すような画像検索画面の表示内容を表示装置102に表示させるようにしてもよい。   In the image display system SYS illustrated in FIG. 16, the display control unit 111 of the client terminal 101B performs display control, but the present invention is not limited to this. For example, the client terminal 101B may include a browser, and display content of an image search screen as shown in FIG. 11 or the like on the display device 102 using the browser.

<変形例>
上記した構成においては、演算処理部110,160が記憶部120,170に記憶されている複数の画像データに付加されているEXIF情報に基づいて、検索条件に対応する被写体を含む画像データの検索、検索条件に対応する画像データの生成、及び検索結果の画像の表示を行っていた。しかし、このような構成に限定されず、演算処理部110,160が記憶部120,170に設けられるデータベースに記憶されている情報に基づいて、検索条件に対応する被写体を含む画像データの検索、検索条件に対応する画像データの生成、及び検索結果の画像の表示を行ってもよい。
<Modification>
In the configuration described above, the arithmetic processing units 110 and 160 search for image data including a subject corresponding to the search condition based on the EXIF information added to the plurality of image data stored in the storage units 120 and 170. The image data corresponding to the search condition is generated and the search result image is displayed. However, the present invention is not limited to such a configuration, and the arithmetic processing units 110 and 160 search for image data including a subject corresponding to the search condition based on information stored in a database provided in the storage units 120 and 170. Generation of image data corresponding to the search condition and display of the search result image may be performed.

この場合、データベースには、複数の画像データそれぞれを識別するための画像識別データ(画像ID)、画像データごとに付加される撮影シーンの情報、各画像データ中の1つ又は複数の被写体の画像データ、各画像データ中の1つ又は複数の被写体の種別を示す被写体種別データ、各画像データ中の1つ又は複数の被写体を識別するための被写体識別データ(特徴点、名称など)、各画像データ中の1つ又は複数の被写体の距離データ(合焦位置の情報)がそれぞれ関連付けられて登録される。   In this case, the database includes image identification data (image ID) for identifying each of a plurality of image data, information on a shooting scene added to each image data, and images of one or a plurality of subjects in each image data. Data, subject type data indicating the type of one or more subjects in each image data, subject identification data (feature points, names, etc.) for identifying one or more subjects in each image data, each image The distance data (in-focus position information) of one or more subjects in the data is registered in association with each other.

演算処理部110,160(画像生成部114a、画像生成部114aに相当する演算部162内の処理部)は、RAWデータを取得した後(ステップS1)、取得したRAWデータに基づいて、合焦位置が異なる複数の画像データ(例えばJPEG形式の画像データ)を生成する(ステップS2,S3)。演算処理部110,160(検出部114b、検出部114bに相当する演算部162内の処理部)は、ステップS2,3で生成された複数の画像データに基づいて1つ又は複数の登録対象の被写体を検出する(ステップS4)。このように、演算処理部110,160が合焦位置の異なる複数の画像データに基づいて被写体を検出するので、被写体がぼけていない画像データを用いて被写体の検出を行うことができ、被写体の検出精度が向上する。   The arithmetic processing units 110 and 160 (the image generating unit 114a and the processing unit 162 corresponding to the image generating unit 114a) acquire the RAW data (step S1), and then focus on the acquired RAW data. A plurality of image data having different positions (for example, image data in JPEG format) is generated (steps S2 and S3). The calculation processing units 110 and 160 (the processing unit in the calculation unit 162 corresponding to the detection unit 114b and the detection unit 114b) are used for one or more registration targets based on the plurality of image data generated in steps S2 and S3. A subject is detected (step S4). As described above, since the arithmetic processing units 110 and 160 detect the subject based on the plurality of image data having different in-focus positions, the subject can be detected using the image data in which the subject is not blurred. Detection accuracy is improved.

演算処理部110,160は、ステップS4で検出した1つ又は複数の登録対象の被写体の画像データを切り出す。演算処理部110,160は、1つ又は複数の登録対象の被写体の特徴点を抽出する。演算処理部110,160は、抽出した1つ又は複数の登録対象の被写体の特徴点と、記憶部120内のデータベースに記憶されている複数の被写体の特徴点とを順次照合して、登録対象の被写体と同じ被写体がデータベースに登録されているか否かを判定する。   The arithmetic processing units 110 and 160 cut out image data of one or more registration target subjects detected in step S4. The arithmetic processing units 110 and 160 extract feature points of one or more registration target subjects. The arithmetic processing units 110 and 160 sequentially collate the extracted feature points of one or a plurality of subjects to be registered with the feature points of a plurality of subjects stored in the database in the storage unit 120, and It is determined whether or not the same subject as the subject is registered in the database.

演算処理部110,160は、登録対象の被写体と同じ被写体がデータベース内に登録されていない判定した場合は、画像識別データに対応付けて、被写体ごとの新たな被写体種別データ及び被写体識別データをデータベースに登録する。このとき、演算処理部110,160は、画像識別データに対応付けて、切り出した登録対象の被写体の画像データを被写体ごとに登録するとともに撮影シーンの情報も登録する。   When it is determined that the same subject as the subject to be registered is not registered in the database, the arithmetic processing units 110 and 160 store new subject type data and subject identification data for each subject in association with the image identification data. Register with. At this time, the arithmetic processing units 110 and 160 register the extracted image data of the subject to be registered in association with the image identification data for each subject, and also register information on the shooting scene.

一方、演算処理部110,160は、登録対象の被写体と同じ被写体がデータベース内に登録されている判定した場合は、画像識別データに対応付けて、既にデータベースに登録されている被写体種別データ及び被写体識別データと同じデータを被写体ごとにデータベースに登録する。このときも、演算処理部110,160は、画像識別データに対応付けて、切り出した登録対象の被写体の画像データを登録するとともに撮影シーンの情報も登録する。   On the other hand, when it is determined that the same subject as the subject to be registered is registered in the database, the arithmetic processing units 110 and 160 associate the subject type data and subject already registered in the database in association with the image identification data. The same data as the identification data is registered in the database for each subject. Also at this time, the arithmetic processing units 110 and 160 register the image data of the subject to be registered that is cut out in association with the image identification data, and also register information on the shooting scene.

また、演算処理部110,160は、1つ又は複数の登録対象の被写体の奥行き方向の位置(被写体までの距離)を検出する(ステップS5)。検出部114bは、画像識別データに対応付けて、1つ又は複数の登録対象の被写体までの距離を示す距離データを被写体ごとにデータベースに登録する。そして、演算処理部110,160は、画像識別データに対応付けて、RAWデータ及び画像データを記憶部120,170の画像データ記憶領域に記憶する(ステップS7)。   Further, the arithmetic processing units 110 and 160 detect the position in the depth direction (distance to the subject) of one or a plurality of subjects to be registered (step S5). The detection unit 114b registers distance data indicating distances to one or a plurality of registration target subjects in the database for each subject in association with the image identification data. Then, the arithmetic processing units 110 and 160 store the RAW data and the image data in the image data storage area of the storage units 120 and 170 in association with the image identification data (step S7).

演算処理部110,160(表示制御部111、表示制御部111に相当する演算部160内の処理部)は、画像検索画面を表示し(ステップS11)、記憶部120,170からRAWデータ及び画像データを読み出して取得した後(ステップS12)、データベースに登録されている複数の被写体の画像データを読み出して第1表示領域501に一覧表示する(ステップS13)。そして、演算処理部110,160(表示制御部111、表示制御部111に相当する演算部160内の処理部、指定部114c、指定部114cに相当する演算処理部160内の処理部)は、ステップS14〜S17の処理を実行する。   The arithmetic processing units 110 and 160 (the display control unit 111 and the processing unit 160 in the arithmetic unit 160 corresponding to the display control unit 111) display an image search screen (step S11), and RAW data and images from the storage units 120 and 170 are displayed. After reading and acquiring the data (step S12), the image data of a plurality of subjects registered in the database is read and displayed in a list in the first display area 501 (step S13). The arithmetic processing units 110 and 160 (the display control unit 111, the processing unit in the arithmetic unit 160 corresponding to the display control unit 111, the designation unit 114c, and the processing unit in the arithmetic processing unit 160 corresponding to the designation unit 114c) are: Steps S14 to S17 are executed.

演算処理部110,160は、検索ボタン504が押されたと判定した場合は(ステップS18のYES)、記憶部120内のデータベースに登録されている情報と検索条件として指定された情報とを照合して、記憶部120内の画像データ記憶領域に記憶されている画像データの中から検索条件に適合する画像データを検索する(ステップS19)。具体的には、演算処理部110,160は、検索条件として指定された被写体種別データなど(被写体種別データ、被写体識別データ、距離データ)と合致するデータをデータベース内で検索し、検索条件として指定された被写体種別データなどと合致するデータに対応付けられた画像識別データを選定する。そして、演算処理部110,160は、画像識別データに対応する画像データ記憶領域内の画像データを検索条件に適合する画像データとして検索する。その後、演算処理部110,160は、ステップS20〜S23の処理を実行する。   If it is determined that the search button 504 has been pressed (YES in step S18), the arithmetic processing units 110 and 160 collate the information registered in the database in the storage unit 120 with the information specified as the search condition. Then, image data that meets the search condition is searched from the image data stored in the image data storage area in the storage unit 120 (step S19). Specifically, the arithmetic processing units 110 and 160 search the database for data that matches the subject type data specified as the search condition (subject type data, subject identification data, distance data), and specify it as the search condition. The image identification data associated with the data matching the subject type data and the like is selected. Then, the arithmetic processing units 110 and 160 search the image data in the image data storage area corresponding to the image identification data as image data that meets the search condition. Thereafter, the arithmetic processing units 110 and 160 execute the processes of steps S20 to S23.

このような構成によれば、演算処理部110,160が予めデータベースに登録されている情報に基づいて検索条件に応じた画像の検索及び画像の生成を行うことができるため、画像の検索及び画像の生成を行う際の処理負担を軽減することができるとともに、画像の検索及び画像の生成を行う際の処理時間も軽減することができる。   According to such a configuration, since the arithmetic processing units 110 and 160 can search for an image and generate an image according to the search condition based on information registered in the database in advance, the image search and the image Can reduce the processing load when generating the image, and also reduce the processing time when searching for the image and generating the image.

なお、上記した変形例において、検索対象の被写体が家族(例えば、父、母、息子、娘)などのように予め定まっている場合は、演算処理部110,160は、予め複数の被写体の被写体情報(被写体種別データ及び被写体識別データ(特徴点、名称など))をデータベースに登録しておいてもよい。また、演算処理部110,160は、予めデータベースに登録されている被写体についてだけを検索対象(検索候補)の被写体として指定し、予めデータベースに登録されている被写体の被写体情報だけに基づいて画像検索を行ってもよい。また、演算処理部110,160は、予めデータベースに登録されている被写体だけを画像検索画面に表示してもよい。また、演算処理部110,160は、予め複数の被写体の被写体情報(被写体種別データ及び被写体識別データ(特徴点、名称など))をデータベースに登録しておき、被写体識別データから被写体の名称を取得して、EXIF情報に被写体の名称を登録してもよい。   In the above-described modification, when the subject to be searched is determined in advance such as a family (for example, father, mother, son, daughter) or the like, the arithmetic processing units 110 and 160 may subject subjects of a plurality of subjects in advance. Information (subject type data and subject identification data (feature points, names, etc.)) may be registered in a database. In addition, the arithmetic processing units 110 and 160 specify only subjects registered in the database in advance as search subjects (search candidates), and perform image search based only on subject information of subjects registered in the database in advance. May be performed. In addition, the arithmetic processing units 110 and 160 may display only subjects previously registered in the database on the image search screen. In addition, the arithmetic processing units 110 and 160 previously register subject information (subject type data and subject identification data (feature points, names, etc.)) of a plurality of subjects in a database, and acquire subject names from the subject identification data. Then, the name of the subject may be registered in the EXIF information.

また、データベースは、サーバ106の記憶部170に設けられる場合に限定されず、クライアント端末101Bの記憶部120Bに設けられてもよい。この場合、演算処理部160は、クライアント端末101Bの記憶部120B内のデータベースにアクセスして、画像生成や画像検索などの処理を行う。   The database is not limited to being provided in the storage unit 170 of the server 106, and may be provided in the storage unit 120B of the client terminal 101B. In this case, the arithmetic processing unit 160 accesses the database in the storage unit 120B of the client terminal 101B and performs processing such as image generation and image search.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above-described embodiment without departing from the spirit of the present invention. In addition, one or more of the requirements described in the above embodiments may be omitted. Such modifications, improvements, and omitted forms are also included in the technical scope of the present invention. In addition, the configurations of the above-described embodiments and modifications can be applied in appropriate combinations.

例えば、上記した各実施形態では、撮像装置の一例としてライトフィールドカメラ1を挙げていたが、これに限定されず、例えば複数のカメラを配置したカメラアレイであってもよい。このようなカメラアレイにおいても視差を有する複数の画像を取得することができる。   For example, in each of the above-described embodiments, the light field camera 1 is cited as an example of the imaging apparatus. However, the present invention is not limited to this. For example, a camera array in which a plurality of cameras are arranged may be used. Even in such a camera array, a plurality of images having parallax can be acquired.

また、上記した各実施形態では、演算部114(及び演算処理部160)は、ライトフィールドカメラ1が撮影したリフォーカス画像を用いて、合焦位置や被写界深度の範囲を変更していた。しかし、演算部114(及び演算処理部160)は、フォーカスブラケット機能を備えたデジタルカメラ(撮像装置)が撮影した複数の画像を用いて、合焦位置(焦点位置)や被写界深度の範囲を変更することが可能である。すなわち、上記した第1実施形態における「合焦位置を奥行き方向に変更可能な画像データ」には、デジタルカメラ(撮像装置)が合焦位置を変えながら撮像した、合焦位置の異なる複数の画像データに基づいて生成される画像データが含まれる。ここで、フォーカスブラケットとは、連写をしながら合焦位置を変えていき、合焦位置の異なる複数の画像を撮影することをいう。演算部114(及び演算処理部160)は、使用者によって指定された合焦位置や被写界深度に応じて、合焦位置の異なる複数の画像データを適宜選択し、選択した画像データを合成することにより、合焦位置や被写界深度の範囲を変更することができる。   In each of the embodiments described above, the calculation unit 114 (and the calculation processing unit 160) changes the focus position and the range of the depth of field using the refocus image captured by the light field camera 1. . However, the calculation unit 114 (and the calculation processing unit 160) uses a plurality of images captured by a digital camera (imaging device) having a focus bracket function, and uses a focus position (focus position) and a range of depth of field. It is possible to change. That is, the “image data whose focus position can be changed in the depth direction” in the first embodiment described above includes a plurality of images with different focus positions that are captured by the digital camera (imaging device) while changing the focus position. Image data generated based on the data is included. Here, the focus bracket refers to taking a plurality of images with different in-focus positions by changing the in-focus position while continuously shooting. The calculation unit 114 (and the calculation processing unit 160) appropriately selects a plurality of image data with different focus positions according to the focus position and depth of field specified by the user, and synthesizes the selected image data. By doing so, the range of the focus position and the depth of field can be changed.

また、上記した各実施形態では、検出部114b(及び演算処理部160)が画像データから被写体を検出し、検出した被写体の距離を検出し、画像データに対してEXIF情報を被写体ごとに付加していた。しかし、ライトフィールドカメラ1の画像処理部30がこれらの処理を行い、演算部114は、ライトフィールドカメラ1からEXIF情報が付加された画像データをRAWデータとともに取得してもよい。   In each embodiment described above, the detection unit 114b (and the arithmetic processing unit 160) detects a subject from the image data, detects the distance of the detected subject, and adds EXIF information to the image data for each subject. It was. However, the image processing unit 30 of the light field camera 1 may perform these processes, and the calculation unit 114 may acquire the image data to which the EXIF information is added from the light field camera 1 together with the RAW data.

また、上記した各実施形態では、画像生成部114a(及び演算処理部160)がRAWデータに基づいて所定の合焦位置及び被写界深度の範囲の画像データを生成していたが、画像生成部114a(及び演算処理部160)が複数の画像データに対して距離に応じた重みを加えてから平均する加重平均処理を行うことで、所定の合焦位置及び被写界深度の範囲の画像データを生成してもよい。   In each of the above-described embodiments, the image generation unit 114a (and the arithmetic processing unit 160) generates image data in a range of a predetermined focus position and depth of field based on the RAW data. The unit 114a (and the arithmetic processing unit 160) performs a weighted average process for averaging a plurality of pieces of image data after applying a weight according to the distance, thereby obtaining an image in a range of a predetermined focus position and a depth of field. Data may be generated.

また、画像生成部114a(及び演算処理部160)が検索対象の被写体を隠す被写体を削除していたが、表示制御部111(及び演算処理部160)は、その被写体を削除した画像と削除していない画像とを交互に表示するようにしてもよい。また、表示制御部111(及び演算処理部160)は、検索対象の被写体と、検索対象を隠す被写体とを交互に表示してもよい。この場合、より一層、検索対象の被写体に注目させることができる。また、容易に検索対象の被写体を確認することができる。   In addition, the image generation unit 114a (and the arithmetic processing unit 160) deletes the subject that hides the subject to be searched, but the display control unit 111 (and the arithmetic processing unit 160) deletes the image from which the subject has been deleted. You may make it display alternately the image which is not. In addition, the display control unit 111 (and the arithmetic processing unit 160) may alternately display a subject to be searched and a subject to hide the search target. In this case, it is possible to pay more attention to the subject to be searched. In addition, the subject to be searched can be easily confirmed.

また、図4に示す画像処理部30とシステム制御部70は一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部30の機能とシステム制御部70の機能を担う。   Further, the image processing unit 30 and the system control unit 70 illustrated in FIG. 4 may be configured integrally. In this case, the system control unit having one CPU executes the processing based on the control program, thereby taking on the functions of the image processing unit 30 and the system control unit 70.

また、上記した第1実施形態において、カラーフィルタの配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。   In the first embodiment described above, the color filter array is a Bayer array, but an array other than this array may be used.

また、表示装置102は、画像検索画面を含む各種画像を2次元表示していたが3次元表示(3D表示)してもよい。特に、俯瞰図300などを表示するときに3次元表示されている場合は、被写体の位置関係などが容易に認識されやすくなる。   Further, the display device 102 has displayed various images including the image search screen in two dimensions, but may display them in three dimensions (3D display). In particular, when the overhead view 300 or the like is displayed three-dimensionally, the positional relationship of the subject is easily recognized.

また、画像の付随情報(例えば図8参照)の管理方法としては、以下に示す方法が考えられる。(1)上記した第1実施形態の場合のように、演算処理部110,160が1つの画像データ(パンフォーカスの画像データ)に付随情報を付加する方法である。(2)演算処理部110,160がステップS2において合焦位置の異なる複数の画像データを生成した場合は、それら複数の画像データそれぞれに付随情報(例えば同じ付随情報)を付加する方法である。この場合、複数の画像データのグループを管理するグループ識別情報が複数の画像データそれぞれに付加される。(3)演算処理部110,160がRAWデータに付随情報を付加する方法である。(4)演算処理部110,160が画像データやRAWデータとは異なるデータファイル(又はデータフォルダ)を設け、そのデータファイルに付随情報を付加し、そのデータファイルを画像データやRAWデータに関連付ける方法である。この場合、データファイルはテキストファイルとされてもよい。   Further, as a method for managing the accompanying information (for example, see FIG. 8) of the image, the following method can be considered. (1) As in the case of the first embodiment described above, the arithmetic processing units 110 and 160 add accompanying information to one piece of image data (pan focus image data). (2) This is a method of adding accompanying information (for example, the same accompanying information) to each of the plurality of image data when the arithmetic processing units 110 and 160 generate a plurality of image data having different in-focus positions in step S2. In this case, group identification information for managing a group of a plurality of image data is added to each of the plurality of image data. (3) This is a method in which the arithmetic processing units 110 and 160 add accompanying information to the RAW data. (4) The arithmetic processing units 110 and 160 provide a data file (or data folder) different from the image data or RAW data, add accompanying information to the data file, and associate the data file with the image data or RAW data. is there. In this case, the data file may be a text file.

また、指定部114c(及び演算処理部160)が検索条件として複数の条件を指定した場合、それらの条件はAND条件としていたがOR条件であってもよい。また、指定部114c(及び演算処理部160)は、複数の被写体の相対位置を検索条件として指定していたが、1つ又は複数の被写体の絶対位置(例えばライトフィールドカメラ1から100m先の被写体)を指定してもよい。   Further, when the designation unit 114c (and the arithmetic processing unit 160) designates a plurality of conditions as search conditions, these conditions are AND conditions, but may be OR conditions. The designation unit 114c (and the arithmetic processing unit 160) designates the relative position of a plurality of subjects as a search condition, but the absolute position of one or more subjects (for example, a subject 100 m ahead of the light field camera 1). ) May be specified.

また、ステップS20において、画像生成部114a(及び演算処理部160)は、検索条件に対応する複数の被写体の合焦位置が異なる場合、検索条件に適合する合焦位置の画像データとして、検索条件に対応する複数の被写体それぞれに合焦した画像データを生成してもよい。この場合、画像生成部114a(及び演算処理部160)は、画像の領域を複数の被写体の領域ごとに分割して、分割した各領域ごとに被写体に合焦した画像データを生成してもよい。また、ステップS20において、画像生成部114a(及び演算処理部160)は、検索条件に対応する複数の被写体の合焦位置が異なる場合、検索条件に適合する合焦位置の画像データとしてパンフォーカスの画像データを生成してもよい。また、ステップS20において、画像生成部114a(及び演算処理部160)は、検索条件として被写体の奥行き方向の位置が指定された場合は、検索された画像データに対して、検索条件として指定された被写体に合焦した画像データを生成し、検索条件として被写体の奥行き方向の位置が指定されていない場合は、検索された画像データに対して、パンフォーカスの画像データを生成してもよい。また、ステップS20において、画像生成部114a(及び演算処理部160)は、検索条件に対応する複数の被写体とは異なる被写体が画像データ内に存在する場合に、パンフォーカス画像を生成してもよい。   In step S20, the image generation unit 114a (and the arithmetic processing unit 160) determines that the search condition is the image data of the focus position that matches the search condition when the focus positions of the plurality of subjects corresponding to the search condition are different. Image data focused on each of a plurality of subjects corresponding to may be generated. In this case, the image generation unit 114a (and the arithmetic processing unit 160) may divide the image area into a plurality of subject areas and generate image data focused on the subject for each of the divided areas. . In step S20, when the focus positions of a plurality of subjects corresponding to the search condition are different, the image generation unit 114a (and the arithmetic processing unit 160) performs pan-focus as image data of the focus position that matches the search condition. Image data may be generated. In step S20, when the position of the subject in the depth direction is specified as the search condition, the image generation unit 114a (and the arithmetic processing unit 160) is specified as the search condition for the searched image data. When image data focused on the subject is generated and the position of the subject in the depth direction is not specified as a search condition, pan-focus image data may be generated for the searched image data. In step S20, the image generation unit 114a (and the arithmetic processing unit 160) may generate a pan focus image when there is a subject different from the plurality of subjects corresponding to the search condition in the image data. .

また、ステップS20において、画像生成部114a(及び演算処理部160)は、検索条件に対応する複数の被写体とは異なる検索対象外の被写体が画像データ内に存在し、その検索対象外の被写体の奥行き方向の位置が検索条件に対応する複数の被写体の合焦位置の範囲内に存在する場合に、被写界深度の範囲を検索条件に対応する複数の被写体の位置を含む範囲とし、検索対象外の被写体を削除した画像データを生成してもよい。   In step S20, the image generation unit 114a (and the arithmetic processing unit 160) includes in the image data a subject that is different from the plurality of subjects corresponding to the search condition, and the subject of the subject that is not the search target. When the position in the depth direction is within the range of the in-focus position of multiple subjects corresponding to the search condition, the range of depth of field is the range including the positions of multiple subjects corresponding to the search condition, and the search target Image data in which an outside subject is deleted may be generated.

また、画像検索結果を表示するための第3表示領域506において、「焦点位置手前に移動」ボタンと「焦点位置奥側に移動」ボタンとを焦点位置切替ボタンとして設ける。そして、使用者が「焦点位置手前に移動」ボタンをクリックすることにより、画像生成部114a(及び演算処理部160)は、画像検索結果としての画像データの焦点位置を手前に変更し、使用者が「焦点位置奥側に移動」ボタンをクリックすることにより、画像生成部114a(及び演算処理部160)は、画像検索結果としての画像データの焦点位置を奥側に変更する構成でもよい。このとき、焦点位置の切り替えは、被写体単位で行われてもよい。また、検索対象の被写体として複数の被写体が指定された場合に、画像生成部114a(及び演算処理部160)は、焦点位置切替ボタンが使用者によりクリックされる度に、画像データにおける焦点位置を検索対象の位置に順に切り替える構成でもよい。
In the third display area 506 for displaying the image search result, a “move to the focal position” button and a “move to the focal position” button are provided as focal position switching buttons. Then, when the user clicks the “move to the focal position” button, the image generation unit 114a (and the arithmetic processing unit 160) changes the focal position of the image data as the image search result to the near side. The image generation unit 114a (and the calculation processing unit 160) may change the focus position of the image data as the image search result to the back side by clicking the “move to the back of the focus position” button. At this time, the switching of the focal position may be performed in units of subjects. In addition, when a plurality of subjects are designated as subjects to be searched, the image generation unit 114a (and the arithmetic processing unit 160) changes the focus position in the image data each time the focus position switching button is clicked by the user. It may be configured to sequentially switch to the search target position.

なお、「合焦位置を奥行き方向に変更可能な画像データ」には、RAWデータ(光線情報)及びこのRAWデータから画像生成部114a(演算処理部160)によって生成される1つ又は複数の画像データ(例えばパンフォーカスの画像データ、合焦位置の異なる複数の画像データ)が含まれる。   Note that “image data whose focus position can be changed in the depth direction” includes RAW data (ray information) and one or a plurality of images generated from the RAW data by the image generation unit 114a (calculation processing unit 160). Data (for example, pan focus image data, a plurality of image data with different in-focus positions) are included.

1…ライトフィールドカメラ(撮像装置)、101…画像検索・生成装置(画像生成装置、画像検索装置)、101B…クライアント端末、102…表示装置(表示部)、106…サーバ(画像生成装置、画像検索装置)、110,110B…演算処理部、111…表示制御部、112…画像入力部、113…操作制御部、114…演算部、114a…画像生成部、114b…検出部、114c…指定部、114d…検索部、115…通信部、120,120B…記憶部、160…演算処理部、161…通信部、162…演算部、170…記憶部
DESCRIPTION OF SYMBOLS 1 ... Light field camera (imaging device), 101 ... Image search / generation device (image generation device, image search device), 101B ... Client terminal, 102 ... Display device (display unit), 106 ... Server (image generation device, image) Retrieval device), 110, 110B ... arithmetic processing unit, 111 ... display control unit, 112 ... image input unit, 113 ... operation control unit, 114 ... calculation unit, 114a ... image generation unit, 114b ... detection unit, 114c ... designation unit , 114d ... search unit, 115 ... communication unit, 120, 120B ... storage unit, 160 ... calculation processing unit, 161 ... communication unit, 162 ... calculation unit, 170 ... storage unit

Claims (7)

焦点位置を変更した画像を生成可能な画像データの中から特定の被写体を含む前記画像を生成可能な前記画像データを検索する検索部と、
前記検索部により検索された前記画像データに基づいて、奥行き方向における、前記特定の被写体を含む所定の範囲の内で所定の位置に合焦している前記画像を生成する生成部と、
を備える画像生成装置。
A search unit for searching for the image data capable of generating the image including a specific subject from among the image data capable of generating an image with a changed focal position;
A generating unit configured to generate the image focused on a predetermined position within a predetermined range including the specific subject in the depth direction based on the image data searched by the search unit;
An image generation apparatus comprising:
前記所定の範囲は、被写界深度である請求項1に記載の画像生成装置。   The image generation apparatus according to claim 1, wherein the predetermined range is a depth of field. 前記特定の被写体は、複数の被写体である請求項1または請求項2に記載の画像生成装置。   The image generation apparatus according to claim 1, wherein the specific subject is a plurality of subjects. 前記複数の被写体の各々は、奥行き方向の各々の位置に存在する請求項3に記載の画像生成装置。   The image generating apparatus according to claim 3, wherein each of the plurality of subjects is present at each position in the depth direction. 前記複数の被写体に含まれる第1被写体は、前記第1被写体とは異なる第2被写体に比べて奥行き方向の手前に存在している請求項4に記載の画像生成装置。   The image generation device according to claim 4, wherein the first subject included in the plurality of subjects is present in the depth direction as compared to a second subject different from the first subject. 前記画像生成部は、前記検索部により検索された前記画像データに基づいて、前記複数の被写体に合焦している被写界深度の前記画像を生成する請求項3から請求項5のいずれか一項に記載の画像生成装置。   The said image generation part produces | generates the said image of the depth of field which has focused on these several subjects based on the said image data searched by the said search part. The image generation apparatus according to one item. 焦点位置を変更した画像を生成可能な画像データの中から特定の被写体を含む前記画像を生成可能な前記画像データを検索する検索部と、
前記検索部により検索された前記画像データに基づいて、生成された前記画像を表示する表示部と、を備え、
前記表示部に表示される前記画像は、前記特定の被写体が含まれた前記画像である画像検索装置。
A search unit for searching for the image data capable of generating the image including a specific subject from among the image data capable of generating an image with a changed focal position;
A display unit that displays the generated image based on the image data searched by the search unit;
The image search device, wherein the image displayed on the display unit is the image including the specific subject.
JP2018122886A 2018-06-28 2018-06-28 Image generation device and image search device Active JP6566091B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018122886A JP6566091B2 (en) 2018-06-28 2018-06-28 Image generation device and image search device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018122886A JP6566091B2 (en) 2018-06-28 2018-06-28 Image generation device and image search device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014070758A Division JP6361228B2 (en) 2014-03-31 2014-03-31 Image generation apparatus and image generation program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019139423A Division JP6780748B2 (en) 2019-07-30 2019-07-30 Image processing device and image processing program

Publications (2)

Publication Number Publication Date
JP2018196120A JP2018196120A (en) 2018-12-06
JP6566091B2 true JP6566091B2 (en) 2019-08-28

Family

ID=64570724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018122886A Active JP6566091B2 (en) 2018-06-28 2018-06-28 Image generation device and image search device

Country Status (1)

Country Link
JP (1) JP6566091B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114761757A (en) * 2019-11-29 2022-07-15 富士胶片株式会社 Information processing apparatus, information processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5233458B2 (en) * 2008-07-15 2013-07-10 株式会社ニコン Image editing apparatus and image editing program
JP5657343B2 (en) * 2010-10-28 2015-01-21 株式会社ザクティ Electronics
JP5968102B2 (en) * 2012-06-15 2016-08-10 キヤノン株式会社 Image recording apparatus and image reproducing apparatus

Also Published As

Publication number Publication date
JP2018196120A (en) 2018-12-06

Similar Documents

Publication Publication Date Title
US10311649B2 (en) Systems and method for performing depth based image editing
JP4511821B2 (en) Method, program and apparatus for determining important region in image
JP6080417B2 (en) Image processing apparatus and image processing method
JP5713055B2 (en) Imaging apparatus, imaging method, and program
JP2013201752A5 (en)
JPWO2012001975A1 (en) Apparatus, method, and program for determining obstacle in imaging area at the time of imaging for stereoscopic display
JP6552315B2 (en) Imaging device
JP6095266B2 (en) Image processing apparatus and control method thereof
JP2017060010A (en) Imaging device, method of controlling imaging device, and program
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP6566091B2 (en) Image generation device and image search device
JP6780748B2 (en) Image processing device and image processing program
JP6361228B2 (en) Image generation apparatus and image generation program
JP2013118574A (en) Imaging apparatus
JP2015198340A (en) Image processing system and control method therefor, and program
JP6491442B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP7319871B2 (en) Image processing device, image processing method, program, storage medium
JP2014116789A (en) Photographing device, control method therefor, and program
JP6074201B2 (en) Image processing apparatus, control method, and program
JP6071714B2 (en) Image processing apparatus and control method thereof
JP2015139018A (en) Electronic apparatus and control program
US11627245B2 (en) Focus adjustment device and focus adjustment method
JP7224811B2 (en) Image processing device and electronic equipment
JP2015139019A (en) Device and program for image composition
JP7242278B2 (en) Image processing device and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R150 Certificate of patent or registration of utility model

Ref document number: 6566091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250