JP2013255172A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2013255172A
JP2013255172A JP2012130866A JP2012130866A JP2013255172A JP 2013255172 A JP2013255172 A JP 2013255172A JP 2012130866 A JP2012130866 A JP 2012130866A JP 2012130866 A JP2012130866 A JP 2012130866A JP 2013255172 A JP2013255172 A JP 2013255172A
Authority
JP
Japan
Prior art keywords
image data
image
refocus
viewpoint
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012130866A
Other languages
Japanese (ja)
Inventor
Katsuhiko Nagasaki
克彦 長崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012130866A priority Critical patent/JP2013255172A/en
Priority to US13/908,101 priority patent/US20130329068A1/en
Publication of JP2013255172A publication Critical patent/JP2013255172A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To shorten a time from a user operation to creation and display of image data in a camera capable of refocusing as focus adjustment after imaging.SOLUTION: The order of a target to be focused is determined on the basis of distance information indicating the depth of an image indicated by multi-viewpoint image data obtained by imaging from a plurality of viewpoint positions, and in accordance with the determined order, composite image data focused on the target is sequentially generated from the multi-viewpoint image data.

Description

本発明は、複数の視点位置から取得された情報に基づき画像データを処理する画像処理装置及び画像処理方法に関するものである。   The present invention relates to an image processing apparatus and an image processing method for processing image data based on information acquired from a plurality of viewpoint positions.

現在、撮像装置において撮影後に撮影画像を確認する方法として、いわゆる再生モードにおいて撮像画像を表示させ、確認する方法が知られている。   Currently, as a method for confirming a captured image after photographing in an image capturing apparatus, a method for displaying and confirming a captured image in a so-called reproduction mode is known.

近年、「Light Field Photography」と呼ばれる手法を用いた撮像装置が提案されている(非特許文献1、特許文献1)。この撮像装置は、撮像レンズと、マイクロレンズアレイと、撮像素子と、画像処理部と、から構成され、撮像素子から得られる撮像画像データが、受光面における光の強度分布に加えてその光の進行方向の情報も含むようになっている。そして画像処理部において、複数の視点や方向からの観察画像を再構築できるようになっている。   In recent years, an imaging apparatus using a technique called “Light Field Photography” has been proposed (Non-Patent Document 1, Patent Document 1). This imaging device is composed of an imaging lens, a microlens array, an imaging device, and an image processing unit, and the captured image data obtained from the imaging device is used in addition to the light intensity distribution on the light receiving surface. It also includes information on the direction of travel. In the image processing unit, observation images from a plurality of viewpoints and directions can be reconstructed.

その再構築の一つに撮影後のピント調整処理(以降、リフォーカスと呼ぶ)があり(たとえば特許文献2)、撮影後にリフォーカスが可能な撮像装置(以降、ライトフィールドカメラと呼ぶ)が開発されている。   One of the reconstruction is focus adjustment processing after shooting (hereinafter referred to as refocusing) (for example, Patent Document 2), and an imaging device capable of refocusing after shooting (hereinafter referred to as a light field camera) has been developed. Has been.

特開2010−183316号公報JP 2010-183316 A 特開2011−22796号公報JP 2011-22796 A

R. Ng, M. Levoy, M.Bredif, G. Duval, M. Horowitz, P. Hanrahan: "Light Field Photography with a Hand-Held Plenoptic Camera", Stanford Tech Report CTSR 2005-02(2005)R. Ng, M. Levoy, M. Bredif, G. Duval, M. Horowitz, P. Hanrahan: "Light Field Photography with a Hand-Held Plenoptic Camera", Stanford Tech Report CTSR 2005-02 (2005)

しかしながら、現行の画像処理装置では、画像表示時にリフォーカス画像データを生成する場合、ユーザーの操作に応じてリフォーカス画像を生成している。リフォーカス画像データの生成において、特許文献2の方法では、中間視点画像データを推定処理によって生成する必要があり、この生成に膨大な計算コストがかかる。そのため、ユーザー操作後、画像の表示までに時間がかかる為、待ち時間が生じていた。   However, in the current image processing apparatus, when generating refocus image data at the time of image display, a refocus image is generated according to a user operation. In the generation of refocus image data, in the method of Patent Document 2, it is necessary to generate intermediate viewpoint image data by estimation processing, and this generation requires enormous calculation costs. For this reason, since it takes time to display an image after a user operation, a waiting time has occurred.

本発明に係る画像処理装置は、複数の視点位置から撮像して得られた多視点画像データが示す画像の奥行きを示す距離情報に基づいて焦点を合わせる対象の順位を決定する決定手段と、前記決定手段で決定された順位に従って、前記対象に焦点を合わせた合成画像データを前記多視点画像データから順次生成する生成手段とを備えることを特徴とする。   The image processing apparatus according to the present invention includes: a determination unit that determines the order of objects to be focused based on distance information indicating the depth of an image indicated by multi-viewpoint image data obtained by imaging from a plurality of viewpoint positions; And generating means for sequentially generating composite image data focused on the object from the multi-viewpoint image data in accordance with the order determined by the determining means.

本発明によれば、画像中の距離の分布を利用してリフォーカス画像データを予め生成することが可能となる為、簡易な構成でユーザーの利便性を高める効果がある。   According to the present invention, since refocus image data can be generated in advance using the distribution of distances in an image, there is an effect of improving user convenience with a simple configuration.

本発明の実施例1に係る多眼カメラ全体のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the whole multiview camera which concerns on Example 1 of this invention. 本発明の実施例1に係る再生時のリフォーカス処理の一例を示すフローチャートである。It is a flowchart which shows an example of the refocus process at the time of the reproduction | regeneration which concerns on Example 1 of this invention. 本発明の実施例1に係るパラメータ選択処理の一例を示すフローチャートである。It is a flowchart which shows an example of the parameter selection process which concerns on Example 1 of this invention. 本発明の実施例1に係るリフォーカス演算領域の予測方法の一例を示すフローチャートである。It is a flowchart which shows an example of the prediction method of the refocus calculation area | region which concerns on Example 1 of this invention. 本発明の実施例1に係る過去の人物に関するリフォーカス履歴の一例を示す図である。It is a figure which shows an example of the refocus log | history regarding the past person which concerns on Example 1 of this invention. 本発明の実施例1に係るリフォーカス画像の表示の一例を示す図である。It is a figure which shows an example of the display of the refocus image which concerns on Example 1 of this invention. 本発明の第1の実施例に係るリフォーカス画像データを保存する一時画像フォーマットの一例を示す図である。It is a figure which shows an example of the temporary image format which preserve | saves the refocus image data based on 1st Example of this invention. 本発明の実施例2に係る再生リフォーカスモードの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the reproduction | regeneration refocus mode which concerns on Example 2 of this invention. 本発明の実施例2に係る再生リフォーカスモード変更するユーザーI/Fの一例を示す図である。It is a figure which shows an example of user I / F which changes the reproduction | regeneration refocus mode which concerns on Example 2 of this invention. 本発明の実施例2に係る再生リフォーカスモード変更時の動作の一例を示す図である。It is a figure which shows an example of the operation | movement at the time of the reproduction | regeneration refocus mode change which concerns on Example 2 of this invention. 本発明の実施例2に係る画像切り替え時の再生リフォーカスモードの動作の一例を示す図である。It is a figure which shows an example of operation | movement in the reproduction | regeneration refocus mode at the time of the image switching which concerns on Example 2 of this invention. 本発明の実施例1に係るシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure which concerns on Example 1 of this invention. 本発明の実施例1に係るクラウドサーバーの構成の一例を示す図である。It is a figure which shows an example of a structure of the cloud server which concerns on Example 1 of this invention. 本発明の実施例1に係る多視点画像を保存する画像データフォーマットの一例を示す図である。It is a figure which shows an example of the image data format which preserve | saves the multi-viewpoint image which concerns on Example 1 of this invention. 本発明の実施例1に係るハードウェア構成の一例を示すブロック図。1 is a block diagram showing an example of a hardware configuration according to Embodiment 1 of the present invention. 本発明の実施例3に係る距離毎の画素数分布(ヒストグラム)の一例を示す図である。It is a figure which shows an example of the pixel number distribution (histogram) for every distance which concerns on Example 3 of this invention. 本発明の実施例3に係る距離毎の画素数分布に乗ずる係数の一例を示す図である。It is a figure which shows an example of the coefficient which multiplies pixel number distribution for every distance which concerns on Example 3 of this invention. 本発明の実施例3に係る係数乗算後の距離毎の画素数分布(ヒストグラム)の一例を示す図である。It is a figure which shows an example of pixel number distribution (histogram) for every distance after the coefficient multiplication which concerns on Example 3 of this invention. 本発明の実施例3に係るリフォーカス画像生成順位決定に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the refocus image generation order determination which concerns on Example 3 of this invention. 本発明の実施例4に係るリフォーカス画像生成順位決定の為のデータ生成に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the data generation for the refocus image generation order determination which concerns on Example 4 of this invention. 本発明の実施例4に係る距離毎の画素数分布(ヒストグラム)の一例を示す図である。It is a figure which shows an example of the pixel number distribution (histogram) for every distance which concerns on Example 4 of this invention.

以下、図面を用いて本発明の実施例について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明による実施例1の画像処理装置のハードウェア構成の一例を示すブロック図である。以下、図1について詳細に説明する。多眼カメラ撮像部101は、相互に独立した光学系と撮像素子とを持つ相互に独立した複数のカメラの集合体である。多眼カメラ撮像部101は、撮像素子の制御部等を含み、複数の撮像素子からの出力データの集合を多視点画像データとして出力する。   FIG. 1 is a block diagram illustrating an example of a hardware configuration of the image processing apparatus according to the first embodiment of the present invention. Hereinafter, FIG. 1 will be described in detail. The multi-lens camera imaging unit 101 is an aggregate of a plurality of mutually independent cameras having an optical system and an image sensor that are independent from each other. The multi-view camera imaging unit 101 includes an image sensor control unit and the like, and outputs a set of output data from a plurality of image sensors as multi-viewpoint image data.

RAM102は、多眼カメラ撮像部101で撮像した多視点画像データの一時記憶や生成したリフォーカス画像データの一時記憶、およびその他演算途中のデータなどの一時記憶に使用する為のメモリである。FlashROM107は、不揮発メモリであり、過去にユーザーが選択した画像(種別と位置)や操作に関する履歴を累積、記憶する。外部メモリ109は、SDカードなどの外部メモリである。また、外部メモリ109は不揮発メモリであり、電源を切っても画像データは保存される。外部メモリ109には、多眼カメラ撮像部101で撮像した多視点画像データが、例えば図14に示される画像データフォーマットに従って画像ファイルとして保存される。画像データフォーマットの詳細は後述する。また外部メモリ109は、処理中の画像データを一時画像ファイルとして一時的に保存する領域としても利用される。   The RAM 102 is a memory used for temporary storage of multi-viewpoint image data captured by the multi-eye camera imaging unit 101, temporary storage of generated refocus image data, and other temporary data during calculation. The flash ROM 107 is a non-volatile memory, and accumulates and stores history relating to images (types and positions) and operations selected by the user in the past. The external memory 109 is an external memory such as an SD card. The external memory 109 is a non-volatile memory, and image data is saved even when the power is turned off. In the external memory 109, multi-viewpoint image data captured by the multi-view camera imaging unit 101 is stored as an image file in accordance with, for example, the image data format shown in FIG. Details of the image data format will be described later. The external memory 109 is also used as an area for temporarily storing image data being processed as a temporary image file.

メモリ制御部110は、いわゆるバスシステムと、バスシステムに接続されるメモリやデバイスの制御部から構成され、例えば、RAM102、FlashROM107、外部メモリ109の各メモリに対するデータの読み書きを制御する。   The memory control unit 110 includes a so-called bus system and a control unit of a memory and a device connected to the bus system, and controls reading and writing of data with respect to each memory of the RAM 102, the Flash ROM 107, and the external memory 109, for example.

ユーザーI/F(インターフェース)106は、機器の操作や、ユーザーがリフォーカス表示を希望する画像又は領域を選択したり、又は撮像済み画像の表示に係わるモード選択を行う為のI/F(インターフェース)である。具体的には、ディスプレイ105上に設置されるタッチパネルや、シャッターボタン、操作ダイアルなどユーザーi/Fに対応する。   A user I / F (interface) 106 is an I / F (interface) for operating a device, selecting an image or region that a user desires to display refocused, or selecting a mode related to displaying a captured image. ). Specifically, it corresponds to a user i / F such as a touch panel installed on the display 105, a shutter button, and an operation dial.

全体制御部(CPU)108は、機器全体の制御や、FlashROM107に記憶されている履歴情報から最も頻度の高い領域を選択し、リフォーカス演算部103へ指示するなどの演算制御を行う。   The overall control unit (CPU) 108 performs overall control of the device and calculation control such as selecting the most frequent area from the history information stored in the flash ROM 107 and instructing the refocus calculation unit 103.

リフォーカス演算部103は、全体制御部108の指示に従って、多視点画像データからリフォーカス画像データを生成する。ここで、多視点画像データからリフォーカス画像データを生成する概要を説明する。ライトフィールドフォトグラフィでは、多視点画像データから、空間中の複数の位置について、それぞれの位置を通過する光線の方向と強度(ライトフィールド、以下、「LF」という。)を計算する。そして、得られたLFの情報を用いて、仮想の光学系を通過して仮想のセンサに結像した場合の画像を計算する。このような仮想の光学系やセンサを適宜設定する事で、所定の対象に合焦した合成画像データであるリフォーカス画像データを生成することが可能となる。なお、リフォーカス処理は本実施例の主眼ではなく、上述した手法以外の手法を用いても良い。生成されたリフォーカス画像データは、RAM102や、外部メモリ109などへ格納される。詳細は後述する。   The refocus calculation unit 103 generates refocus image data from the multi-viewpoint image data in accordance with an instruction from the overall control unit 108. Here, an outline of generating refocus image data from multi-viewpoint image data will be described. In light field photography, the direction and intensity of light passing through each position (light field, hereinafter referred to as “LF”) is calculated from multiple viewpoint image data for a plurality of positions in space. Then, using the obtained LF information, an image when passing through the virtual optical system and forming an image on the virtual sensor is calculated. By appropriately setting such virtual optical systems and sensors, it is possible to generate refocus image data that is composite image data focused on a predetermined target. Note that the refocus processing is not the main focus of the present embodiment, and a method other than the method described above may be used. The generated refocus image data is stored in the RAM 102, the external memory 109, or the like. Details will be described later.

グラフィックプロセッサ104は、リフォーカス演算部103で生成されたリフォーカス画像データをディスプレイ105に表示する機能を具備している。ネットワークI/F111は、機器外とネットワーク接続を行い、ネットワーク上の外部機器との間でデータ転送を行う。   The graphic processor 104 has a function of displaying the refocus image data generated by the refocus calculation unit 103 on the display 105. The network I / F 111 connects to the outside of the network and transfers data to / from an external device on the network.

画像解析部112は、画像データ中の被写体の領域を検出し、領域毎に識別コードを割り当てる。画像解析部112は、検出した被写体の領域情報と識別コードとをRAM102に記憶する。本実施例の被写体とは、前景にあたる人や動物だけでなく、背景に含まれる風景部分も含むものとする。被写体の検出は、例えば、いくつかの顕著な特徴(2つの目、口、鼻など)とその特徴間の固有の幾何学的位置関係とを利用することで実施できる。あるいは、被写体の検出は、顔の対称的特徴、顔色の特徴、テンプレート・マッチング、ニューラル・ネットワークなどを利用することによっても実施できる。背景の検出は、例えば前述の方法で画像内の人物や動物の顔を検出し、その位置やサイズを算出する。この算出結果に基づいて画像中の人物を含む被写体領域と、それ以外の背景領域とに画像を区分することができる。例えば、被写体領域を矩形と仮定すると、領域情報の形式は、左上と右下の座標で示される。また、被写体の識別対象は、人(又は顔)、動物、風景の三種類としているが、これに限定されず、さらに細かい分類をすることも可能である。なお、被写体の検出および識別方法は、本実施例の主眼ではなく、上述した手法以外の手法を用いても良い。画像解析部112での被写体検出および識別機能は、画像撮像後、直ちに実施され、その結果は例えば、FlashROM107や外部メモリ109のような不揮発メモリに記憶される。したがって、本実施例の説明に於いては、これら被写体の領域情報と識別コードとが既に記憶されていることを前提とする。
多眼カメラ撮像部101が撮像した多視点画像データは、図14の画像データフォーマットに従って、画像ファイルとして、外部メモリ109に記録される。
図14は、本実施例に於ける多視点画像データを画像ファイルとして保存する際に用いる画像データフォーマットを説明する図である。図14に示す画像ファイルは、画像幅を示す情報1401、画像高さを示す情報1402、リフォーカス位置情報1403、多視点画像ヘッダ情報1410、多視点画像データ1404を含む。
The image analysis unit 112 detects the area of the subject in the image data and assigns an identification code to each area. The image analysis unit 112 stores the detected subject area information and identification code in the RAM 102. The subject in the present embodiment includes not only a person or animal in the foreground but also a landscape portion included in the background. The detection of the subject can be performed, for example, by utilizing some prominent features (two eyes, mouth, nose, etc.) and the inherent geometric positional relationship between the features. Alternatively, the detection of the subject can be performed by using a symmetrical feature of the face, a feature of the face color, template matching, a neural network, or the like. For the detection of the background, for example, the face of a person or animal in the image is detected by the method described above, and the position and size are calculated. Based on this calculation result, the image can be divided into a subject region including a person in the image and a background region other than that. For example, assuming that the subject area is a rectangle, the format of the area information is indicated by upper left and lower right coordinates. In addition, the subject identification target is three types, that is, a person (or face), an animal, and a landscape. However, the subject identification target is not limited to this, and finer classification is also possible. Note that the subject detection and identification method is not the main focus of the present embodiment, and methods other than those described above may be used. The subject detection and identification function in the image analysis unit 112 is performed immediately after the image is captured, and the result is stored in a nonvolatile memory such as the flash ROM 107 or the external memory 109, for example. Therefore, in the description of the present embodiment, it is assumed that the area information of the subject and the identification code are already stored.
The multi-viewpoint image data captured by the multiview camera imaging unit 101 is recorded in the external memory 109 as an image file according to the image data format of FIG.
FIG. 14 is a diagram illustrating an image data format used when multi-viewpoint image data is stored as an image file in the present embodiment. The image file shown in FIG. 14 includes information 1401 indicating image width, information 1402 indicating image height, refocus position information 1403, multi-view image header information 1410, and multi-view image data 1404.

リフォーカス位置情報1403は、位置情報存在フラグ1405を含む。位置情報存在フラグ1405は、リフォーカス位置情報が存在するか否かを示す情報である。この位置情報存在フラグは、例えば初期状態(履歴が無い状態)では0(偽)である。1(真)である場合に後続の位置情報1406〜1409の値を有効とすることができる。すなわち、位置情報存在フラグが真である場合、リフォーカスされた位置を示す情報が含まれていることになる。Top_left_x1406は、リフォーカス領域の左上のX座標を示す情報である。Top_left_y1407は、リフォーカス領域の左上のY座標を示す情報である。Bottom_right_x1408は、リフォーカス領域の右下のX座標を示す情報である。Bottom_right_y1409は、リフォーカス領域の右下のY座標を示す情報である。   The refocus position information 1403 includes a position information presence flag 1405. The position information presence flag 1405 is information indicating whether or not refocus position information exists. This position information presence flag is, for example, 0 (false) in the initial state (there is no history). In the case of 1 (true), the values of the subsequent position information 1406 to 1409 can be validated. That is, when the position information presence flag is true, information indicating the refocused position is included. Top_left_x 1406 is information indicating the upper left X coordinate of the refocus area. Top_left_y 1407 is information indicating the upper left Y coordinate of the refocus area. Bottom_right_x 1408 is information indicating the lower right X coordinate of the refocus area. Bottom_right_y 1409 is information indicating the lower right Y coordinate of the refocus area.

なお、位置情報存在フラグ1405は、画像ファイルの付加の真偽を示す一ビットの情報で十分であるが、かならずしも、1ビットに限定されない。リフォーカス位置情報フォーマットの形式を示す多値をとってもよい。例えば、次のような構成をとることも可能である。位置情報存在フラグ1405が0の場合は、位置情報が存在しない。位置情報存在フラグ1405が1の場合は、位置情報は、上述のように矩形情報として表現される。位置情報存在フラグ1405が2の場合は、位置情報は、フォーカス対象を示す円の中心座標と半径を位置情報として表現される。   The position information presence flag 1405 is sufficient as 1-bit information indicating whether the image file is added or not, but is not limited to 1 bit. A multivalue indicating the format of the refocus position information format may be taken. For example, it is possible to adopt the following configuration. When the position information presence flag 1405 is 0, there is no position information. When the position information presence flag 1405 is 1, the position information is expressed as rectangular information as described above. When the position information presence flag 1405 is 2, the position information is expressed by using the center coordinates and radius of a circle indicating the focus target as position information.

多視点画像ヘッダ情報1410には、リフォーカス処理を行うために必要な情報や補助的な撮像情報が含まれる。例えば、カメラ機種名、レンズ構成、撮像日、シャッタースピード、および、露出プログラムなどである。また、多視点画像ヘッダ情報1410には、リフォーカス処理に用いられる多視点画像データの中の各画像データの位置情報が含まれる。本実施例では、位置情報存在フラグの真偽に関わらず、位置情報1406〜1409が存在する構成例を示している。しかしながら、それに限定されず、位置情報存在フラグが偽の場合は、位置情報1406〜1409エントリーそのものを画像データに含めない構成とすることも可能である。また、リフォーカス位置情報は、任意の形状を示すように構成することも可能であり、本実施例で説明する矩形領域に限定するものではない。   The multi-viewpoint image header information 1410 includes information necessary for performing the refocus processing and auxiliary imaging information. For example, the camera model name, lens configuration, imaging date, shutter speed, and exposure program. Further, the multi-view image header information 1410 includes position information of each image data in the multi-view image data used for the refocus processing. In the present embodiment, a configuration example in which the position information 1406 to 1409 exists regardless of whether the position information presence flag is true or false is shown. However, the present invention is not limited to this, and when the position information presence flag is false, the position information 1406 to 1409 entries themselves may not be included in the image data. Further, the refocus position information can be configured to indicate an arbitrary shape, and is not limited to the rectangular area described in the present embodiment.

なお、多視点画像データ1404は、撮像素子から得られたRAW画像データであってもよいし、デモザイキング処理、ホワイトバランス処理、ガンマ処理、及びノイズ低減処理などの現像処理が施された現像後画像データであってもよい。また、本実施例では多眼カメラ撮像部101を用いる例を説明したが、多視点画像データは複数の視点位置からのデータであればよく、例えばマイクロレンズアレイを用いて得られる撮像データを用いてもよい。   Note that the multi-viewpoint image data 1404 may be RAW image data obtained from an image sensor, or after development subjected to development processing such as demosaicing processing, white balance processing, gamma processing, and noise reduction processing. It may be image data. Further, in this embodiment, the example using the multi-view camera imaging unit 101 has been described. However, the multi-viewpoint image data may be data from a plurality of viewpoint positions, for example, using image data obtained using a microlens array. May be.

図2は、再生モードに移行してから、1枚目のリフォーカス画像を表示するまでのフローチャートである。再生モードは、外部メモリ109に保存された画像ファイルをディスプレイ105で表示する制御を行う動作モードである。図2のフローは、全体制御部(CPU)108が、リフォーカス演算部103およびグラフィックプロセッサ104等を制御することにより実行される。   FIG. 2 is a flowchart from the transition to the playback mode to the display of the first refocus image. The reproduction mode is an operation mode in which control for displaying an image file stored in the external memory 109 on the display 105 is performed. The flow in FIG. 2 is executed by the overall control unit (CPU) 108 controlling the refocus calculation unit 103, the graphic processor 104, and the like.

全体制御部108が、図2に示す制御を実行する為のプログラムは、例えば、FlashROM107等に記憶されている。また、上述したリフォーカスのためのプログラムも同様に記憶されている。図2に示すフローに於ける画像ファイルは、多眼カメラ撮像部101により撮像された多視点画像データが、図14で示すようにヘッダ情報と共に外部メモリ109に既に記録されていることを前提としている。   A program for the overall control unit 108 to execute the control shown in FIG. 2 is stored in, for example, the Flash ROM 107 or the like. Further, the refocusing program described above is also stored in the same manner. The image file in the flow shown in FIG. 2 is based on the assumption that the multi-viewpoint image data captured by the multi-view camera imaging unit 101 is already recorded in the external memory 109 together with the header information as shown in FIG. Yes.

ステップS201では、全体制御部108は、動作モードを再生モードに移行する。ステップS201の処理に移る場合として、以下の3パターンが考えられる。
1.再生モード以外で起動中であり、その後再生モードに切り換え
2.起動時に既に再生モード
3.再生モードで別の画像を指定された時
In step S201, the overall control unit 108 shifts the operation mode to the reproduction mode. The following three patterns can be considered as the case of moving to the processing in step S201.
1. 1. It is being activated in a mode other than the playback mode and then switched to the playback mode. 2. Playback mode already at startup When another image is specified in playback mode

ステップS202では、全体制御部108が画像ファイルを外部メモリ109から取得する。ステップS203では、全体制御部108が再生リフォーカスモードと履歴情報とを取得して、処理をS204へ移行する。再生リフォーカスモードとは、リフォーカス演算済みの画像データ(以下、リフォーカス画像データと称する)を表示する際に、例えば、人モード、風景モード、動物モードなどを選択するモードである。再生リフォーカスモードの詳細については、実施例2で記述する。履歴情報とは、過去にユーザーが選択した画像データの種別及び位置や、操作に関する履歴を累積した情報である。履歴情報の詳細については後述する。ステップS204では、全体制御部108が読み込んだ画像ファイルのヘッダ情報を解析する。ヘッダ情報は、図14の1401から1403に該当する。本実施例では、リフォーカス位置情報1403を特に解析する。   In step S <b> 202, the overall control unit 108 acquires an image file from the external memory 109. In step S203, the overall control unit 108 acquires the playback refocus mode and history information, and the process proceeds to S204. The reproduction refocus mode is a mode in which, for example, a human mode, a landscape mode, an animal mode, or the like is selected when displaying image data that has been subjected to refocus calculation (hereinafter referred to as refocus image data). Details of the playback refocus mode will be described in the second embodiment. The history information is information obtained by accumulating the types and positions of image data selected by the user in the past and the history regarding operations. Details of the history information will be described later. In step S204, the header information of the image file read by the overall control unit 108 is analyzed. The header information corresponds to 1401 to 1403 in FIG. In this embodiment, the refocus position information 1403 is particularly analyzed.

ステップS205では、全体制御部108が、ステップS204で解析したヘッダ情報に推奨パラメータが存在するか否かを判定する。推奨パラメータとは、画像ファイルをリフォーカスする際に推奨される画像や表示方法などを示すパラメータである。推奨パラメータが存在する場合には処理がステップS206に移行し、存在しない場合にはステップS207に移行する。本実施例では、図14に示される位置情報存在フラグ1405を1ビットのフラグとして扱い、フラグの値が1の場合には、全体制御部108は、推奨パラメータが存在すると判定してステップS206に遷移する。フラグの値が0の場合は、全体制御部108は推奨パラメータが存在しないと判定してステップS207に移行する。   In step S205, the overall control unit 108 determines whether there is a recommended parameter in the header information analyzed in step S204. The recommended parameter is a parameter indicating an image recommended for refocusing an image file, a display method, or the like. If the recommended parameter exists, the process proceeds to step S206. If the recommended parameter does not exist, the process proceeds to step S207. In the present embodiment, the position information presence flag 1405 shown in FIG. 14 is treated as a 1-bit flag, and when the flag value is 1, the overall control unit 108 determines that a recommended parameter exists and proceeds to step S206. Transition. If the value of the flag is 0, the overall control unit 108 determines that there is no recommended parameter, and proceeds to step S207.

ステップS206では、全体制御部108は、ステップS202で読み込んだ画像ファイルのリフォーカス位置情報1403を解析して得られた推奨パラメータを利用してリフォーカス演算部103を制御し、リフォーカス画像データを生成する。   In step S206, the overall control unit 108 controls the refocus calculation unit 103 using the recommended parameters obtained by analyzing the refocus position information 1403 of the image file read in step S202, and the refocus image data is obtained. Generate.

具体的には、リフォーカス演算部103は、再生ファイルに含まれる多視点画像データ1404から、位置情報1406と1408との平均をX座標、位置情報1407と1409との平均をY座標とする位置にフォーカスが合った画像データを生成する。リフォーカス演算部103で生成されたリフォーカス画像データは、グラフィックプロセッサ104を介して、ディスプレイ105に表示される。また生成されたリフォーカス画像データは、図7に示される一時画像ファイルフォーマットに従って一時画像ファイルとして、外部メモリ109又はRAM102に保存される。図7は、リフォーカス演算部103で生成されたリフォーカス画像データを含む画像ファイルの一時画像ファイルフォーマットの一例を示す図である。一時画像ファイルフォーマットに従う画像ファイルは、リフォーカス位置情報702と、リフォーカス画像データ705とを含む。リフォーカス位置情報702には、リフォーカス画像データ705のリフォーカス処理を行った際にフォーカスを合わせた位置を示す情報が含まれる。位置情報706〜709は、図14の位置情報1406〜1409と同じ情報とすることができる。なお、図7に示す一時画像ファイルは、例えばリフォーカスの画像データ毎に生成される。   Specifically, the refocus calculation unit 103 uses, from the multi-viewpoint image data 1404 included in the reproduction file, a position where the average of the position information 1406 and 1408 is the X coordinate and the average of the position information 1407 and 1409 is the Y coordinate. Generate image data in focus. The refocus image data generated by the refocus calculation unit 103 is displayed on the display 105 via the graphic processor 104. The generated refocus image data is stored in the external memory 109 or the RAM 102 as a temporary image file in accordance with the temporary image file format shown in FIG. FIG. 7 is a diagram illustrating an example of a temporary image file format of an image file including refocus image data generated by the refocus calculation unit 103. The image file according to the temporary image file format includes refocus position information 702 and refocus image data 705. The refocus position information 702 includes information indicating a position where the focus is achieved when the refocus processing of the refocus image data 705 is performed. The position information 706 to 709 can be the same information as the position information 1406 to 1409 in FIG. The temporary image file shown in FIG. 7 is generated for each refocus image data, for example.

ステップS206に処理が進んでいるということは、推奨パラメータが存在していることになる。従って、その推奨パラメータに含まれる情報を図7の702で示すリフォーカス位置情報に含めた一時画像ファイルを記憶する。なお、一時画像ファイルの記憶場所は、外部メモリ109、RAM102に限定されるものではなく、ネットワークI/F111を介して、クラウド上に存在する任意の記憶装置に記憶しても良い。   If the process proceeds to step S206, the recommended parameter exists. Therefore, the temporary image file in which the information included in the recommended parameter is included in the refocus position information indicated by reference numeral 702 in FIG. 7 is stored. Note that the storage location of the temporary image file is not limited to the external memory 109 and the RAM 102, and may be stored in an arbitrary storage device on the cloud via the network I / F 111.

次に、ステップS205にて、ヘッダ情報に推奨パラメータが存在しない場合の処理を説明する。ステップS207の処理は、ステップS202でメモリから読み出した画像ファイルに推奨パラメータが無い場合、即ち再生モードでの表示が初めての画像ファイルである場合の処理である。本実施例では、履歴情報に基づいてリフォーカス画像データを生成し、一時画像ファイルとして記憶する。また、履歴情報の更新を実施する。履歴情報に基づいてリフォーカス画像データを生成する処理、および履歴情報を更新する処理については、図3に関連して説明するため、ここで説明を省略する。   Next, a process when there is no recommended parameter in the header information in step S205 will be described. The process in step S207 is a process when there is no recommended parameter in the image file read from the memory in step S202, that is, when the display is the first image file in the playback mode. In this embodiment, refocus image data is generated based on the history information and stored as a temporary image file. Also, history information is updated. The process of generating refocus image data based on the history information and the process of updating the history information will be described with reference to FIG.

ステップS208は、グラフィックプロセッサ104がステップS207で生成したリフォーカス済み画像をディスプレイ105に表示する。図6は、ステップS206又はステップS207で生成されたリフォーカス画像データを表示した際の一例を示す図である。図6の(a)は、風景(樹木)にフォーカスの合った画像の例を示してある。   In step S208, the graphic processor 104 displays the refocused image generated in step S207 on the display 105. FIG. 6 is a diagram illustrating an example when the refocus image data generated in step S206 or step S207 is displayed. FIG. 6A shows an example of an image focused on a landscape (tree).

ステップS209では、グラフィックプロセッサ104がパラメータ選択UI画面を追加でディスプレイ105に表示する。パラメータ選択UI画面を追加した例を図6(b)に示す。図6(b)の例に於いては、タッチパネルでユーザーがフォーカスを合わせたいポイントを指定することを想定している。すなわち、グラフィックプロセッサ104は、フォーカスを合わる位置(パラメータ)をユーザーに入力させるためのUI画面を表示する。なお、パラメータは、画像中の2次元の位置情報を表してもよいし、多視点画像の中の空間的な距離(奥行き)を表してもよい。   In step S209, the graphic processor 104 additionally displays a parameter selection UI screen on the display 105. An example in which a parameter selection UI screen is added is shown in FIG. In the example of FIG. 6B, it is assumed that the user designates a point to be focused on the touch panel. That is, the graphic processor 104 displays a UI screen for allowing the user to input a position (parameter) to be focused. The parameter may represent two-dimensional position information in the image, or may represent a spatial distance (depth) in the multi-viewpoint image.

ステップS210では、全体制御部108は、ステップS202で読み取った画像ファイルのリフォーカス位置情報1403の更新を実施する。すなわち、ヘッダ情報に推奨パラメータが存在していない場合、ステップS207でリフォーカス位置が決定された領域の位置情報でリフォーカス位置情報1403を更新する。なお、ヘッダ情報に推奨パラメータが存在している場合、ステップS202で読み取った画像ファイルのリフォーカス位置情報1403の更新は行わなくてよい。以上が、再生モードを起動した場合の動作、すなわち、ある画像ファイルを読み取った場合の最初に表示されるリフォーカス画像に関する処理である。   In step S210, the overall control unit 108 updates the refocus position information 1403 of the image file read in step S202. That is, when the recommended parameter does not exist in the header information, the refocus position information 1403 is updated with the position information of the area for which the refocus position is determined in step S207. When the recommended parameter exists in the header information, the refocus position information 1403 of the image file read in step S202 does not need to be updated. The above is the operation when the playback mode is activated, that is, the processing related to the refocus image displayed first when a certain image file is read.

続いて、1枚目のリフォーカス画像データを表示した後の動作(2枚目以降のリフォーカス画像データの表示、動作の終了等)について、図3を用いて説明する。すなわち、図2のフローで説明した画像ファイルを読み取った場合に最初に表示されるリフォーカス画像を表示した後の処理を図3を用いて説明する。図3に示すフロー全体が、図2のフローと同様に、全体制御部108により制御されている。   Next, the operation after displaying the first refocus image data (display of the second and subsequent refocus image data, the end of the operation, etc.) will be described with reference to FIG. That is, the processing after displaying the refocus image that is initially displayed when the image file described in the flow of FIG. 2 is read will be described with reference to FIG. The entire flow shown in FIG. 3 is controlled by the overall control unit 108 as in the flow of FIG.

図2のステップS209で、図6(b)に示すパラメータ選択UIが表示されると、ユーザーは、表示されたUIを利用して、パラメータの選択を行う事が可能になる。ステップS301では、全体制御部108は、UIを使用して、ユーザーがパラメータを選択した時は、処理をステップS304へ移行する。本実施例では、ユーザーが画面上の1点を指定することによって、パラメータを選択することとする。次に、ステップS304では、ステップS301でユーザーによって選択されたパラメータを取得する。ステップS304では、全体制御部108は、図7の形式で記憶されている一時画像ファイル群の中から、ステップS301にてユーザーが指定(選択)したパラメータを含むリフォーカス画像データが存在するか否かを判定する。すなわち、ユーザーが指定したパラメータを含むリフォーカス位置情報702を含む一時画像ファイルが存在するか否かを判定する。ステップS304でユーザーが指定したパラメータに適合するリフォーカス画像データを含む一時画像ファイルが存在する場合、全体制御部108は、処理をS309へ移行する。ステップS309では、前記リフォーカス画像を含む一時画像の情報(位置、表示履歴情報)を更新し、処理をステップS306へ移行する。詳細は後述する。
前記ステップS306では、グラフィックプロセッサ104が、前記ユーザーが指定したパラメータに適合するリフォーカス画像データを含む一時画像を所定のディスプレイ105に表示する。
When the parameter selection UI shown in FIG. 6B is displayed in step S209 of FIG. 2, the user can select a parameter using the displayed UI. In step S301, the overall control unit 108 proceeds to step S304 when the user selects a parameter using the UI. In this embodiment, the user selects a parameter by designating one point on the screen. In step S304, the parameter selected by the user in step S301 is acquired. In step S304, the overall control unit 108 determines whether or not there is refocus image data including the parameter designated (selected) by the user in step S301 from the temporary image file group stored in the format of FIG. Determine whether. That is, it is determined whether or not there is a temporary image file including refocus position information 702 including parameters specified by the user. If there is a temporary image file including refocus image data that matches the parameter specified by the user in step S304, the overall control unit 108 advances the process to step S309. In step S309, information (position, display history information) of the temporary image including the refocus image is updated, and the process proceeds to step S306. Details will be described later.
In step S306, the graphic processor 104 displays a temporary image including refocus image data that conforms to the parameter specified by the user on the predetermined display 105.

一方、ステップS304で、ユーザーが指定したパラメータに適合するリフォーカス画像データを含む一時画像ファイルが存在しなかった場合は、全体制御部108は、処理をステップS305へ移行する。ステップS305では、ステップS301でユーザーが指定したパラメータに基づいて、リフォーカス演算部103が、当該パラメータが示す領域にフォーカスが合ったリフォーカス画像データを生成する。ステップS305では、生成したリフォーカス画像データを例えば、RAM102等に図7に示す一時画像ファイルとして記憶する。   On the other hand, if there is no temporary image file including refocus image data matching the parameter specified by the user in step S304, the overall control unit 108 moves the process to step S305. In step S305, based on the parameter specified by the user in step S301, the refocus calculation unit 103 generates refocus image data focused on the area indicated by the parameter. In step S305, the generated refocus image data is stored as a temporary image file shown in FIG.

ステップS305の処理が完了したら、全体制御部108は、処理をステップS309へ移行する。   When the process of step S305 is completed, the overall control unit 108 moves the process to step S309.

ステップS309では、ステップS305にて、ユーザーが、ステップS301で指定したパラメータに従って生成したリフォーカス画像に関する情報(位置および表示履歴情報)の更新を実施し、処理をステップS306へ移行する。詳細は後述する。   In step S309, in step S305, the user updates information (position and display history information) related to the refocus image generated according to the parameter specified in step S301, and the process proceeds to step S306. Details will be described later.

ステップS306では、例えば、RAM102等から、ステップS301で指定されたパラメータに従って生成または選択されたリフォーカス画像データを読み出して、ディスプレイ105へ表示する。
ここで、ステップS309に於ける情報更新について、詳しく説明する。
In step S306, for example, the refocus image data generated or selected according to the parameter specified in step S301 is read from the RAM 102 or the like and displayed on the display 105.
Here, the information update in step S309 will be described in detail.

先に説明したように、画像解析部112によって、撮像後の多視点画像データ内の被写体の領域が検出され、かつ領域毎に識別コードを割り当てられ、領域情報と識別コードとがFlashROM107や、外部メモリ109のような不揮発メモリに記憶されている。ここでは、記憶されている領域情報と指定されたパラメータとを比較して、領域情報の中に指定されたパラメータが含まれている場合、その領域情報を位置情報として更新する。すなわち、被写体として分類され、その被写体の位置が特定されている領域情報を、一時画像ファイルのリフォーカス位置情報702として更新する。一方、記憶されている領域情報と指定されたパラメータとを比較して、領域情報の中に指定されたパラメータが含まれていない場合、指定パラメータを一時画像ファイルのリフォーカス位置情報702として更新する。
次に、履歴情報について、図5を用いて説明する。図5に於いて、識別コードは、画像解析部112で識別された識別コードである。頻度は、再生モードに於いて、識別コード(人、風景等)で示される各領域に対して、ユーザーがフォーカスを合わせた画像の表示を指示した頻度のことである。この頻度は、ある画像ファイルごとの頻度であってもよいし、画像ファイルを問わずに、画像処理装置におけてあるユーザーが指示した頻度であってもよい。図5(a)は、501が識別コード=風景、502が識別コード=人、503が識別コード=動物の例を示している。ここで、識別コード毎の頻度順位は、以下の通りである。
1位:風景(501)
2位:人(502)
3位:動物(503)
As described above, the image analysis unit 112 detects the area of the subject in the captured multi-viewpoint image data, and an identification code is assigned to each area. The area information and the identification code are stored in the FlashROM 107 or the external It is stored in a nonvolatile memory such as the memory 109. Here, the stored area information is compared with the specified parameter, and if the specified parameter is included in the area information, the area information is updated as position information. That is, the area information classified as the subject and the position of the subject is specified is updated as the refocus position information 702 of the temporary image file. On the other hand, the stored area information is compared with the designated parameter, and if the designated parameter is not included in the area information, the designated parameter is updated as the refocus position information 702 of the temporary image file. .
Next, history information will be described with reference to FIG. In FIG. 5, the identification code is an identification code identified by the image analysis unit 112. The frequency refers to the frequency at which the user instructs the display of the focused image for each area indicated by the identification code (person, landscape, etc.) in the playback mode. This frequency may be a frequency for each image file, or may be a frequency specified by a user in the image processing apparatus regardless of the image file. FIG. 5A shows an example in which 501 is an identification code = scenery, 502 is an identification code = person, and 503 is an identification code = animal. Here, the frequency ranking for each identification code is as follows.
1st place: Landscape (501)
2nd place: People (502)
3rd place: Animals (503)

図5(b)は、識別コード=人に関して、識別コードを更に細分化した例を示したものである。なお、娘、息子、父の区別は、例えばそれぞれの顔画像の特徴ベクトルを算出しておき、人物と判定された領域の特徴ベクトルと比較することによって判定することができる。ここで、識別コード毎の頻度順位は、以下の通りである。
1位:ユーザーの娘(505)
2位:ユーザーの息子(506)
3位:ユーザーの父(507)
4位:登録外の人物(508)
本実施例に於いて、履歴情報は、各識別コードの頻度情報のことを指す。
FIG. 5B shows an example in which the identification code is further subdivided for the identification code = person. The distinction between the daughter, son, and father can be determined by, for example, calculating the feature vector of each face image and comparing it with the feature vector of the region determined to be a person. Here, the frequency ranking for each identification code is as follows.
1st place: User's daughter (505)
2nd place: User's son (506)
3rd place: User's father (507)
4th: Unregistered person (508)
In the present embodiment, the history information indicates frequency information of each identification code.

次に履歴情報の更新について述べる。先に説明したように、領域情報の中に指定されたパラメータが含まれていた場合、その領域に関連付けられた識別コードの頻度情報をインクリメントする。一方、領域情報の中に指定されたパラメータが含まれていない場合、有用な情報は、座標情報のみなので、履歴情報は更新しない。   Next, update of history information will be described. As described above, when the designated parameter is included in the area information, the frequency information of the identification code associated with the area is incremented. On the other hand, when the designated parameter is not included in the area information, the useful information is only the coordinate information, and the history information is not updated.

次にステップS301で、ユーザーが、パラメータを選択しなかった場合の処理について説明する。すでに表示されている画像を継続して表示した状態で、処理をステップS302へ移行する。   Next, a process when the user does not select a parameter in step S301 will be described. In a state where the already displayed image is continuously displayed, the process proceeds to step S302.

ステップS302では、画像解析部112で抽出した全ての領域情報に対して、全体制御部108は、各領域情報にフォーカスを合わせたリフォーカス画像データを生成したか否かを判定する。具体的には、全ての領域情報に対して、各領域情報を含むリフォーカス位置情報702を有する一時画像ファイルが存在するか否かを判定する。
ステップS302で、全ての領域情報に対して、リフォーカス画像を生成していないと判定された場合、処理をS303へ移行する。一方、ステップS302で、全ての領域情報に対して、リフォーカス画像の生成が完了していると判定された場合は、処理をS307へ移行する。
In step S302, for all the region information extracted by the image analysis unit 112, the overall control unit 108 determines whether refocus image data in which each region information is focused is generated. Specifically, it is determined whether or not a temporary image file having refocus position information 702 including each area information exists for all area information.
If it is determined in step S302 that no refocus image has been generated for all region information, the process proceeds to S303. On the other hand, if it is determined in step S302 that the generation of the refocus image has been completed for all the area information, the process proceeds to S307.

全ての領域情報に対して、リフォーカス画像を生成していないと判定された場合、ステップS303で、履歴情報に基づいて、リフォーカス画像データを生成する。詳細は後述する。次に生成したリフォーカス画像をS306で表示した後、ステップS307へ移行する。   If it is determined that no refocus image has been generated for all region information, refocus image data is generated based on the history information in step S303. Details will be described later. Next, after the generated refocus image is displayed in S306, the process proceeds to step S307.

S307では、全体制御部108は、再生モードを終了するか、継続するかを判定する。S307に於ける再生モードの終了条件は、例えば以下の3つである。
1.再生モードを除くモードに切り換えた時
2.電源をOFFした時
3.再生モードで別の画像を指定された時
S307で再生モード終了と判定された場合は、処理をS308へ移行し、再生モードの終了に必要な各種処理が実行され、再生モードを終了する。一方、ステップS307で再生モード継続と判定された場合は、処理をステップS301へ戻し、ステップS301からの操作を繰り返す。
In S307, the overall control unit 108 determines whether to end or continue the playback mode. The playback mode end conditions in S307 are, for example, the following three conditions.
1. 1. When switching to a mode other than the playback mode 2. When the power is turned off. When another image is designated in the playback mode, if it is determined in step S307 that the playback mode has ended, the process proceeds to step S308, and various processes necessary to end the playback mode are executed, and the playback mode ends. On the other hand, if it is determined in step S307 that the playback mode is to be continued, the process returns to step S301, and the operations from step S301 are repeated.

なお、パラメータ選択は、ユーザーが画面上の1点を指すことで行うこととしたが、閉領域として指定することも可能である。例えば、ユーザが指定した点を含む画像および指定された閉領域に含まれる画像をFlashROM(履歴記憶部)107の履歴と比較することにより、履歴情報の有無を判定することができる。   Note that parameter selection is performed by the user pointing to one point on the screen, but it can also be specified as a closed region. For example, the presence / absence of history information can be determined by comparing the image including the point specified by the user and the image included in the specified closed region with the history of the flash ROM (history storage unit) 107.

次に、図2のS207と図3のS303に於ける処理詳細について、図4のフローチャートを用いて説明する。図4のフローチャートに示す処理は、全体制御部(CPU)108が、リフォーカス演算部103およびグラフィックプロセッサ104等を制御することにより、実行される。   Next, details of the processing in S207 of FIG. 2 and S303 of FIG. 3 will be described using the flowchart of FIG. The process shown in the flowchart of FIG. 4 is executed by the overall control unit (CPU) 108 controlling the refocus calculation unit 103, the graphic processor 104, and the like.

先に説明したように、画像解析部112によって、撮像後の多視点画像データ内の被写体の領域が検出され、かつ領域毎に識別コードを割り当てられ、領域情報と識別コードとがRAM102や、外部メモリ109のような不揮発メモリに記憶されている。また、履歴情報は、図5に示す頻度情報のこととする。即ち、過去の履歴(頻度)は、風景画像が頻度1位、人の画像が2位、動物の画像が3位であると仮定する。更に、人の画像は、頻度1位が娘、2位が息子、3位が父、4位が登録外人物と仮定する。
ステップS401では、全体制御部108は、リフォーカス画像データを未生成の領域を特定する。まず、全体制御部108は、対象画像データ(すなわち、S202で読み込んだ画像ファイルの多視点画像データが示す画像データ)に関する画像解析結果の識別コード及び領域情報のペアの全てを取得する。また、全ての一時画像ファイルに含まれるリフォーカス画像データの位置情報を取得する。次に、取得した情報の中から、一時画像ファイルに含まれるリフォーカス位置情報702と、領域情報とを比較する。そして、位置情報が領域情報に含まれるものは省いて、対応する位置情報が存在しない領域情報を抽出する。この領域情報は、即ち、リフォーカス画像データを生成していない領域に対応する。
As described above, the image analysis unit 112 detects the area of the subject in the captured multi-viewpoint image data, and an identification code is assigned to each area, and the area information and the identification code are stored in the RAM 102 or externally. It is stored in a nonvolatile memory such as the memory 109. The history information is frequency information shown in FIG. That is, in the past history (frequency), it is assumed that a landscape image is ranked first in frequency, a person image ranked second, and an animal image ranked third. Further, it is assumed that the person's image has the first frequency as the daughter, the second as the son, the third as the father, and the fourth as an unregistered person.
In step S401, the overall control unit 108 identifies an area where refocus image data has not been generated. First, the overall control unit 108 acquires all the pairs of identification codes and region information of the image analysis result regarding the target image data (that is, the image data indicated by the multi-viewpoint image data of the image file read in S202). In addition, position information of refocus image data included in all temporary image files is acquired. Next, the refocus position information 702 included in the temporary image file is compared with the area information from the acquired information. Then, the area information is excluded from the area information, and the area information for which no corresponding position information exists is extracted. This area information corresponds to an area where no refocus image data is generated.

次に、全体制御部108は、ステップS402で、ステップS401で抽出した領域情報に関連付けられた識別コードの中で、履歴情報の頻度が最も高い識別コードに一致するものを選択する。選択の結果、風景に該当する識別コードの頻度が、最上位であった場合、ステップS403へ移行する。ステップS403では、風景画像に対応する領域が、S401で抽出した領域情報にあるか否かを判定する。風景画像がある場合、ステップS404へ移行する。   Next, in step S402, the overall control unit 108 selects, from among the identification codes associated with the area information extracted in step S401, the one that matches the identification code with the highest frequency of history information. If the frequency of the identification code corresponding to the landscape is the highest as a result of selection, the process proceeds to step S403. In step S403, it is determined whether the area corresponding to the landscape image is in the area information extracted in S401. If there is a landscape image, the process proceeds to step S404.

ステップS404では、識別コードが風景である領域情報を抽出して、それが1つである場合は、その領域を次にリフォーカス画像データを生成する領域として決定する。また風景に該当する識別コードを持つ領域が複数存在する場合、例えば、領域情報の左上のX座標とY座標をもって、順位を決定することができる。具体的には、X座標の値が小さい順にリフォーカス演算順位を決定することができる。また、同一のX座標が複数存在する場合は、Y座標の小さい順でリフォーカス演算順位を決定することができる。ここでは、最も順位の高い領域情報を次にリフォーカス画像を生成する領域として決定する。
次に処理をステップS405へ移行する。ステップS405では、リフォーカス演算部103が、ステップS404で決定された順位に基づいて当該順位の領域情報にフォーカスを合わせたリフォーカス画像データを生成する。具体的には、多視点画像データから、左上と右下の座標の平均を取った結果をX座標、Y座標とする位置にフォーカスが合った画像データを生成する。
In step S404, area information whose identification code is landscape is extracted, and when there is only one area, that area is determined as an area for generating next refocus image data. Further, when there are a plurality of regions having identification codes corresponding to the landscape, for example, the order can be determined by using the X coordinate and Y coordinate at the upper left of the region information. Specifically, the refocus calculation order can be determined in ascending order of the X coordinate value. If there are a plurality of the same X coordinates, the refocus calculation order can be determined in ascending order of the Y coordinates. Here, the region information with the highest rank is determined as the region for generating the next refocus image.
Next, the process proceeds to step S405. In step S405, the refocus calculation unit 103 generates refocus image data in which the area information of the rank is focused based on the rank determined in step S404. Specifically, image data in which a focus is set to a position where the average of the upper left and lower right coordinates is taken as the X coordinate and the Y coordinate is generated from the multi-viewpoint image data.

次に、処理をステップS406へ移行する。ステップS406では、ステップS405で生成したリフォーカス画像データと共に、そのフォーカスを合わせた領域情報をリフォーカス位置情報とした一時画像ファイルを図7に示す一時画像ファイルフォーマットで記憶する。   Next, the process proceeds to step S406. In step S406, along with the refocus image data generated in step S405, a temporary image file having the focused area information as the refocus position information is stored in the temporary image file format shown in FIG.

次に処理をステップS407へ移行する。ステップS407では、履歴情報を更新する。具体的には、選択された識別コードに該当する頻度をインクリメントする。そして処理を終了する。   Next, the process proceeds to step S407. In step S407, the history information is updated. Specifically, the frequency corresponding to the selected identification code is incremented. Then, the process ends.

次に、ステップS402に戻って、選択の結果、人に該当する識別コードの頻度が、最上位であった場合、ステップS409へ移行する。ステップS409では、人の画像があるか否かを判定する。人の画像がない場合、ステップS402に戻る。人の画像がある場合、ステップS410に移行する。ステップS410では、図5(b)で示すような登録者の識別コードがあるか否かを判定する。登録者の識別コードがあった場合、処理をステップS411へ移行する。ステップS411では、履歴情報の中に、ステップS410で存在が確認された登録者がいるか否かを判定する。履歴情報の中に登録者がいた場合、処理をステップS412へ移行する。ステップS412では、履歴情報の頻度に従って、リフォーカス画像生成の順位を決定する。図5(b)では、順位1位が娘、2位が息子、3位が父というようになっているので、例えば、識別コードの中に娘が存在すれば、娘を最上位とする。   Next, returning to step S402, if the frequency of the identification code corresponding to the person is the highest as a result of selection, the process proceeds to step S409. In step S409, it is determined whether there is a human image. If there is no human image, the process returns to step S402. If there is a human image, the process proceeds to step S410. In step S410, it is determined whether there is a registrant identification code as shown in FIG. If there is a registrant identification code, the process proceeds to step S411. In step S411, it is determined whether or not there is a registrant whose existence has been confirmed in step S410 in the history information. If there is a registrant in the history information, the process proceeds to step S412. In step S412, the order of refocus image generation is determined according to the frequency of history information. In FIG. 5B, since the first rank is the daughter, the second rank is the son, and the third rank is the father, for example, if there is a daughter in the identification code, the daughter is the highest rank.

ステップS411で、履歴情報の中に登録者がいない場合、処理をステップS413へ移行する。また、ステップS410で、登録者の識別コードが無かった場合、処理をステップS414へ移行する。なお、ステップS413及びS414は、S404と同様の処理を行う。   If it is determined in step S411 that there is no registrant in the history information, the process proceeds to step S413. In step S410, if there is no registrant identification code, the process proceeds to step S414. Note that steps S413 and S414 perform the same processing as step S404.

次に、ステップS402に戻って、選択の結果、動物に該当する識別コードの頻度が、最上位であった場合、ステップS415へ移行する。ステップS415で動物の画像があると判定した場合、ステップS416へ移行する。なお、ステップS416の処理については、S404と同様の処理を行うことができる。   Next, returning to step S402, if the frequency of the identification code corresponding to the animal is the highest as a result of selection, the process proceeds to step S415. If it is determined in step S415 that there is an animal image, the process proceeds to step S416. In addition, about the process of step S416, the process similar to S404 can be performed.

以上、説明したように構成することによって、過去の履歴を利用することで、リフォーカス画像データの生成をユーザーに指示される前に、実施することが可能となる。すなわち、多視点画像データを含む画像ファイルを最初に読み出した際に、そのファイルのヘッダ情報に推奨パラメータが含まれていない場合、履歴情報を用いてリフォーカス画像データをユーザーの指示なしに生成することができる。また、履歴情報を用いることで、そのユーザーが過去にフォーカスを合わせた被写体の頻度に応じてリフォーカス画像データを生成することができる。ユーザーの指示なしに予めリフォーカス画像データを生成しておくことによって、ユーザーが希望するフォーカス領域を指定した時、リフォーカス演算時間を待つことなく、ユーザーが希望するリフォーカス画像を表示することが可能となる効果がある。   With the configuration as described above, it is possible to perform generation of refocus image data before instructing the user by using the past history. That is, when an image file including multi-viewpoint image data is first read and the recommended parameter is not included in the header information of the file, refocus image data is generated without user instruction using history information. be able to. Further, by using the history information, it is possible to generate refocus image data according to the frequency of the subject that the user has focused on in the past. By generating refocus image data in advance without user instruction, when the user specifies the desired focus area, the user can display the desired refocus image without waiting for the refocus calculation time. There is a possible effect.

また、リフォーカス画像を表示中に次のリフォーカス画像を予測し、リフォーカス演算を実施することが可能となったことにより、演算リソースの利用効率が向上し、ハードウェア的なグレードアップ無しで処理速度が向上することと同様の効果を期待できる。   In addition, it is now possible to predict the next refocus image while displaying the refocus image and perform the refocus calculation, so that the use efficiency of calculation resources is improved and there is no hardware upgrade. The same effect as an improvement in processing speed can be expected.

更に、リフォーカス演算回数を重ねる度に、ユーザーの趣向をより明確に判定することができるので、使い込む毎にリフォーカス領域の予測精度が向上し、リフォーカス画像の切り換えの高速化が期待できる。   Furthermore, each time the refocus calculation is repeated, the user's preference can be determined more clearly, so that the prediction accuracy of the refocus area is improved every time it is used, and the switching speed of the refocus image can be expected to be increased.

また、本実施例では、多視点画像データが含まれる画像ファイルに、ユーザーが最後に指定したフォーカス位置を特定するパラメータ情報を埋め込んでいる。これにより、次回、画像ファイルを読み込んで、表示する際、ユーザーが最後に表示していた画像を、パラメータの再設定なしに表示することができる。これにより、ユーザーによるパラメータ設定の手間を省くことができ、本技術を組み込んだ装置の操作性が向上することにつながる。   In this embodiment, parameter information for specifying a focus position last specified by the user is embedded in an image file including multi-viewpoint image data. As a result, when the image file is read and displayed next time, the image that was last displayed by the user can be displayed without resetting the parameters. As a result, it is possible to save the user from setting parameters and to improve the operability of the apparatus incorporating the present technology.

なお、本実施例では、説明を簡単にする為、図4の例では3種類(人、風景、動物)の選択肢を例に挙げて説明したが、識別可能なものは選択肢に加えて構わない。更に、人の画像に関しても本実施例では、娘、息子、父、登録外人物というように、3人の登録者と登録外人物として説明したが、登録者を例えば、4人以上としても構わない。また、登録人物についても家族としたが、それに限定されるものではない。   In this embodiment, for the sake of simplicity, the example of FIG. 4 has been described with three types of options (people, scenery, and animals) as an example, but identifiable items may be added to the options. . Further, in the present embodiment, the image of a person has been described as three registrants and unregistered persons such as a daughter, son, father, and unregistered person, but the number of registrants may be four or more. Absent. Although the registered person is also a family, the present invention is not limited to this.

また、本実施例では画像ファイルのヘッダ情報に推奨パラメータが存在していない場合に、履歴情報に基づいてリフォーカス画像データを順次生成する例を説明した。しかしながら、画像ファイルのヘッダ情報に推奨パラメータが存在している場合においても、図2のステップS209の処理(すなわち図3で示す処理)のように、履歴情報に基づいてリフォーカス画像データを生成できる点に留意されたい。   Further, in this embodiment, an example in which refocus image data is sequentially generated based on history information when a recommended parameter does not exist in the header information of the image file has been described. However, even when the recommended parameter exists in the header information of the image file, the refocus image data can be generated based on the history information as in the process of step S209 in FIG. 2 (that is, the process shown in FIG. 3). Please note that.

実施例2は、再生リフォーカスモードを変更する処理について説明する。再生リフォーカスモードとは、例えば風景モード、人モードなどのようにリフォーカス対象となる被写体が設定された再生モードのことである。   Example 2 describes a process for changing the playback refocus mode. The reproduction refocus mode is a reproduction mode in which a subject to be refocused is set, such as a landscape mode and a person mode.

図1のハードブロック構成図を用いて再生リフォーカスモード変更の機能を実現する構成を説明する。再生リフォーカスモードの変更はユーザI/F部106を介して指示される。   A configuration for realizing the function of changing the playback refocus mode will be described with reference to the hardware block diagram of FIG. The change of the reproduction refocus mode is instructed via the user I / F unit 106.

全体制御部108は再生モード移行時、再生すべき画像に対するモードをリフォーカス演算部103に通知する。また、ユーザI/F部106で画像が切り替えられた場合も同様に、全体制御部108は再生すべき画像に対するモードをリフォーカス演算部103に通知する。さらに再生リフォーカスモードに応じて被写体として認識する対象が変わるので、再生リフォーカスモードが変更された場合、その対象となる被写体認識情報を画像解析部112に通知する。   The overall control unit 108 notifies the refocus calculation unit 103 of the mode for the image to be reproduced at the time of transition to the reproduction mode. Similarly, when the user I / F unit 106 switches the image, the overall control unit 108 notifies the refocus calculation unit 103 of the mode for the image to be reproduced. Further, since the target to be recognized as a subject changes according to the playback refocus mode, when the playback refocus mode is changed, the subject recognition information as the target is notified to the image analysis unit 112.

リフォーカス演算部103は全体制御部108からの通知を受けて外部メモリ109から多視点画像データを読み出してパンフォーカス画像データを生成する。また、画像解析部112の解析結果に基づいて再生リフォーカスモードに応じたリフォーカス演算を行い、再生リフォーカスモードに応じたリフォーカス画像データを生成する。   In response to the notification from the overall control unit 108, the refocus calculation unit 103 reads multi-viewpoint image data from the external memory 109 and generates pan focus image data. Further, based on the analysis result of the image analysis unit 112, a refocus calculation corresponding to the reproduction refocus mode is performed, and refocus image data corresponding to the reproduction refocus mode is generated.

画像解析部112はリフォーカス演算部103が生成したパンフォーカス画像データから、ユーザーが指定した再生リフォーカスモードの認識対象の有無を解析する。再生リフォーカスモードの認識対象が存在する場合はその領域情報を全体制御部108に通知する。   The image analysis unit 112 analyzes the presence / absence of a recognition target in the reproduction refocus mode designated by the user from the pan focus image data generated by the refocus calculation unit 103. When there is a recognition target in the reproduction refocus mode, the area information is notified to the overall control unit 108.

グラフィックプロセッサ104は解析結果に応じてディスプレイ105にリフォーカス演算部103で生成されたパンフォーカス画像もしくはリフォーカス画像を表示する。   The graphic processor 104 displays the pan focus image or the refocus image generated by the refocus calculation unit 103 on the display 105 according to the analysis result.

以下、本実施例の動作フローについて詳細に説明する。
図8に再生リフォーカスモード変更における動作フローチャートを示す。ステップS801にて、ユーザI/F106操作において再生モードへ移行するユーザ指示があった場合に再生モードに移行しステップS802へすすむ。ステップS802では、再生用の画像ファイルを読み込みステップS803へすすむ。ステップS803では、ステップS802で取得した画像ファイルからリフォーカス演算部103がパンフォーカス画像データを生成しステップS804へすすむ。
Hereinafter, the operation flow of the present embodiment will be described in detail.
FIG. 8 shows an operation flowchart in the change of the reproduction refocus mode. In step S801, when there is a user instruction to shift to the playback mode in the user I / F 106 operation, the mode shifts to the playback mode and proceeds to step S802. In step S802, an image file for reproduction is read and the process proceeds to step S803. In step S803, the refocus calculation unit 103 generates pan-focus image data from the image file acquired in step S802, and proceeds to step S804.

ステップS804では、現在のユーザー指定の再生リフォーカスモードを取得・保存しステップS805へすすむ。再生リフォーカスモードは一度設定されるとその内容が保存される。別の撮像シーンの画像に表示が切り換えられた場合、その保存された再生リフォーカスモードのまま別の画像が表示される。ステップS805では、ユーザI/F106から指定された再生リフォーカスモードの認識対象の認識処理を画像解析部112で行いステップS806へすすむ。   In step S804, the current user-specified playback refocus mode is acquired and stored, and the process proceeds to step S805. Once the playback refocus mode is set, its contents are saved. When the display is switched to an image of another imaging scene, another image is displayed in the stored reproduction refocus mode. In step S805, the image analysis unit 112 performs recognition processing for the recognition target in the reproduction refocus mode designated by the user I / F 106, and the process proceeds to step S806.

ステップS806では、認識処理の結果、指定された認識対象が存在する場合はステップS807にすすむ。指定された認識対象が存在しない場合はステップS809へすすむ。   In step S806, if the designated recognition target exists as a result of the recognition process, the process proceeds to step S807. If the designated recognition target does not exist, the process proceeds to step S809.

ステップS807では、解析結果をもとに再生リフォーカスモードに適したリフォーカス画像データを生成してステップS808にすすむ。ステップS808では、生成したリフォーカス画像データをディスプレイに表示しステップS810へすすむ。   In step S807, refocus image data suitable for the reproduction refocus mode is generated based on the analysis result, and the process proceeds to step S808. In step S808, the generated refocus image data is displayed on the display, and the process proceeds to step S810.

ステップS806で認識対象が画像内に存在しないと判定された場合、ステップS809では、パンフォーカス画像をディスプレイに表示しステップS810へすすむ。   If it is determined in step S806 that the recognition target does not exist in the image, in step S809, the pan focus image is displayed on the display, and the process proceeds to step S810.

ステップS810にて、ユーザー操作により再生リフォーカスモードが変更された場合、ステップS804へすすみ、再生リフォーカスモード設定の変更を行い、新しい再生リフォーカスモードに応じたリフォーカス画像データを生成して表示する。再生リフォーカスモードが変更されない場合はディスプレイ105の表示の変更を行う必要はないので画像はそのままでステップS811へすすむ。   If the playback refocus mode is changed by a user operation in step S810, the process proceeds to step S804, the playback refocus mode setting is changed, and refocus image data corresponding to the new playback refocus mode is generated and displayed. To do. If the playback refocus mode is not changed, there is no need to change the display on the display 105, and the process proceeds to step S811 while keeping the image as it is.

ステップS811にて、ユーザー操作に依り別の画像への表示変更の指示があった場合、ステップS802へすすみ、当該別の画像の画像ファイルを読み込む。その後は、ステップS804で保存した再生リフォーカスモードに応じたリフォーカス画像データを生成してディスプレイ105に表示する。別の画像への変更指示がなければディスプレイ105表示の変更を行う必要はないので終了する。   In step S811, if there is an instruction to change the display to another image due to a user operation, the process proceeds to step S802, and the image file of the other image is read. Thereafter, the refocus image data corresponding to the reproduction refocus mode stored in step S804 is generated and displayed on the display 105. If there is no instruction to change to another image, it is not necessary to change the display 105, and the process ends.

図9は再生リフォーカスモード変更するためのユーザーI/Fの一例を示したものである。グラフィックプロセッサ104はディスプレイ105上で図9(a)に示したポップアップメニューを表示し、ユーザーによって「人モード」「風景モード」等の各モードを選択される。これにより全体制御部108は、再生リフォーカスモードを切り替えることができる。また図9(b)はカメラに設置されるダイヤルを示しており、ユーザーがこの再生ダイヤルを回すことによって全体制御部108は再生リフォーカスモードを切り替えることができる。たとえば「パンフォーカスモード」にダイヤルを合わせればパンフォーカス画像が表示され、「人モード」にダイヤルを合わせれば人にリフォーカスされた画像が表示される。本実施例では図9(a)のコンボボックスのポップアップ表示と図9(b)のカメラのダイヤルを例に示した。しかし、再生リフォーカスモード変更するためのユーザーI/Fはこれらに限定するものではない。仮想ダイヤルをディスプレイ上に表示して再生リフォーカスモードを選択させるI/Fを用いても良いし、スライダーを設けて再生リフォーカスモードを選択するなどのI/Fを用いても良い。また、ユーザーからの音声を認識することでモードを選択してもよい。   FIG. 9 shows an example of a user I / F for changing the playback refocus mode. The graphic processor 104 displays the pop-up menu shown in FIG. 9A on the display 105, and each mode such as “person mode” and “landscape mode” is selected by the user. As a result, the overall control unit 108 can switch the playback refocus mode. FIG. 9B shows a dial installed in the camera. When the user turns this playback dial, the overall control unit 108 can switch the playback refocus mode. For example, when the dial is set to “Pan focus mode”, a pan focus image is displayed, and when the dial is set to “People mode”, a refocused image is displayed to a person. In the present embodiment, the pop-up display of the combo box in FIG. 9A and the camera dial in FIG. 9B are shown as examples. However, the user I / F for changing the playback refocus mode is not limited to these. An I / F for displaying a virtual dial on the display and selecting the playback refocus mode may be used, or an I / F such as providing a slider to select the playback refocus mode may be used. Further, the mode may be selected by recognizing the voice from the user.

図10はステップS810の再生リフォーカスモード変更によるリフォーカス動作の一例を示した図である。まず図10(a)は、例えばステップS809でパンフォーカス画像を表示した例を示しており、全ての物体にピントが合っている。   FIG. 10 is a diagram showing an example of the refocusing operation by changing the playback refocusing mode in step S810. First, FIG. 10A shows an example in which a pan focus image is displayed in step S809, for example, and all objects are in focus.

図10(b)は図10(a)のパンフォーカス画像がディスプレイ表示されているときに再生リフォーカスモードを変更する場合の図を示しており、コンボボックスを表示している。また、ユーザーが再生リフォーカスモードとして「人モード」を選択している。   FIG. 10B shows a case where the playback refocus mode is changed when the pan focus image of FIG. 10A is displayed on the display, and a combo box is displayed. In addition, the user selects “person mode” as the playback refocus mode.

図10(c)は図10(b)で再生リフォーカスモードを「人モード」に設定した際のリフォーカス処理後の画像を示しており、人にだけリフォーカスした画像が表示される。   FIG. 10C shows an image after the refocus processing when the reproduction refocus mode is set to “person mode” in FIG. 10B, and the refocused image is displayed only for the person.

図10(d)は「風景モード」が選択された場合の例を示すものであり、山などの風景のみにリフォーカスした画像が表示される。例えば図9(b)に示したダイヤル設定が「風景モード」に設定されている場合に再生モードに移行した場合にはこの画像がデフォルト表示される。   FIG. 10D shows an example when the “landscape mode” is selected, and an image refocused only on a landscape such as a mountain is displayed. For example, when the dial setting shown in FIG. 9B is set to “landscape mode”, this image is displayed by default when the playback mode is entered.

図10(e)は「動物モード」が選択された場合の例を示すものであり、右下の動物にリフォーカスした画像が表示される。   FIG. 10E shows an example when the “animal mode” is selected, and a refocused image is displayed on the lower right animal.

図10(f)は「人+風景モード」が選択された場合の例を示すものであり、人と風景の両方にリフォーカスした画像が表示される。   FIG. 10F shows an example when “person + landscape mode” is selected, and a refocused image is displayed for both the person and the landscape.

図11はステップS811の、再生モード中にユーザー操作によって別画像へ切りかえられた場合の表示例を示したものである。まず図11(a)は再生リフォーカスモードが「人モード」に設定されており、人にリフォーカスされた画像が表示されている。この画像を再生中にディスプレイ表示する画像データを切り替えた場合、ステップS804で再生リフォーカスモードは保存されているため、切り替えた後に表示される画像も「人モード」でリフォーカスされた画像データが表示される。図11(b)は切り替えた後のリフォーカス画像を示しており切り替え後も人にリフォーカスされて画像が表示されている。ユーザーが再生リフォーカスモードを意図的に変更しない限りは画像を切り替えても再生リフォーカスモードは継承される。   FIG. 11 shows a display example in the case of switching to another image by a user operation during the playback mode in step S811. First, in FIG. 11A, the playback refocus mode is set to “person mode”, and an image refocused by a person is displayed. When the image data to be displayed on the display is switched during reproduction of the image, the reproduction refocus mode is stored in step S804, and therefore the image data displayed after the switching is also refocused in the “human mode”. Is displayed. FIG. 11B shows a refocus image after switching, and the image is displayed after being refocused by a person even after switching. Unless the user intentionally changes the playback refocus mode, the playback refocus mode is inherited even if the image is switched.

実施例2の説明は、図1に示したハード構成に基づき行ったが、本実施例は、図12のように、図1で示したハード構成を図12に示すネットワークを含むシステム構成において適用することもできる。すなわち、多眼カメラ1201で撮像された多視点画像データの画像処理を、例えば、クラウドサーバー1204や、表示端末1205〜1207といった構成要素において実現することが可能である。図15は表示端末1205〜1207のブロック図を示す。図15に示すブロック図においては、多視点画像データがネットワークI/Fを介して取得されることを除いては図1で説明した処理と同等の処理を行うことができる。図13には、クラウドサーバー1204の詳細なハード構成ブロック図の例を示す。クラウドサーバー1204においては、図1の画像解析部112に相当する機能は、全体制御部1307で行われても良いし、あるいはネットワーク通信部1301を介して多眼カメラ1201や表示端末1205〜1207から解析結果を受信してもよい。   The description of the second embodiment is based on the hardware configuration shown in FIG. 1, but this embodiment applies the hardware configuration shown in FIG. 1 to a system configuration including the network shown in FIG. 12, as shown in FIG. You can also That is, the image processing of multi-viewpoint image data captured by the multi-view camera 1201 can be realized by components such as the cloud server 1204 and the display terminals 1205 to 1207, for example. FIG. 15 shows a block diagram of the display terminals 1205 to 1207. In the block diagram shown in FIG. 15, processing equivalent to that described in FIG. 1 can be performed except that multi-viewpoint image data is acquired via the network I / F. FIG. 13 shows an example of a detailed hardware configuration block diagram of the cloud server 1204. In the cloud server 1204, a function corresponding to the image analysis unit 112 in FIG. 1 may be performed by the overall control unit 1307, or from the multi-view camera 1201 and the display terminals 1205-1207 via the network communication unit 1301. The analysis result may be received.

実施例3は、リフォーカス画像データの生成に当たって、撮像後に作成されるデプスマップを用いる方法を説明する。デプスマップとは、撮像面から被写体までの距離を画素毎にマップ情報にまとめた距離情報を表すデータである。デプスマップの算出は、例えば多眼カメラ撮像部内の複数の撮像部の配置情報と、該複数の撮像部から得られる複数の画像から求めることが可能である。例えば、2つの画像間の特徴点の位置、対応するカメラの位置、および対応するカメラの画角を用いて三角測量を行い、各被写体までの距離を算出することができる。なお、撮像部の配置情報については、例えば図14に示したデータ形式で記憶されている情報の多視点画像ヘッダ情報1410から取得することが可能である。デプスマップの算出は、全体制御部108の制御により実行される。デプスマップの算出は上記例のほかに、様々な手法により算出することができる。   Example 3 describes a method of using a depth map created after imaging in generating refocus image data. The depth map is data representing distance information in which the distance from the imaging surface to the subject is compiled into map information for each pixel. The depth map can be calculated from, for example, arrangement information of a plurality of imaging units in the multi-view camera imaging unit and a plurality of images obtained from the plurality of imaging units. For example, the distance to each subject can be calculated by performing triangulation using the position of the feature point between two images, the position of the corresponding camera, and the angle of view of the corresponding camera. Note that the arrangement information of the imaging unit can be acquired from, for example, multi-view image header information 1410 stored in the data format illustrated in FIG. The depth map is calculated under the control of the overall control unit 108. The depth map can be calculated by various methods in addition to the above example.

本実施例では、デプスマップを用いてリフォーカス画像データの生成順位を決定する例を述べる。実施例1と異なるのは、図2におけるステップS207及び図3におけるステップS303であり、その他のメイン動作フローは図2及び図3と同様である。また、本実施例におけるハード構成ブロック図についても図1と同様である。なお、本実施例ではデプスマップに基づいてリフォーカス画像データの生成順位を決定するため、実施例1で説明した履歴情報に基づく処理は省略することができる。   In this embodiment, an example in which the generation order of refocus image data is determined using a depth map will be described. The difference from the first embodiment is step S207 in FIG. 2 and step S303 in FIG. 3, and the other main operation flow is the same as in FIG. 2 and FIG. The hardware configuration block diagram in the present embodiment is also the same as FIG. In this embodiment, since the generation order of the refocus image data is determined based on the depth map, the processing based on the history information described in the first embodiment can be omitted.

まず、多視点画像データを撮像後または画像ファイルを読み込み後に、全体制御部108がデプスマップを作成すると、該デプスマップを距離毎の画素数を示す形式に変換する。変換後の形式を示した図を図16に示す。同図は、画面内における距離毎の画素数分布(ヒストグラム)を示しており、画素数の多い箇所は、当該距離に存在する被写体の画面に占める割合が高いことを意味する。図16の例では、上位4か所のピークa、b、c、dを示しており、画素数ではc→a→d→bの順となっている。   First, when the overall control unit 108 creates a depth map after capturing multi-viewpoint image data or reading an image file, the depth map is converted into a format indicating the number of pixels for each distance. A diagram showing the format after conversion is shown in FIG. This figure shows a pixel number distribution (histogram) for each distance in the screen, and a portion with a large number of pixels means that the ratio of the subject existing at the distance to the screen is high. In the example of FIG. 16, the top four peaks a, b, c, and d are shown, and the number of pixels is in the order of c → a → d → b.

次に、図16に示した形式のデータにおいて、全体制御部108が各画素に対して画面中心からの距離に応じた係数を乗算する(重み付処理)。該係数は画面中心が最も高く、中心からの距離に応じて低くなっていく係数である。図17に係数の性質を表した図を示す。   Next, in the data in the format shown in FIG. 16, the overall control unit 108 multiplies each pixel by a coefficient corresponding to the distance from the screen center (weighting process). The coefficient is the highest at the center of the screen and decreases with the distance from the center. FIG. 17 is a diagram showing the properties of the coefficients.

図18には、図16で示した距離毎の画素数分布データ(ヒストグラム)に対して、図17で示した係数を乗算した結果を示す。該乗算により、例えば背景が距離一定の壁であった場合などに、背景領域の分布が高くなってしまい、生成順位が高くなってしまうことを防止することが可能である。   FIG. 18 shows the result of multiplying the pixel number distribution data (histogram) for each distance shown in FIG. 16 by the coefficient shown in FIG. By this multiplication, for example, when the background is a wall with a constant distance, it is possible to prevent the background region distribution from increasing and the generation order from increasing.

図18の例では、上位3か所のピークの順位は、a→c→bとなっている。該乗算結果を用いてリフォーカス画像データの生成順位を決定する。尚、上記処理やデプスマップ作成処理は、図1における全体制御部108がメモリRAM102、FlashROM107、外部メモリ109などに記憶されているプログラムを読み出して実行することで行われる。   In the example of FIG. 18, the ranks of the top three peaks are a → c → b. The generation order of the refocus image data is determined using the multiplication result. The above-described processing and depth map creation processing are performed when the overall control unit 108 in FIG. 1 reads out and executes programs stored in the memory RAM 102, the Flash ROM 107, the external memory 109, and the like.

以下、本実施例におけるリフォーカス画像データの生成順位の決定方法について詳細に述べる。   Hereinafter, a method for determining the refocus image data generation order in the present embodiment will be described in detail.

図19に決定動作フローを示す。本動作も、図1における全体制御部108がRAM102、FlashROM107、外部メモリ109などに記憶されているプログラムを読み出して実行することで行われる。   FIG. 19 shows a determination operation flow. This operation is also performed when the overall control unit 108 in FIG. 1 reads and executes a program stored in the RAM 102, the Flash ROM 107, the external memory 109, or the like.

ステップS1901では、全体制御部108が上記乗算結果データを読み込む。ステップS1902では、全体制御部108がステップS1901で読み込んだデータからピークを検出する。例えばあるしきい値以上の画素数を有する距離をピークとして検出することができる。なお、ヒストグラムにおけるピーク検出方法は、上述したほか様々な手法を用いることが可能である。ステップS1903では、全体制御部108が検出されたピークを画素数順にソートする。ステップS1904では、全体制御部108がソート順にピークを探索し、或る順位のピークに対して、予め決められた隣接範囲内に存在するそれより下位順位のピークは除外する。これにより、ごく近距離にピークが集中することを防止することが出来る。   In step S1901, the overall control unit 108 reads the multiplication result data. In step S1902, the overall control unit 108 detects a peak from the data read in step S1901. For example, a distance having the number of pixels equal to or greater than a certain threshold can be detected as a peak. In addition to the above, various methods can be used for the peak detection method in the histogram. In step S1903, the overall control unit 108 sorts the detected peaks in order of the number of pixels. In step S1904, the overall control unit 108 searches for peaks in the sort order, and excludes lower rank peaks than those existing in a predetermined adjacent range with respect to a certain rank peak. Thereby, it is possible to prevent the peaks from being concentrated at a very short distance.

図18の例では、既に述べた通り、上位3か所のピークの順位は、a→c→bとなっている。従って、各ピークに相当する距離であるA、C、Bを焦点距離とするリフォーカス画像データが生成順位1位から3位までとなる。上記で決定されたリフォーカス画像データの生成順位に従い、図2のステップS207では、生成順位が1位のリフォーカス画像データを生成する。図3のステップS303では、生成順位の高い順にリフォーカス画像データを生成していく。   In the example of FIG. 18, as already described, the ranking of the top three peaks is a → c → b. Therefore, the refocus image data having the focal lengths A, C, and B, which are distances corresponding to the respective peaks, are in the first to third generation order. According to the refocus image data generation order determined above, in step S207 of FIG. 2, refocus image data with the generation order of 1st is generated. In step S303 in FIG. 3, refocus image data is generated in descending order of generation order.

以上、述べた様な構成により、過去の操作履歴などに依存すること無く、又画面内の認識機能を必要とせず、画面内に占める距離毎の分布からリフォーカス画像を生成することが可能となる為、簡易な構成でユーザーの利便性を高める効果がある。   With the configuration as described above, it is possible to generate a refocus image from the distribution for each distance occupied in the screen without depending on the past operation history or the like and without requiring a recognition function in the screen. Therefore, there is an effect of improving user convenience with a simple configuration.

尚、本実施例で用いたリフォーカス画像データの生成順位決定手法は、他の決定手法である実施例1や実施例2などと組み合わせて実施することも可能である。又、本実施例では、複数の画像を取得する多眼カメラ撮像部及び生成画像を表示するディスプレイを一つの装置内に備えた構成で説明を行ったが、これらを外部の装置に備えた構成であっても良い。すなわち、本実施例は、図12のように、図1で示したハード構成を図12に示すネットワークを含むシステム構成において適用することもできる。すなわち、多眼カメラ1201で撮像された多視点画像データの画像処理を、例えば、クラウドサーバー1204や、表示端末1205〜1207といった構成要素において実現することが可能である。図15は表示端末1205〜1207のブロック図を示す。図15に示すブロック図においては、多視点画像データがネットワークI/Fを介して取得されることを除いては図1で説明した処理と同等の処理を行うことができる。図13には、クラウドサーバー1204の詳細なハード構成ブロック図の例を示す。クラウドサーバー1204においては、図1の画像解析部112に相当する機能は、全体制御部1307で行われても良いし、あるいはネットワーク通信部1301を介して多眼カメラ1201や表示端末1205〜1207から解析結果を受信してもよい。   It should be noted that the refocus image data generation order determination method used in the present embodiment can be implemented in combination with other determination methods such as the first embodiment and the second embodiment. Further, in this embodiment, the multi-camera imaging unit that acquires a plurality of images and the display that displays the generated image are described in the configuration provided in one device, but the configuration in which these are provided in an external device. It may be. That is, this embodiment can be applied to a system configuration including the network shown in FIG. 12 in place of the hardware configuration shown in FIG. 1 as shown in FIG. That is, the image processing of multi-viewpoint image data captured by the multi-view camera 1201 can be realized by components such as the cloud server 1204 and the display terminals 1205 to 1207, for example. FIG. 15 shows a block diagram of the display terminals 1205 to 1207. In the block diagram shown in FIG. 15, processing equivalent to that described in FIG. 1 can be performed except that multi-viewpoint image data is acquired via the network I / F. FIG. 13 shows an example of a detailed hardware configuration block diagram of the cloud server 1204. In the cloud server 1204, a function corresponding to the image analysis unit 112 in FIG. 1 may be performed by the overall control unit 1307, or from the multi-view camera 1201 and the display terminals 1205-1207 via the network communication unit 1301. The analysis result may be received.

実施例3では、リフォーカス画像データの生成順位の決定方法として、デプスマップ情報のみを用いて、演算を行う例を説明した。実施例4では、画像解析部112の解析結果として出力される被写体の領域情報を、デプスマップ情報に適用することで、リフォーカス画像生成順位を決定する例について説明する。   In the third embodiment, as an example of a method for determining the generation order of refocus image data, an example in which calculation is performed using only depth map information has been described. In the fourth embodiment, an example in which the refocus image generation order is determined by applying the subject region information output as the analysis result of the image analysis unit 112 to the depth map information will be described.

即ち、本実施例では、画像解析部112の解析結果が既に出力され、識別コードと領域の座標情報がRAM102、FlashROM107、外部メモリ109のいずれかに記憶されていると想定する。また、デプスマップも上記メモリのいずれかに記憶されていると想定する。   That is, in this embodiment, it is assumed that the analysis result of the image analysis unit 112 has already been output, and the identification code and area coordinate information are stored in any of the RAM 102, the Flash ROM 107, and the external memory 109. It is assumed that the depth map is also stored in any of the above memories.

以下、図20に示す動作フローに従い、実施例3との差分であるところの、本実施例における画像生成順位を決定する為のデータ生成について説明する。本動作は、図1における全体制御部108がRAM102、FlashROM107、外部メモリ109などに記憶されているプログラムを読み出して実行することで行われる。   Hereinafter, according to the operation flow shown in FIG. 20, data generation for determining the image generation order in the present embodiment, which is a difference from the third embodiment, will be described. This operation is performed when the overall control unit 108 in FIG. 1 reads and executes a program stored in the RAM 102, the Flash ROM 107, the external memory 109, or the like.

まず、ステップS2001では、全体制御部108が画像解析結果をRAM102から読み込む。ステップS2002では、全体制御部108が、読み込んだ結果から、抽出された被写体の個数を判定し、被写体数をセットする。ステップS2003では、全体制御部108が各被写体について領域情報から重心位置を算出する。ステップS2004では、全体制御部108が被写体番号xに初期値ゼロをセットする。   First, in step S2001, the overall control unit 108 reads an image analysis result from the RAM 102. In step S2002, the overall control unit 108 determines the number of extracted subjects from the read result, and sets the number of subjects. In step S2003, the overall control unit 108 calculates the center of gravity position from the area information for each subject. In step S2004, the overall control unit 108 sets an initial value zero to the subject number x.

ステップS2005では、全体制御部108が被写体番号x=0の座標情報を読み込み、被写体番号x=0の被写体が存在する座標について、デプスマップを参照し、距離毎に画素数を積算する。このとき、ステップS2003で算出した各被写体の重心位置を参照し、画面中心位置から重心位置までの距離に応じた係数を乗算して積算を実施する。該係数は実施例3における図17と同様に画面中心が最も高く、中心からの距離に応じて低くなっていく係数とすることができる。   In step S2005, the overall control unit 108 reads the coordinate information of the subject number x = 0, refers to the depth map for the coordinates where the subject of the subject number x = 0 exists, and accumulates the number of pixels for each distance. At this time, referring to the gravity center position of each subject calculated in step S2003, multiplication is performed by multiplying by a coefficient corresponding to the distance from the screen center position to the gravity center position. The coefficient can be a coefficient that is highest at the center of the screen as in FIG. 17 in the third embodiment, and decreases according to the distance from the center.

ステップS2006では、全体制御部108が或る被写体に関して全画素の積算が完了したか否かを判定し、完了していなければ、ステップS2005に戻り、積算を続行する。完了していれば、ステップS2007へすすむ。ステップS2007では、全体制御部108が全被写体について積算が完了したか否かを判定し、完了していれば終了し、完了していなければ、ステップS2008へすすむ。ステップS2008では、被写体番号xを1加算し、ステップS2005へ戻り、積算を継続する。このときの積算は、被写体毎ではなく、全被写体に関する画素を全て積算していく。   In step S2006, the overall control unit 108 determines whether or not the integration of all the pixels has been completed for a certain subject. If the integration has not been completed, the process returns to step S2005 to continue the integration. If completed, the process proceeds to step S2007. In step S2007, the overall control unit 108 determines whether or not integration has been completed for all subjects. If completed, the process ends. If not, the process proceeds to step S2008. In step S2008, the subject number x is incremented by 1, and the process returns to step S2005 to continue the integration. The integration at this time is not for each subject but for all the pixels related to all subjects.

図21に、上記動作における距離毎の画素数分布(ヒストグラム)の例を示す。図21では、aからfまでの6個の被写体が抽出されている例である。aからfまでで示した各閉曲面領域がそれぞれの被写体の画素数を表しており、全体のエンベロープが全被写体の画素数を積算したヒストグラムとなる。後述する生成順位決定は、エンベロープを利用して行う。   FIG. 21 shows an example of the pixel number distribution (histogram) for each distance in the above operation. FIG. 21 shows an example in which six subjects from a to f are extracted. Each closed curved surface area indicated by a to f represents the number of pixels of each subject, and the entire envelope is a histogram obtained by integrating the number of pixels of all subjects. The generation order determination described later is performed using an envelope.

図21(a)は、画面中心位置から重心位置までの距離に応じた係数を乗ずる前のヒストグラム、図21(b)は、係数を乗じた後のヒストグラムである。図21(a)での上位3か所のピークは、距離がB→C→Aとなっているが、図21(b)ではF→E→Dとなっている。   FIG. 21A is a histogram before being multiplied by a coefficient corresponding to the distance from the screen center position to the center of gravity position, and FIG. 21B is a histogram after being multiplied by the coefficient. The top three peaks in FIG. 21A have a distance B → C → A, but in FIG. 21B, F → E → D.

リフォーカス画像データ生成順位の決定方法及び順位に応じた画像生成については実施例3と同様とすることができる。以上、述べた様な構成に依れば、実施例3で記載した効果に加えて、以下の効果が期待出来る。即ち、被写体認識結果に基づきリフォーカス画像生成順位を決定する為、被写体として認識されなかった背景などを除外することが可能である。   The determination method of the refocus image data generation order and the image generation according to the order can be the same as in the third embodiment. According to the configuration as described above, the following effects can be expected in addition to the effects described in the third embodiment. That is, since the refocus image generation order is determined based on the subject recognition result, it is possible to exclude a background that has not been recognized as a subject.

尚、本実施例で用いたリフォーカス画像データ生成順位の決定手法は、他の決定手法である実施例1や実施例2などと組み合わせて実施することも可能である。例えば、人モードを指定された場合、被写体のうち、人だけに限定して本実施例の手法を適用するといった例や、係数を画面中心位置からの距離だけでなくモードにより変更するといった例が挙げられる。また、実施例1で説明した履歴情報を用いて、操作頻度が所定のしきい値以上の被写体に限定して本実施例の手法を適用してもよい。   Note that the refocus image data generation order determination method used in this embodiment can be combined with other determination methods such as the first embodiment and the second embodiment. For example, when the human mode is designated, there are an example in which the method of the present embodiment is applied only to a person among subjects, and an example in which the coefficient is changed not only by the distance from the screen center position but also by the mode. Can be mentioned. In addition, using the history information described in the first embodiment, the technique of this embodiment may be applied only to subjects whose operation frequency is equal to or higher than a predetermined threshold.

実施例4の説明は、図1に示したハード構成に基づき行ったが、これらの実施例は、図12のように、図1で示したハード構成を一構成要素の多眼カメラ1201で表し、ネットワークなどを含んだシステム構成に適用することも出来る。この場合、実施例4で説明した画像処理を、多眼カメラ1201で撮像された多視点画像データの画像処理を、例えば、クラウドサーバー1204や、表示端末1205〜1207といった構成要素において実現することが可能である。図15は表示端末1205〜1207のブロック図を示す。図15に示すブロック図においては、多視点画像データがネットワークI/Fを介して取得されることを除いては図1で説明した処理と同等の処理を行うことができる。図13には、クラウドサーバー1204の詳細なハード構成ブロック図の例を示す。クラウドサーバー1204においては、図1の画像解析部112に相当する機能は、全体制御部1307で行われても良いし、あるいはネットワーク通信部1301を介して多眼カメラ1201や表示端末1205〜1207から解析結果を受信してもよい。   The description of the fourth embodiment is based on the hardware configuration shown in FIG. 1, but in these embodiments, as shown in FIG. 12, the hardware configuration shown in FIG. It can also be applied to a system configuration including a network. In this case, the image processing described in the fourth embodiment can be realized in the components such as the cloud server 1204 and the display terminals 1205 to 1207, for example, image processing of multi-viewpoint image data captured by the multi-view camera 1201. Is possible. FIG. 15 shows a block diagram of the display terminals 1205 to 1207. In the block diagram shown in FIG. 15, processing equivalent to that described in FIG. 1 can be performed except that multi-viewpoint image data is acquired via the network I / F. FIG. 13 shows an example of a detailed hardware configuration block diagram of the cloud server 1204. In the cloud server 1204, a function corresponding to the image analysis unit 112 in FIG. 1 may be performed by the overall control unit 1307, or from the multi-view camera 1201 and the display terminals 1205-1207 via the network communication unit 1301. The analysis result may be received.

<その他の実施例>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other examples>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (9)

複数の視点位置から撮像して得られた多視点画像データが示す画像の奥行きを示す距離情報に基づいて焦点を合わせる対象の順位を決定する決定手段と、
前記決定手段で決定された順位に従って、前記対象に焦点を合わせた合成画像データを前記多視点画像データから順次生成する生成手段と
を備えることを特徴とする画像処理装置。
Determining means for determining the order of objects to be focused based on distance information indicating the depth of an image indicated by multi-viewpoint image data obtained by imaging from a plurality of viewpoint positions;
An image processing apparatus comprising: generation means for sequentially generating composite image data focused on the object from the multi-viewpoint image data according to the order determined by the determination means.
前記決定手段は、前記多視点画像を構成する各画素のデプスマップから距離毎の画素数を算出し、前記算出結果に基づいて前記順位を決定することを特徴とする請求項1に記載の画像処理装置。   2. The image according to claim 1, wherein the determination unit calculates the number of pixels for each distance from a depth map of each pixel constituting the multi-viewpoint image, and determines the order based on the calculation result. Processing equipment. 前記決定手段は、前記算出した距離毎の画素数に対して、さらに各画素の画面中心からの距離に応じた係数を乗じた結果に基づき前記順位を決定することを特徴とする請求項2に記載の画像処理装置。   The said determination means determines the said order | rank based on the result of further multiplying the coefficient according to the distance from the screen center of each pixel with respect to the calculated pixel number for every distance. The image processing apparatus described. 前記多視点画像データが示す画像に含まれる物体を認識する認識手段をさらに備え、
前記決定手段は、前記認識手段で認識された物体ごとに前記順位を決定することを特徴とする請求項1から3のいずれかに記載の画像処理装置。
Recognizing means for recognizing an object included in the image indicated by the multi-viewpoint image data;
The image processing apparatus according to claim 1, wherein the determination unit determines the order for each object recognized by the recognition unit.
前記決定手段は、前記認識手段で認識された物体の重心位置を算出し、各物体の画面中心位置から前記重心位置までの距離に応じた係数を乗じた結果に基づき前記順位を決定することを特徴とする請求項4に記載の画像処理装置。   The determining means calculates the centroid position of the object recognized by the recognizing means, and determines the rank based on a result of multiplying a coefficient corresponding to the distance from the screen center position of each object to the centroid position. The image processing apparatus according to claim 4. 複数の視点位置から撮像して得られた多視点画像データから、前記多視点画像データが示す多視点画像の奥行きを示す奥行き情報に応じた対象に焦点を合わせた合成画像データを、ユーザーからのパラメータの入力なしで表示する表示手段を
有することを特徴とする画像処理装置。
From the multi-viewpoint image data obtained by imaging from a plurality of viewpoint positions, the composite image data focused on the object corresponding to the depth information indicating the depth of the multi-viewpoint image indicated by the multi-viewpoint image data is received from the user. An image processing apparatus comprising display means for displaying without inputting parameters.
複数の視点位置から撮像して得られた多視点画像データが示す画像の奥行きを示す距離情報に基づいて焦点を合わせる対象の順位を決定する決定ステップと、
前記決定ステップで決定された順位に従って、前記対象に焦点を合わせた合成画像データを前記多視点画像データから順次生成する生成ステップと
を備えることを特徴とする画像処理方法。
A determination step of determining the order of objects to be focused based on distance information indicating the depth of an image indicated by multi-viewpoint image data obtained by imaging from a plurality of viewpoint positions;
An image processing method comprising: a generation step of sequentially generating composite image data focused on the object from the multi-viewpoint image data according to the order determined in the determination step.
複数の視点位置から撮像して得られた多視点画像データから、前記多視点画像データが示す多視点画像の奥行きを示す奥行き情報に応じた対象に焦点を合わせた合成画像データを、ユーザーからのパラメータの入力なしで表示する表示ステップを
有することを特徴とする画像処理方法。
From the multi-viewpoint image data obtained by imaging from a plurality of viewpoint positions, the composite image data focused on the object corresponding to the depth information indicating the depth of the multi-viewpoint image indicated by the multi-viewpoint image data is received from the user. An image processing method comprising a display step of displaying without inputting parameters.
コンピュータを請求項1から6のいずれかに記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to claim 1.
JP2012130866A 2012-06-08 2012-06-08 Image processing apparatus and image processing method Pending JP2013255172A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012130866A JP2013255172A (en) 2012-06-08 2012-06-08 Image processing apparatus and image processing method
US13/908,101 US20130329068A1 (en) 2012-06-08 2013-06-03 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012130866A JP2013255172A (en) 2012-06-08 2012-06-08 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2013255172A true JP2013255172A (en) 2013-12-19

Family

ID=49952326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012130866A Pending JP2013255172A (en) 2012-06-08 2012-06-08 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2013255172A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017098663A (en) * 2015-11-19 2017-06-01 キヤノン株式会社 Image processing device and image processing method
JP2018514969A (en) * 2015-03-05 2018-06-07 トムソン ライセンシングThomson Licensing Light field metadata

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018514969A (en) * 2015-03-05 2018-06-07 トムソン ライセンシングThomson Licensing Light field metadata
JP2017098663A (en) * 2015-11-19 2017-06-01 キヤノン株式会社 Image processing device and image processing method

Similar Documents

Publication Publication Date Title
JP6730690B2 (en) Dynamic generation of scene images based on the removal of unwanted objects present in the scene
US9036072B2 (en) Image processing apparatus and image processing method
JP6207202B2 (en) Image processing apparatus and image processing method
JP6501501B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING SYSTEM, AND PROGRAM
CN114245905A (en) Depth aware photo editing
EP3395066B1 (en) Depth map generation apparatus, method and non-transitory computer-readable medium therefor
US20130329068A1 (en) Image processing apparatus and image processing method
CN107771391B (en) Method and apparatus for determining exposure time of image frame
KR20180005168A (en) Privacy-sensitive query on the localization zone description file
US11157749B2 (en) Crowd state recognition device, learning method, and learning program
JP7223079B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND IMAGING APPARATUS
US9600712B2 (en) Method and apparatus for processing digital images using face recognition
CN110361005B (en) Positioning method, positioning device, readable storage medium and electronic equipment
CN105247567A (en) Image refocusing
JP2013254151A (en) Image processing apparatus and image processing method
JP2015115818A (en) Image processing apparatus, image processing method, and program
JP2018029270A (en) Image processing apparatus, control method thereof, imaging apparatus, and program
JP2013255172A (en) Image processing apparatus and image processing method
US20220060672A1 (en) Video reproduction apparatus, reproduction method, and program
CN105447885B (en) The method and apparatus for calculating parallax
JP6103826B2 (en) Image processing apparatus, image processing method, and program
JP2019087924A (en) Image processing apparatus, imaging apparatus, image processing method, and program
KR20210048798A (en) Method for determining pose of camera provided in user equipment and location calculation server performing method
JP6672085B2 (en) Information processing apparatus, information processing method, and program
JP2017228873A (en) Image processing apparatus, imaging device, control method and program