JP2018133094A - Image processing apparatus, image display device, and imaging device - Google Patents

Image processing apparatus, image display device, and imaging device Download PDF

Info

Publication number
JP2018133094A
JP2018133094A JP2018047109A JP2018047109A JP2018133094A JP 2018133094 A JP2018133094 A JP 2018133094A JP 2018047109 A JP2018047109 A JP 2018047109A JP 2018047109 A JP2018047109 A JP 2018047109A JP 2018133094 A JP2018133094 A JP 2018133094A
Authority
JP
Japan
Prior art keywords
image
subject
refocus
control unit
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018047109A
Other languages
Japanese (ja)
Inventor
静二 ▲高▼野
静二 ▲高▼野
Seiji Takano
内山 貴之
Takayuki Uchiyama
貴之 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018047109A priority Critical patent/JP2018133094A/en
Publication of JP2018133094A publication Critical patent/JP2018133094A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a user to comfortably check a photographed image.SOLUTION: An example of an image processing apparatus of the present invention comprises: a reading part that reads image data from which at least two images photographed in different photographing conditions can be created; an image creation part that creates, from the image data, an image with a depth of field within a first range; and a display control part that displays, on a monitor, the image created by the image creation part. When a subject included in the image is specified, the image creation part creates, from the image data, an image with a depth of field within a second range smaller than the first range.SELECTED DRAWING: Figure 1

Description

本発明は、撮影条件の後設定が可能な撮影画像を処理する画像処理装置、画像表示装置、及び撮像装置に関する。   The present invention relates to an image processing apparatus, an image display apparatus, and an imaging apparatus that process a captured image that can be set after an imaging condition.

近年、撮影条件の後設定が可能な撮影画像を取得するカメラが注目されつつある。このようなカメラとして有名なのが、ライトフィールドカメラ(特許文献1)、フォーカスブラケット撮影可能なカメラ(特許文献2、4)、カメラアレイ(特許文献3)などである。   In recent years, cameras that acquire captured images that can be set after imaging conditions have been attracting attention. As such cameras, there are a light field camera (Patent Document 1), a camera capable of taking a focus bracket (Patent Documents 2 and 4), a camera array (Patent Document 3) and the like.

ライトフィールドカメラ(特許文献1)によると、撮影距離(被写界における合焦面の距離)、絞り値、視点を後設定することが可能であり、フォーカスブラケット撮影可能なカメラ(特許文献2、4)によると、撮影距離を後設定することが可能であり、カメラアレイ(特許文献3)によると、撮影距離、視点(又は絞り値)を後設定することが可能である。   According to the light field camera (Patent Document 1), it is possible to set the shooting distance (distance of the in-focus surface in the object field), the aperture value, and the viewpoint, and the camera capable of focus bracket shooting (Patent Document 2, According to 4), the shooting distance can be set later, and according to the camera array (Patent Document 3), the shooting distance and the viewpoint (or aperture value) can be set later.

また、特許文献2には、フォーカスブラケット撮影された撮影画像群に含まれる複数の合焦画像に優先順位をつけ、優先順位の最も高い合焦画像の表示時間をスライドショー表示の際に長くする技術も開示されている。   Japanese Patent Application Laid-Open No. 2004-228688 gives a priority to a plurality of in-focus images included in a group of captured images taken with focus bracketing, and lengthens the display time of the in-focus image with the highest priority when displaying a slide show. Is also disclosed.

また、特許文献4には、上下方向にスクロールするスクロールバーの操作に応じて撮影画像の撮影距離を調整する技術や、ユーザがポインタで指定した注目被写体に対して撮影画像を合焦させる技術なども開示されている。   Patent Document 4 discloses a technique for adjusting a shooting distance of a shot image in accordance with an operation of a scroll bar that scrolls in the vertical direction, a technique for focusing a shot image on a target subject designated by a user with a pointer, and the like. Is also disclosed.

米国特許公報第7936392号明細書US Patent Publication No. 7936392 特開2010−166519号公報JP 2010-166519 A 特開2011−22796号公報JP 2011-22796 A 特開2003−141506号公報JP 2003-141506 A

しかしながら、撮影画像の確認をユーザが快適に行うには、依然として改善の余地があった。   However, there is still room for improvement in order for the user to check the captured image comfortably.

そこで本発明は、撮影画像の確認をユーザが快適に行うことを目的とする。   Accordingly, an object of the present invention is to allow a user to comfortably check a captured image.

本発明の画像処理装置の一例は、異なる撮影条件で撮影した少なくとも2つの画像を生成可能な画像データを読み込む読み込み部と、前記画像データから、被写界深度が第1の範囲である画像を生成する画像生成部と、前記画像生成部によって生成された前記画像をモニタへ表示する表示制御部と、を備え、前記画像生成部は、前記画像に含まれる被写体が特定されると、前記画像データから、被写界深度が前記第1の範囲より小さい第2の範囲の画像を生成する。   An example of the image processing apparatus of the present invention includes a reading unit that reads image data that can generate at least two images shot under different shooting conditions, and an image whose depth of field is within a first range from the image data. An image generation unit to generate, and a display control unit to display the image generated by the image generation unit on a monitor. When the subject included in the image is specified, the image generation unit From the data, an image having a second range in which the depth of field is smaller than the first range is generated.

本発明の画像表示装置の一例は、本発明の画像処理装置の何れかの例と、前記画像を表示する前記モニタとを備える。   An example of the image display device of the present invention includes any one of the image processing devices of the present invention and the monitor that displays the image.

本発明の撮像装置の一例は、前記画像データを取得する撮像部と、本発明の画像表示装置の一例とを備える。   An example of the imaging apparatus of the present invention includes an imaging unit that acquires the image data, and an example of the image display apparatus of the present invention.

本発明によれば、撮影画像の確認をユーザが快適に行うことができる。   According to the present invention, a user can comfortably check a captured image.

ライトフィールドカメラを説明する図である。It is a figure explaining a light field camera. 画像ファイル及び優先度テーブルの構成例である。It is an example of a structure of an image file and a priority table. 第1実施形態のスライドショー再生モードを説明する図である。It is a figure explaining the slide show reproduction mode of 1st Embodiment. 第1実施形態の登録モードを説明する図である。It is a figure explaining the registration mode of 1st Embodiment. 第2実施形態の撮影モードにおけるライトフィールドカメラのフローチャートである。It is a flowchart of the light field camera in imaging | photography mode of 2nd Embodiment. 第3実施形態の通常再生モードを説明する図である。It is a figure explaining the normal reproduction mode of 3rd Embodiment. 第4実施形態の通常再生モードを説明する図である。It is a figure explaining the normal reproduction mode of 4th Embodiment. 第5実施形態の通常再生モードを説明する図である。It is a figure explaining normal reproduction mode of a 5th embodiment. 第5実施形態の通常再生モード(図8の続き)を説明する図である。It is a figure explaining normal reproduction mode (continuation of Drawing 8) of a 5th embodiment.

[第1実施形態]
以下、本発明の第1実施形態としてライトフィールドカメラを説明する。
[First Embodiment]
Hereinafter, a light field camera will be described as a first embodiment of the present invention.

図1(A)は、ライトフィールドカメラ10の構成例であり、図1(B)は、ライトフィールドカメラ10を背面から見た様子の一例である。   FIG. 1A is a configuration example of the light field camera 10, and FIG. 1B is an example of the light field camera 10 viewed from the back.

図1(A)に示すとおりライトフィールドカメラ10には、撮像部11、画像処理部15、カメラ制御部16、システム制御部17、記録インタフェース18、表示部19、操作部材20などが備えられる。このうち撮像部11には、撮影レンズ12、マイクロレンズアレイ13、撮像素子14などが備えられ、記録インタフェース18には記憶媒体であるカードメモリ21が装着される。   As shown in FIG. 1A, the light field camera 10 includes an imaging unit 11, an image processing unit 15, a camera control unit 16, a system control unit 17, a recording interface 18, a display unit 19, an operation member 20, and the like. Among these, the imaging unit 11 includes a photographic lens 12, a microlens array 13, an imaging device 14, and the like, and a card memory 21 that is a storage medium is attached to the recording interface 18.

撮影レンズ12は、被写界からの光束を結像する結像レンズである。この撮影レンズ12の実際の撮影条件は調節可能であってもよいが、ここでは簡単のため不変と仮定する。また、撮影レンズ12は、仕様の異なる他の撮影レンズとの間で交換可能であってもよいが、ここでは簡単のため、撮影条件が不変の撮影レンズ12がライトフィールドカメラ10に常時装着されていると仮定する。   The taking lens 12 is an imaging lens that forms an image of a light beam from the object scene. The actual photographing conditions of the photographing lens 12 may be adjustable, but here it is assumed that they are unchanged for simplicity. The photographic lens 12 may be interchangeable with other photographic lenses having different specifications. However, for the sake of simplicity, the photographic lens 12 whose photographing conditions are unchanged is always attached to the light field camera 10. Assuming that

なお、撮影レンズ12の実際の撮影条件には、撮影レンズ12の実際の撮影距離(撮影レンズ12に関してマイクロレンズアレイ13と共役な面までの距離)と、撮影レンズ12の実際の絞り値と、撮影レンズ12の実際の画角との少なくとも一つが含まれる。   The actual photographing conditions of the photographing lens 12 include an actual photographing distance of the photographing lens 12 (a distance to the surface conjugate with the microlens array 13 with respect to the photographing lens 12), an actual aperture value of the photographing lens 12, and At least one of the actual angle of view of the photographing lens 12 is included.

因みに、撮影レンズ12の実際の撮影距離が変化すると、後設定可能な撮影距離の範囲(リフォーカス範囲)が変化し、撮影レンズ12の実際の絞り値が変化すると、後設定可能な絞り値の範囲が変化し、撮影レンズ12の実際の画角が変化すると、後設定可能な視点の範囲が変化するものの、何れの範囲も実際の撮影距離及び実際の絞り値及び実際の画角から一義的に決まる。   Incidentally, when the actual shooting distance of the photographing lens 12 changes, the range of the photographing distance that can be set later (refocus range) changes, and when the actual aperture value of the photographing lens 12 changes, the aperture value that can be set later is changed. When the range changes and the actual angle of view of the photographic lens 12 changes, the range of the viewpoint that can be set later changes, but each range is unambiguous from the actual shooting distance, the actual aperture value, and the actual angle of view. It is decided.

マイクロレンズアレイ13は、撮影レンズ12の結像面近傍の面に複数のマイクロレンズを二次元状に配列してなる。   The microlens array 13 is formed by two-dimensionally arranging a plurality of microlenses on a surface in the vicinity of the imaging surface of the photographing lens 12.

撮像素子14は、マイクロレンズアレイ13に属する個々のマイクロレンズの後側に複数の受光素子(画素)を二次元状に配列してなる。なお、個々のマイクロレンズの後側に位置する画素群(部分撮像素子14a)の画素配列パターンは、個々のマイクロレンズの間で共通である。   The imaging element 14 is formed by two-dimensionally arranging a plurality of light receiving elements (pixels) behind the individual microlenses belonging to the microlens array 13. Note that the pixel arrangement pattern of the pixel group (partial imaging element 14a) located on the rear side of each microlens is common among the individual microlenses.

ここで、或る1つのマイクロレンズの後側に位置する部分撮像素子14aに着目すると、この部分撮像素子14aの各画素座標a、b、c、d、eへ個別に入射する各光束の間では、撮影レンズ12の射出瞳における通過領域が互いに異なる。このことは、全ての部分撮像素子14aについて同様に当てはまる。   Here, when attention is paid to the partial image sensor 14a located on the rear side of one microlens, between the light beams individually incident on the pixel coordinates a, b, c, d, and e of the partial image sensor 14a, The passing areas in the exit pupil of the photographing lens 12 are different from each other. This applies similarly to all the partial image sensors 14a.

よって、部分撮像素子14a上で1方向に並ぶ画素座標を順にa、b、c、d、eとおき、複数の部分撮像素子14aの間で画素座標の共通する画素同士で1枚ずつ画像を生成したならば、画素座標aから生成される画像Iaと、画素座標bから生成される画像Ibと、画素座標cから生成される画像Icと、画素座標dから生成される画像Idと、画素座標eから生成される画像Ieとの関係は、被写界を互いに異なる視点から撮影した5枚の視差画像の関係と同じになる。よって、以下では画像Ia、Ib、Ic、Id、Ieを「視差画像」と称す。   Therefore, the pixel coordinates arranged in one direction on the partial image sensor 14a are sequentially set as a, b, c, d, and e, and an image is obtained one by one with pixels having the same pixel coordinates among the plurality of partial image sensors 14a. Once generated, the image Ia generated from the pixel coordinate a, the image Ib generated from the pixel coordinate b, the image Ic generated from the pixel coordinate c, the image Id generated from the pixel coordinate d, the pixel The relationship with the image Ie generated from the coordinate e is the same as the relationship between the five parallax images taken from different viewpoints of the object scene. Therefore, hereinafter, the images Ia, Ib, Ic, Id, and Ie are referred to as “parallax images”.

なお、部分撮像素子14aの実際の画素配列方向は、1方向ではなく2方向に亘っており、部分撮像素子14aの実際の画素数は、「5」よりも十分に大きいが、以下の説明では簡単のため、1方向に並ぶ5つの画素座標a、b、c、d、eのみからなると仮定する。   Note that the actual pixel arrangement direction of the partial image sensor 14a extends in two directions instead of one direction, and the actual number of pixels of the partial image sensor 14a is sufficiently larger than “5”, but in the following description, For the sake of simplicity, it is assumed that the pixel consists of only five pixel coordinates a, b, c, d, and e arranged in one direction.

画像処理部15は、撮像素子14が生成したライトフィールド画像(一連の視差画像Ia、Ib、Ic、Id、Ieからなる)を取り込み、そのライトフィールド画像を不図示のバッファメモリへ一時的に保管する。また、画像処理部15は、システム制御部17からの指示に応じて、バッファメモリ上のライトフィールド画像へ各種の画像処理を施す。   The image processing unit 15 takes in a light field image (consisting of a series of parallax images Ia, Ib, Ic, Id, and Ie) generated by the image sensor 14 and temporarily stores the light field image in a buffer memory (not shown). To do. Further, the image processing unit 15 performs various types of image processing on the light field image on the buffer memory in accordance with an instruction from the system control unit 17.

例えば、画像処理部15は、ライトフィールド画像を構成する5枚の視差画像Ia、Ib、Ic、Id、Ieを互いに位置ずらししてから重み付け合成することにより、撮影条件(撮影距離、絞り値、視点)の設定された1枚の撮影画像を作成する。以下、撮影条件の後設定された撮影画像を「リフォーカス画像」と称す。   For example, the image processing unit 15 shifts the positions of the five parallax images Ia, Ib, Ic, Id, and Ie that make up the light field image, and then performs weighting synthesis to obtain shooting conditions (shooting distance, aperture value, One shot image with a (viewpoint) set is created. Hereinafter, a photographed image set after photographing conditions is referred to as a “refocus image”.

なお、リフォーカス画像の撮影距離は、視差画像Ia、Ib、Ic、Id、Ieの位置ずらし量によって決まる。例えば、視差画像Ia、Ib、Ic、Id、Ieの位置ずらし量が「ゼロ」であるときには、リフォーカス画像の撮影距離は、撮影レンズ12に関してマイクロレンズアレイ13と共役な面と同じ距離となり、位置ずらし量が「ゼロ」以外の値であるときには、リフォーカス画像の撮影距離は、撮影レンズ12に関してマイクロレンズアレイ13と非共役な面と同じ距離となる。   Note that the shooting distance of the refocus image is determined by the position shift amount of the parallax images Ia, Ib, Ic, Id, and Ie. For example, when the amount of position shift of the parallax images Ia, Ib, Ic, Id, and Ie is “zero”, the shooting distance of the refocus image is the same distance as the plane conjugate with the microlens array 13 with respect to the shooting lens 12. When the position shift amount is a value other than “zero”, the shooting distance of the refocus image is the same distance as the non-conjugated surface of the shooting lens 12 and the microlens array 13.

また、リフォーカス画像の絞り値は、視差画像Ia、Ib、Ic、Id、Ieの重み比によって決まる。例えば、視差画像Ia、Ib、Ic、Id、Ieの重み比が「0:0:1:0:0」であるときには、リフォーカス画像の絞り値は最大となり、視差画像Ia、Ib、Ic、Id、Ieの重み比が「1:1:1:1:1」であるときには、リフォーカス画像の絞り値は最小となる。   The aperture value of the refocus image is determined by the weight ratio of the parallax images Ia, Ib, Ic, Id, and Ie. For example, when the weight ratio of the parallax images Ia, Ib, Ic, Id, and Ie is “0: 0: 1: 0: 0”, the aperture value of the refocus image is maximized, and the parallax images Ia, Ib, Ic, When the weight ratio of Id and Ie is “1: 1: 1: 1: 1”, the aperture value of the refocus image is minimum.

また、リフォーカス画像の視点も、視差画像Ia、Ib、Ic、Id、Ieの重み比によって決まる。例えば、視差画像Ia、Ib、Ic、Id、Ieの重み比が「1:0:0:0:0」であるときには、リフォーカス画像の視点は一方の端点となり、視差画像Ia、Ib、Ic、Id、Ieの重み比が「0:0:0:0:1」であるときには、リフォーカス画像の視点は他方の端点となる。   The viewpoint of the refocus image is also determined by the weight ratio of the parallax images Ia, Ib, Ic, Id, and Ie. For example, when the weight ratio of the parallax images Ia, Ib, Ic, Id, and Ie is “1: 0: 0: 0: 0”, the viewpoint of the refocus image is one end point, and the parallax images Ia, Ib, and Ic , Id, and Ie have a weight ratio of “0: 0: 0: 0: 1”, the viewpoint of the refocus image is the other end point.

なお、以上の撮像部11の構成には、公知の何れかのライトフィールドカメラの構成が適用可能であり、以上の画像処理部15の動作には、公知の何れかのライトフィールドカメラの動作が適用可能である。公知のライトフィールドカメラとしては、例えば、特開2011−217411号公報、米国特許公報第7936392号明細書、特開2011−259218号公報に開示されたもの等が挙げられる。   Note that any known light field camera configuration can be applied to the configuration of the imaging unit 11 described above, and the operation of any known light field camera can be applied to the operation of the image processing unit 15 described above. Applicable. Examples of known light field cameras include those disclosed in Japanese Patent Application Laid-Open No. 2011-217411, US Pat. No. 7,936,392, and Japanese Patent Application Laid-Open No. 2011-259218.

カメラ制御部16は、撮像部11を駆動する機構と、その機構を制御する回路とを備えている。このカメラ制御部16は、システム制御部17からの指示に応じて撮像素子14を駆動し、ライトフィールド画像を取得する。   The camera control unit 16 includes a mechanism that drives the imaging unit 11 and a circuit that controls the mechanism. The camera control unit 16 drives the image sensor 14 in accordance with an instruction from the system control unit 17 and acquires a light field image.

カードメモリ21は、撮像部11が取得したライトフィールド画像の画像ファイル(後述)や、他のライトフィールドカメラで取得されたライトフィールド画像の画像ファイルなどを多数に亘って記憶することのできる記憶媒体である。   The card memory 21 can store a large number of light field image image files (described later) acquired by the imaging unit 11 and light field image image files acquired by other light field cameras. It is.

記録インタフェース18は、ライトフィールドカメラ10に装着されたカードメモリ21とシステム制御部17との間のインタフェースをとる。この記録インタフェース18は、システム制御部17からの指示に従い、ライトフィールド画像の画像ファイルをカードメモリ21へ書き込んだり、ライトフィールド画像の画像ファイルをカードメモリ21から読み込んだりする。   The recording interface 18 serves as an interface between the card memory 21 attached to the light field camera 10 and the system control unit 17. The recording interface 18 writes a light field image image file to the card memory 21 and reads a light field image image file from the card memory 21 in accordance with an instruction from the system control unit 17.

表示部19は、マルチタッチパネルで構成され、少なくとも、液晶カラーモニタなどのモニタと、そのモニタに対するユーザ操作を検出するマルチタッチセンサとを備える。このうち、マルチタッチセンサは、1本の手指を使用したユーザ操作(タッチ(触る)、スライド(なぞる)、タップ(叩く)、ダブルタップ(2連続で叩く)など)の他に、2本以上の手指を同時に使用したユーザ操作(ピンチ(挟む)、ピンチイン(狭める)、ピンチアウト(拡げる)など)を検出することが可能である。このような表示部19は、システム制御部17からの指示に従い各種の画像を表示すると共に、その画像に対するユーザ操作の内容を検出してシステム制御部17へ送信する。   The display unit 19 includes a multi-touch panel and includes at least a monitor such as a liquid crystal color monitor and a multi-touch sensor that detects a user operation on the monitor. Among them, the multi-touch sensor has two or more multi-touch sensors in addition to user operations using one finger (touch (touch), slide (trace), tap (tap), double tap (tap twice)), etc. It is possible to detect user operations (such as pinching (pinching), pinching in (narrowing), pinching out (expanding), etc.) using the fingers at the same time. Such a display unit 19 displays various images in accordance with instructions from the system control unit 17, detects the contents of user operations on the images, and transmits them to the system control unit 17.

操作部材20は、不図示の電源釦の他に、図1(B)に示したレリーズ釦20a、再生釦20b、十字釦20cなどの各種の入力スイッチを備える。ユーザは、この操作部材20を介して撮影指示やモード切り換え指示などの各種の指示をシステム制御部17へ入力する。なお、本実施形態ではタッチパネルで構成された表示部19が使用されるので、電源釦以外の操作部材20については省略することも可能である。   In addition to a power button (not shown), the operation member 20 includes various input switches such as a release button 20a, a reproduction button 20b, and a cross button 20c shown in FIG. The user inputs various instructions such as a shooting instruction and a mode switching instruction to the system control unit 17 via the operation member 20. In the present embodiment, since the display unit 19 configured by a touch panel is used, the operation members 20 other than the power button can be omitted.

システム制御部17は、不図示のROM、RAM、CPUなどを備えたコンピュータである。CPUは、ROMに格納されたプログラムを実行することによりライトフィールドカメラ10の各部を制御し、ライトフィールドカメラ10を撮影モードや再生モードなどの各種のモードで動作させる。なお、RAMは、CPUの動作中に必要となったデータを一時的に格納するメモリである。   The system control unit 17 is a computer that includes a ROM, a RAM, a CPU, and the like (not shown). The CPU controls each part of the light field camera 10 by executing a program stored in the ROM, and operates the light field camera 10 in various modes such as a photographing mode and a reproduction mode. Note that the RAM is a memory that temporarily stores data necessary during the operation of the CPU.

因みに、ライトフィールドカメラ10が撮影モードにあるとき、システム制御部17は、ユーザからの撮影指示に応じて撮像部11を駆動してライトフィールド画像を取得すると、そのライトフィールド画像の画像ファイルを作成してカードメモリ21へ保存する。   Incidentally, when the light field camera 10 is in the shooting mode, the system control unit 17 drives the imaging unit 11 in accordance with the shooting instruction from the user to acquire the light field image, and creates an image file of the light field image. And stored in the card memory 21.

また、ライトフィールドカメラ10が再生モードにあるとき、システム制御部17は、カードメモリ21上の画像ファイルをサムネイル表示したり、カードメモリ21上の画像ファイルを再生表示したりする。   When the light field camera 10 is in the playback mode, the system control unit 17 displays the image file on the card memory 21 as a thumbnail or displays and displays the image file on the card memory 21.

図2(A)は、画像ファイルの構成例である。図2(A)に示すとおりこの画像ファイルは、ライトフィールド画像を格納した領域と、そのライトフィールド画像の付随情報を格納した領域とを有する。付随情報には、例えば、被写体情報、サムネイル画像などが含まれる。   FIG. 2A is a configuration example of an image file. As shown in FIG. 2A, this image file has an area storing a light field image and an area storing accompanying information of the light field image. The accompanying information includes, for example, subject information and thumbnail images.

先ず、被写体情報は、ライトフィールド画像に写っている1又は複数の被写体の各々を説明する情報であり、各被写体の被写体情報には、その被写体の被写体属性を示す属性情報と、その被写体の存在エリアを示すエリア情報と、その被写体の被写体距離を示す距離情報と、その被写体の優先順位を示す優先順位情報とが含まれる。   First, subject information is information that describes each of one or more subjects that appear in a light field image. The subject information of each subject includes attribute information that indicates subject attributes of the subject and the presence of the subject. Area information indicating the area, distance information indicating the subject distance of the subject, and priority order information indicating the priority order of the subject are included.

このうち、属性情報には、被写体の種類を示す被写体種類情報(ヒト、建物、樹木、山、海、…)と、同種の被写体を互いに区別するための被写体名情報(Aさん、Bさん、建物1、建物2、樹木1、樹木2、…)とが含まれる。   Among these, the attribute information includes subject type information (human, building, tree, mountain, sea,...) Indicating the type of subject, and subject name information (Mr. A, Mr. B, etc.) for distinguishing subjects of the same type from each other. Building 1, Building 2, Tree 1, Tree 2, ...).

次に、サムネイル画像は、ライトフィールド画像から作成されたリフォーカス画像のサイズ縮小版である。ここでは、撮影条件(撮影距離、絞り値、視点の組み合わせ)の異なる複数のサムネイル画像が画像ファイルに格納されていると仮定する。複数のサムネイル画像の中には、パンフォーカス画像のサムネイル画像(=被写界深度が最大、つまり絞り値が最大であるリフォーカス画像のサムネイル画像)も含まれる。   Next, the thumbnail image is a size-reduced version of the refocus image created from the light field image. Here, it is assumed that a plurality of thumbnail images having different shooting conditions (shooting distance, aperture value, viewpoint combination) are stored in the image file. Among the plurality of thumbnail images, a thumbnail image of a pan focus image (= a thumbnail image of a refocus image having the maximum depth of field, that is, the maximum aperture value) is also included.

なお、以上の付随情報のうち、被写体情報及びサムネイル画像は、画像ファイルが作成されるタイミング又は必要なタイミングで、画像処理部15がライトフィールド画像から抽出したものである。或いは、画像ファイルが作成されたタイミング又は必要なタイミングで、別のライトフィールドカメラ又はパーソナルコンピュータがライトフィールド画像から抽出したものである。   Of the accompanying information described above, the subject information and the thumbnail image are extracted from the light field image by the image processing unit 15 when the image file is created or necessary. Alternatively, the image file is extracted from the light field image by another light field camera or a personal computer at the time when the image file is created or necessary.

因みに、ライトフィールド画像から被写体の存在エリア及び被写体属性を抽出するためには、テンプレートマッチングなどの公知の被写体抽出処理をライトフィールド画像に施せばよい。但し、全ての被写体の存在エリア及び被写体属性を抽出するためには、そのライトフィールド画像から撮影距離の異なる複数のリフォーカス画像を作成すると共に、それら複数のリフォーカス画像の各々に対して被写体抽出処理を施す必要がある。或いは、そのライトフィールド画像からパンフォーカス画像を作成すると共に、そのパンフォーカス画像に対して被写体抽出処理を施す必要がある。なお、パンフォーカス画像は、被写界深度が最大(絞り値が最大)のリフォーカス画像に相当する。また、ライトフィールド画像から被写体の被写体距離を抽出するためには、ライトフィールド画像を構成する少なくとも2枚の視差画像に対して、その被写体の座標に応じた距離算出処理を施す必要がある。   Incidentally, in order to extract a subject existing area and subject attributes from a light field image, a known subject extraction process such as template matching may be performed on the light field image. However, in order to extract the existence area and subject attributes of all subjects, a plurality of refocus images having different shooting distances are created from the light field image, and subject extraction is performed for each of the plurality of refocus images. It is necessary to perform processing. Alternatively, it is necessary to create a pan focus image from the light field image and subject extraction processing to the pan focus image. Note that the pan-focus image corresponds to a refocus image having the maximum depth of field (maximum aperture value). Further, in order to extract the subject distance of the subject from the light field image, it is necessary to perform distance calculation processing according to the coordinates of the subject on at least two parallax images constituting the light field image.

図2(B)は、優先度テーブルを示す図である。図2(B)に示すとおり優先度テーブルには、被写体属性ごとの優先度が格納されている。これらの優先度は、被写体属性間の相対的な優先順位を示すものであり、図2(B)では、優先順位を高くすべき被写体属性ほど優先度の値を小さくした。この優先度テーブルは、ライトフィールド画像に写っている被写体の優先順位を決定する際に参照される。   FIG. 2B shows a priority table. As shown in FIG. 2B, the priority table stores priorities for each subject attribute. These priorities indicate relative priorities among the subject attributes. In FIG. 2B, the subject attributes that should be given higher priorities have lower priority values. This priority table is referred to when determining the priority order of the subject in the light field image.

なお、この優先度テーブルは、必要に応じてユーザが手動で書き換えることが可能である。また、この優先度テーブルは、或る画像ファイルの優先順位情報をユーザが手動で登録したとき(後述)に自動的に更新される。   The priority table can be manually rewritten by the user as necessary. The priority table is automatically updated when the user manually registers priority order information of a certain image file (described later).

また、以上の優先度テーブルの格納先は、例えば、多数の画像ファイルを一括管理するデータベースである。データベースの格納先は、例えば、カードメモリ21である。   Further, the storage destination of the above priority table is, for example, a database that collectively manages a large number of image files. The database storage destination is, for example, the card memory 21.

また、以上の説明では、各画像ファイルの付随情報の格納先を各画像ファイルとしたが、各画像ファイルの付随情報の一部又は全部の格納先をデータベースとしてもよい。その場合、各画像ファイルの付随情報は、各画像ファイルのファイル名に対応づけられる。   In the above description, the storage location of the accompanying information of each image file is each image file. However, the storage location of some or all of the accompanying information of each image file may be a database. In that case, the accompanying information of each image file is associated with the file name of each image file.

以下、撮影モードにおけるライトフィールドカメラ10の動作を説明する。   Hereinafter, the operation of the light field camera 10 in the shooting mode will be described.

先ず、システム制御部17は、被写界のライブビュー表示を開始する。ライブビュー表示に当たり、システム制御部17は、撮像部11を高速駆動モードで連続駆動してスルー画像を繰り返し取得し、そのスルー画像をライブビュー画像として取得順に表示部19へ送出する。   First, the system control unit 17 starts live view display of the object scene. In live view display, the system control unit 17 continuously drives the imaging unit 11 in the high-speed drive mode to repeatedly acquire through images, and sends the through images to the display unit 19 in the order of acquisition as live view images.

なお、スルー画像は保存用の画像ではないため、解像度は低くても構わないが、ライブビュー表示のリアルタイム性を重視するならば、なるべく短いフレーム周期で取得されることが望まれる。そこで、高速駆動モードにおける撮像部11は、例えば、読み出しの対象となる画素座標を画素座標cのみに制限した「間引き読み出し」を行い、視差画像Icのみからなるライトフィールド画像をスルー画像として取得する。このスルー画像は、視点が正面であって絞り値が最大のリフォーカス画像(つまり視点が正面のパンフォーカス画像)に相当する。   Since the through image is not an image for storage, the resolution may be low. However, if the real-time property of the live view display is important, it is desirable that the through image be acquired with a frame period as short as possible. Therefore, for example, the imaging unit 11 in the high-speed drive mode performs “decimation readout” in which pixel coordinates to be read are limited to only the pixel coordinates c, and acquires a light field image including only the parallax image Ic as a through image. . This through image corresponds to a refocus image with the viewpoint being the front and the maximum aperture value (that is, the pan focus image with the viewpoint being the front).

以上のライブビュー表示中、システム制御部17は、ユーザから撮影指示が入力されたか否かを判別し、入力された場合には保存用ライトフィールド画像の撮影を開始する。   During the live view display described above, the system control unit 17 determines whether or not a shooting instruction has been input from the user, and if it has been input, starts shooting the storage light field image.

保存用ライトフィールド画像の撮影に当たり、システム制御部17は、撮像部11を詳細駆動モードで駆動して保存用ライトフィールド画像を取得する。画像処理部15は、その保存用ライトフィールド画像に基づきアフタービュー画像を作成し、システム制御部17は、そのアフタービュー画像を表示部19へ送出することによりアフタービュー表示を行う。   In capturing the storage light field image, the system control unit 17 drives the imaging unit 11 in the detailed drive mode to acquire the storage light field image. The image processing unit 15 creates an after-view image based on the storage light field image, and the system control unit 17 performs the after-view display by sending the after-view image to the display unit 19.

なお、保存用ライトフィールド画像は多くの情報を含んでいる必要があるため、詳細駆動モードにおける撮像部11は、読み出しの対象となる画素座標を5種類の画素座標a、b、c、d、eの全部とした「全画素読み出し」を行い、視差画像Ia、Ib、Ic、Id、Ieからなるライトフィールド画像を保存用ライトフィールド画像として取得する。   Note that since the storage light field image needs to include a lot of information, the imaging unit 11 in the detailed drive mode uses five types of pixel coordinates a, b, c, d, “All pixel readout” is performed for all of e, and a light field image composed of parallax images Ia, Ib, Ic, Id, and Ie is acquired as a storage light field image.

また、アフタービュー画像の撮影条件はデフォルト(例えば、視点は正面、絞り値は最大)に設定される。   Further, the shooting conditions of the after-view image are set to default (for example, the viewpoint is front and the aperture value is maximum).

また、画像処理部15は、保存用ライトフィールド画像に対する被写体抽出処理を実行することにより、その保存用ライトフィールド画像に写っている各被写体の被写体属性及び存在エリアを既知とすると共に、各被写体に対する距離算出処理を実行することにより、各被写体の被写体距離を既知とする。また、画像処理部15は、保存用ライトフィールド画像から各種のサムネイル画像を作成する。   Further, the image processing unit 15 executes subject extraction processing on the storage light field image to make known the subject attribute and the existing area of each subject reflected in the storage light field image, and for each subject. By executing the distance calculation process, the subject distance of each subject is known. The image processing unit 15 also creates various thumbnail images from the storage light field image.

また、システム制御部17は、優先度テーブル(図2(B))を参照し、保存用ライトフィールド画像に写っている各被写体に該当する優先度を認識すると、優先度の高い被写体から順に高い優先順位を割り当てることにより、各被写体の優先順位を決定する。   In addition, when the system control unit 17 refers to the priority table (FIG. 2B) and recognizes the priority corresponding to each subject in the storage light field image, the system control unit 17 increases in order from the subject with the highest priority. By assigning priorities, the priorities of each subject are determined.

但し、必要な被写体属性の優先度が優先度テーブル(図2(B))に書き込まれていなかった場合、システム制御部17は、その被写体属性と類似度の最も高い被写体属性の優先度を、その被写体属性の優先度とみなす。   However, if the required subject attribute priority is not written in the priority table (FIG. 2B), the system control unit 17 sets the priority of the subject attribute having the highest similarity to the subject attribute. It is regarded as the priority of the subject attribute.

また、優先度の共通する2以上の被写体が保存用ライトフィールド画像に写っていた場合、システム制御部17は、それら被写体の優先順位をそれら被写体の被写体距離に応じて決定する。例えば、システム制御部17は、優先度が共通であるならば、被写体距離の短い被写体ほど高い優先順位を付けてもよい。   When two or more subjects having the same priority are shown in the storage light field image, the system control unit 17 determines the priority order of the subjects according to the subject distance of the subjects. For example, if the priority is common, the system control unit 17 may assign a higher priority to a subject with a shorter subject distance.

次に、システム制御部17は、保存用ライトフィールド画像の画像ファイル(図2(A)参照)を作成する。   Next, the system control unit 17 creates an image file (see FIG. 2A) of the storage light field image.

画像ファイルの作成に当たり、システム制御部17は、保存用ライトフィールド画像から抽出された各被写体の被写体属性、存在エリア、被写体距離、優先順位と、保存用ライトフィールド画像から抽出された各種のサムネイル画像とを、画像ファイルに書き込む。   In creating the image file, the system control unit 17 performs subject attribute, existence area, subject distance, priority order of each subject extracted from the storage light field image, and various thumbnail images extracted from the storage light field image. Are written in the image file.

次に、システム制御部17は、作成した画像ファイルを記録インタフェース18へ送出することにより、その画像ファイルをカードメモリ21に保存する(以上、撮影モード)。   Next, the system control unit 17 sends the created image file to the recording interface 18, thereby saving the image file in the card memory 21 (the shooting mode).

したがって、本実施形態の撮影モードでは、ライトフィールド画像中の複数の被写体の優先順位が、そのライトフィールド画像の画像ファイルへ自動的に登録される。   Therefore, in the shooting mode of the present embodiment, the priorities of a plurality of subjects in the light field image are automatically registered in the image file of the light field image.

このように、画像ファイルに登録される優先順位を「距離の優先順位」ではなく「被写体の優先順位」としておけば、後述するスライドショー再生モード又は通常再生モードの利便性を、簡単に高めることができる。   In this way, if the priority order registered in the image file is set to “subject priority order” instead of “distance priority order”, the convenience of the slide show playback mode or normal playback mode described later can be easily improved. it can.

以下、スライドショー再生モードにおけるライトフィールドカメラ10の動作を説明する。   Hereinafter, the operation of the light field camera 10 in the slide show playback mode will be described.

先ず、システム制御部17は、カードメモリ21に格納中の複数の画像ファイルの中から、ユーザの指定した画像ファイルを読み出し、その画像ファイルに格納されたライトフィールド画像をバッファメモリへ書き込む。   First, the system control unit 17 reads an image file designated by the user from among a plurality of image files stored in the card memory 21, and writes the light field image stored in the image file to the buffer memory.

ここでは図3(A)に示すとおり、ライトフィールド画像にはAさん、Bさん、Cさん、樹木1が写っており、Aさんの優先順位は1位、Bさんの優先順位は2位、Cさんの優先順位は3位、樹木1の優先順位は4位であったと仮定する。   Here, as shown in FIG. 3A, the light field image includes Mr. A, Mr. B, Mr. C, and the tree 1, and Mr. A has the first priority, Mr. B has the second priority, Assume that Mr. C's priority is 3rd and Tree 1 is 4th.

次に、システム制御部17は、画像ファイルの付随情報を参照し、優先順位が1位である被写体(Aさん)の被写体距離L1、優先順位が2位である被写体(Bさん)の被写体距離L2、優先順位が3位である被写体(Cさん)の被写体距離L3、優先順位が4位である被写体(樹木1)の被写体距離L4を認識する。画像処理部15は、ライトフィールド画像から、撮影距離がL1である第1リフォーカス画像(図3(B))と、撮影距離がL2である第2リフォーカス画像(図3(C))と、撮影距離がL3である第3リフォーカス画像(図3(D))と、被写体距離がL4である第4リフォーカス画像(図3(E))とを生成する。これらのリフォーカス画像(図3(B)、(C)、(D)、(E))の撮影距離以外の撮影条件(視点及び絞り値)は、デフォルト(例えば、視点は正面、絞り値は最小)に設定される。   Next, the system control unit 17 refers to the accompanying information of the image file, and the subject distance L1 of the subject (Mr. A) having the first priority and the subject distance of the subject (Mr. B) having the second priority. L2, the subject distance L3 of the subject (Mr. C) with the third highest priority, and the subject distance L4 of the subject (tree 1) with the fourth highest priority are recognized. From the light field image, the image processing unit 15 includes a first refocus image (FIG. 3B) whose shooting distance is L1 and a second refocus image (FIG. 3C) whose shooting distance is L2. Then, a third refocus image (FIG. 3D) having a shooting distance L3 and a fourth refocus image (FIG. 3E) having a subject distance L4 are generated. Shooting conditions (viewpoint and aperture value) other than the shooting distance of these refocused images (FIGS. 3B, 3C, 3D, and 3E) are default (for example, the viewpoint is front and the aperture value is Minimum).

ここで、第1リフォーカス画像(図3(B))は、優先順位が1位であるAさんに合焦しており、第2リフォーカス画像(図3(C))は、優先順位が2位であるBさんに合焦しており、第3リフォーカス画像(図3(D))は、優先順位が3位であるCさんに合焦しており、第4リフォーカス画像(図3(E))は、優先順位が4位である樹木1に合焦している。   Here, the first refocus image (FIG. 3B) is focused on Mr. A who has the first priority, and the second refocus image (FIG. 3C) has the priority. The third refocus image (FIG. 3D) is in focus on Mr. B who is in second place, and the fourth refocus image (FIG. 3D) is in focus on Mr. C who has the third priority. 3 (E)) focuses on the tree 1 having the fourth priority.

次に、システム制御部17は、第1リフォーカス画像(図3(B))、第2リフォーカス画像(図3(C))、第3リフォーカス画像(図3(D))、第4リフォーカス画像(図3(E))を表示部19へ順次に送出することにより、スライドショー再生を行う。   Next, the system control unit 17 performs the first refocus image (FIG. 3B), the second refocus image (FIG. 3C), the third refocus image (FIG. 3D), and the fourth. Slide show reproduction is performed by sequentially sending refocused images (FIG. 3E) to the display unit 19.

但し、スライドショー再生に当たり、システム制御部17は、これらリフォーカス画像の間の切り換えパターンを、複数の被写体(Aさん、Bさん、Cさん、樹木1)の優先順位に従って設定する。   However, when the slide show is reproduced, the system control unit 17 sets the switching pattern between these refocused images according to the priority order of a plurality of subjects (A, B, C, and Tree 1).

具体的に、システム制御部17は、優先順位の高い被写体に合焦したリフォーカス画像ほど表示タイミングを早期にし、優先順位の高い被写体に合焦したリフォーカス画像ほど表示時間を長くする(以上、スライドショー再生モード)。   Specifically, the system control unit 17 makes the display timing earlier for a refocus image focused on a subject with higher priority, and lengthens the display time for a refocus image focused on a subject with higher priority (above, Slideshow playback mode).

したがって、本実施形態のスライドショー再生モードでは、リフォーカス画像の撮影距離が、複数の被写体間の優先順位と複数の被写体の被写体距離とに応じたパターンで切り換わる。   Therefore, in the slide show playback mode of the present embodiment, the shooting distance of the refocus image is switched in a pattern according to the priority order between the plurality of subjects and the subject distance of the plurality of subjects.

具体的に、本実施形態のスライドショー再生モードでは、優先順位の高い被写体ほど早いタイミングで合焦し、優先順位の高い被写体ほど長い時間に亘って合焦する。   Specifically, in the slide show playback mode of the present embodiment, a subject with a higher priority is focused at an earlier timing, and a subject with a higher priority is focused for a longer time.

なお、本実施形態のスライドショー再生モードでは、スライドショー再生の対象を、被写体に合焦したリフォーカス画像のみに制限したが、或る被写体に合焦したリフォーカス画像と、他の被写体に合焦したリフォーカス画像との間に、それら被写体の中間距離に合焦したリフォーカス画像(被写体に合焦していないリフォーカス画像)を挿入してもよい。但し、被写体に合焦していないリフォーカス画像の表示時間は、被写体に合焦したリフォーカス画像の表示時間より短く設定されることが望ましい。   In the slide show playback mode of this embodiment, the slide show playback target is limited to only the refocus image focused on the subject, but the refocus image focused on a certain subject and the other subject focused. A refocus image focused on an intermediate distance between the subjects (refocus image not focused on the subject) may be inserted between the refocus images. However, it is desirable that the display time of the refocus image not focused on the subject is set shorter than the display time of the refocus image focused on the subject.

また、本実施形態のスライドショー再生モードでは、スライドショー再生の対象となった画像ファイルに優先順位情報が登録済みであることを前提としたが、もしも優先順位情報が未登録であった場合には、スライドショー再生を行う代わりに、全ての被写体に合焦したパンフォーカス画像を連続的に表示してもよい。   Further, in the slide show playback mode of the present embodiment, it is assumed that the priority order information has been registered in the image file that is the target of the slide show playback, but if the priority order information has not been registered, Instead of performing slide show reproduction, pan-focus images focused on all subjects may be displayed continuously.

また、本実施形態のスライドショー再生モードでは、スライドショー再生の対象となった画像ファイルに優先順位情報が未登録であった場合は、ライトフィールドカメラ10を手動登録モード(後述)に移行させてもよい。   In the slide show playback mode of the present embodiment, the light field camera 10 may be shifted to the manual registration mode (described later) when the priority order information is not registered in the image file that is the target of the slide show playback. .

以下、通常再生モードにおけるライトフィールドカメラ10の動作を説明する。   Hereinafter, the operation of the light field camera 10 in the normal playback mode will be described.

先ず、システム制御部17は、カードメモリ21に格納中の複数の画像ファイルの中から、ユーザの指定した画像ファイルを読み出し、その画像ファイルに格納されたライトフィールド画像をバッファメモリへ書き込む。   First, the system control unit 17 reads an image file designated by the user from among a plurality of image files stored in the card memory 21, and writes the light field image stored in the image file to the buffer memory.

ここでも図3(A)に示すとおり、ライトフィールド画像にはAさん、Bさん、Cさん、樹木1が写っており、Aさんの優先順位は1位、Bさんの優先順位は2位、Cさんの優先順位は3位、樹木1の優先順位は4位であったと仮定する。   Again, as shown in FIG. 3 (A), the light field image shows Mr. A, Mr. B, Mr. C, and the tree 1. Mr. A has the first priority, Mr. B has the second priority, Assume that Mr. C's priority is 3rd and Tree 1 is 4th.

次に、システム制御部17は、画像ファイルの付随情報を参照し、優先順位が1位である被写体(Aさん)の被写体距離L1を認識する。画像処理部15は、ライトフィールド画像から、撮影距離がL1である第1リフォーカス画像を生成する。このリフォーカス画像の撮影距離以外の撮影条件(視点及び絞り値)はデフォルト(例えば、視点は正面、絞り値は最小)に設定される。システム制御部17は、そのリフォーカス画像を表示部19へ表示する(図3(B)参照)。   Next, the system control unit 17 refers to the accompanying information of the image file and recognizes the subject distance L1 of the subject (Mr. A) having the first priority. The image processing unit 15 generates a first refocus image whose shooting distance is L1 from the light field image. The shooting conditions (viewpoint and aperture value) other than the shooting distance of the refocus image are set to default (for example, the viewpoint is front and the aperture value is minimum). The system control unit 17 displays the refocused image on the display unit 19 (see FIG. 3B).

このリフォーカス画像上で、優先順位が2位以下である任意の被写体(例えばBさん)をユーザがタップすると、システム制御部17は、タップポイントに位置する被写体(Bさん)の被写体距離(L2)を参照し、そのリフォーカス画像の撮影距離を、その被写体距離(L2)と同じに切り換える。これによって、リフォーカス画像の合焦先は、優先順位が1位である被写体(Aさん)からタップされた被写体(Bさん)へと移行し、そのリフォーカス画像の撮影距離以外の撮影条件は、維持される(図3(B)→(C)を参照)。   When the user taps an arbitrary subject (for example, Mr. B) whose priority is 2nd or lower on the refocused image, the system control unit 17 causes the subject distance (L2) of the subject (Mr. B) located at the tap point. ), The shooting distance of the refocus image is switched to the same object distance (L2). Thereby, the focus destination of the refocus image is shifted from the subject (Mr. A) having the highest priority to the tapped subject (Mr. B), and the shooting conditions other than the shooting distance of the refocus image are as follows. (See FIG. 3 (B) → (C)).

その後、所定時間(例えば2秒)が経過すると、システム制御部17は、表示中のリフォーカス画像の撮影距離を元の値L1に戻す。これによって、リフォーカス画像の合焦先は、タップされた被写体(Bさん)から優先順位が1位である被写体(Aさん)へと戻り、そのリフォーカス画像の撮影距離以外の撮影条件は、維持される(図3(C)→(B)を参照)。   Thereafter, when a predetermined time (for example, 2 seconds) elapses, the system control unit 17 returns the shooting distance of the refocused image being displayed to the original value L1. As a result, the focus destination of the refocus image returns from the tapped subject (Mr. B) to the subject (Mr. A) with the highest priority, and the shooting conditions other than the shooting distance of the refocus image are as follows: Maintained (see FIG. 3 (C) → (B)).

また、このリフォーカス画像上で、優先順位が2位以下である別の任意の被写体(例えばCさん)をユーザがタップすると、システム制御部17は、タップポイントに位置する被写体(Cさん)の被写体距離(L3)を参照し、そのリフォーカス画像の撮影距離を、その被写体距離(L3)と同じに切り換える。これによって、リフォーカス画像の合焦先は、優先順位が1位である被写体(Aさん)からタップされた被写体(Cさん)へと移行し、そのリフォーカス画像の撮影距離以外の撮影条件は、維持される(図3(B)→(D)を参照)。   In addition, when the user taps another arbitrary subject (for example, Mr. C) whose priority is 2nd or lower on the refocus image, the system control unit 17 sets the subject (Mr. C) at the tap point. With reference to the subject distance (L3), the photographing distance of the refocus image is switched to the same subject distance (L3). As a result, the focus destination of the refocus image shifts from the subject with the highest priority (Mr. A) to the tapped subject (Mr. C), and the shooting conditions other than the shooting distance of the refocus image are as follows. (See FIG. 3 (B) → (D)).

その後、所定時間(例えば2秒)が経過すると、システム制御部17は、表示中のリフォーカス画像の撮影距離を元の値L1に戻す。これによって、リフォーカス画像の合焦先は、タップされた被写体(Cさん)から優先順位が1位である被写体(Aさん)へと戻り、そのリフォーカス画像の撮影距離以外の撮影条件は、維持される(図3(D)→(B)を参照)。以上が通常再生モードである。   Thereafter, when a predetermined time (for example, 2 seconds) elapses, the system control unit 17 returns the shooting distance of the refocused image being displayed to the original value L1. As a result, the focus destination of the refocus image returns from the tapped subject (Mr. C) to the subject (Mr. A) with the highest priority, and the shooting conditions other than the shooting distance of the refocus image are as follows: Maintained (see FIG. 3D → B). The above is the normal playback mode.

したがって、本実施形態の通常再生モードでは、リフォーカス画像の合焦先が、優先順位の最も高い被写体(Aさん)に維持され、優先順位が2位以下である被写体(Bさん、Cさん、樹木1の何れか)がタップされたときにのみ、リフォーカス画像の合焦先がタップされた被写体へと移行する。   Therefore, in the normal playback mode of the present embodiment, the focus destination of the refocus image is maintained at the subject with the highest priority (Mr. A), and the subjects with the second priority or lower (Ms. B, C, Only when one of the trees 1) is tapped, shifts to the subject where the focus destination of the refocus image is tapped.

なお、本実施形態の通常再生モードでは、被写体を指定するためのユーザ操作を、表示部19上の被写体に対するタップ操作としたが、他の所定操作としてもよい。例えば、ユーザが十字釦20cを操作して表示部19上のカーソル19a(図1(B)参照)を移動させ、カーソル19aが被写体上に位置したときにOK釦を押下することで、被写体の指定を行ってもよい。   In the normal playback mode of the present embodiment, the user operation for specifying the subject is a tap operation on the subject on the display unit 19, but may be another predetermined operation. For example, the user operates the cross button 20c to move the cursor 19a (see FIG. 1B) on the display unit 19 and presses the OK button when the cursor 19a is positioned on the subject. You may specify.

また、本実施形態の通常再生モードでは、リフォーカス画像の撮影距離を変更してから元に戻すタイミングを、ユーザが被写体を指定してから所定時間(例えば2秒)が経過したタイミングとしたが、ユーザが被写体を指定した後に所定操作を行ったタイミングとしてもよい。例えば、ユーザがリフォーカス画像上の任意のポイントをタップしたタイミングや、十字釦20cの左方向キー(戻る釦)が押下されたタイミングとしてもよい。   In the normal playback mode of the present embodiment, the timing at which the shooting distance of the refocus image is changed and then restored is the timing at which a predetermined time (for example, 2 seconds) has elapsed since the user specified the subject. The timing when the user performs a predetermined operation after designating the subject may be used. For example, it may be the timing when the user taps an arbitrary point on the refocus image or the timing when the left direction key (return button) of the cross button 20c is pressed.

また、本実施形態の通常再生モードでは、通常再生の対象となった画像ファイルに優先順位情報が登録済みであることを前提としたが、もしも優先順位情報が未登録であった場合には、優先順位が1位である被写体の距離に合焦したリフォーカス画像を表示する代わりに、全ての被写体に合焦したパンフォーカス画像を表示してもよい。   Further, in the normal playback mode of the present embodiment, it is assumed that the priority information has been registered in the image file that is the target of normal playback, but if the priority information has not been registered, Instead of displaying a refocus image focused on the distance of the subject with the first priority, a pan focus image focused on all subjects may be displayed.

また、本実施形態の通常再生モードでは、通常再生の対象となった画像ファイルに優先順位情報が未登録であった場合は、ライトフィールドカメラ10を手動登録モード(後述)に移行させてもよい。   Further, in the normal playback mode of the present embodiment, the light field camera 10 may be shifted to the manual registration mode (described later) when the priority order information is not registered in the image file that is the target of normal playback. .

以下、手動登録モードにおけるライトフィールドカメラ10の動作を説明する。   Hereinafter, the operation of the light field camera 10 in the manual registration mode will be described.

先ず、システム制御部17は、カードメモリ21に格納中の複数の画像ファイルの中から、ユーザの指定した画像ファイルを読み出し、その画像ファイルに格納されたライトフィールド画像をバッファメモリへ書き込む。   First, the system control unit 17 reads an image file designated by the user from among a plurality of image files stored in the card memory 21, and writes the light field image stored in the image file to the buffer memory.

続いて、画像処理部15は、ライトフィールド画像からリフォーカス画像を生成し、システム制御部17は、そのリフォーカス画像を表示部19へ表示する。このリフォーカス画像の撮影条件は、デフォルト(例えば、視点は正面、絞り値は最大)に設定される。   Subsequently, the image processing unit 15 generates a refocus image from the light field image, and the system control unit 17 displays the refocus image on the display unit 19. The shooting conditions for this refocus image are set to default (for example, the viewpoint is front and the aperture value is maximum).

また、システム制御部17は、画像ファイルの付随情報を参照し、ライトフィールド画像に写っている各被写体の存在エリア及び優先順位を認識すると、表示部19におけるリフォーカス画像の各被写体の近傍に、その被写体の優先順位を示す文字イメージ「順位:××位」を重畳表示する(図4(A)参照)。   In addition, when the system control unit 17 refers to the accompanying information of the image file and recognizes the existence area and priority of each subject in the light field image, the system control unit 17 near the subject in the refocus image on the display unit 19. A character image “rank: XX” indicating the priority order of the subject is superimposed and displayed (see FIG. 4A).

因みに、図4(A)に示したのは、リフォーカス画像にAさん、Bさん、Cさん、樹木1が写っており、Aさんの優先順位は1位、Bさんの優先順位は2位、Cさんの優先順位は3位、樹木1の優先順位は4位であった場合の例である。   Incidentally, FIG. 4 (A) shows A, B, C, and Tree 1 in the refocused image, with A's priority ranked first and B's priority ranked second. In this example, Mr. C's priority is 3rd and Tree 1 is 4th.

したがって、ユーザは、各被写体の現在の優先順位を表示部19上で確認することができる。   Therefore, the user can check the current priority order of each subject on the display unit 19.

なお、優先順位情報が画像ファイルに未登録であった場合、システム制御部17は、各被写体の近傍に、各被写体の優先順位が未登録である旨を示す文字イメージ「順位:_位」を表示する(不図示)。   If the priority information is not registered in the image file, the system control unit 17 displays a character image “rank: _rank” indicating that the priority of each subject is not registered in the vicinity of each subject. Display (not shown).

このリフォーカス画像上で、任意の被写体(例えばBさん)をユーザがタップすると(図4(B)参照)、システム制御部17は、タップポイントに位置する被写体(Bさん)の優先順位が1位に繰り上がるように、表示部19上の文字イメージと、画像ファイルの優先順位情報とを、それぞれ更新し(図4(C)参照)、更新後の優先順位情報に応じて、優先度テーブルを更新する。   When the user taps an arbitrary subject (for example, Mr. B) on the refocused image (see FIG. 4B), the system control unit 17 sets the priority of the subject (Mr. B) positioned at the tap point to 1. The character image on the display unit 19 and the priority information of the image file are updated so as to move up (see FIG. 4C), and the priority table is updated according to the updated priority information. Update.

また、このリフォーカス画像上で、別の任意の被写体(例えばCさん)をユーザがタップすると(図4(D)参照)、システム制御部17は、タップポイントに位置する被写体(Cさん)の優先順位が1位に繰り上がるように、表示部19上の文字イメージと、画像ファイルの優先順位情報とを、それぞれ更新し(図4(E)参照)、更新後の優先順位情報に応じて、優先度テーブルを更新する(以上、手動登録モード)。   When the user taps another arbitrary subject (for example, Mr. C) on the refocus image (see FIG. 4D), the system control unit 17 sets the subject (Mr. C) at the tap point. The character image on the display unit 19 and the priority order information of the image file are updated so that the priority order increases to the first place (see FIG. 4E), and according to the updated priority order information. , Update the priority table (manual registration mode).

したがって、本実施形態の手動登録モードによると、画像ファイルに登録されている優先順位情報をユーザが手動で書き換えることもできるし、優先順位情報が未登録の画像ファイルへユーザが優先順位情報を手動で登録することもできる。   Therefore, according to the manual registration mode of the present embodiment, the priority information registered in the image file can be manually rewritten by the user, or the user can manually input the priority information to an image file for which the priority information is not registered. You can also register at

なお、本実施形態の手動登録モードでは、被写体がタップされる度に、その被写体の優先順位を1位に繰り上げたが、複数の被写体をユーザに順次にタップさせ、先にタップされた被写体ほど高い優先順位を付与してもよい。   In the manual registration mode of the present embodiment, each time a subject is tapped, the priority of the subject is incremented to the first place. However, the user sequentially taps a plurality of subjects, and the subject tapped earlier. High priority may be given.

また、本実施形態の手動登録モードにおいて、優先順位情報が未登録である画像ファイルをユーザが指定した場合、システム制御部17は、各被写体の優先順位を自動的に仮決定すると共に、仮決定した優先順位を示す文字イメージ「順位:××位」を各被写体の近傍に表示してもよい。これによって、システム制御部17は、仮決定した優先順位をユーザに提案することができる。なお、優先順位の仮決定は、自動登録時(上述)における優先順位の決定と同様に行うことができる。   Further, in the manual registration mode of the present embodiment, when the user designates an image file for which priority order information is not registered, the system control unit 17 automatically provisionally determines the priority order of each subject and temporarily determines the subject. The character image “rank: XX” indicating the priority order may be displayed in the vicinity of each subject. Thereby, the system control unit 17 can propose the temporarily determined priority order to the user. Note that the priority order provisional determination can be performed in the same manner as the priority order determination at the time of automatic registration (described above).

また、本実施形態の手動登録モードでは、被写体を指定するためのユーザ操作を、表示部19上の被写体に対するタップ操作としたが、他の所定操作としてもよい。例えば、ユーザが十字釦20cを操作して表示部19上のカーソル19a(図1(B)参照)を移動させ、カーソル19aが被写体上に位置したときにOK釦を押下することで、被写体の指定を行ってもよい。   In the manual registration mode of the present embodiment, the user operation for specifying the subject is a tap operation on the subject on the display unit 19, but may be another predetermined operation. For example, the user operates the cross button 20c to move the cursor 19a (see FIG. 1B) on the display unit 19 and presses the OK button when the cursor 19a is positioned on the subject. You may specify.

[第1実施形態の変形例]
なお、本実施形態のシステム制御部17は、優先度テーブルに格納される優先度を最新の優先度のみとしたが、優先度テーブルに優先度の履歴を残し、その履歴に基づき優先順位の決定又は仮決定を行ってもよい。このようにすれば、優先順位の決定又は仮決定に最新の優先度だけでなく過去の優先度をも反映させることができる。
[Modification of First Embodiment]
The system control unit 17 according to the present embodiment sets the priority stored in the priority table only to the latest priority, but leaves the priority history in the priority table and determines the priority based on the history. Or you may make a temporary decision. In this way, it is possible to reflect not only the latest priority but also the past priority in the priority determination or provisional determination.

また、本実施形態のシステム制御部17は、ユーザによる手動登録が行われる度に、その手動登録の傾向を学習して優先度テーブルを更新してもよい。このようにすれば、優先順位の決定又は仮決定に、ユーザによる手動登録の傾向を反映させることができる。   Further, the system control unit 17 of the present embodiment may learn the tendency of manual registration and update the priority table every time manual registration is performed by the user. In this way, the tendency of manual registration by the user can be reflected in the priority order determination or provisional determination.

また、本実施形態の優先度テーブルは、優先度を被写体属性(Aさん、Bさん、Cさん、建物1、建物2、樹木1、樹木2、…)ごとに格納したが、被写体種類ごと(人物、建物、樹木、…)ごとに格納してもよい。但し、その場合、被写体種類の共通する2以上の被写体が保存用ライトフィールド画像に写っていると、それら2以上の被写体の間で優先度が同じになってしまうので、システム制御部17は、それら被写体の優先順位をそれら被写体の被写体距離に応じて決定することが望ましい。   In addition, the priority table of the present embodiment stores the priority for each subject attribute (Mr. A, Mr. B, Mr. C, Building 1, Building 2, Tree 1, Tree 2,...). Each person, building, tree, etc.) may be stored. However, in this case, if two or more subjects having a common subject type are reflected in the storage light field image, the priority is the same between the two or more subjects. It is desirable to determine the priority order of the subjects according to the subject distance of the subjects.

また、本実施形態のシステム制御部17は、優先順位の決定又は仮決定を、優先度テーブルに基づき行ったが、撮影前にユーザの指定した撮影シーン(撮影テーマ)の種類に基づき行ってもよい。例えば、ユーザの指定した撮影シーンが「ポートレート」であった場合、システム制御部17は、人物の優先順位を人物以外の被写体の優先順位より高くしてもよい。例えば、ユーザの指定した撮影シーンが「マクロ撮影」であった場合、システム制御部17は、花の優先順位を花以外の被写体の優先順位より高くしてもよい。   In addition, the system control unit 17 according to the present embodiment performs the priority determination or provisional determination based on the priority table, but may also perform the priority determination based on the type of shooting scene (shooting theme) designated by the user before shooting. Good. For example, when the shooting scene designated by the user is “portrait”, the system control unit 17 may set the priority of the person higher than the priority of the subject other than the person. For example, when the shooting scene designated by the user is “macro shooting”, the system control unit 17 may set the priority of flowers higher than the priority of subjects other than flowers.

また、本実施形態のシステム制御部17は、優先順位の決定又は仮決定を、優先度テーブルに基づき行ったが、優先度テーブルに基づく代わりに、被写体の被写体距離に基づき行ってもよい。例えば、被写体距離の短い被写体の優先順位を、被写体距離の長い被写体の優先順位より高くしてもよい。   Further, the system control unit 17 according to the present embodiment performs the priority order determination or provisional determination based on the priority table, but may instead perform the priority order based on the subject distance of the subject instead of the priority table. For example, the priority of a subject with a short subject distance may be set higher than the priority of a subject with a long subject distance.

また、本実施形態のシステム制御部17は、撮影前にユーザに被写体を指定させ、指定された被写体に類似した被写体ほど高い優先順位を付与してもよい。   In addition, the system control unit 17 according to the present embodiment may cause the user to designate a subject before shooting, and may assign a higher priority to a subject similar to the designated subject.

また、本実施形態のシステム制御部17は、撮影前の被写界の状況に応じて被写体の優先順位を決定してもよい(例えば、第2実施形態を参照)。   Further, the system control unit 17 of the present embodiment may determine the priority order of the subject according to the state of the object scene before shooting (for example, see the second embodiment).

[第2実施形態]
以下、本発明の第2実施形態としてライトフィールドカメラを説明する。ここでは、第1実施形態との相違点のみを説明する。相違点は、撮影モードにおける動作にあり、具体的には、撮影前の被写界の状況を被写体の優先順位に反映させる点にある。
[Second Embodiment]
Hereinafter, a light field camera will be described as a second embodiment of the present invention. Here, only differences from the first embodiment will be described. The difference is in the operation in the shooting mode. Specifically, the situation of the object scene before shooting is reflected in the priority order of the subject.

図5は、第2実施形態の撮影モードにおけるライトフィールドカメラ10の動作フローチャートである。以下、各ステップを順に説明する。   FIG. 5 is an operation flowchart of the light field camera 10 in the shooting mode of the second embodiment. Hereinafter, each step will be described in order.

ステップS11:システム制御部17は、撮像部11を高速駆動モードで駆動して現フレームのスルー画像を取得し、そのスルー画像をライブビュー画像として表示部19へ送出する。   Step S11: The system control unit 17 drives the imaging unit 11 in the high-speed drive mode to acquire a through image of the current frame, and sends the through image to the display unit 19 as a live view image.

ステップS12:画像処理部15は、現フレームのスルー画像に対して被写体抽出処理を施すことにより、現フレームに写っている各被写体の被写体属性及び存在エリアを既知とする。   Step S12: The image processing unit 15 performs subject extraction processing on the through image of the current frame, thereby making the subject attribute and the existing area of each subject shown in the current frame known.

ステップS13:システム制御部17は、現フレームに写っている各被写体の被写体属性に基づき被写界監視テーブルを更新する。但し、初回のステップS13では、更新前に被写界監視テーブルをクリアする。   Step S13: The system control unit 17 updates the object scene monitoring table based on the subject attribute of each subject in the current frame. However, in the first step S13, the object scene monitoring table is cleared before the update.

ここで、被写界監視テーブルは、被写体の出現回数を被写体属性ごとにカウントするためのテーブルであって、例えば、現フレームに「Aさん」、「Bさん」、「Cさん」、「樹木1」が写っていた場合は、本ステップにて「Aさん」の出現回数、「Bさん」の出現回数、「Cさん」の出現回数、「樹木1」の出現回数が1ずつインクリメントされる。   Here, the scene monitoring table is a table for counting the number of appearances of the subject for each subject attribute. For example, “Mr. A”, “Mr. B”, “Mr. C”, “Tree” When “1” is shown, the number of appearances of “Mr. A”, the number of appearances of “Mr. B”, the number of appearances of “Mr. C”, and the number of appearances of “Tree 1” are incremented by 1 in this step. .

ステップS14:システム制御部17は、ユーザから撮影指示が入力されたか否かを判別し、入力されない場合はステップS15へ移行し、入力された場合はステップS17へ移行する。   Step S14: The system control unit 17 determines whether or not a shooting instruction has been input from the user. If not, the system control unit 17 proceeds to step S15. If not, the system control unit 17 proceeds to step S17.

ステップS15:システム制御部17は、被写界監視テーブルが前回クリアされてから所定時間(例えば1分)が経過したか否かを判別し、経過した場合にはステップS16へ移行し、経過していない場合にはステップS11に戻る。   Step S15: The system control unit 17 determines whether or not a predetermined time (for example, 1 minute) has elapsed since the object scene monitoring table was cleared last time, and when it has elapsed, the system control unit 17 proceeds to Step S16. If not, the process returns to step S11.

ステップS16:システム制御部17は、被写界監視テーブルをクリアしてからステップS11に戻る。   Step S16: The system control unit 17 clears the object scene monitoring table, and then returns to step S11.

ステップS17:システム制御部17は、撮像部11を詳細駆動モードで駆動して新規フレームの保存用ライトフィールド画像を取得する。画像処理部15は、その保存用ライトフィールド画像に基づきアフタービュー画像を作成する。   Step S17: The system control unit 17 drives the imaging unit 11 in the detailed drive mode to acquire a light field image for storing a new frame. The image processing unit 15 creates an after-view image based on the storage light field image.

また、画像処理部15は、保存用ライトフィールド画像に対する被写体抽出処理を実行することにより、その保存用ライトフィールド画像に写っている各被写体の被写体属性及び存在エリアを既知すると共に、各被写体に対する距離算出処理を実行することにより、各被写体の被写体距離を既知とする。また、画像処理部15は、保存用ライトフィールド画像から各種のサムネイル画像を作成する。   In addition, the image processing unit 15 performs subject extraction processing on the storage light field image, thereby knowing the subject attributes and the existing areas of the subjects shown in the storage light field image, and the distance to each subject. By executing the calculation process, the subject distance of each subject is known. The image processing unit 15 also creates various thumbnail images from the storage light field image.

ステップS18:システム制御部17は、前のステップで作成されたアフタービュー画像を表示部19へ送出することにより、アフタービュー表示を行う。   Step S18: The system control unit 17 performs after-view display by sending the after-view image created in the previous step to the display unit 19.

ステップS19:システム制御部17は、被写界監視テーブルを参照し、保存用ライトフィールド画像に写っている各被写体の出現回数を認識すると、出現回数の多い被写体から順に高い優先順位を割り当てることにより、各被写体の優先順位を決定する。   Step S19: When the system control unit 17 refers to the scene monitoring table and recognizes the number of appearances of each subject appearing in the storage light field image, the system control unit 17 assigns a higher priority in order from the subject having the highest number of appearances. Determine the priority of each subject.

ステップS20:システム制御部17は、保存用ライトフィールド画像の画像ファイル(図2参照)を作成する。   Step S20: The system control unit 17 creates an image file (see FIG. 2) of the storage light field image.

画像ファイルの作成に当たり、システム制御部17は、保存用ライトフィールド画像に写っている各被写体の被写体属性、各被写体の存在エリア、各被写体の被写体距離と、その保存用ライトフィールド画像から作成された各種のサムネイル画像とを、画像ファイルに書き込む。   In creating the image file, the system control unit 17 creates the subject attribute of each subject, the existence area of each subject, the subject distance of each subject, and the storage light field image that are included in the storage light field image. Write various thumbnail images to the image file.

そして、システム制御部17は、作成した画像ファイルを記録インタフェース18へ送出することにより、その画像ファイルをカードメモリ21に保存する(以上、撮影モード)。   Then, the system control unit 17 sends the created image file to the recording interface 18, thereby saving the image file in the card memory 21 (the shooting mode).

したがって、本実施形態の撮影モードによれば、撮影前の被写界に長時間に亘って出現した被写体ほど優先順位が高くなる。   Therefore, according to the shooting mode of the present embodiment, a subject that has appeared in the scene before shooting for a long time has a higher priority.

ここで、撮影前の被写界に長時間に亘って出現した被写体は、撮影前にユーザから注目されていた被写体とみなせる。   Here, a subject that has appeared in the field before photographing for a long time can be regarded as a subject that has been noted by the user before photographing.

よって、本実施形態の撮影モードによれば、撮影前にユーザから注目されていた被写体ほど優先順位を高くすることができる。   Therefore, according to the shooting mode of the present embodiment, it is possible to increase the priority order of the subject that has received attention from the user before shooting.

また、本実施形態の撮影モードでは、撮影前の被写界の状況を監視するので、データベースに優先度テーブル(図2(B)参照)が格納されている必要は無い。   Further, in the shooting mode of the present embodiment, the situation of the object scene before shooting is monitored, so that the priority table (see FIG. 2B) need not be stored in the database.

なお、本実施形態の撮影モードでは、被写体の優先順位を被写界における被写体の出現時間に応じて決定したが、被写界における被写体の出現サイズに応じて決定してもよい。また、被写体が人物である場合は、被写界における人物の顔の出現サイズに応じて決定してもよい。   In the shooting mode of the present embodiment, the priority order of the subject is determined according to the appearance time of the subject in the scene, but may be determined according to the appearance size of the subject in the scene. When the subject is a person, it may be determined according to the appearance size of the person's face in the object scene.

また、本実施形態の撮影モードでは、被写体の優先順位を被写界における被写体の出現時間に応じて決定したが、被写界における被写体の出現時間と出現サイズとの双方に応じて決定してもよい。   In the shooting mode of the present embodiment, the priority order of the subject is determined according to the appearance time of the subject in the scene, but is determined according to both the appearance time and the appearance size of the subject in the scene. Also good.

[第3実施形態]
以下、本発明の第3実施形態としてライトフィールドカメラを説明する。ここでは、第1実施形態との相違点のみを説明する。相違点は、通常再生モードにおける動作にあり、具体的には、優先順位情報を利用しない点にある。
[Third Embodiment]
Hereinafter, a light field camera will be described as a third embodiment of the present invention. Here, only differences from the first embodiment will be described. The difference lies in the operation in the normal playback mode, specifically, the priority order information is not used.

以下、通常再生モードにおけるライトフィールドカメラ10の動作を説明する。   Hereinafter, the operation of the light field camera 10 in the normal playback mode will be described.

先ず、システム制御部17は、カードメモリ21に格納中の複数の画像ファイルの中から、ユーザの指定した画像ファイルを読み出し、その画像ファイルに格納されたライトフィールド画像をバッファメモリへ書き込む。   First, the system control unit 17 reads an image file designated by the user from among a plurality of image files stored in the card memory 21, and writes the light field image stored in the image file to the buffer memory.

続いて、画像処理部15は、ライトフィールド画像からパンフォーカス画像を生成し、システム制御部17は、そのパンフォーカス画像を表示部19へ表示する(図6(A)参照)。なお、このパンフォーカス画像の視点はデフォルト(例えば、正面)に設定される。   Subsequently, the image processing unit 15 generates a pan focus image from the light field image, and the system control unit 17 displays the pan focus image on the display unit 19 (see FIG. 6A). Note that the viewpoint of the pan focus image is set to a default (for example, front).

このパンフォーカス画像上で、任意の被写体(例えばBさん)をユーザがタップすると、システム制御部17は、タップポイントに位置する被写体(Bさん)の被写体距離を認識し、その被写体距離と同じ撮影距離を有し、かつ絞り値が非最大(例えば最小)であるリフォーカス画像を、パンフォーカス画像の代わりに表示部19へ表示する。このリフォーカス画像の視点は、パンフォーカス画像の視点と同じである。これによって、全ての被写体に合焦したパンフォーカス画像が、一部の被写体に合焦したリフォーカス画像へと切り換わる(図6(A)→(B)を参照)。   When the user taps an arbitrary subject (for example, Mr. B) on the pan focus image, the system control unit 17 recognizes the subject distance of the subject (Mr. B) located at the tap point, and captures the same subject distance. A refocus image having a distance and a non-maximum (for example, minimum) aperture value is displayed on the display unit 19 instead of the pan focus image. The viewpoint of this refocus image is the same as that of the pan focus image. As a result, the pan-focus image focused on all subjects is switched to a refocus image focused on some subjects (see FIGS. 6A to 6B).

その後、所定時間(例えば2秒)が経過すると、システム制御部17は、表示中のリフォーカス画像の代わりにパンフォーカス画像を表示部19へ再び表示する。このパンフォーカス画像の視点は、リフォーカス画像の視点と同じである。これによって、一部の被写体に合焦したリフォーカス画像が、全ての被写体に合焦したパンフォーカス画像へと切り換わる(図6(B)→(D)を参照)。   Thereafter, when a predetermined time (for example, 2 seconds) elapses, the system control unit 17 displays the pan focus image on the display unit 19 in place of the currently displayed refocus image. The viewpoint of this pan focus image is the same as that of the refocus image. As a result, the refocus image focused on some subjects switches to a pan focus image focused on all subjects (see FIGS. 6B to 6D).

また、パンフォーカス画像上で、別の任意の被写体(例えばAさん)をユーザがタップすると、システム制御部17は、タップポイントに位置する被写体(Aさん)の被写体距離を認識し、その被写体距離と同じ撮影距離を有し、かつ絞り値が非最大(例えば最小)であるリフォーカス画像を、パンフォーカス画像の代わりに表示部19へ表示する。このリフォーカス画像の視点は、パンフォーカス画像の視点と同じである。これによって、全ての被写体に合焦したパンフォーカス画像が、一部の被写体に合焦したリフォーカス画像へと切り換わる(図6(A)→(C)を参照)。   When the user taps another arbitrary subject (for example, Mr. A) on the pan focus image, the system control unit 17 recognizes the subject distance of the subject (Mr. A) located at the tap point, and the subject distance. A refocus image having the same shooting distance and a non-maximum (for example, minimum) aperture value is displayed on the display unit 19 instead of the pan focus image. The viewpoint of this refocus image is the same as that of the pan focus image. As a result, the pan-focus image focused on all subjects is switched to a refocus image focused on some subjects (see FIGS. 6A to 6C).

その後、所定時間(例えば2秒)が経過すると、システム制御部17は、表示中のリフォーカス画像の代わりにパンフォーカス画像を表示部19へ再び表示する。このパンフォーカス画像の視点は、リフォーカス画像の視点と同じである。これによって、一部の被写体に合焦したリフォーカス画像が、全ての被写体に合焦したパンフォーカス画像へと切り換わる(図6(C)→(D)を参照)。   Thereafter, when a predetermined time (for example, 2 seconds) elapses, the system control unit 17 displays the pan focus image on the display unit 19 in place of the currently displayed refocus image. The viewpoint of this pan focus image is the same as that of the refocus image. As a result, the refocus image focused on some subjects switches to a pan focus image focused on all subjects (see FIGS. 6C to 6D).

したがって、本実施形態の通常再生モードでは、全ての被写体に合焦したパンフォーカス画像が連続的に表示され、任意の被写体がタップされたときにのみ、その被写体に合焦したリフォーカス画像がパンフォーカス画像の代わりに表示される。   Therefore, in the normal playback mode of the present embodiment, a pan-focus image focused on all subjects is continuously displayed, and a refocus image focused on the subject is panned only when an arbitrary subject is tapped. Displayed instead of the focus image.

なお、本実施形態の通常再生モードでは、被写体を指定するためのユーザ操作を、表示部19上の被写体に対するタップ操作としたが、他の所定操作としてもよい。例えば、ユーザが十字釦20cを操作して表示部19上のカーソル19a(図1(B)参照)を移動させ、カーソル19aが被写体上に位置したときにOK釦を押下することで、被写体の指定を行ってもよい。   In the normal playback mode of the present embodiment, the user operation for specifying the subject is a tap operation on the subject on the display unit 19, but may be another predetermined operation. For example, the user operates the cross button 20c to move the cursor 19a (see FIG. 1B) on the display unit 19 and presses the OK button when the cursor 19a is positioned on the subject. You may specify.

[第4実施形態]
以下、本発明の第4実施形態としてライトフィールドカメラを説明する。ここでは、第3実施形態との相違点のみを説明する。相違点は、被写体の連続指定を可能とした点にある。
[Fourth Embodiment]
Hereinafter, a light field camera will be described as a fourth embodiment of the present invention. Here, only differences from the third embodiment will be described. The difference is that the subject can be continuously specified.

以下、通常再生モードにおけるライトフィールドカメラ10の動作を説明する。   Hereinafter, the operation of the light field camera 10 in the normal playback mode will be described.

先ず、システム制御部17は、カードメモリ21に格納中の複数の画像ファイルの中から、ユーザの指定した画像ファイルを読み出し、その画像ファイルに格納されたライトフィールド画像をバッファメモリへ書き込む。   First, the system control unit 17 reads an image file designated by the user from among a plurality of image files stored in the card memory 21, and writes the light field image stored in the image file to the buffer memory.

続いて、画像処理部15は、ライトフィールド画像からパンフォーカス画像を生成し、システム制御部17は、そのパンフォーカス画像を表示部19へ表示する(図7(A)参照)。なお、このパンフォーカス画像の視点はデフォルト(例えば、正面)に設定される。   Subsequently, the image processing unit 15 generates a pan focus image from the light field image, and the system control unit 17 displays the pan focus image on the display unit 19 (see FIG. 7A). Note that the viewpoint of the pan focus image is set to a default (for example, front).

このパンフォーカス画像上で、任意の被写体(例えばBさん)をユーザがタップすると、システム制御部17は、タップポイントに位置する被写体(Bさん)の被写体距離を認識し、その被写体距離と同じ撮影距離を有し、かつ絞り値が非最大(例えば最小)であるリフォーカス画像を、パンフォーカス画像の代わりに表示部19へ表示する。このリフォーカス画像の視点は、パンフォーカス画像の視点と同じである。これによって、全ての被写体に合焦したパンフォーカス画像が、一部の被写体に合焦したリフォーカス画像へと切り換わる(図7(A)→図7(B)を参照)。   When the user taps an arbitrary subject (for example, Mr. B) on the pan focus image, the system control unit 17 recognizes the subject distance of the subject (Mr. B) located at the tap point, and captures the same subject distance. A refocus image having a distance and a non-maximum (for example, minimum) aperture value is displayed on the display unit 19 instead of the pan focus image. The viewpoint of this refocus image is the same as that of the pan focus image. As a result, the pan-focus image focused on all subjects switches to a refocus image focused on some subjects (see FIG. 7A → FIG. 7B).

また、そのリフォーカス画像上で、別の任意の被写体(例えばAさん)をユーザがタップすると、システム制御部17は、タップポイントに位置する被写体(Aさん)の被写体距離を参照し、その被写体距離と同じ撮影距離を有し、かつ絞り値が非最大(例えば最小)であるリフォーカス画像を、表示中のリフォーカス画像の代わりに表示部19へ表示する。このリフォーカス画像の視点は、パンフォーカス画像の視点と同じである。これによって、一部の被写体に合焦したリフォーカス画像が、他の一部の被写体に合焦したリフォーカス画像へと切り換わる(図7(B)→図7(C)を参照)。   When the user taps another arbitrary subject (for example, Mr. A) on the refocus image, the system control unit 17 refers to the subject distance of the subject (Mr. A) located at the tap point, and the subject. A refocus image having the same shooting distance as the distance and having a non-maximum (for example, minimum) aperture value is displayed on the display unit 19 instead of the currently displayed refocus image. The viewpoint of this refocus image is the same as that of the pan focus image. As a result, the refocus image focused on a part of the subject is switched to the refocus image focused on the other part of the subject (see FIG. 7B → FIG. 7C).

また、リフォーカス画像の表示中、十字釦20cの左方向キー(戻る釦)が押下されると、システム制御部17は、表示中のリフォーカス画像の代わりに、パンフォーカス画像を表示部19へ再び表示する。このパンフォーカス画像の視点は、前述したパンフォーカス画像の視点と同じである。これによって、一部の被写体に合焦したリフォーカス画像が、全ての被写体に合焦したパンフォーカス画像へと切り換わる(図7(C)→図7(D)を参照)。   When the left arrow key (return button) of the cross button 20c is pressed during display of the refocus image, the system control unit 17 sends the pan focus image to the display unit 19 instead of the refocus image being displayed. Display again. The viewpoint of this pan focus image is the same as the viewpoint of the pan focus image described above. As a result, the refocus image focused on some subjects switches to a pan focus image focused on all subjects (see FIG. 7C → FIG. 7D).

したがって、本実施形態の通常再生モードによると、ユーザは、リフォーカス画像の合焦先となる被写体を任意の順序で切り換えることができ、必要時にはワンタッチでリフォーカス画像をパンフォーカス画像に戻すことができる。   Therefore, according to the normal playback mode of the present embodiment, the user can switch the subject to which the refocus image is focused in any order, and can return the refocus image to the pan focus image with one touch when necessary. it can.

なお、本実施形態の通常再生モードでは、一部の被写体に合焦したリフォーカス画像から全ての被写体に合焦したパンフォーカス画像へと切り換えるタイミングを、戻る釦が押下されたタイミングとしたが、ユーザが他の所定操作を行ったタイミングとしてもよい。例えば、ユーザが被写体以外の任意のポイントをタップしたタイミングや、ユーザがキャンセル釦を押下したタイミングとしてもよい。   In the normal playback mode of the present embodiment, the timing for switching from the refocus image focused on some subjects to the pan focus image focused on all subjects is the timing when the return button is pressed. The timing when the user performs another predetermined operation may be used. For example, the timing when the user taps an arbitrary point other than the subject or the timing when the user presses the cancel button may be used.

[第5実施形態]
以下、本発明の第5実施形態としてライトフィールドカメラを説明する。ここでは、上述した実施形態との相違点のみを説明する。相違点は、ズーム操作に応じて撮影距離を調整する点にある。
[Fifth Embodiment]
Hereinafter, a light field camera will be described as a fifth embodiment of the present invention. Here, only differences from the above-described embodiment will be described. The difference is that the shooting distance is adjusted according to the zoom operation.

本実施形態のライトフィールドカメラには、ズームレバーが設けられる。ズームレバーの設け先は、例えば、レリーズ釦20aの近傍である。通常、撮影モードにおけるズームレバーには、撮影レンズ12の実際の画角を調整する機能(光学ズーム機能)が割り当てられ、再生モードにおけるズームレバーには、画像の表示サイズを調整する機能(電子ズーム機能)が割り当てられる。しかし、本実施形態のライトフィールドカメラでは、再生モードにおけるズームレバーに、リフォーカス画像の撮影距離を調整する機能が割り当てられる。   The light field camera of this embodiment is provided with a zoom lever. For example, the zoom lever is provided in the vicinity of the release button 20a. Usually, a function for adjusting the actual angle of view of the taking lens 12 (optical zoom function) is assigned to the zoom lever in the shooting mode, and a function for adjusting the display size of the image (electronic zoom) in the zoom lever in the playback mode. Function). However, in the light field camera of this embodiment, a function for adjusting the shooting distance of the refocus image is assigned to the zoom lever in the playback mode.

以下、通常再生モードにおけるライトフィールドカメラ10の動作を説明する。   Hereinafter, the operation of the light field camera 10 in the normal playback mode will be described.

先ず、システム制御部17は、カードメモリ21に格納中の複数の画像ファイルの中から、ユーザの指定した画像ファイルを読み出し、その画像ファイルに格納されたライトフィールド画像をバッファメモリへ書き込む。   First, the system control unit 17 reads an image file designated by the user from among a plurality of image files stored in the card memory 21, and writes the light field image stored in the image file to the buffer memory.

続いて、画像処理部15は、ライトフィールド画像からリフォーカス画像を生成し、システム制御部17は、そのリフォーカス画像を表示部19へ表示する(図8(A)参照)。このリフォーカス画像の撮影距離は、例えば、リフォーカス画像に写っている各被写体のうち中間距離に位置した被写体(Bさん)の被写体距離と同じに設定され、このリフォーカス画像の撮影距離以外の撮影条件は、デフォルト(例えば、視点は正面、絞り値は最小)に設定される。   Subsequently, the image processing unit 15 generates a refocus image from the light field image, and the system control unit 17 displays the refocus image on the display unit 19 (see FIG. 8A). The shooting distance of the refocus image is set to be the same as the subject distance of the subject (Mr. B) located at an intermediate distance among the subjects shown in the refocus image, for example. The shooting conditions are set to default (for example, the viewpoint is front and the aperture value is minimum).

リフォーカス画像の表示中、ズームレバーがテレ側へ1回操作されると、システム制御部17は、リフォーカス画像の現在の合焦先被写体(Bさん)の遠方側に位置する被写体(Aさん)の被写体距離を認識し、リフォーカス画像の撮影距離を、その被写体距離と同じに切り換える。これによって、リフォーカス画像の合焦先は、当初の合焦先被写体(Bさん)から遠方側の被写体(Aさん)へと移行し、そのリフォーカス画像の撮影距離以外の撮影条件は、維持される(図8(A)→(B)を参照)。   When the zoom lever is operated once to the tele side during the display of the refocus image, the system control unit 17 causes the subject (Mr. A) located on the far side of the current focus target subject (Mr. B) of the refocus image. ) And the shooting distance of the refocus image is switched to the same distance as the subject distance. As a result, the focus destination of the refocus image is shifted from the original focus target subject (Mr. B) to the far subject (Mr. A), and the shooting conditions other than the shooting distance of the refocus image are maintained. (Refer to FIG. 8 (A) → (B)).

また、リフォーカス画像の表示中、ズームレバーがワイド側へ1回操作されると、システム制御部17は、リフォーカス画像の現在の合焦先被写体(例えばBさん)の近方側に位置する被写体(Cさん)の被写体距離を認識し、リフォーカス画像の撮影距離を、その被写体距離と同じに切り換える。これによって、リフォーカス画像は、当初の合焦先被写体(Bさん)から近方側の被写体(Cさん)へと移行し、そのリフォーカス画像の撮影距離以外の撮影条件は、維持される(図8(A)→(C)を参照)。   Further, when the zoom lever is operated once to the wide side during the display of the refocus image, the system control unit 17 is positioned on the near side of the current in-focus subject (for example, Mr. B) of the refocus image. The subject distance of the subject (Mr. C) is recognized, and the shooting distance of the refocus image is switched to the same subject distance. As a result, the refocused image shifts from the original in-focus subject (Mr. B) to the nearer subject (Mr. C), and the shooting conditions other than the shooting distance of the refocused image are maintained ( (See FIG. 8 (A) → (C)).

但し、ズームレバーがテレ側へ操作された場合であっても、現在の合焦先被写体の遠方側に被写体が存在しない場合、システム制御部17は、リフォーカス画像の撮影距離が遠方端に達したとみなし、リフォーカス画像の代わりにパンフォーカス画像を表示部19へ表示する。このパンフォーカス画像の視点は、リフォーカス画像の視点と同じに設定される。これによって、ユーザは、リフォーカス画像の撮影距離が遠方端に達したことを認識できる(図8(B)→(D)を参照)。   However, even when the zoom lever is operated to the tele side, if there is no subject on the far side of the current in-focus subject, the system control unit 17 causes the shooting distance of the refocus image to reach the far end. The pan focus image is displayed on the display unit 19 instead of the refocus image. The viewpoint of this pan focus image is set to be the same as the viewpoint of the refocus image. Thus, the user can recognize that the shooting distance of the refocus image has reached the far end (see FIGS. 8B to 8D).

同様に、ズームレバーがワイド側へ操作された場合であっても、現在の合焦先被写体の近方側に被写体が存在しない場合、システム制御部17は、リフォーカス画像の撮影距離が近方端に達したとみなし、リフォーカス画像の代わりにパンフォーカス画像を表示部19へ表示する。このパンフォーカス画像の視点は、リフォーカス画像の視点と同じに設定される。これによって、ユーザは、リフォーカス画像の撮影距離が近方端に達したことを認識できる(図8(C)→(E)を参照)
したがって、本実施形態の通常再生モードによると、ユーザは、ズームレバーを操作するだけで、リフォーカス画像の撮影距離を拡縮させることができると共に、リフォーカス画像の撮影距離が遠方端又は近方端に達したタイミングを、パンフォーカス画像の出現(=リフォーカス画像の被写界深度が最大になったこと)によって認識することができる。
Similarly, even when the zoom lever is operated to the wide side, if there is no subject on the near side of the current in-focus subject, the system control unit 17 causes the refocus image shooting distance to be near. The pan focus image is displayed on the display unit 19 instead of the refocus image. The viewpoint of this pan focus image is set to be the same as the viewpoint of the refocus image. Thus, the user can recognize that the shooting distance of the refocus image has reached the near end (see FIGS. 8C to 8E).
Therefore, according to the normal playback mode of the present embodiment, the user can enlarge or reduce the shooting distance of the refocus image only by operating the zoom lever, and the shooting distance of the refocus image is at the far end or near end. Can be recognized by the appearance of the pan focus image (= the depth of field of the refocus image is maximized).

なお、本実施形態の通常再生モードでは、ズームレバーが連続操作されている期間中(ズームレバーが非基準ポジションに変移している期間中)には、リフォーカス画像の撮影距離を連続して変化させることが望ましい。   In the normal playback mode of the present embodiment, the shooting distance of the refocus image is continuously changed during the period when the zoom lever is continuously operated (while the zoom lever is moved to the non-reference position). It is desirable to make it.

また、本実施形態の通常再生モードでは、通常再生の対象となるリフォーカス画像を、被写体に合焦したリフォーカス画像のみに制限したが、或る被写体の被写体距離に合焦したリフォーカス画像と、他の被写体の被写体距離に合焦したリフォーカス画像との間に、それらの中間距離に合焦したリフォーカス画像(被写体に合焦していないリフォーカス画像)を挿入してもよい。但し、被写体に合焦していないリフォーカス画像の表示時間は、被写体に合焦したリフォーカス画像の表示時間より短く設定されることが望ましい。   In the normal playback mode of the present embodiment, the refocus image that is the target of normal playback is limited to only the refocus image focused on the subject, but the refocus image focused on the subject distance of a certain subject A refocus image focused on the intermediate distance between them (refocus image not focused on the subject) may be inserted between the refocus images focused on the subject distance of other subjects. However, it is desirable that the display time of the refocus image not focused on the subject is set shorter than the display time of the refocus image focused on the subject.

また、本実施形態の通常再生モードでは、ズームレバーが単発操作された場合(ズームレバーが非基準ポジションに変移してから所定時間内に基準ポジションに戻った場合)と、ズームレバーが連続操作された場合(ズームレバーが非基準ポジションに変移している時間が所定時間より長い場合)との間で、撮影距離の変化パターンを異ならせてもよい。   In the normal playback mode of this embodiment, the zoom lever is continuously operated when the zoom lever is operated once (when the zoom lever returns to the reference position within a predetermined time after changing to the non-reference position). The change pattern of the shooting distance may be different from the case where the zoom lever is moved to the non-reference position for a longer time than the predetermined time.

例えば、ズームレバーが単発操作されたときには、或る被写体の被写体距離から次の被写体の被写体距離へと撮影距離をスキップさせ、ズームレバーが連続操作されたときには、撮影距離を連続変化(コマ送り又は早送り)させてもよい。   For example, when the zoom lever is operated once, the shooting distance is skipped from the subject distance of one subject to the subject distance of the next subject, and when the zoom lever is continuously operated, the shooting distance is continuously changed (frame advance or (Fast forward).

また、本実施形態の通常再生モードでは、リフォーカス画像の撮影距離が遠方端に達した後もなおズームレバーがテレ側に操作されたときには、図8(D)→図9(F)に示すとおり、パンフォーカス画像の表示サイズを連続的(又はステップ状)に拡大してもよい。また、その拡大の際には、最遠方に位置する被写体(Aさん)の中心を、パンフォーカス画像の表示域(例えば表示部19の全域)の中心に一致させ続けることが望ましい。因みに、図9(F)では、Aさんの中心が表示域の中心に一致した様子を描いている。これによって、最遠方の被写体(Aさん)を中心とした電子ズームアップが行われる。   Further, in the normal playback mode of this embodiment, when the zoom lever is still operated to the tele side after the shooting distance of the refocused image reaches the far end, it is shown in FIG. 8 (D) → FIG. 9 (F). As described above, the display size of the pan focus image may be continuously (or stepped) enlarged. Further, at the time of enlargement, it is desirable to keep the center of the farthest subject (Mr. A) consistent with the center of the pan-focus image display area (for example, the entire area of the display unit 19). Incidentally, FIG. 9F illustrates a state in which the center of Mr. A coincides with the center of the display area. As a result, the electronic zoom-up is performed with the farthest subject (Mr. A) as the center.

また、本実施形態の通常再生モードでは、リフォーカス画像の撮影距離が近方端に達した後もなおズームレバーがワイド側へ操作されたときには、図8(E)→図9(G)に示すとおり、パンフォーカス画像の表示サイズを連続的(又はステップ状)に縮小してもよい。また、その縮小の際には、最近方に位置する被写体(Cさん)の中心を、パンフォーカス画像の表示域(例えば表示部19の全域)の中心に一致させ続けることが望ましい。因みに、図9(G)では、Cさんの中心が表示域の中心に一致した様子を描いている。これによって、最近方の被写体(Cさん)を中心とした電子ズームバックが行われる。   Further, in the normal playback mode of this embodiment, when the zoom lever is still operated to the wide side even after the shooting distance of the refocus image reaches the near end, FIG. 8 (E) → FIG. 9 (G). As shown, the display size of the pan focus image may be reduced continuously (or stepwise). In the reduction, it is desirable to keep the center of the subject (Mr. C) located closest to the center of the pan-focus image display area (for example, the entire area of the display unit 19). Incidentally, FIG. 9G depicts a state in which the center of Mr. C coincides with the center of the display area. As a result, electronic zoom back is performed with the subject (Mr. C) as the center.

また、本実施形態の通常再生モードにおけるシステム制御部17は、「最遠方に位置する被写体の被写体距離」を撮影距離の遠方端とみなし、「最近方に位置する被写体の被写体距離」を撮影距離の近方端とみなしたが、「後設定可能な撮影距離の範囲の遠方端」を撮影距離の遠方端とみなし、「後設定可能な撮影距離の範囲の近方端」を撮影距離の近方端とみなしてもよい。   In addition, the system control unit 17 in the normal playback mode of the present embodiment regards “subject distance of the subject located farthest” as the far end of the photographing distance, and regards “subject distance of the subject located closest” as the photographing distance. Is considered as the near end of the shooting distance range, but the far end of the range of shooting distance that can be set later is regarded as the far end of the shooting distance, and the near end of range of shooting distance that can be set later is set near the shooting distance. It may be considered as the end.

また、本実施形態の通常再生モードでは、リフォーカス画像の撮影距離又は表示サイズを拡大するためのユーザ操作を、「ズームレバーのテレ操作」とし、リフォーカス画像の撮影距離又は表示サイズを縮小するためのユーザ操作を、「ズームレバーのワイド操作」としたが、リフォーカス画像の撮影距離又は表示サイズを拡大するためのユーザ操作を、「ズームレバーのワイド操作」とし、リフォーカス画像の撮影距離又は表示サイズを縮小するためのユーザ操作を、「ズームレバーのテレ操作」としてもよい。   In the normal playback mode of the present embodiment, the user operation for increasing the shooting distance or display size of the refocus image is “teleoperation of the zoom lever”, and the shooting distance or display size of the refocus image is reduced. The user operation for the zoom lever is “wide operation of the zoom lever”, but the user operation for enlarging the shooting distance or display size of the refocus image is “wide operation of the zoom lever” and the shooting distance of the refocus image. Alternatively, the user operation for reducing the display size may be a “teleoperation of the zoom lever”.

また、本実施形態の通常再生モードでは、リフォーカス画像の撮影距離又はパンフォーカス画像の表示サイズを調整するためのユーザ操作をズームレバー操作としたが、他の所定操作としてもよい。例えば、十字釦20cの上下方向キーの操作や、表示部19に対する指のスライド操作としてもよい。また、十字釦20cの上下方向キーを使用する場合、例えば、撮影距離又は表示サイズを拡大する機能を上方向キーに割り当て、撮影距離又は表示サイズを縮小する機能を下方向キーに割り当ててもよい。   In the normal playback mode of this embodiment, the user operation for adjusting the shooting distance of the refocus image or the display size of the pan focus image is the zoom lever operation, but may be another predetermined operation. For example, it is good also as operation of the up-down direction key of the cross button 20c, or a finger slide operation with respect to the display part 19. FIG. Further, when the up / down direction key of the cross button 20c is used, for example, a function for increasing the shooting distance or display size may be assigned to the up direction key, and a function for reducing the shooting distance or display size may be assigned to the down direction key. .

また、上記説明では、リフォーカス画像の撮影距離の拡縮機能と表示サイズの拡縮機能とを順次に発現させたが、リフォーカス画像の撮影距離の拡縮機能と表示サイズの拡縮機能と同時に発現させてもよい。   In the above description, the function for expanding / reducing the shooting distance of the refocus image and the function for increasing / decreasing the display size have been developed sequentially. Also good.

例えば、ズームレバーがテレ操作されたときにはリフォーカス画像の撮影距離の拡大と表示サイズの拡大とを同時に行い、ズームレバーがワイド操作されたときには撮影距離の縮小と表示サイズの縮小とを同時に行ってもよい。   For example, when the zoom lever is tele-operated, the shooting distance of the refocus image is enlarged and the display size is enlarged simultaneously, and when the zoom lever is operated wide, the shooting distance is reduced and the display size is reduced simultaneously. Also good.

[各実施形態の変形例]
なお、上述した各実施形態では、後設定可能な撮影条件として、撮影距離、絞り、視点の3つを説明したが、後設定可能な撮影条件に、「合焦面の姿勢又は形状」、すなわち「リフォーカス画像内の撮影距離の分布」を加えてもよい。
[Modification of each embodiment]
In each of the embodiments described above, the shooting distance, the aperture, and the viewpoint are described as the shooting conditions that can be set later. However, in the shooting conditions that can be set later, the “posture or shape of the focal plane”, that is, “Shooting distance distribution in the refocus image” may be added.

また、第1実施形態のライトフィールドカメラ10の機能と、第2実施形態のライトフィールドカメラ10の機能と、第3実施形態のライトフィールドカメラ10の機能と、第4実施形態のライトフィールドカメラ10の機能と、第5実施形態のライトフィールドカメラ10の機能とを併せ持ったライトフィールドカメラを構成してもよい。   Further, the function of the light field camera 10 of the first embodiment, the function of the light field camera 10 of the second embodiment, the function of the light field camera 10 of the third embodiment, and the light field camera 10 of the fourth embodiment. A light field camera having both the above function and the function of the light field camera 10 of the fifth embodiment may be configured.

また、上述した各実施形態では、ライトフィールドカメラ10を説明したが、撮影条件の後設定が可能な撮影画像を取得できる他のカメラ、例えば、フォーカスブラケット撮影可能なカメラ、カメラアレイなどにも本発明は適用が可能である。   Further, in each of the above-described embodiments, the light field camera 10 has been described. However, the present invention is also applied to other cameras that can acquire a photographed image that can be set after photographing conditions, for example, a camera that can perform focus bracket photographing, a camera array, and the like. The invention is applicable.

また、上述した各実施形態では、撮像機能とモニタ機能との双方を搭載した装置を説明したが、撮像機能とモニタ機能との少なくとも一方を搭載しない装置にも本発明は適用が可能である。例えば、ディジタルフォトフレーム、タブレットPC、スマートフォン、デスクトップ型PC、ノートPCなどにも本発明は適用が可能である。   Further, in each of the above-described embodiments, the apparatus having both the imaging function and the monitor function has been described. However, the present invention can also be applied to an apparatus that does not have at least one of the imaging function and the monitor function. For example, the present invention can be applied to a digital photo frame, a tablet PC, a smartphone, a desktop PC, a notebook PC, and the like.

また、コンピュータ実行可能なプログラム又はそれを記憶した記憶媒体に対して上述した何れかの実施形態の装置の少なくとも一部の機能を付与してもよい。   Moreover, you may provide the function of at least one part of the apparatus of any one of embodiment mentioned above with respect to the computer executable program or the storage medium which memorize | stored it.

[第1実施形態の作用効果]
以上、第1実施形態の画像処理装置(画像処理部15、システム制御部17、記録インタフェース18)は、撮影条件(撮影距離、絞り値、視点)の後設定が可能な撮影画像(ライトフィールド画像)を読み込む読み込み手段(システム制御部17、記録インタフェース18)と、前記撮影画像(リフォーカス画像)をモニタへ表示する表示制御手段(システム制御部17)と、前記撮影画像(ライトフィールド画像)中に存在する複数の被写体間の優先順位と、それら被写体の被写体距離とに応じたパターンで、前記撮影画像(リフォーカス画像)の撮影距離を切り換える調整手段(システム制御部17、画像処理部15)とを備える。
[Effects of First Embodiment]
As described above, the image processing apparatus (the image processing unit 15, the system control unit 17, and the recording interface 18) according to the first embodiment can perform a photographic image (light field image) that can be set after the photographic conditions (photographing distance, aperture value, viewpoint). ) Reading means (system control unit 17, recording interface 18), display control means (system control unit 17) for displaying the captured image (refocus image) on a monitor, and in the captured image (light field image) Adjusting means (system control unit 17, image processing unit 15) for switching the shooting distance of the captured image (refocused image) with a pattern according to the priority order between the plurality of subjects existing in the image and the subject distance of the subjects With.

したがって、前記撮影距離(リフォーカス画像)の切り換えは、効果的に行われる。例えば、優先順位の高い被写体を積極的に合焦させたり、優先順位の高い被写体を早いタイミングで合焦させたり、優先順位の高い被写体を長い時間に亘って合焦させたりすることができる。   Therefore, the switching of the shooting distance (refocus image) is performed effectively. For example, a high priority subject can be actively focused, a high priority subject can be focused at an early timing, or a high priority subject can be focused for a long time.

また、前記調整手段は、被写体属性間の相対的な優先度を予め記憶したテーブルに基づき、前記複数の被写体間の優先順位を決定する。したがって、前記調整手段は前記優先順位の決定を常に適正に行うことができる。   Further, the adjusting means determines a priority order among the plurality of subjects based on a table in which relative priorities between subject attributes are stored in advance. Therefore, the adjusting means can always properly determine the priority order.

また、前記調整手段は、優先順位が最高である被写体の被写体距離と同じ距離に前記撮影画像の撮影距離を維持しつつ、ユーザが他の被写体を指定したときにのみ、その被写体の被写体距離と同じ距離に前記撮影距離を移行させる。   In addition, the adjustment means maintains the subject distance of the subject only when the user designates another subject while maintaining the subject distance of the photographed image at the same distance as the subject distance of the subject having the highest priority. The shooting distance is shifted to the same distance.

したがって、前記撮影画像(リフォーカス画像)の合焦先は、優先順位が最も高い被写体に維持され、優先順位の低い被写体が指定されたにのみ、前記撮影画像(リフォーカス画像)の合焦先が、その被写体に移行する。   Therefore, the focus destination of the captured image (refocus image) is maintained at the subject with the highest priority, and the focus destination of the captured image (refocus image) is only specified when the subject with the low priority is designated. However, it shifts to the subject.

また、前記調整手段は、前記優先順位が未決定であった場合には、前記撮影画像の絞り値を最大に設定する。   The adjusting unit sets the aperture value of the captured image to the maximum when the priority order is not yet determined.

したがって、ユーザは、絞り値が最大の前記撮影画像(パンフォーカス画像)の出現により、前記優先順位が未決定であることを認識することができる。   Therefore, the user can recognize that the priority order has not been determined by the appearance of the captured image (pan focus image) having the maximum aperture value.

また、前記調整手段は、ユーザからの指示に応じて前記優先順位を決定する。   The adjusting means determines the priority order according to an instruction from a user.

したがって、ユーザは、未決定の優先順位を手動で決定したり、決定済みの優先順位を手動で書き換えたりすることができる。   Therefore, the user can manually determine the undecided priority order or manually rewrite the determined priority order.

[第2実施形態の作用効果]
以上、第2実施形態の画像処理装置(画像処理部15、システム制御部17、記録インタフェース18)において、前記調整手段(システム制御部17)は、前記撮影画像の撮影前の被写界に長時間に亘り出現した被写体ほど優先順位を高くする。
[Effects of Second Embodiment]
As described above, in the image processing apparatus (the image processing unit 15, the system control unit 17, and the recording interface 18) according to the second embodiment, the adjustment unit (system control unit 17) is long in the field before the captured image is captured. A subject that appears over time has a higher priority.

また、前記調整手段(システム制御部17)は、前記撮影画像の撮影前の被写界に大サイズで出現した被写体ほど優先順位を高くする。   Further, the adjustment means (system control unit 17) increases the priority of the subject that appears in a large size in the object scene before the photographing of the photographed image.

したがって、第2実施形態の画像処理装置によると、撮影前にユーザから注目されていた被写体ほど優先順位が高くなる。また、第2実施形態の画像処理装置によると、優先度を予め記憶したテーブルは、非必須である。   Therefore, according to the image processing apparatus of the second embodiment, a subject that has received attention from the user before shooting has a higher priority. Further, according to the image processing apparatus of the second embodiment, the table in which the priorities are stored in advance is not essential.

[第3実施形態又は第4実施形態の作用効果]
以上、第3実施形態又は第4実施形態の画像処理装置(画像処理部15、システム制御部17、記録インタフェース18)は、撮影条件(撮影距離、絞り値、視点)の後設定が可能な撮影画像を読み込む読み込み手段(システム制御部17、記録インタフェース18)と、前記撮影画像(リフォーカス画像)をモニタへ表示する表示制御手段(システム制御部17)と、前記撮影画像(リフォーカス画像)の絞り値を最大に維持し、ユーザが被写体を指定したときにのみ、前記撮影画像(リフォーカス画像)の絞り値を非最大に移行させる調整手段(システム制御部17、画像処理部15)とを備える。
[Operational effects of the third embodiment or the fourth embodiment]
As described above, the image processing apparatus (the image processing unit 15, the system control unit 17, and the recording interface 18) according to the third embodiment or the fourth embodiment can perform shooting after setting shooting conditions (shooting distance, aperture value, viewpoint). Reading means for reading an image (system control unit 17, recording interface 18), display control means (system control unit 17) for displaying the photographed image (refocus image) on a monitor, and the photographed image (refocus image) Adjusting means (system control unit 17 and image processing unit 15) that maintains the aperture value at the maximum and shifts the aperture value of the captured image (refocused image) to a non-maximum value only when the user designates the subject; Prepare.

また、前記調整手段は、前記ユーザが被写体を指定したときには、その被写体の被写体距離と同じ距離に前記撮影画像(リフォーカス画像)の撮影距離を移行させる。   Further, when the user designates a subject, the adjustment means shifts the photographing distance of the photographed image (refocus image) to the same distance as the subject distance of the subject.

したがって、第3実施形態又は第4実施形態の画像処理装置によると、絞り値が最大である前記撮影画像(パンフォーカス画像)が連続的に表示され、任意の被写体が指定されたとき又は所定操作(戻る操作)が行われたときにのみ、その被写体に合焦した前記撮影画像(リフォーカス画像)がパンフォーカス画像の代わりに表示される。   Therefore, according to the image processing apparatus of the third embodiment or the fourth embodiment, the photographed image (pan focus image) having the maximum aperture value is continuously displayed, and an arbitrary subject is designated or a predetermined operation is performed. Only when the (return operation) is performed, the captured image (refocus image) focused on the subject is displayed instead of the pan focus image.

[第5実施形態の作用効果]
以上、第5実施形態の画像処理装置(画像処理部15、システム制御部17、記録インタフェース18)は、撮影条件(撮影距離、絞り値、視点)の後設定が可能な撮影画像を読み込む読み込み手段(システム制御部17、記録インタフェース18)と、前記撮影画像(リフォーカス画像)をモニタへ表示する表示制御手段(システム制御部17)と、ユーザからの拡縮指示に応じて前記撮影画像(リフォーカス画像)の撮影距離を拡縮し、その撮影距離が遠方端又は近方端に達したときには、前記撮影画像(リフォーカス画像)の絞り値を最大に設定する調整手段(システム制御部17、画像処理部15)とを備える。
[Effects of Fifth Embodiment]
As described above, the image processing apparatus (the image processing unit 15, the system control unit 17, the recording interface 18) according to the fifth embodiment reads the captured image that can be set after the shooting conditions (shooting distance, aperture value, viewpoint). (System control unit 17, recording interface 18), display control means (system control unit 17) for displaying the captured image (refocused image) on a monitor, and the captured image (refocused) in response to an enlargement / reduction instruction from the user. Adjustment means (system control unit 17, image processing) for setting the aperture value of the photographed image (refocused image) to the maximum when the photographing distance of the image) is enlarged or reduced and the photographing distance reaches the far end or the near end. Part 15).

したがって、ユーザは、拡縮指示を入力するだけで、前記撮影画像(リフォーカス画像)の撮影距離を拡縮させることができ、しかも、前記撮影画像(リフォーカス画像)の撮影距離が遠方端又は近方端に達したタイミングを、絞り値が最大の前記撮影画像(パンフォーカス画像)の出現によって認識することができる。   Therefore, the user can enlarge or reduce the shooting distance of the photographed image (refocus image) simply by inputting an enlargement / reduction instruction, and the shooting distance of the photographed image (refocus image) is far or near. The timing of reaching the end can be recognized by the appearance of the captured image (pan focus image) having the maximum aperture value.

また、前記調整手段は、前記撮影距離が遠方端に達した後に前記ユーザから拡大指示が入力されたときには、その拡大指示に応じて前記撮影画像(パンフォーカス画像)の表示倍率を拡大し、前記撮影距離が近方端に達した後に前記ユーザから縮小指示が入力されたときには、その縮小指示に応じて前記撮影画像(パンフォーカス画像)の表示倍率を縮小する。   In addition, when an enlargement instruction is input from the user after the photographing distance has reached the far end, the adjustment unit enlarges a display magnification of the photographed image (pan focus image) in accordance with the enlargement instruction, When a reduction instruction is input from the user after the shooting distance has reached the near end, the display magnification of the shot image (pan focus image) is reduced according to the reduction instruction.

したがって、ユーザは、拡大指示を入力するだけで前記撮影画像(リフォーカス画像)の撮影距離の拡大と前記撮影画像(パンフォーカス画像)の表示倍率の拡大とを順次に行うことができ、縮小指示を入力するだけで前記撮影画像(リフォーカス画像)の撮影距離の縮小と前記撮影画像(パンフォーカス画像)の表示倍率の縮小とを順次に行うことができる。   Therefore, the user can sequentially increase the shooting distance of the captured image (refocus image) and increase the display magnification of the captured image (pan focus image) by simply inputting an enlargement instruction. It is possible to sequentially reduce the shooting distance of the captured image (refocus image) and the display magnification of the captured image (pan focus image) simply by inputting.

また、前記調整手段は、前記撮影画像(パンフォーカス画像)の表示倍率を拡大する際には、最遠方に位置する被写体の中心を前記撮影画像の表示域の中心に一致させ、前記撮影画像(パンフォーカス画像)の表示倍率を縮小する際には、最近方に位置する被写体の中心を前記撮影画像の表示域の中心に一致させる。   In addition, when the display unit enlarges the display magnification of the captured image (pan focus image), the adjustment unit matches the center of the farthest subject with the center of the display area of the captured image, and When reducing the display magnification of the pan focus image), the center of the subject located closest is matched with the center of the display area of the captured image.

したがって、ユーザは、拡大指示を入力するだけで、前記撮影画像(リフォーカス画像)の撮影距離の拡大と、最遠方の被写体に向かった前記撮影画像(パンフォーカス画像)の電子ズームアップとを、順次に行うことができ、縮小指示を入力するだけで、前記撮影画像(リフォーカス画像)の撮影距離の縮小と、最近方の被写体を基準とした前記撮影画像(パンフォーカス画像)の電子ズームバックとを、順次に行うことができる。   Therefore, the user simply inputs an enlargement instruction to increase the shooting distance of the shot image (refocus image) and to electronically zoom up the shot image (pan focus image) toward the farthest subject. By simply inputting a reduction instruction, it is possible to reduce the shooting distance of the captured image (refocus image) and to perform an electronic zoom back of the captured image (pan focus image) based on the closest subject. Can be performed sequentially.

また、前記調整手段は、前記ユーザからの拡縮指示に応じて前記撮影画像(リフォーカス画像)の撮影距離と前記撮影画像(リフォーカス画像)の表示倍率とを同時に拡縮する。   Further, the adjusting unit simultaneously enlarges / reduces the shooting distance of the captured image (refocus image) and the display magnification of the captured image (refocus image) in accordance with an enlargement / reduction instruction from the user.

したがって、ユーザは、拡縮指示を入力するだけで、前記撮影画像(リフォーカス画像)の撮影距離の拡縮と、前記撮影画像(リフォーカス画像)の表示倍率の拡縮とを、同時に行うことができる。   Therefore, the user can simultaneously perform enlargement / reduction of the photographing distance of the photographed image (refocus image) and enlargement / reduction of the display magnification of the photographed image (refocus image) simply by inputting an enlargement / reduction instruction.

11…撮像部、15…画像処理部、16…カメラ制御部、17…システム制御部、18…記録インタフェース、19…表示部、20…操作部材、12…撮影レンズ、13…マイクロレンズアレイ、14…撮像素子、21…カードメモリ DESCRIPTION OF SYMBOLS 11 ... Imaging part, 15 ... Image processing part, 16 ... Camera control part, 17 ... System control part, 18 ... Recording interface, 19 ... Display part, 20 ... Operation member, 12 ... Shooting lens, 13 ... Micro lens array, 14 ... Image sensor, 21 ... Card memory

Claims (9)

異なる撮影条件で撮影した少なくとも2つの画像を生成可能な画像データを読み込む読み込み部と、
前記画像データから、被写界深度が第1の範囲である画像を生成する画像生成部と、
前記画像生成部によって生成された前記画像をモニタへ表示する表示制御部と、
を備え、
前記画像生成部は、前記画像に含まれる被写体が特定されると、前記画像データから、被写界深度が前記第1の範囲より小さい第2の範囲の画像を生成する画像処理装置。
A reading unit that reads image data that can generate at least two images shot under different shooting conditions;
An image generating unit that generates an image having a depth of field in a first range from the image data;
A display control unit for displaying the image generated by the image generation unit on a monitor;
With
When the subject included in the image is specified, the image generation unit generates an image in a second range having a depth of field smaller than the first range from the image data.
請求項1に記載の画像処理装置において、
前記画像生成部は、前記被写体が特定されると、前記画像データから、前記被写体に合焦している画像を生成する画像処理装置。
In the image processing apparatus according to claim 1,
When the subject is specified, the image generation unit generates an image focused on the subject from the image data.
請求項1または2に記載の画像処理装置において、
前記表示制御部は、被写界深度が前記第2の範囲の画像が前記モニタに表示された後、所定時間が経過すると、被写界深度が前記第1の範囲の画像を前記モニタに表示する画像処理装置。
The image processing apparatus according to claim 1 or 2,
The display control unit displays an image with a depth of field on the monitor when a predetermined time elapses after the image with the depth of field on the monitor is displayed on the monitor. An image processing apparatus.
請求項1から3の何れか一項に記載の画像処理装置において、
前記第1の範囲は、被写界深度が最大となる範囲である画像処理装置。
In the image processing device according to any one of claims 1 to 3,
The first range is an image processing apparatus in which a depth of field is maximized.
請求項1から4の何れか一項に記載の画像処理装置において、
前記第2の範囲は、被写界深度が最小となる範囲である画像処理装置。
In the image processing device according to any one of claims 1 to 4,
The second range is an image processing apparatus in which a depth of field is minimized.
請求項1から5の何れか一項に記載の画像処理装置において、
前記表示制御部は、所定の操作がなされると、被写界深度が前記第1の範囲の画像を前記モニタに表示する画像処理装置。
In the image processing device according to any one of claims 1 to 5,
The display control unit is an image processing device that displays an image having a depth of field of the first range on the monitor when a predetermined operation is performed.
請求項1から6の何れか一項に記載の画像処理装置において、
前記画像データは、ライトフィールド画像である画像処理装置。
In the image processing device according to any one of claims 1 to 6,
The image processing apparatus, wherein the image data is a light field image.
請求項1から7の何れか一項に記載の画像処理装置と、
前記画像を表示する前記モニタと、
を備える画像表示装置。
The image processing apparatus according to any one of claims 1 to 7,
The monitor for displaying the image;
An image display device comprising:
前記画像データを取得する撮像部と、
請求項8に記載の画像表示装置と、
を備える撮像装置。
An imaging unit for acquiring the image data;
An image display device according to claim 8,
An imaging apparatus comprising:
JP2018047109A 2018-03-14 2018-03-14 Image processing apparatus, image display device, and imaging device Pending JP2018133094A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018047109A JP2018133094A (en) 2018-03-14 2018-03-14 Image processing apparatus, image display device, and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018047109A JP2018133094A (en) 2018-03-14 2018-03-14 Image processing apparatus, image display device, and imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013151463A Division JP6307803B2 (en) 2013-07-22 2013-07-22 Image processing apparatus, image display apparatus, and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2018133094A true JP2018133094A (en) 2018-08-23

Family

ID=63248509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018047109A Pending JP2018133094A (en) 2018-03-14 2018-03-14 Image processing apparatus, image display device, and imaging device

Country Status (1)

Country Link
JP (1) JP2018133094A (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080131019A1 (en) * 2006-12-01 2008-06-05 Yi-Ren Ng Interactive Refocusing of Electronic Images
JP2009224982A (en) * 2008-03-14 2009-10-01 Sony Corp Image processing apparatus, image processing program, and display apparatus
JP2011022796A (en) * 2009-07-15 2011-02-03 Canon Inc Image processing method and image processor
JP2012173830A (en) * 2011-02-18 2012-09-10 Sharp Corp Image processing device, image processing method, and program
JP2012186743A (en) * 2011-03-08 2012-09-27 Canon Inc Photographing device with tracking function, and photographing method
JP2012191442A (en) * 2011-03-10 2012-10-04 Sanyo Electric Co Ltd Image reproduction controller
WO2013051259A1 (en) * 2011-10-07 2013-04-11 パナソニック株式会社 Image pickup device and image pickup method
JP2013070304A (en) * 2011-09-26 2013-04-18 Ricoh Co Ltd Imaging device
JP2013110556A (en) * 2011-11-21 2013-06-06 Olympus Corp Prenoptic camera

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080131019A1 (en) * 2006-12-01 2008-06-05 Yi-Ren Ng Interactive Refocusing of Electronic Images
JP2009224982A (en) * 2008-03-14 2009-10-01 Sony Corp Image processing apparatus, image processing program, and display apparatus
JP2011022796A (en) * 2009-07-15 2011-02-03 Canon Inc Image processing method and image processor
JP2012173830A (en) * 2011-02-18 2012-09-10 Sharp Corp Image processing device, image processing method, and program
JP2012186743A (en) * 2011-03-08 2012-09-27 Canon Inc Photographing device with tracking function, and photographing method
JP2012191442A (en) * 2011-03-10 2012-10-04 Sanyo Electric Co Ltd Image reproduction controller
JP2013070304A (en) * 2011-09-26 2013-04-18 Ricoh Co Ltd Imaging device
WO2013051259A1 (en) * 2011-10-07 2013-04-11 パナソニック株式会社 Image pickup device and image pickup method
JP2013110556A (en) * 2011-11-21 2013-06-06 Olympus Corp Prenoptic camera

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
倉田吉昭: ""簡単さが加速した「Adobe Elements 10」シリーズ"", MAC PEOPLE, vol. 第17巻, 第16号, JPN6019033954, 29 September 2011 (2011-09-29), JP, pages 30 - 31, ISSN: 0004108048 *

Similar Documents

Publication Publication Date Title
CN107566732B (en) Method for controlling camera of device and device thereof
US9888182B2 (en) Display apparatus
US7561788B2 (en) Image-capturing device having multiple optical systems
JP4553346B2 (en) Focus adjustment device and focus adjustment method
JP2008245055A (en) Image display device, photographing device, and image display method
JP2010093422A (en) Imaging apparatus
JP4241460B2 (en) Electronic imaging device
JP6752681B2 (en) Display control device, control method and program of display control device, and storage medium
JP2013088579A (en) Imaging apparatus
JP6512961B2 (en) Imaging control apparatus, control method therefor, program, and storage medium
JP6643036B2 (en) Zoom control device, control method for zoom control device, control program for zoom control device, and storage medium
JP2015026880A (en) Imaging apparatus
TWI693828B (en) Image-capturing device and method for operating the same
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP2021021857A (en) Imaging apparatus and control method thereof
JP6307803B2 (en) Image processing apparatus, image display apparatus, and imaging apparatus
JP5479850B2 (en) Moving image creating apparatus and moving image creating method
JP2010193050A (en) Electronic camera
JP5822700B2 (en) Image capturing method, image capturing apparatus, and program
JP2007208421A (en) Camera
JP2018133094A (en) Image processing apparatus, image display device, and imaging device
JP5233726B2 (en) Electronic camera
KR20100093955A (en) Method of magnifying the image in digital image processing device
JP6590899B2 (en) Imaging apparatus, imaging method, and program
JP6221452B2 (en) Image processing apparatus, image display apparatus, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190903