JP2016082475A - Image processing system, and control method and program of the same - Google Patents

Image processing system, and control method and program of the same Download PDF

Info

Publication number
JP2016082475A
JP2016082475A JP2014213649A JP2014213649A JP2016082475A JP 2016082475 A JP2016082475 A JP 2016082475A JP 2014213649 A JP2014213649 A JP 2014213649A JP 2014213649 A JP2014213649 A JP 2014213649A JP 2016082475 A JP2016082475 A JP 2016082475A
Authority
JP
Japan
Prior art keywords
image
refocus
reproduction
depth
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014213649A
Other languages
Japanese (ja)
Other versions
JP2016082475A5 (en
Inventor
和広 並木
Kazuhiro Namiki
和広 並木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014213649A priority Critical patent/JP2016082475A/en
Priority to US14/868,870 priority patent/US9888162B2/en
Publication of JP2016082475A publication Critical patent/JP2016082475A/en
Publication of JP2016082475A5 publication Critical patent/JP2016082475A5/ja
Priority to US15/846,368 priority patent/US10027881B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system which can improve visibility of a moving image reproduced in search reproduction.SOLUTION: An image processing system includes:refocus image generation means for generating a refocus image where a focus position is changed by using image data including information showing a direction and intensity of a light beam which is made incident from a subject; and a subject depth setting means for setting subject depth of the refocus image used of reproducing a moving image in accordance with a type of a reproduction mode of the moving image.SELECTED DRAWING: Figure 6

Description

本発明は、撮影後にフォーカス位置が変更された画像を生成可能な画像処理装置、その制御方法及びプログラムに関する。   The present invention relates to an image processing apparatus capable of generating an image whose focus position has been changed after shooting, a control method thereof, and a program.

近年、撮影後にフォーカス位置を変更できるカメラとしてライトフィールドカメラと呼ばれるカメラが提案されている。このカメラは、被写体からの光線が撮像面に入射した位置を示す位置情報に加え、入射した角度を示す角度情報を含む光線情報を取得する。この光線情報はライトフィールドデータ(以下、LFデータという)と呼ばれる。   In recent years, a camera called a light field camera has been proposed as a camera that can change the focus position after photographing. This camera acquires light ray information including angle information indicating an incident angle in addition to position information indicating a position where a light ray from a subject is incident on the imaging surface. This ray information is called light field data (hereinafter referred to as LF data).

非特許文献1には、主レンズと撮像素子の間に多数のマイクロレンズが配置されており、入射された光線をマイクロレンズにより分光して、分光された各々の光線を撮像素子で受光することでLFデータを取得する撮像装置が開示されている。非特許文献1では、LFデータを用いて仮想結像面における画像データを演算することで、撮影時とは異なるフォーカス位置の画像を生成するリフォーカス技術が開示されている。   In Non-Patent Document 1, a large number of microlenses are arranged between a main lens and an image sensor, and the incident light beam is dispersed by the microlens, and each dispersed light beam is received by the image sensor. An imaging device that acquires LF data is disclosed. Non-Patent Document 1 discloses a refocus technique for generating an image at a focus position different from that at the time of photographing by calculating image data on a virtual imaging plane using LF data.

特許文献1には、1つの画素に対して、1つのマイクロレンズと複数に分割された光電変換部が形成されている2次元撮像素子を用いた撮像装置が開示されている。分割された光電変換部は、撮影レンズの射出瞳のうちの異なる瞳部分領域を通過した光を1つのマイクロレンズを介して受光するように構成される。これらの分割された光電変換部それぞれからの光電変換信号によって、分割された瞳部分領域に応じた複数の視差画像を生成することができる。得られた複数の視差画像を用いて、フォーカスしたい箇所を合成処理することにより撮影後にフォーカス位置を変更することができる。   Patent Document 1 discloses an imaging device using a two-dimensional imaging element in which one microlens and a plurality of divided photoelectric conversion units are formed for one pixel. The divided photoelectric conversion units are configured to receive light that has passed through different pupil partial regions of the exit pupil of the photographing lens through one microlens. A plurality of parallax images corresponding to the divided pupil partial areas can be generated by the photoelectric conversion signals from the respective divided photoelectric conversion units. By using the plurality of obtained parallax images and combining the portions to be focused, the focus position can be changed after shooting.

米国特許第4410804号明細書US Pat. No. 4,410,804

Ren Ng他 “Light Field Photography with a Hand-held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02Ren Ng et al. “Light Field Photography with a Hand-held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02

上述したようなライトフィールド処理技術は、動画撮影にも応用することができる。動画フォーマットの再生では、静止画フォーマットの再生にはない早送りや巻き戻しといったサーチ再生が行われ得る。ライトフィールド画像はユーザによってリフォーカスされる場合があり、ライトフィールド画像としてしばしば被写界深度の浅いリフォーカス画像が用いられる。そのため、被写界深度が浅い画像のまま動画のサーチ再生を行うと、ユーザにとって視認性が悪く所望のシーンが探しにくいという問題がある。   The light field processing technique as described above can also be applied to moving image shooting. In reproduction of the moving image format, search reproduction such as fast forward and rewind, which is not possible in reproduction of the still image format, can be performed. The light field image may be refocused by the user, and a refocus image with a shallow depth of field is often used as the light field image. For this reason, when a moving image is searched and reproduced with an image having a shallow depth of field, there is a problem that a user cannot easily find a desired scene because of poor visibility.

本発明は、上述した課題を解決すべくなされたものであり、その目的とするところは、サーチ再生で再生される動画の視認性を向上させることのできる画像処理装置を提供することにある。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image processing apparatus capable of improving the visibility of a moving image reproduced by search reproduction.

上記目的を達成するために、本発明の一側面に係る画像処理装置は、被写体から入射された光線の方向及び強度を示す情報を含む画像データを用いて、フォーカス位置が変更されたリフォーカス画像を生成するリフォーカス画像生成手段と、動画の再生モードの種類に応じて、動画の再生に用いられるリフォーカス画像の被写界深度を設定する被写界深度設定手段とを備えることを特徴とする。   In order to achieve the above object, an image processing apparatus according to an aspect of the present invention provides a refocus image in which a focus position is changed using image data including information indicating the direction and intensity of a light beam incident from a subject. And a depth-of-field setting means for setting a depth of field of a refocused image used for moving image reproduction according to the type of moving image reproduction mode. To do.

本発明によれば、サーチ再生で再生される動画の視認性を向上させることのできる画像処理装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus which can improve the visibility of the moving image reproduced | regenerated by search reproduction | regeneration can be provided.

本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. (a)は主レンズ、マイクロレンズ、撮像素子の位置関係を示す図であり、(b)はマイクロレンズと画素の対応関係を示す図である。(A) is a figure which shows the positional relationship of a main lens, a microlens, and an image pick-up element, (b) is a figure which shows the correspondence of a microlens and a pixel. 被写体から出射され、撮像素子に入射される光の光路を示す図である。It is a figure which shows the optical path of the light radiate | emitted from a to-be-photographed object and injecting into an image pick-up element. 主レンズと撮像素子の位置関係を示した模式図である。It is the model which showed the positional relationship of a main lens and an image pick-up element. 主レンズ面、リフォーカス面及びマイクロレンズの撮像面の位置関係を示した模式図である。It is the model which showed the positional relationship of the main lens surface, a refocus surface, and the imaging surface of a micro lens. 本発明の第1の実施形態に係るリフォーカス処理部のより詳細な構成を示す図である。It is a figure which shows the more detailed structure of the refocus process part which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係るリフォーカス処理部での処理を説明するフローチャートである。It is a flowchart explaining the process in the refocus processing part which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係るリフォーカス処理部のより詳細な構成を表すブロック図である。It is a block diagram showing the more detailed structure of the refocus process part which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係るリフォーカス処理部での処理を説明するフローチャートである。It is a flowchart explaining the process in the refocus processing part which concerns on the 2nd Embodiment of this invention. 4フレームごとにサーチ再生用画像を作成する場合のフレーム構成を示す図である。It is a figure which shows the frame structure in the case of producing the image for search reproduction | regeneration for every 4 frames.

以下、本発明に係る例示的な実施の形態を、図面に基づいて詳細に説明する。   Hereinafter, exemplary embodiments according to the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
本発明の第1の実施形態に係る画像処理装置について説明する。図1は実施例1の構成を示すブロック図である。
(First embodiment)
An image processing apparatus according to a first embodiment of the present invention will be described. FIG. 1 is a block diagram illustrating the configuration of the first embodiment.

画像処理装置100は、主レンズ101、マイクロレンズアレイ102、撮像素子103、LFデータ入力部104、映像出力部109、表示パネル110、リフォーカス処理部114、メモリ116、メディアI/F117及び記録メディア118を備える。また、画像処理装置100は、さらにコントローラ119、操作部120及びメモリバス121を備える。   The image processing apparatus 100 includes a main lens 101, a microlens array 102, an image sensor 103, an LF data input unit 104, a video output unit 109, a display panel 110, a refocus processing unit 114, a memory 116, a media I / F 117, and a recording medium. 118. The image processing apparatus 100 further includes a controller 119, an operation unit 120, and a memory bus 121.

主レンズ101は、単一又は複数のレンズからなる結像光学系であり、前面(図1の左側)から入射された被写体の光は、マイクロレンズアレイ102に出射される。マイクロレンズアレイ102は、複数のマイクロレンズから構成されており(図示せず)、主レンズ101と撮像素子103の間に配置される。主レンズ101から入射された光は、マイクロレンズアレイ102によって入射角度に応じて分光され、撮像素子103に出射される。より詳細には、マイクロレンズアレイ102は、主レンズ101の焦点位置近傍に配置されている。主レンズ101の異なる瞳領域を通過した光は瞳領域ごとに分割されて出射される。   The main lens 101 is an imaging optical system composed of a single lens or a plurality of lenses, and the light of the subject incident from the front surface (left side in FIG. 1) is emitted to the microlens array 102. The microlens array 102 includes a plurality of microlenses (not shown), and is disposed between the main lens 101 and the image sensor 103. The light incident from the main lens 101 is dispersed by the microlens array 102 according to the incident angle and emitted to the image sensor 103. More specifically, the microlens array 102 is disposed in the vicinity of the focal position of the main lens 101. Light that has passed through different pupil regions of the main lens 101 is divided for each pupil region and emitted.

撮像素子103は、マイクロレンズアレイ102から入射された光を光電変換して電気信号に変換する複数の画素(光電変換素子)がマトリクス状に配置されたCCDセンサ又はCMOSセンサである。撮像素子103は、光電変換により生成された電気信号を撮像信号としてLFデータ入力部104へ出力する。   The imaging element 103 is a CCD sensor or a CMOS sensor in which a plurality of pixels (photoelectric conversion elements) that photoelectrically convert light incident from the microlens array 102 and convert it into an electrical signal are arranged in a matrix. The imaging element 103 outputs an electrical signal generated by photoelectric conversion to the LF data input unit 104 as an imaging signal.

LFデータ入力部104は、撮像素子103から入力された撮像信号をデジタル信号に変換し、撮像フレームの1フレーム単位で、例えばJPEG等の所定の画像ファイル形式へ変換する現像処理を行ってLFデータに変換する。LFデータ入力部104は、メモリ116内のバッファ領域となるLFデータ領域に、変換されたLFデータを記憶する。現像処理とは、色補正、解像度、画像圧縮等のデジタル画像データに関するパラメータを用いてデジタル画像データの画質を変更又は調整する処理である。   The LF data input unit 104 converts the image signal input from the image sensor 103 into a digital signal, and performs development processing for converting the image signal into a predetermined image file format such as JPEG for each frame of the image frame. Convert to The LF data input unit 104 stores the converted LF data in an LF data area serving as a buffer area in the memory 116. The development process is a process for changing or adjusting the image quality of the digital image data using parameters relating to the digital image data such as color correction, resolution, and image compression.

映像出力部109は、メモリ116の映像信号領域からリフォーカス映像を読み出し、表示パネル110と、図示しない映像出力端子とに出力する。表示パネル110は、映像出力部109から入力された映像信号を映像として表示する。表示パネル110は、撮影時には撮影中のリフォーカス画像が表示され、動画再生時には再生モードの種類に応じたLFデータの画像が表示される。   The video output unit 109 reads the refocus video from the video signal area of the memory 116 and outputs it to the display panel 110 and a video output terminal (not shown). The display panel 110 displays the video signal input from the video output unit 109 as a video. The display panel 110 displays a refocused image being shot during shooting, and displays an image of LF data corresponding to the type of playback mode when playing back a moving image.

リフォーカス処理部114は、通常再生(リフォーカス再生)モード、高速再生であるサーチ再生モードにおいて、メディアI/F117によってメモリ116のLFデータ領域に格納されたLFデータを読み出してリフォーカス処理を行う。リフォーカス処理によって生成された映像データは、メモリ116の映像信号領域に格納される。   The refocus processing unit 114 performs refocus processing by reading out the LF data stored in the LF data area of the memory 116 by the media I / F 117 in the normal reproduction (refocus reproduction) mode and the search reproduction mode that is high-speed reproduction. . The video data generated by the refocus processing is stored in the video signal area of the memory 116.

なお、通常再生モードは、ユーザが動画を視聴するための再生モードである。通常再生モードでは、典型的には撮影時と同程度の再生速度で再生が行われる。サーチ再生モードは、早送り、巻き戻し等のユーザが動画中の所望のシーンを探索するための動作を含む再生モードである。サーチ再生モードでは、通常再生モードよりも高速に再生が行われる。サーチ再生モードにおける高速再生は、典型的には動画を構成する画像のうち一部を間引くことにより行われるが、単位時間あたりに表示するフレーム数を多くすることにより行ってもよい。   The normal playback mode is a playback mode for the user to view a moving image. In the normal playback mode, playback is typically performed at a playback speed comparable to that during shooting. The search reproduction mode is a reproduction mode including an operation for a user to search for a desired scene in a moving image, such as fast forward and rewind. In the search playback mode, playback is performed at a higher speed than in the normal playback mode. The high-speed playback in the search playback mode is typically performed by thinning out a part of images constituting a moving image, but may be performed by increasing the number of frames displayed per unit time.

メモリ116は高速でランダムアクセス可能なダイナミックRAM(Random Access Memory)であり、ワークメモリとして利用される。メモリ116は、例えばLFデータ領域、映像信号領域等として利用される。メモリ116には各種プログラムが格納されており、コントローラ119によって各種プログラムが実行される。   The memory 116 is a dynamic RAM (Random Access Memory) that can be randomly accessed at high speed, and is used as a work memory. The memory 116 is used as, for example, an LF data area or a video signal area. Various programs are stored in the memory 116, and the various programs are executed by the controller 119.

メディアI/F117は、記録メディア118に対してデータの読み書きを制御するインターフェースである。撮影時には、メディアI/F117は、LFデータ入力部104によってメモリ116のLFデータ領域に格納されたLFデータ、すなわち撮影中のLFデータを読み出して、記録メディア118に格納する。通常再生時には、メディアI/F117は、記録メディア118から記録されたLFデータのうちの全データを読み出して、メモリ116のLFデータ領域に格納する。サーチ再生時には、記録メディア118から記録されたLFデータを所定のフレームごと(例えば、4倍速再生であれば4フレームごと)に読み出して、メモリ116のLFデータ領域に格納する。   The media I / F 117 is an interface that controls reading and writing of data with respect to the recording medium 118. At the time of shooting, the media I / F 117 reads out the LF data stored in the LF data area of the memory 116 by the LF data input unit 104, that is, the LF data being shot, and stores it in the recording medium 118. During normal playback, the media I / F 117 reads all the LF data recorded from the recording medium 118 and stores it in the LF data area of the memory 116. At the time of search reproduction, the LF data recorded from the recording medium 118 is read every predetermined frame (for example, every 4 frames for 4 × speed reproduction) and stored in the LF data area of the memory 116.

記録メディア118はハードディスクドライブ、不揮発半導体メモリ(例えばフラッシュメモリ)などの記録媒体である。記録メディア118は、FAT(File Allocation Table)などのファイルシステム形式でデータを記録する。   The recording medium 118 is a recording medium such as a hard disk drive or a nonvolatile semiconductor memory (for example, a flash memory). The recording medium 118 records data in a file system format such as FAT (File Allocation Table).

コントローラ119は、画像処理装置100のシステム全体を制御するコントローラであり、いわゆるCPU(Central Processing Unit)である。コントローラ119は、操作部120に対するユーザ(図示せず)の操作に基づき、画像処理装置100の動作モードを、撮影する撮像モード、通常再生モード、高速再生であるサーチ再生モード等に制御する。   The controller 119 is a controller that controls the entire system of the image processing apparatus 100, and is a so-called CPU (Central Processing Unit). The controller 119 controls the operation mode of the image processing apparatus 100 to an imaging mode for photographing, a normal playback mode, a search playback mode that is high-speed playback, and the like based on a user (not shown) operation on the operation unit 120.

操作部120は、ユーザが操作する操作部であり、例えばシャッターボタン、動画を撮像する記録ボタン、撮像した動画を再生する再生ボタン、各種設定を行う設定ボタン等のボタン、及び表示パネル110の表面に配置されたタッチパネルセンサ等である。ユーザは、操作部120を操作することによって、撮影モード/通常再生モード/サーチ再生モードを変更することができる。ユーザが操作部120を操作することにより、各種操作信号が操作部120からコントローラ119に送信される。   The operation unit 120 is an operation unit operated by a user. For example, a shutter button, a recording button for capturing a moving image, a playback button for reproducing the captured moving image, buttons such as a setting button for performing various settings, and the surface of the display panel 110 The touch panel sensor etc. which are arrange | positioned. The user can change the shooting mode / normal playback mode / search playback mode by operating the operation unit 120. When the user operates the operation unit 120, various operation signals are transmitted from the operation unit 120 to the controller 119.

LFデータ入力部104、映像出力部109、リフォーカス処理部114、メモリ116、メディアI/F117及びコントローラ119は、メモリバス121に接続されている。LFデータ入力部104、映像出力部109、リフォーカス処理部114、メディアI/F117及びコントローラ119は、メモリバス121を経由してメモリ116に対してデータの書き込み・読み取りを行う。メモリバス121は、各構成要素からのメモリアクセス要求を調整し、時分割でメモリ116へのデータ読み書きを行うよう制御する。   The LF data input unit 104, the video output unit 109, the refocus processing unit 114, the memory 116, the media I / F 117, and the controller 119 are connected to the memory bus 121. The LF data input unit 104, the video output unit 109, the refocus processing unit 114, the media I / F 117, and the controller 119 write / read data to / from the memory 116 via the memory bus 121. The memory bus 121 adjusts the memory access request from each component and controls to read / write data from / to the memory 116 in a time division manner.

次に、撮影時における主レンズ101、マイクロレンズアレイ102、撮像素子103、LFデータ入力部104の動作について、図2(a)、図2(b)、図3及び図4を参照しながら詳細に説明する。   Next, operations of the main lens 101, the microlens array 102, the image sensor 103, and the LF data input unit 104 at the time of photographing will be described in detail with reference to FIGS. 2 (a), 2 (b), 3 and 4. Explained.

図2(a)は、主レンズ101、マイクロレンズアレイ102、撮像素子103の位置関係を示す模式図である。図2(a)に示されるように、マイクロレンズアレイ102は、主レンズ101と撮像素子103との間に位置しており、マトリクス状に配置された複数のマイクロレンズ102aを有している。なお、本実施形態におけるマイクロレンズ102aの大きさ及び個数は図示されているものに制限されるものではない。   FIG. 2A is a schematic diagram showing the positional relationship between the main lens 101, the microlens array 102, and the image sensor 103. As shown in FIG. 2A, the microlens array 102 is positioned between the main lens 101 and the image sensor 103, and has a plurality of microlenses 102a arranged in a matrix. Note that the size and the number of the microlenses 102a in the present embodiment are not limited to those illustrated.

また、図2(b)は、マイクロレンズ102aと撮像素子103に含まれる画素103aとの対応関係を示す図である。図2(b)に示されるように、1つのマイクロレンズ102aに対し、撮像素子103内のn×m個の画素103aが対応するように配置されている。1つのマイクロレンズ102aに対応する画素103aの個数(すなわち、n×m個)によって光線の分割数が決定される。図2(b)には、一例として1つのマイクロレンズ102aに対し5×5個の画素103aが配置されている状態が示されている。   FIG. 2B is a diagram illustrating a correspondence relationship between the microlens 102 a and the pixel 103 a included in the image sensor 103. As shown in FIG. 2B, n × m pixels 103a in the image sensor 103 are arranged so as to correspond to one microlens 102a. The number of divisions of light rays is determined by the number of pixels 103a corresponding to one microlens 102a (that is, n × m). FIG. 2B shows a state in which 5 × 5 pixels 103a are arranged for one microlens 102a as an example.

図3は主レンズ101、マイクロレンズ102、撮像素子103への入射光の光路を示す図である。被写体305のうちの1点である点307から放たれた光束は主レンズ101に入射され、主レンズ101によって集光されてマイクロレンズ302の表面の結像面308に投射される。投射された光はマイクロレンズ302において光の入射角度に応じて分光され、撮像素子103の画素321〜325で受光される。画素321〜325で受光された光は光電変換され撮像信号として出力される。   FIG. 3 is a diagram illustrating an optical path of incident light to the main lens 101, the microlens 102, and the image sensor 103. A light beam emitted from a point 307, which is one point of the subject 305, enters the main lens 101, is condensed by the main lens 101, and is projected onto the imaging surface 308 on the surface of the microlens 302. The projected light is dispersed in the microlens 302 according to the incident angle of the light, and is received by the pixels 321 to 325 of the image sensor 103. Light received by the pixels 321 to 325 is photoelectrically converted and output as an imaging signal.

画素321で受光される光は光路311を経由した光束である。同様に、画素322〜325で受光される光はそれぞれ光路312〜315を経由した光束である。すなわち、画素321〜325で受光される光は、同じ点から出射された光であるが、光線の入射角度によって別々の画素に受光される。   The light received by the pixel 321 is a light flux that has passed through the optical path 311. Similarly, the light received by the pixels 322 to 325 is a light flux that passes through the optical paths 312 to 315, respectively. That is, the light received by the pixels 321 to 325 is light emitted from the same point, but is received by different pixels depending on the incident angle of the light beam.

撮像素子103から出力された撮像信号はLFデータ入力部104に入力される。LFデータ入力部104は、撮像信号をデジタル化し、現像処理を行ってLFデータに変換し、メモリ116のLFデータ領域に格納する。その後、メモリ116に格納されたLFデータは、コントローラ119により記録メディア118に記録される。   The imaging signal output from the imaging element 103 is input to the LF data input unit 104. The LF data input unit 104 digitizes the imaging signal, performs development processing to convert it into LF data, and stores it in the LF data area of the memory 116. Thereafter, the LF data stored in the memory 116 is recorded on the recording medium 118 by the controller 119.

次に通常再生時における信号処理について説明する。コントローラ119は、記録メディア118に格納されたLFデータの1フレーム分の全データをメディアI/F117を経由して読み出して、メモリ116内のLFデータ領域に格納する。リフォーカス処理部114は、メモリ116のLFデータ領域に格納されたLFデータを元にリフォーカス処理を行い、メモリ116のフレーム画像データ領域にフレーム画像データを格納する。リフォーカス処理に関しては後述する。   Next, signal processing during normal reproduction will be described. The controller 119 reads all data for one frame of the LF data stored in the recording medium 118 via the media I / F 117 and stores it in the LF data area in the memory 116. The refocus processing unit 114 performs refocus processing based on the LF data stored in the LF data area of the memory 116, and stores the frame image data in the frame image data area of the memory 116. The refocus process will be described later.

上記の動作を連続して行いフレーム画像データがメモリ116のフレーム画像データ領域に作成されると、映像出力部109はメモリ116のフレーム画像データ領域からフレーム画像データを読み出し、動画を生成する処理を行い、動画信号を生成する。生成された動画信号は表示パネル110に出力され、表示パネル110に動画の映像が表示される。   When frame image data is created in the frame image data area of the memory 116 by performing the above operation continuously, the video output unit 109 reads the frame image data from the frame image data area of the memory 116 and generates a moving image. To generate a moving image signal. The generated moving image signal is output to the display panel 110, and a moving image is displayed on the display panel 110.

次にリフォーカス処理部114において行われるリフォーカス画像の生成について詳細を説明する。リフォーカス画像の生成は、具体的には「Light Field Photography」手法に基づき次のように行われる。   Next, details of generation of a refocus image performed in the refocus processing unit 114 will be described. The generation of the refocus image is specifically performed as follows based on the “Light Field Photography” method.

まず、光線情報を表す関数L(x、y、u、v)について説明する。図4は主レンズ101と撮像素子103の位置関係を単純化して示した模式図である。主レンズ101の座標軸をu、vとし、撮像素子103の座標軸をx、yとし、主レンズ101と撮像素子103の距離をFとする。このとき、主レンズ101及び撮像素子103を通過する光線Lは4次元関数L(x、y、u、v)で定義される。 First, the function L F (x, y, u, v) representing the ray information will be described. FIG. 4 is a schematic diagram showing the positional relationship between the main lens 101 and the image sensor 103 in a simplified manner. The coordinate axes of the main lens 101 are u and v, the coordinate axes of the image sensor 103 are x and y, and the distance between the main lens 101 and the image sensor 103 is F. At this time, the light ray L passing through the main lens 101 and the image sensor 103 is defined by a four-dimensional function L F (x, y, u, v).

次にリフォーカス画像生成における演算方法について説明する。図5は、主レンズ面501、リフォーカス係数αによって定まるリフォーカス面502、マイクロレンズの撮像面503の位置関係を示す図である。レンズ面501の上の点uから入射し、リフォーカス面502上の点x’を通過する光線Lはマイクロレンズの撮像面503上の点xに到達する。ここで、直進する光線Lがリフォーカス面502上の点x’とマイクロレンズの撮像面503上の点xとを通過していることから、x=u+(x’−u)/αとなる。同様に、主レンズ面501の座標(u、v)より入射し、リフォーカス面502の座標(x’、y’)を通過する光線のマイクロレンズの撮像面での受光信号は、光線Lを表す関数L(x、y、u、v)を用いて式(1)のように表すことができる。

Figure 2016082475
Next, a calculation method in refocus image generation will be described. FIG. 5 is a diagram showing a positional relationship between the main lens surface 501, the refocus surface 502 determined by the refocus coefficient α, and the imaging surface 503 of the microlens. A light ray L that enters from the point u on the lens surface 501 and passes through the point x ′ on the refocus surface 502 reaches the point x on the imaging surface 503 of the microlens. Here, since the straight ray L passes through the point x ′ on the refocus plane 502 and the point x on the imaging surface 503 of the microlens, x = u + (x′−u) / α. . Similarly, the light reception signal on the imaging surface of the microlens of the light beam that enters from the coordinates (u, v) of the main lens surface 501 and passes the coordinates (x ′, y ′) of the refocus surface 502 It represents the function L F (x, y, u , v) to can be expressed as equation (1) using.
Figure 2016082475

また、リフォーカス面で得られるリフォーカス画像EF’(x’、y’)は、関数L(x、y、u、v)を主レンズ面のu軸、v軸に対して積分したものであるため、式(2)のように表すことができる。リフォーカス画像は式(2)の演算処理により生成される。

Figure 2016082475
Further, the refocus image EF (x ′, y ′) obtained on the refocus surface is obtained by integrating the function L F (x, y, u, v) with respect to the u axis and the v axis of the main lens surface. Since it is a thing, it can represent like Formula (2). The refocus image is generated by the calculation process of Expression (2).
Figure 2016082475

以上のようにして、被写体から入射された光線の方向及び強度を示す情報を含む、マイクロレンズの撮像面503で取得された画像データを用いて、リフォーカス面におけるリフォーカス画像EF’(x’、y’)を算出することができる。リフォーカス面は任意に設定することができるため、本手法によれば、撮影後に任意の位置にフォーカス位置を変更することができる。 As described above, the refocused image E F ′ (x ', Y') can be calculated. Since the refocus plane can be set arbitrarily, according to this method, the focus position can be changed to an arbitrary position after shooting.

図6は、リフォーカス処理部114のより詳細な構成を示す図である。リフォーカス処理部114は被写界深度設定部601とリフォーカス画像生成部602を含む。図7はリフォーカス処理部114での処理を説明するフローチャートである。図6及び図7を参照しながらリフォーカス処理部114で行われる処理を説明する。   FIG. 6 is a diagram showing a more detailed configuration of the refocus processing unit 114. The refocus processing unit 114 includes a depth of field setting unit 601 and a refocus image generation unit 602. FIG. 7 is a flowchart for explaining processing in the refocus processing unit 114. Processing performed by the refocus processing unit 114 will be described with reference to FIGS. 6 and 7.

ユーザが操作部120に通常再生又はサーチ再生の指示を入力すると、コントローラ119は被写界深度設定部601に通常再生動作信号又はサーチ再生動作信号といった再生モードを示す信号を送信する。ステップS701において、被写界深度設定部601は、これらの再生モードを示す信号を受信する。ステップS702において、被写界深度設定部601は、受信された信号に基づき再生モードを判断し、再生モードに応じて式(2)の係数である主レンズ面501の座標(u、v)の積分範囲を決定する。   When the user inputs a normal reproduction or search reproduction instruction to the operation unit 120, the controller 119 transmits a signal indicating a reproduction mode such as a normal reproduction operation signal or a search reproduction operation signal to the depth of field setting unit 601. In step S701, the depth-of-field setting unit 601 receives signals indicating these playback modes. In step S702, the depth-of-field setting unit 601 determines the reproduction mode based on the received signal, and the coordinates (u, v) of the main lens surface 501 that are the coefficients of Expression (2) according to the reproduction mode. Determine the integration range.

主レンズ面501の座標(u、v)の積分範囲を狭めることはレンズ口径を小さくすること(レンズ絞りを絞ること)に相当する。逆に主レンズ面501の座標(u、v)の積分範囲を広げることはレンズ口径を大きくすること(レンズ絞りを広げること)に相当する。これによりリフォーカス画像の被写界深度を変えることができる。   Narrowing the integration range of the coordinates (u, v) of the main lens surface 501 is equivalent to reducing the lens aperture (reducing the lens aperture). Conversely, increasing the integration range of the coordinates (u, v) of the main lens surface 501 corresponds to increasing the lens aperture (expanding the lens aperture). Thereby, the depth of field of the refocus image can be changed.

コントローラ119から入力された動作信号が通常再生動作信号である場合、主レンズ面501の座標(u、v)の積分範囲は主レンズ面501の全体とする(ステップS703に移行する)。コントローラ119から入力された動作信号がサーチ再生動作信号である場合、サーチ再生の倍速値に応じて主レンズ面501の座標(u、v)の積分範囲を狭くする(ステップS704に移行する)。すなわち、サーチ再生の場合の方が通常再生の場合よりも、主レンズ面501の座標(u、v)の積分範囲が狭くなるように設定する。被写界深度設定部601は、このようにして設定された積分範囲をリフォーカス画像生成部602に送信する。   When the operation signal input from the controller 119 is a normal reproduction operation signal, the integration range of the coordinates (u, v) of the main lens surface 501 is the entire main lens surface 501 (the process proceeds to step S703). When the operation signal input from the controller 119 is a search reproduction operation signal, the integration range of the coordinates (u, v) of the main lens surface 501 is narrowed according to the double speed value of the search reproduction (the process proceeds to step S704). That is, the integration range of the coordinates (u, v) of the main lens surface 501 is set to be narrower in the search reproduction than in the normal reproduction. The depth-of-field setting unit 601 transmits the integration range set in this way to the refocus image generation unit 602.

リフォーカス画像生成部602は、メモリ116のLFデータ領域から読み出されたLFデータと、被写界深度設定部601から受信された主レンズ面501の座標(u、v)の積分範囲とを用いて、式(2)によりリフォーカス画像を算出する。積分範囲が主レンズ面501の全体である場合、ステップS703において、フォーカス画像生成部602は被写界深度が浅いリフォーカス画像を生成する。積分範囲が狭くされている場合、ステップS704において、リフォーカス画像生成部602は被写界深度が深いリフォーカス画像を生成する。   The refocus image generation unit 602 calculates the LF data read from the LF data area of the memory 116 and the integration range of the coordinates (u, v) of the main lens surface 501 received from the depth of field setting unit 601. Then, the refocus image is calculated by the equation (2). If the integration range is the entire main lens surface 501, the focus image generation unit 602 generates a refocus image with a shallow depth of field in step S703. When the integration range is narrowed, in step S704, the refocus image generation unit 602 generates a refocus image with a deep depth of field.

リフォーカス画像生成部602は、生成されたリフォーカス画像をメモリ116のフレーム画像データ領域に格納する(ステップS705)。映像出力部109はメモリ116からこの画像を読み出して動画を生成し、表示パネル110に表示させる。   The refocus image generation unit 602 stores the generated refocus image in the frame image data area of the memory 116 (step S705). The video output unit 109 reads out this image from the memory 116 to generate a moving image and displays it on the display panel 110.

リフォーカス係数αは画像の中の合焦させるべき位置により異なる値となる。例えば、初回のリフォーカス処理では、リフォーカス係数αは、画像の中心位置が合焦位置となるように設定することができる。2回目以降のリフォーカス処理はユーザが任意に選択した箇所においてリフォーカス係数αを設定し、式(2)よりリフォーカス画像を作成することができる。   The refocus coefficient α varies depending on the position to be focused in the image. For example, in the first refocus process, the refocus coefficient α can be set so that the center position of the image is the in-focus position. In the second and subsequent refocus processing, a refocus coefficient α is set at a position arbitrarily selected by the user, and a refocus image can be created from Expression (2).

以上、説明したように、本実施形態の画像処理装置100は、通常再生時には被写界深度が浅い画像を作成して表示させ、サーチ再生時には、被写界深度が深い画像を作成して表示させる。これにより、サーチ再生で再生される動画の視認性を向上させることができ、ユーザは所望のシーンを選択することが容易になる。   As described above, the image processing apparatus 100 according to the present embodiment creates and displays an image with a shallow depth of field during normal playback, and creates and displays an image with a deep depth of field during search playback. Let Thereby, the visibility of the moving image reproduced by the search reproduction can be improved, and the user can easily select a desired scene.

上記の説明では、サーチ再生を示す信号の入力を受けてから(すなわち、サーチ再生時に)、サーチ再生で表示する被写界深度が深いリフォーカス画像を生成しているが、画像の生成はサーチ再生よりも前に行っても良い。すなわち、撮影から記録の間、記録から再生の間などの再生よりも前の任意の期間に行うことができる。この場合、事前に作成された被写界深度が深いリフォーカス画像は、メディアI/F117を介して記録メディア118に記録される。サーチ再生時には、図7のステップS704、S705において、被写界深度が深いリフォーカス画像は、新たに生成されることなく記録メディア118からメモリ116に読み出される。   In the above description, after receiving a signal indicating search reproduction (that is, during search reproduction), a refocus image having a deep depth of field to be displayed by search reproduction is generated. It may be done before playback. That is, it can be performed in an arbitrary period before reproduction, such as between shooting and recording, between recording and reproduction. In this case, a refocus image having a deep depth of field created in advance is recorded on the recording medium 118 via the media I / F 117. At the time of search reproduction, in steps S704 and S705 in FIG. 7, a refocus image having a deep depth of field is read from the recording medium 118 to the memory 116 without being newly generated.

(第2の実施形態)
本発明の第2の実施形態に係る画像処理装置について説明する。本実施形態の画像処理装置の構成は、リフォーカス処理部の構成及び処理を除き、図1に示された第1の実施形態の画像処理装置の構成と同様であるため、説明を省略する。以下、本実施形態のリフォーカス処理部の構成について詳細を説明する。
(Second Embodiment)
An image processing apparatus according to the second embodiment of the present invention will be described. The configuration of the image processing apparatus according to the present embodiment is the same as the configuration of the image processing apparatus according to the first embodiment shown in FIG. 1 except for the configuration and processing of the refocus processing unit. Hereinafter, the details of the configuration of the refocus processing unit of the present embodiment will be described.

図8はリフォーカス処理部のより詳細な構成を表すブロック図である。第2の実施形態のリフォーカス処理部114は、リフォーカス画像生成部801、合焦評価値算出部802、リフォーカス係数設定部803を含む。   FIG. 8 is a block diagram showing a more detailed configuration of the refocus processing unit. The refocus processing unit 114 according to the second embodiment includes a refocus image generation unit 801, a focus evaluation value calculation unit 802, and a refocus coefficient setting unit 803.

通常再生が行われる場合において、第1の実施形態と同様に、リフォーカス画像生成部801によりリフォーカス画像が生成される。一例としては、ユーザが操作部120を用いて画像の位置を指定すると、その位置のリフォーカス面502の座標(x’、y’)からリフォーカス係数αが設定される。フォーカス係数αを式(2)に適用することにより、リフォーカス画像が生成される。この場合、式(2)の主レンズ面501の座標(u、v)の積分範囲は、主レンズ面501全体とする。   When normal reproduction is performed, a refocus image is generated by the refocus image generation unit 801 as in the first embodiment. As an example, when the user designates the position of the image using the operation unit 120, the refocus coefficient α is set from the coordinates (x ′, y ′) of the refocus plane 502 at that position. By applying the focus coefficient α to the equation (2), a refocus image is generated. In this case, the integration range of the coordinates (u, v) of the main lens surface 501 in the equation (2) is the entire main lens surface 501.

サーチ再生が行われる場合において、図8のリフォーカス画像生成部801、合焦評価値算出部802、リフォーカス係数設定部803によって、所定のブロックに分割されたリフォーカス画像が生成される。所定のブロックとは、リフォーカス画像生成後の画面全体の画素を所定の形状及びサイズで区分したものである、例えば、画面を行方向及び列方向に8等分した場合は、8×8=64個のブロックとなる。リフォーカス画像はブロックごとに生成される。各ブロックに対し、複数のリフォーカス係数によって複数のリフォーカス画像を生成する。その後、生成された各画像の合焦の程度を示す合焦評価値を算出し、最も合焦評価値が高いリフォーカス画像を選択する。これにより、各ブロックに対し、最も良く合焦した画像を選択することができる。   When search reproduction is performed, a refocus image divided into predetermined blocks is generated by the refocus image generation unit 801, the focus evaluation value calculation unit 802, and the refocus coefficient setting unit 803 in FIG. The predetermined block is obtained by dividing the pixels of the entire screen after generation of the refocus image by a predetermined shape and size. For example, when the screen is divided into eight equal parts in the row direction and the column direction, 8 × 8 = There are 64 blocks. A refocus image is generated for each block. A plurality of refocus images are generated for each block using a plurality of refocus coefficients. Thereafter, a focus evaluation value indicating the degree of focus of each generated image is calculated, and a refocus image having the highest focus evaluation value is selected. As a result, it is possible to select the most focused image for each block.

以上の処理をすべてのブロックに対して行うことで、ブロックごとに合焦したリフォーカス画像(すなわち、ブロックごとにフォーカス位置を異なる位置に最適化した画像)を得ることができる。これらのブロックを結合することにより、画面全体で合焦した画像を得ることができる。換言すると、被写界深度の深い画像を得ることができる。なお、第1の実施形態の場合とは異なり、本実施形態では、サーチ再生の際においても式(2)の主レンズ面501の座標(u、v)の積分範囲を主レンズ面全体としても被写界深度の深い画像を得ることができる。   By performing the above processing on all the blocks, it is possible to obtain a refocus image in which each block is focused (that is, an image in which the focus position is optimized at a different position for each block). By combining these blocks, an in-focus image can be obtained over the entire screen. In other words, an image having a deep depth of field can be obtained. Note that, unlike the case of the first embodiment, in this embodiment, the integral range of the coordinates (u, v) of the main lens surface 501 in the equation (2) is also used for the entire main lens surface in search reproduction. An image having a deep depth of field can be obtained.

図9は、リフォーカス処理部114におけるサーチ再生用画像の生成処理を示すフローチャートである。図8及び図9を参照しながらリフォーカス処理部114で行われる処理を説明する。   FIG. 9 is a flowchart showing search reproduction image generation processing in the refocus processing unit 114. Processing performed by the refocus processing unit 114 will be described with reference to FIGS. 8 and 9.

ステップS901において、リフォーカス係数設定部803は、リフォーカス係数αをデフォルト値に設定する。ステップS902において、リフォーカス画像生成部801は、リフォーカス係数αを用いて各ブロックのリフォーカス画像を生成する。ステップS902で用いられるリフォーカス係数αは、初回であれば、ステップS901で設定されたデフォルト値であり、2回目以降であれば、後述するステップS907で設定された値となる。ステップ903において、合焦評価値算出部802は、ステップ902において生成された各ブロックのリフォーカス画像から、各ブロックの合焦評価値を算出する。   In step S901, the refocus coefficient setting unit 803 sets the refocus coefficient α to a default value. In step S902, the refocus image generation unit 801 generates a refocus image of each block using the refocus coefficient α. The refocus coefficient α used in step S902 is the default value set in step S901 if it is the first time, and the value set in step S907 described later if it is the second time or later. In step 903, the focus evaluation value calculation unit 802 calculates the focus evaluation value of each block from the refocus image of each block generated in step 902.

ステップ904において、ステップ903で得られた各ブロック内の合焦評価値が、過去に異なるリフォーカス係数αを用いて生成されたリフォーカス画像の合焦評価値の最高値よりも高いかどうかを判断する。高いと判断されたブロックがある場合(YESの場合)はステップ905に移行する。高いと判断されたブロックがない場合(NOの場合)は、ステップS906に移行する。   In step 904, it is determined whether the focus evaluation value in each block obtained in step 903 is higher than the highest focus evaluation value of the refocus image generated using a different refocus coefficient α in the past. to decide. If there is a block determined to be high (in the case of YES), the process proceeds to step 905. When there is no block determined to be high (in the case of NO), the process proceeds to step S906.

ステップ905において、ステップS904で過去の最高値よりも高い合焦評価値が得られたと判断されたブロックのリフォーカス画像をメモリ116へ出力する。   In step 905, the refocus image of the block for which it has been determined in step S 904 that a focus evaluation value higher than the past maximum value has been obtained is output to the memory 116.

ステップS906において、これまでに得られた各ブロックのリフォーカス画像の合焦評価値が所定の基準を満たしているかどうかを判断する。基準を満たしている場合(YESの場合)サーチ再生用画像の生成処理を終了する。基準を満たしていない場合(NOの場合)、リフォーカス処理が不十分であるためステップS907に移行する。   In step S906, it is determined whether the focus evaluation value of the refocus image of each block obtained so far satisfies a predetermined criterion. When the criterion is satisfied (in the case of YES), the search reproduction image generation process is terminated. If the standard is not satisfied (in the case of NO), the refocus process is insufficient, and the process proceeds to step S907.

ステップS907において、各ブロックのリフォーカス係数αを変化させてからステップS902に移行する。この変化後のリフォーカス係数は、例えば、前回の値から所定の値だけ増加又は減少させるように決定することができる。また、過去のリフォーカス係数α及び合焦評価値の関係を参照して、変化後の値を決定してもよい。このように、ステップS902からステップS907の間をループさせることにより、各ブロックの合焦評価値を向上させることができる。   In step S907, after changing the refocus coefficient α of each block, the process proceeds to step S902. The refocus coefficient after this change can be determined to increase or decrease by a predetermined value from the previous value, for example. Further, the changed value may be determined with reference to the relationship between the past refocus coefficient α and the focus evaluation value. In this way, the focus evaluation value of each block can be improved by looping from step S902 to step S907.

リフォーカス処理部114におけるサーチ再生用画像の生成処理は、撮影後かつ再生前であれば、任意のタイミングで行うことができる。例えば、撮影の直後、画像処理装置100の電源ON時などのタイミングに行うことができる。また、撮影処理のバックグラウンドで行ってもよい。また、サーチ再生用画像は、すべてのフレームの画像に対して生成してもよく、所定のフレームの画像ごとに生成することで一部のフレームを間引いてもよい。   The search reproduction image generation process in the refocus processing unit 114 can be performed at an arbitrary timing as long as it is after shooting and before reproduction. For example, it can be performed immediately after shooting, such as when the image processing apparatus 100 is turned on. Further, it may be performed in the background of the photographing process. In addition, the search reproduction image may be generated for all the frames, or a part of the frames may be thinned out by generating the images for each predetermined frame.

図10に、4フレームごとにサーチ再生用画像を作成する場合のフレーム構成を示す。取得された映像データのうち、4フレームごとに配されたサーチ再生用画像生成フレーム1001〜1005に対しサーチ再生用画像の生成が行われる。作成されたサーチ再生用画像をそのまま同じ処理速度で再生すると、4倍速でサーチ再生が行われることになる。   FIG. 10 shows a frame configuration when a search reproduction image is created every four frames. Of the acquired video data, search reproduction images are generated for search reproduction image generation frames 1001 to 1005 arranged every four frames. When the created search reproduction image is reproduced as it is at the same processing speed, search reproduction is performed at a quadruple speed.

メディアI/F117によって行われる記録メディア118からの画像の読み出しに関して、再生モードに応じて通常再生用のリフォーカス画像とサーチ再生用画像を切り替えるための手法を説明する。リフォーカス処理部114で作成されたリフォーカス画像には、タイムコードがヘッダ情報として付加された上で、記録メディア118に記録される。通常再生からサーチ再生に切り替わる際に、メディアI/F117は、通常再生用のリフォーカス画像のヘッダに付加されたタイムコードの値と同じ値が付加されているサーチ再生用画像を記録メディア118から選択し出力する。また、サーチ再生から通常再生への切り替わる際には、メディアI/F117は、サーチ再生用画像のヘッダのタイムコードの値と同じ値のタイムコードが付加された通常再生用のリフォーカス画像を記録メディア118から選択し出力する。これにより通常再生用のリフォーカス画像とサーチ再生用画像を切り替えることができる。   A method for switching between a normal reproduction refocus image and a search reproduction image in accordance with the reproduction mode will be described regarding the reading of an image from the recording medium 118 performed by the media I / F 117. A time code is added as header information to the refocus image created by the refocus processing unit 114 and then recorded on the recording medium 118. When switching from normal reproduction to search reproduction, the media I / F 117 reads from the recording medium 118 a search reproduction image to which the same value as the value of the time code added to the header of the refocus image for normal reproduction is added. Select and output. In addition, when switching from search reproduction to normal reproduction, the media I / F 117 records a refocus image for normal reproduction to which a time code having the same value as the time code value of the header of the search reproduction image is added. Select from media 118 and output. As a result, the replay image for normal reproduction and the image for search reproduction can be switched.

第1の実施形態では、被写界深度の深い画像を生成する際に、式(2)の主レンズ面501の座標(u、v)の積分範囲を狭くする方法を用いている。これは、レンズに入射される光量を削減することと同様である。そのため、低照度の撮影シーンにおいてはISO感度を高める必要があり、サーチ再生用画像のノイズが多くなる(S/Nが悪くなる)場合がある。これに対し第2の実施形態では、フォーカス位置が異なる複数の画像を結合させることにより、積分範囲を狭くすることなく被写界深度の深い画像が生成される。したがって、上述のノイズ発生要因が生じにくく、低照度の撮影シーンであっても良好な画質のサーチ再生用画像が得られる。   In the first embodiment, when generating an image with a deep depth of field, a method of narrowing the integration range of the coordinates (u, v) of the main lens surface 501 in Expression (2) is used. This is similar to reducing the amount of light incident on the lens. For this reason, it is necessary to increase the ISO sensitivity in a low-illumination shooting scene, and there are cases where the noise of the search reproduction image increases (S / N deteriorates). On the other hand, in the second embodiment, by combining a plurality of images having different focus positions, an image having a deep depth of field is generated without narrowing the integration range. Therefore, the above-described noise generation factors are unlikely to occur, and a search reproduction image with good image quality can be obtained even in a low-illumination shooting scene.

さらに、本実施形態においても第1の実施形態と同様に、サーチ再生時に、被写界深度が深い画像を作成して表示させることができる。これにより、サーチ再生で再生される動画の視認性を向上させることができ、ユーザは所望のシーンを選択することが容易になる。   Further, in the present embodiment, as in the first embodiment, an image with a deep depth of field can be created and displayed during search reproduction. Thereby, the visibility of the moving image reproduced by the search reproduction can be improved, and the user can easily select a desired scene.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

114 リフォーカス処理部
601 被写界深度設定部(被写界深度設定手段)
602 リフォーカス画像生成部(リフォーカス画像生成手段)
114 Refocus processing unit 601 Depth of field setting unit (depth of field setting means)
602 Refocus image generation unit (refocus image generation means)

Claims (10)

被写体から入射された光線の方向及び強度を示す情報を含む画像データを用いて、フォーカス位置が変更されたリフォーカス画像を生成するリフォーカス画像生成手段と、
動画の再生に係る再生モードの種類に応じて、前記動画の再生に用いられるリフォーカス画像の被写界深度を設定する被写界深度設定手段と
を備えることを特徴とする画像処理装置。
Refocus image generation means for generating a refocus image in which the focus position is changed using image data including information indicating the direction and intensity of light rays incident from the subject;
An image processing apparatus comprising: a depth-of-field setting unit configured to set a depth of field of a refocus image used for reproducing the moving image according to a type of a reproduction mode related to the reproduction of the moving image.
前記再生モードは、通常再生モード及びサーチ再生モードを含み、
前記サーチ再生モードは前記通常再生モードよりも高速に再生が行われる再生モードであることを特徴とする請求項1に記載の画像処理装置。
The playback mode includes a normal playback mode and a search playback mode,
The image processing apparatus according to claim 1, wherein the search reproduction mode is a reproduction mode in which reproduction is performed at a higher speed than the normal reproduction mode.
前記サーチ再生モードでの再生に用いられるリフォーカス画像の被写界深度は、前記通常再生モードでの再生に用いられるリフォーカス画像の被写界深度よりも深い
ことを特徴とする請求項2に記載の画像処理装置。
The depth of field of the refocus image used for reproduction in the search reproduction mode is deeper than the depth of field of the refocus image used for reproduction in the normal reproduction mode. The image processing apparatus described.
前記被写界深度設定手段は、前記サーチ再生モードの再生速度に応じて被写界深度を設定することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the depth-of-field setting unit sets the depth of field according to a reproduction speed in the search reproduction mode. 前記リフォーカス画像生成手段は、フォーカス位置が異なる複数のリフォーカス画像を結合することにより前記サーチ再生モードに用いられるリフォーカス画像を生成することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the refocus image generation unit generates a refocus image used in the search reproduction mode by combining a plurality of refocus images having different focus positions. 前記リフォーカス画像生成手段は、所定のフレーム数ごとに前記サーチ再生モードに用いられるリフォーカス画像を生成することを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the refocus image generation unit generates a refocus image used in the search reproduction mode every predetermined number of frames. 前記リフォーカス画像生成手段は、前記画像データの撮影後から前記サーチ再生モードでの再生が行われるまでの期間に、サーチ再生モードに用いられる画像を作成し、記録メディアに記録することを特徴とする請求項2に記載の画像処理装置。   The refocus image generation means creates an image used in the search reproduction mode and records it on a recording medium during a period from the photographing of the image data to reproduction in the search reproduction mode. The image processing apparatus according to claim 2. 被写体から入射された光線の方向及び強度を示す情報を含む画像データを用いて、フォーカス位置が変更されたリフォーカス画像を生成するステップと、
動画の再生モードの種類に応じて、前記動画の再生に用いられるリフォーカス画像の被写界深度を設定するステップと
を備えることを特徴とする画像処理装置の制御方法。
Generating a refocused image with the focus position changed using image data including information indicating the direction and intensity of light rays incident from the subject;
And a step of setting a depth of field of a refocused image used for reproducing the moving image according to the type of the moving image reproducing mode.
被写体から入射された光線の方向及び強度を示す情報を含む画像データを用いて、フォーカス位置が変更されたリフォーカス画像を生成するリフォーカス画像生成手段、及び
動画の再生モードの種類に応じて、前記動画の再生に用いられるリフォーカス画像の被写界深度を設定する被写界深度設定手段
としてコンピュータを機能させることを特徴とする画像処理装置の制御のためのプログラム。
Depending on the type of refocus image generation means for generating a refocus image whose focus position has been changed using image data including information indicating the direction and intensity of light rays incident from the subject, and the type of playback mode of the video, A program for controlling an image processing apparatus, which causes a computer to function as a depth of field setting means for setting a depth of field of a refocused image used for reproducing the moving image.
請求項9に記載のプログラムを格納した、コンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 9.
JP2014213649A 2014-10-20 2014-10-20 Image processing system, and control method and program of the same Pending JP2016082475A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014213649A JP2016082475A (en) 2014-10-20 2014-10-20 Image processing system, and control method and program of the same
US14/868,870 US9888162B2 (en) 2014-10-20 2015-09-29 Image processing apparatus, image processing method, and storage medium having a changing unit that changes a read region depending on a reproduction mode
US15/846,368 US10027881B2 (en) 2014-10-20 2017-12-19 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014213649A JP2016082475A (en) 2014-10-20 2014-10-20 Image processing system, and control method and program of the same

Publications (2)

Publication Number Publication Date
JP2016082475A true JP2016082475A (en) 2016-05-16
JP2016082475A5 JP2016082475A5 (en) 2017-11-30

Family

ID=55959306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014213649A Pending JP2016082475A (en) 2014-10-20 2014-10-20 Image processing system, and control method and program of the same

Country Status (1)

Country Link
JP (1) JP2016082475A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007036680A (en) * 2005-07-27 2007-02-08 Victor Co Of Japan Ltd Record playback apparatus
JP2013145980A (en) * 2012-01-13 2013-07-25 Canon Inc Imaging device, control method thereof, image processing apparatus, image generation method, program
JP2014011574A (en) * 2012-06-28 2014-01-20 Casio Comput Co Ltd Image processing device, imaging device, image processing method, and program
JP2014057294A (en) * 2012-08-13 2014-03-27 Canon Inc Image processing apparatus, control method of the same, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007036680A (en) * 2005-07-27 2007-02-08 Victor Co Of Japan Ltd Record playback apparatus
JP2013145980A (en) * 2012-01-13 2013-07-25 Canon Inc Imaging device, control method thereof, image processing apparatus, image generation method, program
JP2014011574A (en) * 2012-06-28 2014-01-20 Casio Comput Co Ltd Image processing device, imaging device, image processing method, and program
JP2014057294A (en) * 2012-08-13 2014-03-27 Canon Inc Image processing apparatus, control method of the same, and program

Similar Documents

Publication Publication Date Title
US9686530B2 (en) Image processing apparatus and image processing method
JP6202910B2 (en) Video processing apparatus, control method therefor, and program
US9609192B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
US10587860B2 (en) Imaging apparatus and method for controlling same
JP6323022B2 (en) Image processing device
JP2013145982A (en) Imaging apparatus, image processing apparatus and method
US20150287208A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
RU2567438C1 (en) Image forming device and method of controlling same
US9625787B2 (en) Focus detection apparatus, focus detection method and program, and imaging apparatus
JP2014122957A (en) Imaging device
JP2010135984A (en) Compound-eye imaging apparatus and imaging method
JP6761230B2 (en) Image processing device, its control method, program and imaging device
US9369698B2 (en) Imaging apparatus and method for controlling same
JP2013118459A (en) Imaging apparatus and control method thereof
US10027881B2 (en) Image processing apparatus, image processing method, and storage medium
JP2016082475A (en) Image processing system, and control method and program of the same
JP2014110442A (en) Imaging apparatus
JP6272099B2 (en) Image processing apparatus, control method, and program
JP2016082474A (en) Image processing system, image processing method and program
JP6433474B2 (en) Imaging apparatus and control method thereof
JP6377225B2 (en) Image processing apparatus, control method therefor, and program
JP6630173B2 (en) Imaging device, imaging control method, and program
JP2017126916A (en) Imaging apparatus
JP2017139576A (en) Imaging device, and control method and program therefor
JP2016058875A (en) Image processing system, imaging apparatus, control method of them, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171017

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171017

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180705

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190122