JP2016082474A - Image processing system, image processing method and program - Google Patents

Image processing system, image processing method and program Download PDF

Info

Publication number
JP2016082474A
JP2016082474A JP2014213646A JP2014213646A JP2016082474A JP 2016082474 A JP2016082474 A JP 2016082474A JP 2014213646 A JP2014213646 A JP 2014213646A JP 2014213646 A JP2014213646 A JP 2014213646A JP 2016082474 A JP2016082474 A JP 2016082474A
Authority
JP
Japan
Prior art keywords
image
data
frame image
playback mode
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014213646A
Other languages
Japanese (ja)
Other versions
JP2016082474A5 (en
Inventor
榊原 学
Manabu Sakakibara
学 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014213646A priority Critical patent/JP2016082474A/en
Priority to US14/868,870 priority patent/US9888162B2/en
Publication of JP2016082474A publication Critical patent/JP2016082474A/en
Publication of JP2016082474A5 publication Critical patent/JP2016082474A5/ja
Priority to US15/846,368 priority patent/US10027881B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing system which can improve visibility of a moving image reproduced in search reproduction.SOLUTION: An image processing system includes: image data generation means for generating image data in response to a signal from an imaging element including a unit pixel consisting of a plurality of pixels allocated to a plurality of microlenses; frame image generation means for generating a frame image for reproducing a moving image in response to data of a prescribed region, which is read from the unit pixel in the image data; and change means for changing a reading region in the unit pixel in accordance with a reproduction mode on reproduction of the moving image in the frame image generation means.SELECTED DRAWING: Figure 1

Description

本発明は、ライトフィールド処理技術を用いた撮像装置に関し、特に、撮影後に焦点距離が変更可能な画像を生成する画像処理装置に関する。   The present invention relates to an imaging apparatus using light field processing technology, and more particularly to an image processing apparatus that generates an image whose focal length can be changed after shooting.

近年、撮影後にフォーカス位置を変更できるカメラとしてライトフィールドカメラと呼ばれるカメラが提案されている。このカメラは、被写体からの光線が撮像面に入射した位置を示す位置情報に加え、入射した角度を示す角度情報を含む光線情報を取得する。この光線情報はライトフィールドデータ(以下、LFデータという)と呼ばれる。   In recent years, a camera called a light field camera has been proposed as a camera that can change the focus position after photographing. This camera acquires light ray information including angle information indicating an incident angle in addition to position information indicating a position where a light ray from a subject is incident on the imaging surface. This ray information is called light field data (hereinafter referred to as LF data).

非特許文献1には、主レンズと撮像素子の間に多数のマイクロレンズが配置されており、入射された光線をマイクロレンズにより分光して、分光した各々の光線を撮像素子で受光することでLFデータを取得する撮像装置が開示されている。非特許文献1では、LFデータを用いて仮想結像面における画像データを演算することで、撮影時とは異なるフォーカス位置の画像を生成するリフォーカス技術が開示されている。   In Non-Patent Document 1, a large number of microlenses are arranged between the main lens and the image sensor, and the incident light beam is dispersed by the microlens and each dispersed light beam is received by the image sensor. An imaging apparatus that acquires LF data is disclosed. Non-Patent Document 1 discloses a refocus technique for generating an image at a focus position different from that at the time of photographing by calculating image data on a virtual imaging plane using LF data.

特許文献1には、1つの画素に対して、1つのマイクロレンズと複数に分割された光電変換部が形成されている2次元撮像素子を用いた撮像装置が開示されている。分割された光電変換部は、撮影レンズの射出瞳のうちの異なる瞳部分領域を通過した光を1つのマイクロレンズを介して受光するように構成される。これらの分割された光電変換部のそれぞれからの光電変換信号によって、分割された瞳部分領域に応じた複数の視差画像を生成することができる。得られた複数の視差画像を用いてフォーカスしたい箇所を合成処理することにより、撮影後にフォーカス位置を変更することができる。   Patent Document 1 discloses an imaging device using a two-dimensional imaging element in which one microlens and a plurality of divided photoelectric conversion units are formed for one pixel. The divided photoelectric conversion units are configured to receive light that has passed through different pupil partial regions of the exit pupil of the photographing lens through one microlens. A plurality of parallax images corresponding to the divided pupil partial regions can be generated by the photoelectric conversion signals from each of the divided photoelectric conversion units. The focus position can be changed after shooting by performing a composition process on a portion to be focused using the plurality of obtained parallax images.

米国特許第4410804号明細書US Pat. No. 4,410,804

Ren Ng他 “Light Field Photography with a Hand-held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02Ren Ng et al. “Light Field Photography with a Hand-held Plenoptic Camera”, Stanford Tech Report CTSR 2005-02

上述したようなライトフィールド処理技術は、動画撮影にも応用することができる。動画フォーマットの再生では、静止画フォーマットの再生にはない早送りや巻き戻しといったサーチ再生を行うことができる。ライトフィールド画像はユーザによってリフォーカスされる場合があり、ライトフィールド画像としてしばしば被写界深度の浅いリフォーカス画像が用いられる。そのため、被写界深度が浅い画像のまま動画のサーチ再生を行う場合、ユーザにとって視認性が悪く所望のシーンが探しにくいという問題がある。   The light field processing technique as described above can also be applied to moving image shooting. In video format playback, search playback such as fast forward and rewind, which is not possible in still image format playback, can be performed. The light field image may be refocused by the user, and a refocus image with a shallow depth of field is often used as the light field image. For this reason, when a moving image is searched and reproduced with an image having a shallow depth of field, there is a problem that a user cannot easily find a desired scene because of poor visibility.

本発明は、上述した課題を解決すべくなされたものであり、その目的とするところは、サーチ再生で再生される動画の視認性を向上させることのできる画像処理装置を提供することにある。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image processing apparatus capable of improving the visibility of a moving image reproduced by search reproduction.

上記目的を達成するために、本発明に係る画像処理装置によれば、複数のマイクロレンズのそれぞれに割り当てられた複数の画素からなる単位画素を含む撮像素子からの信号に基づいて、画像データを生成する画像データ生成手段と、前記画像データにおける前記単位画素から読み出された所定領域のデータに基づいて、動画再生のためのフレーム画像を生成するフレーム画像生成手段と、前記フレーム画像生成手段において、動画の再生に係る再生モードに応じて、前記単位画素における読み出し領域を変更する変更手段と、を備える。   In order to achieve the above object, according to the image processing apparatus of the present invention, image data is obtained based on a signal from an image sensor including a unit pixel composed of a plurality of pixels assigned to each of a plurality of microlenses. In the image data generating means for generating, the frame image generating means for generating a frame image for moving image reproduction based on the data of the predetermined area read from the unit pixel in the image data, and the frame image generating means And changing means for changing a reading area in the unit pixel in accordance with a playback mode related to playback of a moving image.

本発明によれば、サーチ再生時に再生する動画の視認性を向上させることができる。   According to the present invention, it is possible to improve the visibility of a moving image to be reproduced during search reproduction.

本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. (a)は主レンズ、マイクロレンズ、撮像素子の位置関係を示す図、(b)はマイクロレンズと撮像素子に含まれる画素との対応関係を示す図である。(A) is a figure which shows the positional relationship of a main lens, a micro lens, and an image pick-up element, (b) is a figure which shows the correspondence of a micro lens and the pixel contained in an image pick-up element. 光路を示す模式図である。It is a schematic diagram which shows an optical path. 主レンズと撮像素子について、単純モデル化した模式図である。It is the schematic diagram modeled about the main lens and the image pick-up element. 主レンズ面と撮像素子面とリフォーカス面について、単純モデル化した模式図である。It is the schematic diagram which made the simple model about the main lens surface, the image pick-up element surface, and the refocus surface. サーチ再生時のLFデータの読み出し領域を説明する図である。It is a figure explaining the read-out area | region of LF data at the time of search reproduction | regeneration. 本発明の第1の実施形態に係る画像処理を示すフローチャートである。It is a flowchart which shows the image processing which concerns on the 1st Embodiment of this invention. リフォーカス再生モードとサーチ再生モードとでのフレーム画像の生成を説明する図である。It is a figure explaining the production | generation of the frame image in refocus reproduction | regeneration mode and search reproduction | regeneration mode. 本発明の第2の実施形態に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る画像処理を示すフローチャートである。It is a flowchart which shows the image processing which concerns on the 2nd Embodiment of this invention. サーチ再生時のLFデータのフレーム加算を説明する図である。It is a figure explaining the frame addition of LF data at the time of search reproduction.

以下、本発明に係る例示的な実施の形態を、図面に基づいて詳細に説明する。
[第1の実施形態]
本発明の第1の実施形態に係る画像処理装置について説明する。図1は第1の実施形態に係る画像処理装置の構成を示すブロック図である。
Hereinafter, exemplary embodiments according to the present invention will be described in detail with reference to the drawings.
[First Embodiment]
An image processing apparatus according to a first embodiment of the present invention will be described. FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment.

画像処理装置100は、撮影レンズとしての主レンズ101、マイクロレンズアレイ102、撮像素子103、LFデータ入力部104、映像出力部109、表示パネル110、及びリフォーカス処理部114を備える。また、画像処理装置100は、さらにメモリ116、メディアI/F117、記録メディア118、コントローラ119、操作部120、メモリバス121、及びサーチ画像処理部122を備える。   The image processing apparatus 100 includes a main lens 101 as a photographing lens, a microlens array 102, an image sensor 103, an LF data input unit 104, a video output unit 109, a display panel 110, and a refocus processing unit 114. The image processing apparatus 100 further includes a memory 116, a media I / F 117, a recording medium 118, a controller 119, an operation unit 120, a memory bus 121, and a search image processing unit 122.

主レンズ101は、単一または複数のレンズからなる結像光学系であり、光軸Z方向(図1の左側)から入射された被写体の光は、マイクロレンズアレイ102に出射される。
マイクロレンズアレイ102は、複数のマイクロレンズから構成されており(図示せず)、主レンズ101と撮像素子103との間に配置される。主レンズ101から入射した光は、マイクロレンズアレイ102によって入射角度に応じて分光され、撮像素子103に出射される。詳しくは、マイクロレンズアレイ102は、主レンズ101の焦点位置近傍に配置されている。主レンズ101の異なる瞳領域を通過した光は、瞳領域ごとに分割されて出射される。
The main lens 101 is an imaging optical system composed of a single lens or a plurality of lenses, and light of a subject incident from the optical axis Z direction (left side in FIG. 1) is emitted to the microlens array 102.
The microlens array 102 is composed of a plurality of microlenses (not shown), and is disposed between the main lens 101 and the image sensor 103. The light incident from the main lens 101 is dispersed by the microlens array 102 according to the incident angle and is emitted to the image sensor 103. Specifically, the micro lens array 102 is disposed in the vicinity of the focal position of the main lens 101. Light that has passed through different pupil regions of the main lens 101 is divided and emitted for each pupil region.

撮像素子103は、マイクロレンズアレイ102から入射した光を光学変換して電気信号に変換する複数の画素(光電変換素子)がマトリクス状に配置されたCCDセンサ又はCMOSセンサである。撮像素子103は、光電変換により生成された電気信号を撮像信号として画像データ生成手段としてのLFデータ入力部104へ出力する。   The imaging element 103 is a CCD sensor or a CMOS sensor in which a plurality of pixels (photoelectric conversion elements) that optically convert light incident from the microlens array 102 into electrical signals are arranged in a matrix. The image sensor 103 outputs an electrical signal generated by photoelectric conversion as an image signal to the LF data input unit 104 serving as an image data generation unit.

LFデータ入力部104は、撮像素子103から入力された撮像信号をデジタル信号に変換し、撮像フレームの1フレーム単位で、例えばJPEG等の所定の画像ファイル形式へ変換する現像処理を行って画像データとしてのLFデータに変換する。LFデータ入力部104は、メモリ116内のバッファ領域となるLFデータ領域に、変換されたLFデータを記憶する。現像処理とは、色補正、解像度、画像圧縮等のデジタル画像データに関するパラメータを用いてデジタル画像データの画質を変更または調整する処理である。   The LF data input unit 104 converts the image signal input from the image sensor 103 into a digital signal and performs development processing for converting the image signal into a predetermined image file format such as JPEG for each frame of the image frame. As LF data. The LF data input unit 104 stores the converted LF data in an LF data area serving as a buffer area in the memory 116. The development process is a process for changing or adjusting the image quality of the digital image data using parameters relating to the digital image data such as color correction, resolution, and image compression.

映像出力部109は、メモリ116の映像信号領域からリフォーカス映像を読み出し、表示パネル110と、図示しない映像出力端子とに出力する。表示パネル110は、映像出力部109から入力された映像信号を映像として表示する。表示パネル110には、撮影時には撮影中のリフォーカス画像が表示され、動画再生時には再生モードに応じたLFデータの画像が表示される。   The video output unit 109 reads the refocus video from the video signal area of the memory 116 and outputs it to the display panel 110 and a video output terminal (not shown). The display panel 110 displays the video signal input from the video output unit 109 as a video. On the display panel 110, a refocus image being shot is displayed during shooting, and an image of LF data corresponding to the playback mode is displayed during moving image playback.

フレーム画像生成手段としてのリフォーカス処理部114は、通常再生モードとしてのリフォーカス再生モードにおいて、メディアI/F117によってメモリ116のLFデータ領域に格納されたLFデータを読み出してリフォーカス処理を行う。リフォーカス処理によって生成された映像データは、メモリ116の映像信号領域に格納される。   The refocus processing unit 114 as a frame image generation unit performs refocus processing by reading out LF data stored in the LF data area of the memory 116 by the media I / F 117 in the refocus playback mode as the normal playback mode. The video data generated by the refocus processing is stored in the video signal area of the memory 116.

なお、リフォーカス再生モードは、ユーザが動画を視聴するための再生モードである。リフォーカス再生モードでは、典型的には撮影時と同程度の再生速度で再生が行われる。サーチ再生モードは、早送り、巻き戻し等のユーザが動画中の所望のシーンを探索するための動作を含む再生モードである。サーチ再生モードでは、リフォーカス再生モードの動画再生速度よりも高速に動画再生が行われる。サーチ再生モードにおける高速再生は、典型的には動画を構成する画像のうち一部を間引くことによって行われる。   The refocus playback mode is a playback mode for the user to view a moving image. In the refocus playback mode, playback is typically performed at a playback speed comparable to that during shooting. The search reproduction mode is a reproduction mode including an operation for a user to search for a desired scene in a moving image, such as fast forward and rewind. In the search playback mode, moving image playback is performed at a higher speed than the moving image playback speed in the refocus playback mode. High-speed playback in the search playback mode is typically performed by thinning out a part of images constituting a moving image.

メモリ116は、高速でランダムアクセス可能なダイナミックRAMを含み、ワークメモリとして利用される。メモリ116は、例えばLFデータ領域、映像信号領域等として利用される。メモリ116はROMを含み、ROMにはコントローラ119が動作するための各種プログラムやデータが格納されている。   The memory 116 includes a dynamic RAM that can be randomly accessed at high speed, and is used as a work memory. The memory 116 is used as, for example, an LF data area or a video signal area. The memory 116 includes a ROM, and various programs and data for operating the controller 119 are stored in the ROM.

メディアI/F117は、記録メディア118に対してデータの読み書きを制御するインターフェースである。撮影時には、メディアI/F117は、コントローラ119からの指令信号により、LFデータ入力部104によってメモリ116のLFデータ領域に格納されたLFデータ、すなわち撮影中のLFデータを読み出して、記録メディア118に格納する。通常再生時には、メディアI/F117は、コントローラ119からの指令信号により、記録メディア118から記録されたLFデータの全データを読み出して、メモリ116のLFデータ領域に格納する。サーチ再生時には、メディアI/F117は、コントローラ119からの指令信号により記録メディア118に記録されたLFデータを所定のフレームごと(例えば、4倍速再生であれば4フレームごと)に読み出して、メモリ116のLFデータ領域に格納する。   The media I / F 117 is an interface that controls reading and writing of data with respect to the recording medium 118. At the time of shooting, the media I / F 117 reads out the LF data stored in the LF data area of the memory 116 by the LF data input unit 104, that is, the LF data being shot by the LF data input unit 104 in response to a command signal from the controller 119, Store. During normal playback, the media I / F 117 reads all LF data recorded from the recording medium 118 in response to a command signal from the controller 119 and stores it in the LF data area of the memory 116. At the time of search reproduction, the media I / F 117 reads the LF data recorded on the recording medium 118 in response to a command signal from the controller 119 every predetermined frame (for example, every 4 frames for 4 × speed reproduction), and the memory 116 Stored in the LF data area.

記録メディア118は、ハードディスクドライブ、不揮発半導体メモリ(例えばフラッシュメモリ)等の記録媒体である。記録メディア118は、FAT(File Allocation Table)などのファイルシステム形式でデータを記録する。   The recording medium 118 is a recording medium such as a hard disk drive or a nonvolatile semiconductor memory (for example, a flash memory). The recording medium 118 records data in a file system format such as FAT (File Allocation Table).

変更手段としてのコントローラ119は、画像処理装置100のシステム全体を制御するコントローラであり、いわゆるCPU(Central Processing Unit)である。コントローラ119は、操作部120に対するユーザの操作に基づき、画像処理装置100の動作モードを、撮影する撮影モード、通常再生であるリフォーカス再生モード、高速再生であるサーチ再生モード等に制御する。   The controller 119 serving as a changing unit is a controller that controls the entire system of the image processing apparatus 100, and is a so-called CPU (Central Processing Unit). The controller 119 controls the operation mode of the image processing apparatus 100 to a shooting mode for shooting, a refocus playback mode for normal playback, a search playback mode for high speed playback, and the like based on a user operation on the operation unit 120.

操作部120は、ユーザが操作する操作部であり、例えばシャッターボタン、動画を撮像する記録ボタン、撮像した動画を再生する再生ボタン、各種設定を行う設定ボタン等のボタン、及び表示パネル110の表面に配置されたタッチパネルセンサ等である。ユーザは、操作部120を操作することによって、撮影モード/リフォーカス再生モード/サーチ再生モードを変更することができる。ユーザが操作部120を操作することにより、各種操作信号が操作部120からコントローラ119へ送信される。   The operation unit 120 is an operation unit operated by a user. For example, a shutter button, a recording button for capturing a moving image, a playback button for reproducing the captured moving image, buttons such as a setting button for performing various settings, and the surface of the display panel 110 The touch panel sensor etc. which are arrange | positioned. The user can change the shooting mode / refocus playback mode / search playback mode by operating the operation unit 120. When the user operates the operation unit 120, various operation signals are transmitted from the operation unit 120 to the controller 119.

LFデータ入力部104、映像出力部109、リフォーカス処理部114、メモリ116、メディアI/F117、コントローラ119、及びサーチ画像処理部122は、メモリバス121に接続されている。LFデータ入力部104、映像出力部109、リフォーカス処理部114、メディアI/F117、コントローラ119、及びサーチ画像処理部122は、メモリバス121を経由してメモリ116に対してデータの書き込み・読み取りを行なう。メモリバス121は、各構成要素からのメモリアクセス要求を調整し、時分割でメモリ116へのデータ読み書きを行なうよう制御する。   The LF data input unit 104, the video output unit 109, the refocus processing unit 114, the memory 116, the media I / F 117, the controller 119, and the search image processing unit 122 are connected to the memory bus 121. The LF data input unit 104, video output unit 109, refocus processing unit 114, media I / F 117, controller 119, and search image processing unit 122 write / read data to / from the memory 116 via the memory bus 121. To do. The memory bus 121 adjusts memory access requests from each component and controls to read / write data from / to the memory 116 in a time division manner.

フレーム画像生成手段としてのサーチ画像処理部122は、画像処理装置100の動作モードが高速再生モードである場合において、メモリ116のLFデータ領域に格納されたLFデータのうち、所定の領域の画素を読み出してフレーム画像を生成する。サーチ再生処理によって生成された映像データは、メモリ116の映像信号領域に格納される。   When the operation mode of the image processing apparatus 100 is the high-speed playback mode, the search image processing unit 122 serving as a frame image generation unit selects pixels in a predetermined area from the LF data stored in the LF data area of the memory 116. Read out to generate a frame image. The video data generated by the search reproduction process is stored in the video signal area of the memory 116.

次に、撮影時における主レンズ101、マイクロレンズアレイ102、撮像素子103、LFデータ入力部104の動作について、図2(a)、図2(b)、図3、及び図4を参照しながら説明する。   Next, the operations of the main lens 101, the microlens array 102, the image sensor 103, and the LF data input unit 104 at the time of shooting will be described with reference to FIGS. 2 (a), 2 (b), 3, and 4. explain.

図2(a)は、主レンズ101、マイクロレンズアレイ102、撮像素子103の位置関係を示す模式図である。図2(a)に示すように、マイクロレンズアレイ102は、主レンズ101と撮像素子103との間に位置しており、マトリクス状に配置された複数のマイクロレンズ102aを有している。なお、本実施形態におけるマイクロレンズ102aの大きさ及び個数は図示されているものに制限されるものではない。   FIG. 2A is a schematic diagram showing the positional relationship between the main lens 101, the microlens array 102, and the image sensor 103. As shown in FIG. 2A, the microlens array 102 is located between the main lens 101 and the image sensor 103, and has a plurality of microlenses 102a arranged in a matrix. Note that the size and the number of the microlenses 102a in the present embodiment are not limited to those illustrated.

また、図2(b)は、光軸Z方向から見た、マイクロレンズ102aと撮像素子103に含まれる画素103aとの対応関係を示す図である。図2(b)に示すように、マイクロレンズ102aに対し、撮像素子103内のn×m個の画素103aが対応するように配置されている。1つのマイクロレンズ102aに対応する画素103aの個数(すなわち、n×m個)によって、光線の分割数が決定される。図2(b)では、一例として1つのマイクロレンズ102aに対し5×5個の画素103aが配置されている状態を示している。以下、n×m個の画素103aを単位画素という。   FIG. 2B is a diagram illustrating a correspondence relationship between the microlens 102 a and the pixel 103 a included in the imaging element 103 as viewed from the optical axis Z direction. As shown in FIG. 2B, n × m pixels 103a in the image sensor 103 are arranged so as to correspond to the microlens 102a. The number of divided light rays is determined by the number of pixels 103a corresponding to one microlens 102a (ie, n × m). FIG. 2B shows a state in which 5 × 5 pixels 103a are arranged for one microlens 102a as an example. Hereinafter, the n × m pixels 103a are referred to as unit pixels.

図3は、主レンズ101、マイクロレンズ102a、撮像素子103への光路を示す模式図である。被写体305の点307から放たれた光は、光束となって主レンズ101に入射する。入射した光束は主レンズ101によって集光されてマイクロレンズ102a表面の結像面308に投射される。投射された光は、マイクロレンズ102aにおいて光の入射角度に応じて分光され、撮像素子103の画素321〜325で受光される。画素321〜325で受光された光は、光電変換され撮像信号として出力される。   FIG. 3 is a schematic diagram showing an optical path to the main lens 101, the micro lens 102a, and the image sensor 103. As shown in FIG. The light emitted from the point 307 of the subject 305 enters the main lens 101 as a light beam. The incident light beam is condensed by the main lens 101 and projected onto the imaging surface 308 on the surface of the micro lens 102a. The projected light is dispersed by the microlens 102 a according to the incident angle of the light and received by the pixels 321 to 325 of the image sensor 103. Light received by the pixels 321 to 325 is photoelectrically converted and output as an imaging signal.

画素321で受光される光は、光路311からの光束である。同様に、画素322で受光される光は光路312、画素323で受光される光は光路313、画素324で受光される光は光路314、画素325で受光される光は光路315からの光束である。すなわち、画素321〜325で受光される光は、同じ点307から出射された光でありながら、光線の入射角度によって別々の画素に受光される。   The light received by the pixel 321 is a light flux from the optical path 311. Similarly, light received by the pixel 322 is an optical path 312, light received by the pixel 323 is optical path 313, light received by the pixel 324 is optical path 314, and light received by the pixel 325 is a light flux from the optical path 315. is there. That is, the light received by the pixels 321 to 325 is light emitted from the same point 307, but is received by different pixels depending on the incident angle of the light beam.

撮像素子103から出力された撮像信号は、LFデータ入力部104に入力される。LFデータ入力部104は、撮像信号をデジタル化し、現像処理を行ってLFデータに変換し、メモリ116のLFデータ領域に格納する。その後、メモリ116に格納されたLFデータは、コントローラ119により記録メディア118に記録される。   The imaging signal output from the imaging element 103 is input to the LF data input unit 104. The LF data input unit 104 digitizes the imaging signal, performs development processing to convert it into LF data, and stores it in the LF data area of the memory 116. Thereafter, the LF data stored in the memory 116 is recorded on the recording medium 118 by the controller 119.

次にリフォーカス再生時における信号処理について説明する。コントローラ119は、記録メディア118に格納されたLFデータの1フレーム分の全画素のデータを、メディアI/F117を経由して読み出してメモリ116内のLFデータ領域に格納する。リフォーカス処理部114は、メモリ116のLFデータ領域に格納されたLFデータを元にリフォーカス処理を行い、メモリ116のフレーム画像データ領域にフレーム画像データを格納する。リフォーカス処理に関しては後述する。   Next, signal processing during refocus reproduction will be described. The controller 119 reads the data of all the pixels for one frame of the LF data stored in the recording medium 118 via the media I / F 117 and stores it in the LF data area in the memory 116. The refocus processing unit 114 performs refocus processing based on the LF data stored in the LF data area of the memory 116, and stores the frame image data in the frame image data area of the memory 116. The refocus process will be described later.

上記の動作を連続して行い、動画データとして処理できるフレーム数分のフレーム画像データがメモリ116のフレーム画像データ領域に格納される。映像出力部109は、メモリ116のフレーム画像データ領域からフレーム画像データを読み出し動画を生成する処理を行い、動画信号を生成する。生成された動画信号は表示パネル110に出力され、表示パネル110に動画の映像が表示される。   The above operation is continuously performed, and frame image data corresponding to the number of frames that can be processed as moving image data is stored in the frame image data area of the memory 116. The video output unit 109 reads out the frame image data from the frame image data area of the memory 116 and generates a moving image, thereby generating a moving image signal. The generated moving image signal is output to the display panel 110, and a moving image is displayed on the display panel 110.

次に、リフォーカス処理部114において行われるリフォーカス画像の生成について説明する。リフォーカス画像の生成は、具体的には「Light Field Photography」手法に基づき次のように行われる。   Next, generation of a refocus image performed in the refocus processing unit 114 will be described. The generation of the refocus image is specifically performed as follows based on the “Light Field Photography” method.

まず、光線情報を表す関数L(x,y,u,v)について説明する。図4は、主レンズ101と撮像素子103との位置関係を単純化して示した模式図である。主レンズ101の座標軸をu、vとし、撮像素子103の座標軸をx、yとする。主レンズ101と撮像素子103との距離をFとする。このとき、主レンズ101および撮像素子103を通過する光線Lは、4次元関数L(x,y,u,v)で定義される。 First, the function L F (x, y, u, v) representing the ray information will be described. FIG. 4 is a schematic diagram showing a simplified positional relationship between the main lens 101 and the image sensor 103. The coordinate axes of the main lens 101 are u and v, and the coordinate axes of the image sensor 103 are x and y. Let F be the distance between the main lens 101 and the image sensor 103. At this time, the light beam L passing through the main lens 101 and the image sensor 103 is defined by a four-dimensional function L F (x, y, u, v).

次にリフォーカス画像生成における演算方法について説明する。図5は、主レンズ面、リフォーカス面、及びマイクロレンズの撮像面について、単純化して示した模式図である。図5は、レンズ面501、リフォーカス係数αによって定まるリフォーカス面502、マイクロレンズの撮像面503の位置関係を示している。図5では、主レンズ面501の瞳分割領域の位置を座標(u,v)、リフォーカス面上の画素位置を座標(x’,y’)、マイクロレンズの撮像面の位置を座標(x,y)、主レンズ面501からリフォーカス面502までの距離をF’とする。光線Lは、主レンズ面501上の点uから入射し、リフォーカス面502上の点x’を通過し、撮像面503上の点xに到達する。ここで、直進する光線Lがリフォーカス面502上の点x’とマイクロレンズの撮像面503上の点xとを通過していることから、x=u+(x’−u)/αとなる。同様に、主レンズ面501の座標(u,v)より入射し、リフォーカス面502の座標(x’ ,y’)を通過する光線のマイクロレンズの撮像面503での受光信号は、光線Lを表す関数L(x,y,u,v)を用いて式(1)のように表すことができる。 Next, a calculation method in refocus image generation will be described. FIG. 5 is a schematic diagram illustrating the main lens surface, the refocus surface, and the imaging surface of the microlens in a simplified manner. FIG. 5 shows the positional relationship between the lens surface 501, the refocus surface 502 determined by the refocus coefficient α, and the imaging surface 503 of the microlens. In FIG. 5, the position of the pupil division area of the main lens surface 501 is coordinates (u, v), the pixel position on the refocus plane is coordinates (x ′, y ′), and the position of the microlens imaging surface is coordinates (x , Y), the distance from the main lens surface 501 to the refocus surface 502 is F ′. The light beam L enters from the point u on the main lens surface 501, passes through the point x ′ on the refocus surface 502, and reaches the point x on the imaging surface 503. Here, since the straight ray L passes through the point x ′ on the refocus plane 502 and the point x on the imaging surface 503 of the microlens, x = u + (x′−u) / α. . Similarly, a light reception signal on the imaging surface 503 of the microlens of a light ray that enters from the coordinates (u, v) of the main lens surface 501 and passes through the coordinates (x ′, y ′) of the refocus surface 502 is a light beam L. The function L F (x, y, u, v) that represents can be expressed as shown in Equation (1).

Figure 2016082474
Figure 2016082474

また、リフォーカス面502の座標(x’,y’)で得られるリフォーカス画像EF’(x’,y’)は、L(x,y,u,v)を主レンズ面501のu軸、v軸に対して積分したものであるため、式(2)のように表すことができる。つまり、リフォーカス画像EF’(x’,y’)は、関数L(x,y,u,v)を主レンズ101の瞳分割領域に対して積分したものとなる。リフォーカス画像は式(2)の演算処理により生成される。なお、式(2)の積分係数である主レンズ面501の座標(u,v)の積分範囲は、主レンズ面501全体である。 Further, the refocus image E F ′ (x ′, y ′) obtained at the coordinates (x ′, y ′) of the refocus surface 502 is obtained by converting L F (x, y, u, v) to the main lens surface 501. Since it is integrated with respect to the u-axis and the v-axis, it can be expressed as equation (2). That is, the refocus image E F ′ (x ′, y ′) is obtained by integrating the function L F (x, y, u, v) with respect to the pupil division region of the main lens 101. The refocus image is generated by the calculation process of Expression (2). Note that the integration range of the coordinates (u, v) of the main lens surface 501 that is the integration coefficient of Expression (2) is the entire main lens surface 501.

Figure 2016082474
Figure 2016082474

リフォーカス処理部114は、メモリ116のLFデータ領域から読み出したLFデータを用いて、予め設定された主レンズ面501の座標(u,v)の積分範囲を受信し、式(2)からリフォーカス画像を演算する。初回のリフォーカス処理では、リフォーカス係数αは、例えば画像の中心位置が合焦位置となるように設定される。2回目以降のリフォーカス処理は、ユーザが選択した箇所においてリフォーカス係数αを設定し、式(2)からリフォーカス画像を演算する。   The refocus processing unit 114 receives a preset integration range of the coordinates (u, v) of the main lens surface 501 by using the LF data read from the LF data area of the memory 116, and refocuses from the equation (2). Calculate the focus image. In the first refocus process, the refocus coefficient α is set so that the center position of the image becomes the in-focus position, for example. In the second and subsequent refocus processing, a refocus coefficient α is set at a location selected by the user, and a refocus image is calculated from Equation (2).

次にサーチ再生時における信号処理について説明する。図6は、サーチ再生時のLFデータの読み出し領域を説明する図である。コントローラ119は、記録メディア118に格納されたLFデータの1フレーム分のデータのうちの一部をメディアI/F117を経由して読み出して、メモリ116内のLFデータ領域に格納する。読みだすLFデータの領域は、各マイクロレンズ102の中心部の画素に相当するLFデータのみでよい。   Next, signal processing during search reproduction will be described. FIG. 6 is a diagram for explaining a read area of LF data at the time of search reproduction. The controller 119 reads out a part of one frame of LF data stored in the recording medium 118 via the media I / F 117 and stores it in the LF data area in the memory 116. The area of the LF data to be read out may be only LF data corresponding to the central pixel of each microlens 102.

例えば図6に示すように、コントローラ119は、白枠で示されている画素601に相当するLFデータを読み出し、斜線で示されている画素602に相当するLFデータは読み出さない。図6に示すように、コントローラ119は、1つのマイクロレンズ102aに対して配置されている単位画素を構成する25画素(5×5)のうちの中心部にある5画素のデータを読み出して、被写界深度の深いフレーム画像を作成している。各マイクロレンズ102aに対して配置されている単位画素のうち中心部にある複数の画素は、マイクロレンズ102aの周縁部に対応する画素よりもマイクロレンズ102aの光軸を通過した光線の焦点状態が良好である。コントローラ119は、マイクロレンズ102aの周縁部に対応する画素のデータの読み出しを制限し、マイクロレンズ102aの光軸に相当する単位画素の中心部にある画素のデータを読み出す。サーチ画像処理部122は、読み出された画素のデータに基づいて被写界深度の深いフレーム画像を生成する。単位画素の中心部にある画素のデータを読み出すことは、例えばレンズ口径を小さくすること(レンズ絞りを絞ること)に相当する。サーチ画像処理部122は、メモリ116のフレーム画像データ領域に生成したフレーム画像データを格納する。   For example, as shown in FIG. 6, the controller 119 reads LF data corresponding to the pixel 601 indicated by the white frame, and does not read LF data corresponding to the pixel 602 indicated by the hatched line. As shown in FIG. 6, the controller 119 reads out data of 5 pixels at the center of 25 pixels (5 × 5) constituting the unit pixel arranged for one microlens 102 a, A frame image with a deep depth of field is created. Among the unit pixels arranged for each microlens 102a, a plurality of pixels at the center have a focus state of light rays that have passed through the optical axis of the microlens 102a rather than pixels corresponding to the peripheral edge of the microlens 102a. It is good. The controller 119 restricts reading of pixel data corresponding to the peripheral portion of the microlens 102a, and reads data of a pixel at the center of the unit pixel corresponding to the optical axis of the microlens 102a. The search image processing unit 122 generates a frame image having a deep depth of field based on the read pixel data. Reading out the data of the pixel at the center of the unit pixel corresponds to, for example, reducing the lens aperture (reducing the lens aperture). The search image processing unit 122 stores the generated frame image data in the frame image data area of the memory 116.

メモリ116のフレーム画像データ領域に動画データとして処理できるフレーム数分のフレーム画像データが格納されると、映像出力部109はメモリ116のフレーム画像データ領域からフレーム画像データを読み出し動画処理を行い、動画信号を生成する。生成された動画信号は表示パネル110に出力され、表示パネル110で動画の映像が表示される。   When the frame image data of the number of frames that can be processed as moving image data is stored in the frame image data area of the memory 116, the video output unit 109 reads out the frame image data from the frame image data area of the memory 116 and performs moving image processing. Generate a signal. The generated moving image signal is output to the display panel 110, and a moving image is displayed on the display panel 110.

次に、リフォーカス再生モード及びサーチ再生モードにおいて生成されるフレーム画像について説明する。図7は、本実施形態に係る画像処理を示すフローチャート、図8は、リフォーカス再生モードとサーチ再生モードとでのフレーム画像の生成を説明する図である。図7に示すフローチャートは、ユーザによって操作部120が操作されることによって行われる。図8では、動作モードがリフォーカス再生モード805から、4倍速のサーチ再生モード806に遷移し、その後、リフォーカス再生モード807に遷移する場合を示している。図8では、一例として撮像素子103の画素イメージを2つのマイクロレンズに対応した領域のみ示しているが、撮像素子103全体に適応されることは言うまでもない。また、図8に示すLFデータ811〜825は、記録メディア118に格納されているLFデータである。なお、図7に示す処理は、ユーザの操作によって動画の再生が停止されるまで行われる。   Next, frame images generated in the refocus playback mode and search playback mode will be described. FIG. 7 is a flowchart illustrating image processing according to the present embodiment, and FIG. 8 is a diagram illustrating frame image generation in the refocus playback mode and the search playback mode. The flowchart shown in FIG. 7 is performed when the operation unit 120 is operated by the user. FIG. 8 shows a case where the operation mode transitions from the refocus playback mode 805 to the 4 × speed search playback mode 806 and then transitions to the refocus playback mode 807. In FIG. 8, as an example, the pixel image of the image sensor 103 is shown only in a region corresponding to two microlenses, but it goes without saying that the image sensor 103 is applied to the entire image sensor 103. Further, LF data 811 to 825 shown in FIG. 8 is LF data stored in the recording medium 118. Note that the processing shown in FIG. 7 is performed until reproduction of a moving image is stopped by a user operation.

ステップS701では、コントローラ119は、ユーザによって選択された動画を再生する再生モードの種類を判定する。再生モードがリフォーカス再生モードの場合(ステップS701:リフォーカス再生モード)、コントローラ119は、リフォーカス再生であると判定してステップS702へ進む。   In step S701, the controller 119 determines the type of playback mode for playing back the moving image selected by the user. If the playback mode is the refocus playback mode (step S701: refocus playback mode), the controller 119 determines that the playback is refocus playback and proceeds to step S702.

ステップS702では、リフォーカス処理部114は、LFデータを読み出してリフォーカス処理を行う。詳しくは、コントローラ119は、メディアI/F117を介して記録メディア118に格納されているLFデータにおいて、読み出し領域として全画素のデータを読み出し、メモリ116のLFデータ領域に格納する。リフォーカス処理部114は、メモリ116のLFデータ領域に格納されたLFデータを読み出し、式(2)を用いてリフォーカス画像であるフレーム画像を演算する。   In step S702, the refocus processing unit 114 reads LF data and performs refocus processing. Specifically, the controller 119 reads out data of all pixels as a reading area in the LF data stored in the recording medium 118 via the medium I / F 117 and stores the data in the LF data area of the memory 116. The refocus processing unit 114 reads the LF data stored in the LF data area of the memory 116, and calculates a frame image that is a refocus image using Expression (2).

図8に示すように、リフォーカス再生モード805では、リフォーカス処理部114は、LFデータ811の全画素に対してリフォーカス処理を行い、フレーム画像851を生成する。同様に次のLFデータ812を用いてリフォーカス処理を行い、フレーム画像852を生成する。これにより、被写界深度の深いフレーム画像を得ることができる。なお、図8では、コントローラ119が読み出す読み出し領域を白色で示しており、コントローラ119が読み出さない画素領域を斜線で示している。   As illustrated in FIG. 8, in the refocus playback mode 805, the refocus processing unit 114 performs a refocus process on all the pixels of the LF data 811 to generate a frame image 851. Similarly, refocus processing is performed using the next LF data 812 to generate a frame image 852. Thereby, a frame image with a deep depth of field can be obtained. In FIG. 8, the readout area read by the controller 119 is shown in white, and the pixel area not read out by the controller 119 is shown by diagonal lines.

一方、ステップS701では、再生モードがサーチ再生モードの場合(ステップS701:サーチ再生モード)、コントローラ119は、サーチ再生であると判定してステップS703へ進む。   On the other hand, in step S701, if the playback mode is the search playback mode (step S701: search playback mode), the controller 119 determines that it is search playback and proceeds to step S703.

ステップS703では、コントローラ119は、LFデータの所定の領域の画素のデータを読み出す。詳しくは、コントローラ119は、記録メディア118に格納されているLFデータのうち、所定のフレーム数ごとに単位画素のそれぞれから所定領域のデータを読み出す。コントローラ119は、所定のフレーム数に含まれているLFデータを時間軸に沿って読み飛ばし、例えば最後の1フレーム分のLFデータのうち読み出し領域として単位画素の所定の画素領域のデータを読み出して、メモリ116内のLFデータ領域に格納する。コントローラ119によって読み出される読み出し領域は、マイクロレンズ102aの中心部に相当する画素領域である。   In step S703, the controller 119 reads out pixel data of a predetermined area of the LF data. Specifically, the controller 119 reads out data in a predetermined area from each of the unit pixels for every predetermined number of frames in the LF data stored in the recording medium 118. The controller 119 skips the LF data included in the predetermined number of frames along the time axis, for example, reads out data of a predetermined pixel area of a unit pixel as a reading area from the LF data for the last one frame. And stored in the LF data area in the memory 116. The reading area read by the controller 119 is a pixel area corresponding to the center of the microlens 102a.

ステップS704では、サーチ画像処理部122は、メモリ116のLFデータ領域に格納されたLFデータからフレーム画像を生成する。サーチ画像処理部122は、ステップS703でメモリ116に格納されたLFデータの画素のデータを読み出し、被写界深度の深いフレーム画像を生成する。コントローラ119が生成するフレーム画像のフレーム数は、サーチ再生モードで設定された再生速度に応じたフレーム数である。   In step S <b> 704, the search image processing unit 122 generates a frame image from the LF data stored in the LF data area of the memory 116. The search image processing unit 122 reads out the pixel data of the LF data stored in the memory 116 in step S703, and generates a frame image having a deep depth of field. The number of frame images generated by the controller 119 is the number of frames corresponding to the playback speed set in the search playback mode.

図8に示すように、例えば、サーチ再生モード806で動画を4倍速でサーチ再生する場合、コントローラ119は、4枚の撮像フレームに対応したLFデータ813〜816のうちLFデータ813〜815の3フレーム分のLFデータを読み出さない。そして、コントローラ119は、4フレーム目のLFデータ816を読み出す。このとき、コントローラ119は、LFデータ816において、単位画素である25画素(5×5)のうち、中心部にある5画素を読み出し領域として読み出す。各単位画素において、コントローラ119が読み出す読み出し領域はそれぞれ同じ領域である。サーチ画像処理部122は、ステップS703でLFデータ816から画素のデータを読み出し、被写界深度の深いフレーム画像853を生成する。焦点状態の良好なマイクロレンズ102の中心部の5画素のデータを読み出して各画素の画像を加算することによって、被写界深度の深いフレーム画像853を生成することができる。   As shown in FIG. 8, for example, when the search reproduction mode 806 is used to search and reproduce a moving image at a quadruple speed, the controller 119 has three LF data 813 to 815 among the LF data 813 to 816 corresponding to four imaging frames. LF data for the frame is not read. Then, the controller 119 reads out the LF data 816 of the fourth frame. At this time, in the LF data 816, the controller 119 reads out five pixels at the center out of 25 pixels (5 × 5) as unit pixels as a reading area. In each unit pixel, the readout area read by the controller 119 is the same area. In step S703, the search image processing unit 122 reads pixel data from the LF data 816, and generates a frame image 853 having a deep depth of field. A frame image 853 having a deep depth of field can be generated by reading out data of five pixels at the center of the microlens 102 in a favorable focus state and adding the images of the respective pixels.

コントローラ119は、サーチ再生モード806の期間は同様の動作を行い、時間軸方向に撮像フレームに対応するLFデータ817〜819は読み出さず、LFデータ820において、マイクロレンズ102aの中心部となる5画素のデータを読み出す。サーチ画像処理部122は、LFデータ820から読み出された画素のデータから被写界深度の深いフレーム画像854を生成する。このように、サーチ再生モード806では、所定の枚数のLFデータを間引くことによって、リフォーカス再生モード805に比べてフレーム画像を生成する処理時間が短縮されるので、滑らかな動画再生を行うことができる。   The controller 119 performs the same operation during the search playback mode 806, does not read out the LF data 817 to 819 corresponding to the imaging frame in the time axis direction, and in the LF data 820, the five pixels serving as the center of the microlens 102a. Read the data. The search image processing unit 122 generates a frame image 854 having a deep depth of field from the pixel data read from the LF data 820. As described above, in the search reproduction mode 806, the processing time for generating a frame image is shortened by thinning out a predetermined number of LF data compared to the refocus reproduction mode 805, so that smooth moving image reproduction can be performed. it can.

ステップS705では、リフォーカス処理部114またはサーチ画像処理部122は、生成したフレーム画像データをメモリ116内のフレーム画像領域に格納する。続くステップS706では、コントローラ119は、メモリ116内のフレーム画像領域に格納されたフレーム画像データが所定枚数格納されたか否かを判定する。フレーム画像データが所定枚数格納されている場合(ステップS706:Yes)、コントローラ119は、動画処理に必要な枚数のフレーム画像データが格納されていると判定してステップS707へ進む。一方、フレーム画像データ領域に格納されているフレーム画像データの枚数が所定枚数未満である場合(ステップS706:No)、コントローラ119は動画処理に必要な枚数のフレーム画像データはまだ格納されていないと判定してステップS701へ戻る。   In step S <b> 705, the refocus processing unit 114 or the search image processing unit 122 stores the generated frame image data in the frame image area in the memory 116. In the subsequent step S706, the controller 119 determines whether a predetermined number of frame image data stored in the frame image area in the memory 116 has been stored. When the predetermined number of frame image data is stored (step S706: Yes), the controller 119 determines that the number of frame image data necessary for moving image processing is stored, and proceeds to step S707. On the other hand, if the number of frame image data stored in the frame image data area is less than the predetermined number (step S706: No), the controller 119 has not yet stored the number of frame image data necessary for moving image processing. Determine and return to step S701.

ステップS707では、映像出力部109は、メモリ116のフレーム画像データ領域からフレーム画像データを読み出して動画処理を行い、動画信号を生成する。続くステップS708では、映像出力部109は、生成した動画信号を表示パネル110に出力する。表示パネル110には、生成された動画の映像が表示される。   In step S707, the video output unit 109 reads frame image data from the frame image data area of the memory 116, performs moving image processing, and generates a moving image signal. In subsequent step S708, the video output unit 109 outputs the generated moving image signal to the display panel 110. On the display panel 110, the generated video image is displayed.

このように、サーチ再生時には、焦点状態の良好なマイクロレンズ102の中心部に対応する画素に基づいてフレーム画像を生成することにより、被写界深度が深い動画が表示され、サーチ再生時でもユーザは視認性の良い画像を得ることができる。   As described above, during search playback, a frame image is generated based on the pixel corresponding to the center of the microlens 102 in a favorable focus state, thereby displaying a moving image with a deep depth of field. Can obtain an image with good visibility.

[第2の実施形態]
本発明の第2の実施形態に係る画像処理装置について説明する。本実施形態は、画像処理装置にフレーム画素加算部901を追加した点が第1の実施形態と異なっており、その他の構成については共通している。従って、共通箇所についての説明は省略する。
[Second Embodiment]
An image processing apparatus according to the second embodiment of the present invention will be described. This embodiment is different from the first embodiment in that a frame pixel addition unit 901 is added to the image processing apparatus, and the other configurations are common. Therefore, the description about a common location is abbreviate | omitted.

図9は、本発明の第2実施形態に係る画像処理装置の構成を示すブロック図である。画像処理装置100Aは、主レンズ101、マイクロレンズ102、撮像素子103、LFデータ入力部104、映像出力部109、表示パネル110、及びリフォーカス処理部114を備えている。また、画像処理装置100Aは、さらにメモリ116、メディアI/F117、記録メディア118、コントローラ119、操作部120、メモリバス121、サーチ画像処理部122、及びフレーム画素加算部901を備えている。   FIG. 9 is a block diagram showing a configuration of an image processing apparatus according to the second embodiment of the present invention. The image processing apparatus 100A includes a main lens 101, a micro lens 102, an image sensor 103, an LF data input unit 104, a video output unit 109, a display panel 110, and a refocus processing unit 114. The image processing apparatus 100A further includes a memory 116, a media I / F 117, a recording medium 118, a controller 119, an operation unit 120, a memory bus 121, a search image processing unit 122, and a frame pixel addition unit 901.

フレーム画素加算部901は、サーチ再生モードにおいて、メモリ116のフレーム画像データ領域に格納された連続するフレーム画像データを加算して新たなフレーム画像データを生成する。   In the search reproduction mode, the frame pixel adding unit 901 adds continuous frame image data stored in the frame image data area of the memory 116 to generate new frame image data.

次に、リフォーカス再生モード及びサーチ再生モードにおいて生成されるフレーム画像について説明する。図10は、本実施形態に係る画像処理を示すフローチャート、図11は、リフォーカス再生モードとサーチ再生モードとでのフレーム画像の生成を説明する図である。図10に示すフローチャートは、ユーザによって操作部120が操作されることによって行われる。図11では、動画の再生モードがリフォーカス再生モード1105から、4倍速のサーチ再生モード1106に遷移し、その後、リフォーカス再生モード1107に遷移する場合を示している。図11では、一例として撮像素子103の画素イメージを2つのマイクロレンズに対応した領域のみ示しているが、撮像素子103全体に適応されることは言うまでもない。また、図11に示すLFデータ1111〜1125は、記録メディア118に格納されているLFデータである。   Next, frame images generated in the refocus playback mode and search playback mode will be described. FIG. 10 is a flowchart illustrating image processing according to the present embodiment, and FIG. 11 is a diagram illustrating frame image generation in the refocus playback mode and the search playback mode. The flowchart shown in FIG. 10 is performed when the operation unit 120 is operated by the user. FIG. 11 illustrates a case where the moving image playback mode transitions from the refocus playback mode 1105 to the 4 × speed search playback mode 1106 and then transitions to the refocus playback mode 1107. In FIG. 11, as an example, the pixel image of the image sensor 103 is shown only in a region corresponding to two microlenses, but it goes without saying that the image sensor 103 is applied to the entire image sensor 103. Further, LF data 1111 to 1125 shown in FIG. 11 is LF data stored in the recording medium 118.

ステップS1001では、コントローラ119は、ユーザによって選択された動画を再生する再生モードの種類を判定する。再生モードがリフォーカス再生モードの場合(ステップS1001:リフォーカス再生モード)、コントローラ119は、通常再生であると判定してステップS1002へ進む。   In step S1001, the controller 119 determines the type of playback mode for playing back the moving image selected by the user. When the playback mode is the refocus playback mode (step S1001: refocus playback mode), the controller 119 determines that the playback is normal playback and proceeds to step S1002.

ステップS1002では、リフォーカス処理部114は、LFデータを読み出してリフォーカス処理を行う。詳しくは、コントローラ119は、メディアI/F117を介して記録メディア118に格納されているLFデータにおいて、読み出し領域としてLFデータの全画素のデータを読み出してメモリ116のLFデータ領域に格納する。リフォーカス処理部114は、メモリ116のLFデータ領域に格納されたLFデータを読み出して、式(2)を用いてリフォーカス画像であるフレーム画像を演算する。図11に示すように、リフォーカス処理部114は、メモリ116のLFデータ領域に格納されたLFデータ1111を読み出し、リフォーカス画像であるフレーム画像1151を生成する。同様に、コントローラ119はLFデータ1112の全画素のデータを読み出し、リフォーカス処理部114は読み出されたデータに基づきフレーム画像1152を生成する。なお、図11では、コントローラ119が読み出してメモリ116に転送する読み出し領域を白色で示しており、コントローラ119が読み出さない画素領域を斜線で示している。   In step S1002, the refocus processing unit 114 reads LF data and performs refocus processing. Specifically, the controller 119 reads out the data of all pixels of the LF data as a reading area in the LF data stored in the recording medium 118 via the media I / F 117 and stores it in the LF data area of the memory 116. The refocus processing unit 114 reads the LF data stored in the LF data area of the memory 116, and calculates a frame image that is a refocus image using Expression (2). As shown in FIG. 11, the refocus processing unit 114 reads the LF data 1111 stored in the LF data area of the memory 116, and generates a frame image 1151 that is a refocus image. Similarly, the controller 119 reads the data of all the pixels of the LF data 1112, and the refocus processing unit 114 generates a frame image 1152 based on the read data. In FIG. 11, a read area that is read by the controller 119 and transferred to the memory 116 is indicated in white, and a pixel area that is not read by the controller 119 is indicated by hatching.

一方、ステップS1001では、再生モードがサーチ再生モードの場合(ステップS1001:サーチ再生モード)、コントローラ119は、高速再生であると判定してステップS1003へ進む。   On the other hand, in step S1001, if the playback mode is the search playback mode (step S1001: search playback mode), the controller 119 determines that the playback is at high speed, and proceeds to step S1003.

ステップS1003では、コントローラ119は、所定枚数のLFデータのそれぞれから、読み出し領域として単位画素の所定領域を読み出す。詳しくは、コントローラ119は、記録メディア118に格納されているLFデータについて、所定のフレーム数ごとに単位画素のそれぞれから所定の画素領域のデータを読み出す。コントローラ119は、所定のフレーム数に含まれているLFデータを時間軸に沿って読み飛ばし、時間軸で近接する2フレーム分以上のLFデータにおける所定の画素領域のデータをそれぞれ読み出して、メモリ116内のLFデータ領域に格納する。コントローラ119によって読み出される画素は、マイクロレンズ102aの中心部に相当する画素領域である。   In step S1003, the controller 119 reads a predetermined area of the unit pixel as a reading area from each of the predetermined number of LF data. Specifically, the controller 119 reads out data of a predetermined pixel area from each of the unit pixels for each predetermined number of frames for the LF data stored in the recording medium 118. The controller 119 skips the LF data included in the predetermined number of frames along the time axis, reads out data of predetermined pixel areas in the LF data of two or more frames adjacent on the time axis, and Stored in the LF data area. The pixel read out by the controller 119 is a pixel area corresponding to the central portion of the microlens 102a.

ステップS1004では、サーチ画像処理部122は、ステップS1003で読み出した画素領域のデータからフレーム画像を生成する。詳しくは、サーチ画像処理部122は、読み出したフレーム毎に、LFデータ領域から読み出した読み出し領域に含まれる画素のデータから被写界深度の深いフレーム画像を生成する。サーチ画像処理部122は、読み出したフレーム数に対応したフレーム画像を生成する。   In step S1004, the search image processing unit 122 generates a frame image from the pixel area data read in step S1003. Specifically, the search image processing unit 122 generates a frame image with a deep depth of field from the pixel data included in the read area read from the LF data area for each read frame. The search image processing unit 122 generates a frame image corresponding to the read frame number.

ステップS1005では、フレーム画素加算部901は、ステップS1004で生成された複数のフレーム画像データを単純加算して1枚のフレーム画像を生成する。ステップS1003で読み出された連続する複数のLFデータの撮像時間は時間的に近接している。この複数のLFデータから生成された複数のフレーム画像データを単純加算することにより、LFデータに含まれているランダムなノイズは低減する。よって、サーチ再生モード1106において、LFデータを読み出すフレーム数を減らすことに伴い低下するS/Nを改善することができる。   In step S1005, the frame pixel addition unit 901 simply adds the plurality of frame image data generated in step S1004 to generate one frame image. The imaging times of a plurality of continuous LF data read in step S1003 are close in time. By simply adding a plurality of frame image data generated from the plurality of LF data, random noise included in the LF data is reduced. Therefore, in the search reproduction mode 1106, the S / N that decreases as the number of frames from which LF data is read can be improved.

図11に示すように、例えば、サーチ再生モード906で動画を4倍速で再生する場合、コントローラ119は、時系列順に並ぶLFデータ1113、1114を読み出さない。コントローラ119は、4枚の撮像フレームにつき1枚のフレーム画像を作成する。例えば、コントローラ119は、LFデータ1113〜1116に対して、LFデータ1113、1114は記録メディア118から読み出さず、LFデータ1115、1116を読み出す。その際、LFデータ1115、1116はマイクロレンズ102aの構成画素である25画素(5×5)のうち中心部の5画素のみを読み出す。サーチ画像処理部122は、読み出された5画素から被写界深度の深いフレーム画像をそれぞれ生成する。LFデータ1115と1116は、連続したデータであり、例えばLFデータ1113、1114よりも時間的に近接した撮像時間なので、フレーム画素加算部901は2枚のフレーム画像データを単純加算してフレーム画像1153を生成する。サーチ再生モード1106の期間は同様の処理を行い、フレーム画素加算部901は、LFデータ1117〜1120からフレーム画像1154を生成する。   As shown in FIG. 11, for example, when a moving image is reproduced at 4 × speed in the search reproduction mode 906, the controller 119 does not read out the LF data 1113 and 1114 arranged in time series. The controller 119 creates one frame image for every four imaging frames. For example, for the LF data 1113 to 1116, the controller 119 reads the LF data 1115 and 1116 without reading the LF data 1113 and 1114 from the recording medium 118. At that time, the LF data 1115 and 1116 read out only 5 pixels at the center of 25 pixels (5 × 5) which are constituent pixels of the micro lens 102a. The search image processing unit 122 generates a frame image having a deep depth of field from the read five pixels. Since the LF data 1115 and 1116 are continuous data, for example, the imaging time is closer in time than the LF data 1113 and 1114, the frame pixel adding unit 901 simply adds the two frame image data to obtain the frame image 1153. Is generated. Similar processing is performed during the period of the search reproduction mode 1106, and the frame pixel addition unit 901 generates a frame image 1154 from the LF data 1117 to 1120.

ステップS1006では、リフォーカス処理部114またはフレーム画素加算部901は、生成したフレーム画像データをメモリ116内のフレーム画像領域に格納する。続くステップS1007では、コントローラ119は、メモリ116内のフレーム画像領域に格納されたフレーム画像データが所定枚数格納されたか否かを判定する。フレーム画像データが所定枚数格納されている場合(ステップS1007:Yes)、コントローラ119は、動画処理に必要な枚数のフレーム画像データが格納されていると判定してステップS1008へ進む。一方、フレーム画像データ領域に格納されているフレーム画像データの枚数が所定枚数未満である場合(ステップS1007:No)、コントローラ119は動画処理に必要な枚数のフレーム画像データは格納されていないと判定してステップS1001へ戻る。   In step S <b> 1006, the refocus processing unit 114 or the frame pixel addition unit 901 stores the generated frame image data in the frame image area in the memory 116. In step S1007, the controller 119 determines whether a predetermined number of pieces of frame image data stored in the frame image area in the memory 116 have been stored. When the predetermined number of frame image data is stored (step S1007: Yes), the controller 119 determines that the number of frame image data necessary for moving image processing is stored, and proceeds to step S1008. On the other hand, when the number of frame image data stored in the frame image data area is less than the predetermined number (step S1007: No), the controller 119 determines that the number of frame image data necessary for moving image processing is not stored. Then, the process returns to step S1001.

ステップS1008では、映像出力部109は、映像出力部109はメモリ116のフレーム画像データ領域からフレーム画像データを読み出し動画処理を行い、動画信号を生成する。続くステップS1009では、映像出力部109は、生成した動画信号を表示パネル110に出力し、表示パネル110では動画の映像が表示される。   In step S1008, the video output unit 109 reads the frame image data from the frame image data area of the memory 116, performs the moving image processing, and generates a moving image signal. In subsequent step S1009, the video output unit 109 outputs the generated video signal to the display panel 110, and the video of the video is displayed on the display panel 110.

このように、サーチ再生時には、マイクロレンズ102aの中心部に対応する画素領域のLFデータに基づいてフレーム画像を生成し、撮影時間が近接しているフレーム画像を加算する。これにより、被写界深度が深く、S/Nの向上したフレーム画像が生成されるので、被写界深度が深い動画を得ることができ、サーチ再生時でもユーザは視認性の良い画像を得られる。   As described above, at the time of search reproduction, a frame image is generated based on the LF data of the pixel region corresponding to the central portion of the microlens 102a, and the frame images whose shooting times are close are added. As a result, a frame image having a deep depth of field and an improved S / N is generated, so that a moving image with a deep depth of field can be obtained, and the user can obtain an image with good visibility even during search playback. It is done.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100、100A 画像処理装置
114 リフォーカス処理部
119 コントローラ
122 サーチ画像処理部
100, 100A Image processing device 114 Refocus processing unit 119 Controller 122 Search image processing unit

Claims (8)

複数のマイクロレンズのそれぞれに割り当てられた複数の画素からなる単位画素を含む撮像素子からの信号に基づいて、画像データを生成する画像データ生成手段と、
前記画像データにおける前記単位画素から読み出された所定領域のデータに基づいて、動画再生のためのフレーム画像を生成するフレーム画像生成手段と、
前記フレーム画像生成手段において、動画の再生に係る再生モードに応じて、前記単位画素における読み出し領域を変更する変更手段と、
を備えることを特徴とする画像処理装置。
Image data generating means for generating image data based on a signal from an image sensor including a unit pixel consisting of a plurality of pixels assigned to each of a plurality of microlenses;
Frame image generation means for generating a frame image for moving image reproduction based on data of a predetermined area read from the unit pixel in the image data;
In the frame image generating means, a changing means for changing a readout area in the unit pixel according to a playback mode related to playback of a moving image;
An image processing apparatus comprising:
前記再生モードは、通常再生モード及びサーチ再生モードを含み、
前記サーチ再生モードにおける動画再生速度は、前記通常再生モードにおける動画再生速度よりも高速であることを特徴とする請求項1に記載の画像処理装置。
The playback mode includes a normal playback mode and a search playback mode,
The image processing apparatus according to claim 1, wherein a moving image reproduction speed in the search reproduction mode is higher than a moving image reproduction speed in the normal reproduction mode.
前記再生モードが前記サーチ再生モードである場合、前記フレーム画像生成手段は、前記単位画素において前記マイクロレンズの周縁部に対応する画素のデータの読出しを制限することを特徴とする、請求項2に記載の画像処理装置。   3. The frame image generation unit, when the playback mode is the search playback mode, restricts reading of data of a pixel corresponding to a peripheral portion of the microlens in the unit pixel. The image processing apparatus described. 前記再生モードが前記サーチ再生モードである場合、前記フレーム画像生成手段は、時間軸で近接する複数のフレームの画像データを加算することにより前記フレーム画像を生成することを特徴とする請求項2または3に記載の画像処理装置。   3. The frame image generation unit, when the playback mode is the search playback mode, generates the frame image by adding image data of a plurality of frames that are adjacent on a time axis. The image processing apparatus according to 3. 前記再生モードが前記サーチ再生モードである場合、前記フレーム画像生成手段は、所定のフレーム数ごとにフレーム画像を生成することを特徴とする、請求項2乃至4のいずれか1項に記載の画像処理装置。   5. The image according to claim 2, wherein, when the playback mode is the search playback mode, the frame image generation unit generates a frame image for each predetermined number of frames. 6. Processing equipment. 複数のマイクロレンズのそれぞれに割り当てられた複数の画素からなる単位画素を含む撮像素子からの信号に基づいて、画像データを生成する画像データ生成ステップと、
前記画像データにおける前記単位画素から読み出された所定領域のデータに基づいて、動画再生のためのフレーム画像を生成するフレーム画像生成ステップと、
前記フレーム画像生成手段において、動画の再生に係る再生モードに応じて、前記単位画素における読み出し領域を変更する変更ステップと、
を有することを特徴とする画像処理方法。
An image data generation step for generating image data based on a signal from an imaging device including a unit pixel composed of a plurality of pixels assigned to each of the plurality of microlenses;
A frame image generation step of generating a frame image for moving image reproduction based on data of a predetermined area read from the unit pixel in the image data;
In the frame image generation means, a change step of changing a readout area in the unit pixel according to a playback mode related to playback of a moving image;
An image processing method comprising:
動画を再生する画像処理装置のコンピュータに実行させるプログラムであって、
複数のマイクロレンズのそれぞれに割り当てられた複数の画素からなる単位画素を含む撮像素子からの信号に基づいて、画像データを生成する画像データ生成手段、
前記画像データにおける前記単位画素から読み出された所定領域のデータに基づいて、動画再生のためのフレーム画像を生成するフレーム画像生成手段、
前記フレーム画像生成手段において、動画の再生に係る再生モードに応じて、前記単位画素における読み出し領域を変更する変更手段、
として機能させるためのプログラム。
A program to be executed by a computer of an image processing apparatus that reproduces a movie,
Image data generating means for generating image data based on a signal from an imaging device including a unit pixel composed of a plurality of pixels assigned to each of a plurality of microlenses;
Frame image generation means for generating a frame image for moving image reproduction based on data of a predetermined area read from the unit pixel in the image data;
In the frame image generation means, changing means for changing a readout area in the unit pixel according to a playback mode related to playback of a moving image,
Program to function as.
請求項7に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 7.
JP2014213646A 2014-10-20 2014-10-20 Image processing system, image processing method and program Pending JP2016082474A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014213646A JP2016082474A (en) 2014-10-20 2014-10-20 Image processing system, image processing method and program
US14/868,870 US9888162B2 (en) 2014-10-20 2015-09-29 Image processing apparatus, image processing method, and storage medium having a changing unit that changes a read region depending on a reproduction mode
US15/846,368 US10027881B2 (en) 2014-10-20 2017-12-19 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014213646A JP2016082474A (en) 2014-10-20 2014-10-20 Image processing system, image processing method and program

Publications (2)

Publication Number Publication Date
JP2016082474A true JP2016082474A (en) 2016-05-16
JP2016082474A5 JP2016082474A5 (en) 2017-11-30

Family

ID=55959319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014213646A Pending JP2016082474A (en) 2014-10-20 2014-10-20 Image processing system, image processing method and program

Country Status (1)

Country Link
JP (1) JP2016082474A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014011574A (en) * 2012-06-28 2014-01-20 Casio Comput Co Ltd Image processing device, imaging device, image processing method, and program
JP2014057294A (en) * 2012-08-13 2014-03-27 Canon Inc Image processing apparatus, control method of the same, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014011574A (en) * 2012-06-28 2014-01-20 Casio Comput Co Ltd Image processing device, imaging device, image processing method, and program
JP2014057294A (en) * 2012-08-13 2014-03-27 Canon Inc Image processing apparatus, control method of the same, and program

Similar Documents

Publication Publication Date Title
JP6546474B2 (en) Image pickup apparatus and control method thereof
CN108076278B (en) Automatic focusing method and device and electronic equipment
JP6385241B2 (en) Image processing apparatus, image processing method, and program
JP6838994B2 (en) Imaging device, control method and program of imaging device
US10587860B2 (en) Imaging apparatus and method for controlling same
JP5947548B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, IMAGE PROCESSING DEVICE, IMAGE GENERATION METHOD, PROGRAM
JP6800797B2 (en) Image pickup device, image processing device, control method and program of image pickup device
JP6095266B2 (en) Image processing apparatus and control method thereof
JP2014007580A (en) Imaging apparatus, method of controlling the same and program therefor
JP6323022B2 (en) Image processing device
US20150287208A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
RU2567438C1 (en) Image forming device and method of controlling same
JP2016208075A (en) Image output device, method for controlling the same, imaging apparatus, and program
JP2016184956A (en) Image processing apparatus and image processing method
JP2014211491A (en) Focus detection device, focus detection method and program as well as imaging device
JP6761230B2 (en) Image processing device, its control method, program and imaging device
US9369698B2 (en) Imaging apparatus and method for controlling same
JP2013118459A (en) Imaging apparatus and control method thereof
JP6087719B2 (en) Image processing apparatus and image processing method
US10027881B2 (en) Image processing apparatus, image processing method, and storage medium
JP2016082474A (en) Image processing system, image processing method and program
JP6757245B2 (en) Video playback device, imaging device, video playback method and program
JP2016082475A (en) Image processing system, and control method and program of the same
JP6433474B2 (en) Imaging apparatus and control method thereof
JP2017139576A (en) Imaging device, and control method and program therefor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171016

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171016

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180705

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190122