JP2017092529A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2017092529A
JP2017092529A JP2015215862A JP2015215862A JP2017092529A JP 2017092529 A JP2017092529 A JP 2017092529A JP 2015215862 A JP2015215862 A JP 2015215862A JP 2015215862 A JP2015215862 A JP 2015215862A JP 2017092529 A JP2017092529 A JP 2017092529A
Authority
JP
Japan
Prior art keywords
subject
reconstructed image
unit
distance
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015215862A
Other languages
Japanese (ja)
Other versions
JP6592330B2 (en
Inventor
片山 達嗣
Tatsushi Katayama
達嗣 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015215862A priority Critical patent/JP6592330B2/en
Publication of JP2017092529A publication Critical patent/JP2017092529A/en
Application granted granted Critical
Publication of JP6592330B2 publication Critical patent/JP6592330B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of assisting photographing, so as to obtain an excellent reconstructed image.SOLUTION: The imaging apparatus includes imaging means for acquiring image data capable of generating a reconstructed image whose focal position is readjusted, reconstruction means for generating the reconstructed image whose focal position is readjusted from the image data, detection means for detecting a distance up to a subject, and control means for allowing display means to display a screen indicating a positional relation between the subject and a predetermined refocus surface on the basis of the distance up to the subject and the position of the predetermined refocus surface or for allowing the display means to display the screen indicating the focusing degree of the subject in the reconstructed image on the basis of the distance between a refocus surface and the subject.SELECTED DRAWING: Figure 8

Description

本発明は、撮像装置及び撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method.

近年、光の強度分布のみならず光の入射方向の情報をも取得可能な撮像装置、即ち、ライトフィールドカメラが提案されている。
撮影レンズと撮像素子との間にマイクロレンズアレイを配置し、複数の画素に対して1つのマイクロレンズを対応させると、マイクロレンズを通過した光は複数の画素によって入射方向別に取得される(特許文献1参照)。
In recent years, an imaging apparatus capable of acquiring not only light intensity distribution but also information on the incident direction of light, that is, a light field camera has been proposed.
When a microlens array is arranged between a photographing lens and an image sensor and one microlens is made to correspond to a plurality of pixels, light that has passed through the microlens is acquired by a plurality of pixels in each incident direction (patent) Reference 1).

こうして取得された画像信号、即ち、ライトフィールド情報に対してライトフィールドフォトグラフィと称される手法を適用すると、任意の仮想的な像面、即ち、リフォーカス面にピントが合わせられた画像を、撮影後に再構成することができる。ライトフィールドカメラは、撮影の際にピントを合わせることが不要であるため、シャッターチャンスを逃すことなく撮影を行うことができる。   By applying a technique called light field photography to the image signal thus obtained, that is, light field information, an arbitrary virtual image plane, that is, an image focused on a refocus plane, It can be reconstructed after shooting. Since the light field camera does not need to be in focus at the time of shooting, the shooting can be performed without missing a photo opportunity.

特開2007−4471号公報JP 2007-4471 A

しかしながら、従来の技術では、必ずしも十分に良好な再構成画像を取得し得ない場合もある。
本発明の目的は、良好な再構成画像が得られるように撮影をアシストし得る撮像装置及び撮像方法を提供することにある。
However, the conventional technique may not always obtain a sufficiently good reconstructed image.
An object of the present invention is to provide an imaging apparatus and an imaging method that can assist imaging so that a good reconstructed image can be obtained.

本発明の一観点によれば、焦点位置が再調整された再構成画像を生成することが可能な画像データを取得する撮像手段と、前記焦点位置が再調整された前記再構成画像を前記画像データから生成する再構成手段と、被写体までの距離を検出する検出手段と、前記被写体までの前記距離と、所定のリフォーカス面の位置とに基づいて、前記被写体と前記所定のリフォーカス面との位置関係を示す画面を表示手段に表示させ、又は、リフォーカス面と前記被写体との間の距離に基づいて、前記再構成画像における前記被写体の合焦度合いを示す画面を前記表示手段に表示させる制御手段とを有することを特徴とする撮像装置が提供される。   According to an aspect of the present invention, an imaging unit that acquires image data capable of generating a reconstructed image whose focus position has been readjusted, and the reconstructed image whose focus position has been readjusted as the image Based on the reconstruction means generated from the data, the detection means for detecting the distance to the subject, the distance to the subject, and the position of the predetermined refocus surface, the subject and the predetermined refocus surface A screen showing the positional relationship of the subject is displayed on the display means, or a screen showing the degree of focus of the subject in the reconstructed image is displayed on the display means based on the distance between the refocus plane and the subject There is provided an imaging device characterized by comprising control means for controlling the image pickup device.

本発明によれば、被写体と所定のリフォーカス面との位置関係を示す画面、又は、再構成画像における被写体の合焦度合いを示す画面が表示されるため、良好な再構成画像が得られるように撮影をアシストすることができる。   According to the present invention, a screen showing the positional relationship between the subject and the predetermined refocus plane or a screen showing the degree of focus of the subject in the reconstructed image is displayed, so that a good reconstructed image can be obtained. You can assist shooting.

本発明の第1実施形態による撮像装置の外観を示す斜視図である。1 is a perspective view illustrating an appearance of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1実施形態による撮像装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging apparatus according to a first embodiment of the present invention. 撮像部の一部を示す平面図である。It is a top view which shows a part of imaging part. 撮影レンズとマイクロレンズアレイと撮像部との関係を示す概略図である。It is the schematic which shows the relationship between an imaging lens, a micro lens array, and an imaging part. 撮像装置とリフォーカス面と被写体との位置関係を示す概略図である。It is the schematic which shows the positional relationship of an imaging device, a refocus surface, and a to-be-photographed object. リフォーカスを説明するための図である。It is a figure for demonstrating refocusing. リフォーカスを説明するための図である。It is a figure for demonstrating refocusing. 本発明の第1実施形態による撮像装置における撮影アシスト画面の例を示す図である。It is a figure which shows the example of the imaging | photography assistance screen in the imaging device by 1st Embodiment of this invention. 本発明の第1実施形態による撮像装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the imaging apparatus according to the first embodiment of the present invention. 絞り値の制御を説明するための図である。It is a figure for demonstrating control of an aperture value. 本発明の第2実施形態による撮像装置における撮影アシスト画面の例を示す図である。It is a figure which shows the example of the imaging | photography assistance screen in the imaging device by 2nd Embodiment of this invention. 本発明の第3実施形態による撮像装置における撮影アシスト画面の例を示す図である。It is a figure which shows the example of the imaging | photography assistance screen in the imaging device by 3rd Embodiment of this invention.

以下、図面を参照しながら本発明の好適な実施の形態について説明する。
[第1実施形態]
本発明の第1実施形態による撮像装置について図1乃至図9を用いて説明する。図1は、本発明の第1実施形態による撮像装置の外観を示す斜視図である。
本実施形態による撮像装置100は、デジタルカメラ(電子カメラ)、より具体的には、ライトフィールドカメラである。
図1に示すように、撮像装置100の背面には、画像や各種情報を表示するための表示部28が設けられている。撮像装置100の各部には、ユーザによる各種操作を受け付けるための操作部70が設けられている。操作部70は、各種スイッチ、各種ボタン、タッチパネル等の操作部材によって構成されている。シャッターボタン61は、撮影指示を行うためのものであり、操作部70の一部を構成している。モード切替スイッチ60は、各種モードを切り替えるためのものであり、操作部70の一部を構成している。コントローラホイール73は、回転操作が可能な操作部材であり、操作部70の一部を構成している。電源スイッチ72は、電源のオン/オフを切り替えるためのものである。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
An imaging apparatus according to a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a perspective view showing an appearance of the imaging apparatus according to the first embodiment of the present invention.
The imaging apparatus 100 according to the present embodiment is a digital camera (electronic camera), more specifically, a light field camera.
As shown in FIG. 1, a display unit 28 for displaying images and various information is provided on the back surface of the imaging apparatus 100. Each unit of the imaging apparatus 100 is provided with an operation unit 70 for receiving various operations by the user. The operation unit 70 includes operation members such as various switches, various buttons, and a touch panel. The shutter button 61 is for instructing photographing and constitutes a part of the operation unit 70. The mode switch 60 is for switching various modes, and constitutes a part of the operation unit 70. The controller wheel 73 is an operation member that can be rotated and constitutes a part of the operation unit 70. The power switch 72 is for switching the power on / off.

撮像装置100には、接続ケーブル111によって撮像装置100と他の機器とを接続するためのコネクタ112が設けられている。また、撮像装置100には、記録媒体200を格納するためのスロット203が設けられている。記録媒体200としては、例えば、メモリカード等が挙げられる。スロット203に格納された記録媒体200は、撮像装置100との間で通信が可能となる。スロット203には、蓋202が設けられている。   The imaging apparatus 100 is provided with a connector 112 for connecting the imaging apparatus 100 and other devices by a connection cable 111. Further, the imaging apparatus 100 is provided with a slot 203 for storing the recording medium 200. Examples of the recording medium 200 include a memory card. The recording medium 200 stored in the slot 203 can communicate with the imaging device 100. The slot 203 is provided with a lid 202.

図2は、本実施形態による撮像装置100の構成を示すブロック図である。
レンズユニット150は、撮影レンズ103を含んでいる。測距センサ104は、撮像部22によって撮像される被写体空間の距離情報を取得するためのものである。距離情報を取得する技術としては、例えば、タイムオブフライト(TOF:Time of Flight)法を用いることができる。タイムオブフライト法とは、照射したレーザ光が被写体によって反射されて戻ってくるまでの時間に基づいて距離を検知する方式である。なお、距離情報を取得する際に用いられる技術は、タイムオブフライト法に限定されるものではない。本実施形態による撮像装置100では、撮像部22の画素ピッチに応じた解像度で距離情報が取得されるようになっており、取得された距離情報はメモリ32に保持される。測距センサ104と後述するシステム制御部50とが相俟って、撮像装置100から被写体810(図5参照)までの距離を検出する検出手段として機能し得る。
FIG. 2 is a block diagram illustrating the configuration of the imaging apparatus 100 according to the present embodiment.
The lens unit 150 includes a photographing lens 103. The distance measuring sensor 104 is for acquiring distance information of the subject space imaged by the imaging unit 22. As a technique for acquiring distance information, for example, a time of flight (TOF) method can be used. The time-of-flight method is a method of detecting the distance based on the time until the irradiated laser light is reflected by the subject and returned. In addition, the technique used when acquiring distance information is not limited to the time-of-flight method. In the imaging apparatus 100 according to the present embodiment, distance information is acquired at a resolution corresponding to the pixel pitch of the imaging unit 22, and the acquired distance information is held in the memory 32. The distance measuring sensor 104 and the system control unit 50 described later can function together as a detection unit that detects the distance from the imaging device 100 to the subject 810 (see FIG. 5).

撮像部22の前段には、シャッター101が配されている。撮像部22は、光学像を電気信号に変換するCCDイメージセンサやCMOSイメージセンサ等によって構成されている。A/D変換器(Analog to Digital Converter)23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するものである。撮像部22は、合焦位置が再調整された再構成画像を生成することが可能な画像データを取得する撮像手段として機能する。   A shutter 101 is disposed in front of the imaging unit 22. The imaging unit 22 includes a CCD image sensor, a CMOS image sensor, or the like that converts an optical image into an electrical signal. An A / D converter (Analog to Digital Converter) 23 converts an analog signal output from the imaging unit 22 into a digital signal. The imaging unit 22 functions as an imaging unit that acquires image data that can generate a reconstructed image with the focus position readjusted.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し、所定の画素補間、縮小といったリサイズ処理や色変換処理等を行う。また、画像処理部24は、撮像部22によって得られた画像データを用いて所定の演算処理を行う。システム制御部50は、画像処理部24によって得られた演算結果に基づいて露光制御等を行う。具体的には、自動露出(AE:Auto Exposure)処理、フラッシュプリ発光(EF)処理等がシステム制御部50によって行われる。画像処理部24は、更に、撮像部22によって得られた画像データを用いて所定の演算処理を行い、当該演算処理によって得られた演算結果に基づいてオートホワイトバランス(AWB:Auto Whit Balance)処理をも行う。画像処理部24は、メモリ32に保持されるライトフィールドRAWデータを用い、所望のリフォーカス面に合焦するように再構成された再構成画像(リフォーカス画像)を生成する処理をも行う。画像処理部24は、撮像部22によって取得された画像データから合焦位置が再調整された再構成画像を生成する再構成手段として機能し得る。なお、リフォーカス面の位置の指示は、システム制御部50等によって行われる。   The image processing unit 24 performs resize processing such as predetermined pixel interpolation and reduction, color conversion processing, and the like on the data from the A / D converter 23 or the data from the memory control unit 15. Further, the image processing unit 24 performs a predetermined calculation process using the image data obtained by the imaging unit 22. The system control unit 50 performs exposure control and the like based on the calculation result obtained by the image processing unit 24. Specifically, the system control unit 50 performs automatic exposure (AE) processing, flash pre-flash (EF) processing, and the like. The image processing unit 24 further performs a predetermined calculation process using the image data obtained by the imaging unit 22, and an auto white balance (AWB) process based on the calculation result obtained by the calculation process. Also do. The image processing unit 24 also performs processing for generating a reconstructed image (refocus image) reconstructed so as to focus on a desired refocus plane using the light field RAW data held in the memory 32. The image processing unit 24 can function as a reconstruction unit that generates a reconstructed image whose focus position is readjusted from the image data acquired by the imaging unit 22. The refocus plane position is instructed by the system control unit 50 or the like.

A/D変換器23から出力されるデータは、画像処理部24とメモリ制御部15とを介して、メモリ32に書き込まれる。具体的には、撮像部22によって取得され、A/D変換器23によってデジタルデータに変換された画像データが、メモリ32に格納される。また、表示部28に表示するための画像データもメモリ32に格納される。メモリ32は、所定枚数の静止画像や、所定時間の動画像や音声を格納するのに十分な記憶容量を備えている。   Data output from the A / D converter 23 is written into the memory 32 via the image processing unit 24 and the memory control unit 15. Specifically, image data acquired by the imaging unit 22 and converted into digital data by the A / D converter 23 is stored in the memory 32. Image data to be displayed on the display unit 28 is also stored in the memory 32. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, a moving image and sound for a predetermined time.

メモリ32は、画像表示用のメモリ(ビデオメモリ)をも兼ねている。D/A変換器(Digital to Analog Converter)13は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に格納された画像表示用のデータは、D/A変換器13を介して表示部28によって表示される。
表示部28としては、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)等が用いられている。表示部28は、D/A変換器13からのアナログ信号に応じた表示を行う。
The memory 32 also serves as an image display memory (video memory). A D / A converter (Digital to Analog Converter) 13 converts image display data stored in the memory 32 into an analog signal and supplies the analog signal to the display unit 28. Thus, the image display data stored in the memory 32 is displayed by the display unit 28 via the D / A converter 13.
As the display unit 28, for example, a liquid crystal display (LCD) is used. The display unit 28 performs display according to the analog signal from the D / A converter 13.

A/D変換器23によってデジタル化された信号、即ち、デジタル信号は、画像処理部24によって所定の信号処理が施された後にメモリ32に蓄積される。メモリ32に蓄積されたデジタル信号をD/A変換器13によってアナログ化して表示部28に逐次転送することによって、表示部28はスルー画像を表示する電子ビューファインダとして機能する。
なお、表示部28として、立体表示に対応する3Dディスプレイ等を用いることも可能である。この場合には、立体表示に対応する表示用データを画像処理部24によって生成し、表示用データをメモリ32に書き込み、当該表示用データをD/A変換器13を介して表示部28に転送することによって立体表示を行う。
The signal digitized by the A / D converter 23, that is, the digital signal is stored in the memory 32 after being subjected to predetermined signal processing by the image processing unit 24. The digital signal stored in the memory 32 is converted into an analog form by the D / A converter 13 and sequentially transferred to the display unit 28, whereby the display unit 28 functions as an electronic viewfinder that displays a through image.
As the display unit 28, a 3D display or the like corresponding to stereoscopic display can be used. In this case, display data corresponding to stereoscopic display is generated by the image processing unit 24, the display data is written in the memory 32, and the display data is transferred to the display unit 28 via the D / A converter 13. 3D display is performed.

圧縮・伸張処理部35には、ライトフィールドRAWデータによって構成された画像データが入力され、圧縮・伸張処理部35は、入力された画像データに対して圧縮処理や伸長処理を行う。圧縮処理の方式としては、例えば、JPEG(Joint Photographic Experts Group)方式等が挙げられる。
不揮発性メモリ56は、電気的に消去や記録が可能なメモリであり、例えばEEPROM(Electrically Erasable Programmable Read−Only Memory)等が用いられる。不揮発性メモリ56には、システム制御部50を動作させるためのプログラムや定数等が記憶されている。
Image data composed of light field RAW data is input to the compression / decompression processing unit 35, and the compression / decompression processing unit 35 performs compression processing and expansion processing on the input image data. Examples of the compression processing method include a JPEG (Joint Photographic Experts Group) method.
The nonvolatile memory 56 is an electrically erasable and recordable memory. For example, an EEPROM (Electrically Erasable Programmable Read-Only Memory) is used. The nonvolatile memory 56 stores programs, constants, and the like for operating the system control unit 50.

システム制御部50は、本実施形態による撮像装置100全体を制御する。システム制御部50としては、例えばCPU(Central Processing Unit)が用いられている。不揮発性メモリ56に記録されたプログラムをシステム制御部50が実行することによって、様々な処理が撮像装置100によって行われることとなる。システムメモリ52としては、例えばRAM(Random Access Memory)が用いられる。システムメモリ52には、システム制御部50を動作させるための定数や変数等が記憶される。また、システムメモリ52には、不揮発性メモリ56から読み出されたプログラム等も展開される。また、システム制御部50は、メモリ32、D/A変換器13、表示部28等を制御することによって、表示制御をも行う。
システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
The system control unit 50 controls the entire imaging apparatus 100 according to the present embodiment. As the system control unit 50, for example, a CPU (Central Processing Unit) is used. Various processes are performed by the imaging apparatus 100 by the system control unit 50 executing the program recorded in the nonvolatile memory 56. As the system memory 52, for example, a RAM (Random Access Memory) is used. The system memory 52 stores constants and variables for operating the system control unit 50. Further, the program read from the nonvolatile memory 56 is also developed in the system memory 52. The system control unit 50 also performs display control by controlling the memory 32, the D / A converter 13, the display unit 28, and the like.
The system timer 53 is a time measuring unit that measures the time used for various controls and the time of a built-in clock.

タッチパネル36は、表示部28の上面に配されている。タッチパネル36における検出方式としては、抵抗膜方式、静電容量方式等を用いることができる。タッチパネル36が指によってタッチされた位置は、システム制御部50によって検出され、座標等に変換されて利用される。
モード切替スイッチ60、シャッターボタン61、シャッタースイッチ62、操作部70は、各種の動作指示をシステム制御部50に入力するための操作手段である。モード切替スイッチ60は、システム制御部50の動作モードを、静止画記録モード、動画記録モード、再生モード等のうちのいずれかに切り替えるためのものである。シャッタースイッチ62は、シャッターボタン61が操作されている途中の状態、即ち、いわゆる半押し(撮影準備指示)の状態においてオン状態となり、第1のシャッタースイッチ信号SW1を発生する。システム制御部50は、第1のシャッタースイッチ信号SW1によって、オートフォーカス(AF:Auto Focus)処理、自動露出処理、オートホワイトバランス処理、フラッシュプリ発光処理等の動作を開始する。
The touch panel 36 is disposed on the upper surface of the display unit 28. As a detection method in the touch panel 36, a resistance film method, a capacitance method, or the like can be used. The position where the touch panel 36 is touched with a finger is detected by the system control unit 50 and converted into coordinates or the like.
The mode switch 60, the shutter button 61, the shutter switch 62, and the operation unit 70 are operation means for inputting various operation instructions to the system control unit 50. The mode switch 60 is for switching the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image recording mode, a reproduction mode, and the like. The shutter switch 62 is turned on when the shutter button 61 is being operated, that is, in a so-called half-pressed state (shooting preparation instruction), and generates a first shutter switch signal SW1. In response to the first shutter switch signal SW1, the system control unit 50 starts operations such as auto focus (AF) processing, automatic exposure processing, auto white balance processing, and flash pre-flash processing.

シャッタースイッチ62は、シャッターボタン61の操作が完了した際、即ち、いわゆる全押し(撮影指示)になった際にオン状態となり、第2のシャッタースイッチ信号SW2を発生する。システム制御部50は、第2のシャッタースイッチ信号SW2によって、撮像部22からの画素信号の読み出しから記録媒体200への画像データの書き込みまでの一連の動作を開始する。   The shutter switch 62 is turned on when the operation of the shutter button 61 is completed, that is, when it is fully pressed (shooting instruction), and generates a second shutter switch signal SW2. The system control unit 50 starts a series of operations from reading the pixel signal from the imaging unit 22 to writing the image data to the recording medium 200 by the second shutter switch signal SW2.

操作部70の各々の操作部材は、表示部28に表示される種々の機能アイコンを選択操作する際にも用いられる。操作部70の各々の操作部材には、場面ごとに各種機能が適宜割り当てられ、操作部70の各々の操作部材は、各種機能ボタンとして機能する。機能ボタンとしては、例えば、終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞り込みボタン、属性変更ボタン等が挙げられる。   Each operation member of the operation unit 70 is also used when various operation icons displayed on the display unit 28 are selected and operated. Various functions are appropriately assigned to each operation member of the operation unit 70 for each scene, and each operation member of the operation unit 70 functions as various function buttons. Examples of the function buttons include an end button, a return button, an image advance button, a jump button, a narrowing button, and an attribute change button.

操作部70を構成する複数の操作部材のうちの1つは、メニューボタンである。メニューボタンが押された際には、各種の設定を行うためのメニュー画面が表示部28に表示される。ユーザは、表示部28に表示されるメニュー画面を見ながら、4方向ボタンやSETボタン等を操作することによって、各種設定を行うことができる。   One of the plurality of operation members constituting the operation unit 70 is a menu button. When the menu button is pressed, a menu screen for performing various settings is displayed on the display unit 28. The user can make various settings by operating a four-way button, a SET button, or the like while viewing the menu screen displayed on the display unit 28.

コントローラホイール73は、選択項目の指示を行う際などに用いられる。コントローラホイール73を回転操作すると、操作量に応じた電気的なパルス信号がコントローラホイール73から出力される。システム制御部50は、コントローラホイール73から出力されるパルス信号に基づいて、撮像装置100の各部を制御する。コントローラホイール73が回転させられた角度や、コントローラホイール73が回転させられた回数等を、システム制御部50は、かかるパルス信号によって判定することができる。なお、コントローラホイール73としては、例えば、ユーザによる回転操作に応じて物理的に回転してパルス信号を発生するダイヤル式のコントローラホイールを用いることができる。なお、コントローラホイール73は、ダイヤル式のコントローラホイールに限定されるものではない。例えば、コントローラホイール73として、タッチセンサによって構成されたコントローラホイールを用いることもできる。タッチセンサによって構成されたコントローラホイール73は、当該コントローラホイール73自体は物理的に回転せず、タッチセンサ上におけるユーザの指の回転動作を検出し、指の回転動作に応じたパルス信号等を出力するものである。このようなコントローラホイール73は、タッチホイールとも称される。   The controller wheel 73 is used when a selection item is instructed. When the controller wheel 73 is rotated, an electrical pulse signal corresponding to the operation amount is output from the controller wheel 73. The system control unit 50 controls each unit of the imaging apparatus 100 based on the pulse signal output from the controller wheel 73. The system control unit 50 can determine the angle at which the controller wheel 73 is rotated, the number of times the controller wheel 73 is rotated, and the like based on the pulse signal. As the controller wheel 73, for example, a dial type controller wheel that physically rotates in response to a rotation operation by a user and generates a pulse signal can be used. The controller wheel 73 is not limited to a dial type controller wheel. For example, as the controller wheel 73, a controller wheel configured by a touch sensor can be used. The controller wheel 73 configured by the touch sensor does not physically rotate the controller wheel 73 itself, detects the rotation operation of the user's finger on the touch sensor, and outputs a pulse signal or the like corresponding to the rotation operation of the finger. To do. Such a controller wheel 73 is also referred to as a touch wheel.

電源制御部80は、電池検出回路(図示せず)、DC−DCコンバータ(図示せず)、通電するブロックを切り替えるスイッチ回路(図示せず)等によって構成されている。電源制御部80は、電池の装着の有無、電池の種類、電池残量等の検出を行う。また、電源制御部80は、これらの検出の結果及びシステム制御部50からの指示に基づいて、DC−DCコンバータを制御し、記録媒体200を含む撮像装置100の各部に必要な電圧を必要な期間だけ供給する。   The power supply control unit 80 includes a battery detection circuit (not shown), a DC-DC converter (not shown), a switch circuit (not shown) that switches a block to be energized, and the like. The power control unit 80 detects the presence / absence of a battery, the type of battery, the remaining battery level, and the like. Further, the power supply control unit 80 controls the DC-DC converter based on these detection results and instructions from the system control unit 50, and requires necessary voltages for each unit of the imaging apparatus 100 including the recording medium 200. Supply only for a period.

電源部30としては、例えば、アルカリ電池やリチウム電池等の一次電池や、NiCd電池やNiMH電池、Li電池等の二次電池を用いることができる。また、電源部30は、ACアダプター等であってもよい。
インターフェース18は、記録媒体200との間でデータ等の入出力を行うためのものである。記録媒体200は、メモリカード等であり、半導体メモリや磁気ディスク等によって構成されている。
As the power supply unit 30, for example, a primary battery such as an alkaline battery or a lithium battery, or a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery can be used. The power supply unit 30 may be an AC adapter or the like.
The interface 18 is for inputting and outputting data and the like with the recording medium 200. The recording medium 200 is a memory card or the like, and is configured by a semiconductor memory, a magnetic disk, or the like.

図3は、撮像部22の一部を示す平面図である。図3に示すように、撮像部22の撮像面には、複数の単位画素210が行列状に配された画素アレイが設けられている。図3において太線で囲まれている部分が、1つの単位画素210に対応している。単位画素210は、複数の画素(分割画素)211によって構成されている。各々の分割画素211には、光電変換素子(光電変換部)が設けられている。ここでは、1つの単位画素210が、5行×5列の計25個の分割画素211によって構成されている場合を例として示している。撮像部22の撮像面上には、複数のマイクロレンズ1020を含むマイクロレンズアレイ102が配されている。各々の単位画素210に各々のマイクロレンズ1020が対応している。1つの単位画素210を構成する複数の分割画素211が、1つのマイクロレンズ1020に対応付けられている。   FIG. 3 is a plan view showing a part of the imaging unit 22. As shown in FIG. 3, a pixel array in which a plurality of unit pixels 210 are arranged in a matrix is provided on the imaging surface of the imaging unit 22. In FIG. 3, a portion surrounded by a thick line corresponds to one unit pixel 210. The unit pixel 210 includes a plurality of pixels (divided pixels) 211. Each divided pixel 211 is provided with a photoelectric conversion element (photoelectric conversion unit). Here, a case where one unit pixel 210 is configured by a total of 25 divided pixels 211 of 5 rows × 5 columns is shown as an example. A microlens array 102 including a plurality of microlenses 1020 is arranged on the imaging surface of the imaging unit 22. Each microlens 1020 corresponds to each unit pixel 210. A plurality of divided pixels 211 constituting one unit pixel 210 are associated with one microlens 1020.

図4は、撮影レンズ103とマイクロレンズアレイ102と撮像部22との関係を示す概略図である。図4は、光軸に対して垂直の方向から観察したときの図である。図4に示すように、撮影レンズ103の射出瞳の各々の瞳領域L1〜L5からの光が、1つのマイクロレンズ1020を通過して、撮像部22の単位画素210の各々の光電変換素子p1〜p5によってそれぞれ受光される。なお、光電変換素子p1〜p5は、単位画素210を構成する複数の分割画素211の各々に1つずつ設けられている。光電変換素子p1〜p5としては、例えばフォトダイオードが用いられている。撮像部22の各々の分割画素211によって得られた信号を用い、任意の焦点位置(リフォーカス面)において画像を再構成処理することによって、任意の被写体にピントが合った画像を生成することができる。   FIG. 4 is a schematic diagram showing a relationship among the photographing lens 103, the microlens array 102, and the imaging unit 22. As shown in FIG. FIG. 4 is a diagram when observed from a direction perpendicular to the optical axis. As shown in FIG. 4, light from each of the pupil regions L <b> 1 to L <b> 5 of the exit pupil of the photographing lens 103 passes through one microlens 1020, and each photoelectric conversion element p <b> 1 of the unit pixel 210 of the imaging unit 22. Are received by .about.p5. One photoelectric conversion element p <b> 1 to p <b> 5 is provided for each of the plurality of divided pixels 211 constituting the unit pixel 210. For example, photodiodes are used as the photoelectric conversion elements p1 to p5. By using the signal obtained by each divided pixel 211 of the imaging unit 22 and reconstructing the image at an arbitrary focal position (refocus plane), an image focused on an arbitrary subject can be generated. it can.

次に、撮像装置100とリフォーカス面803〜805と被写体810との位置関係について図5を用いて説明する。
図5は、撮像装置100とリフォーカス面803〜805と被写体810との位置関係を示す概略図である。図5に示すように、撮像装置100の前方には、撮影対象となる被写体810が位置している。また、図5には、リフォーカス面803とリフォーカス面804とリフォーカス面805とが示されている。
Next, the positional relationship among the imaging apparatus 100, the refocus surfaces 803 to 805, and the subject 810 will be described with reference to FIG.
FIG. 5 is a schematic diagram illustrating a positional relationship among the imaging apparatus 100, the refocus surfaces 803 to 805, and the subject 810. As shown in FIG. 5, a subject 810 to be photographed is located in front of the imaging apparatus 100. FIG. 5 shows a refocus surface 803, a refocus surface 804, and a refocus surface 805.

次に、再構成画像の生成について図6及び図7を用いて説明する。図6は、再構成画像の生成を説明するための図である。図6は、リフォーカス面803にピントが合うように再構成を行う場合を示している。
図6には、リフォーカス面803に対応する仮想的な画素、即ち、再構成画素P1〜P5が示されている。なお、ここでは、説明を簡略化するため、5つの単位画素210a〜210eに注目して説明するが、実際には、撮像部22には多数の単位画素210が設けられている。また、ここでは、説明を簡略化するため、各々の単位画素210a〜210eに対して、分割画素a1〜a5、b1〜b5、c1〜c5、d1〜d5、e1〜e5を5個ずつ示している。しかし、実際には、各々の単位画素210a〜210eには、分割画素が25個ずつ設けられている。各々の単位画素210a〜210eの上方には、マイクロレンズ1020a〜1020eが位置している。
撮影レンズ103の各々の瞳領域L1〜L5から出射され、仮想的な画素である再構成画素P3に収束する光束r1〜r5は、マイクロレンズ1020cを介して、分割画素c1〜c5にそれぞれ入射する。
Next, the generation of a reconstructed image will be described with reference to FIGS. FIG. 6 is a diagram for explaining generation of a reconstructed image. FIG. 6 shows a case where reconstruction is performed so that the refocus plane 803 is in focus.
FIG. 6 shows virtual pixels corresponding to the refocus plane 803, that is, reconstructed pixels P1 to P5. Here, in order to simplify the description, the description will be given focusing on the five unit pixels 210a to 210e, but in reality, the imaging unit 22 is provided with a large number of unit pixels 210. Further, here, for the sake of simplicity, five divided pixels a1 to a5, b1 to b5, c1 to c5, d1 to d5, and e1 to e5 are shown for each unit pixel 210a to 210e. Yes. However, in practice, each of the unit pixels 210a to 210e is provided with 25 divided pixels. Microlenses 1020a to 1020e are positioned above the unit pixels 210a to 210e.
Light beams r1 to r5 that are emitted from the respective pupil regions L1 to L5 of the photographing lens 103 and converge on the reconstructed pixel P3 that is a virtual pixel enter the divided pixels c1 to c5 through the microlens 1020c, respectively. .

各々の分割画素c1〜c5から出力される画素信号(画素値)を加算することによって、再構成画素P3における画素値S3を算出することが可能である。例えば、以下のような式(1)を用いることによって、再構成画素P3における画素値S3を算出することが可能である。
S3=Σ(ckの画素値)・・・(1)
但し、k=1〜5である。
他の仮想的な画素である再構成画素P1、P2、P4、P5における画素値S1、S2、S4、S5についても、上記と同様にして算出することが可能である。
By adding the pixel signals (pixel values) output from the respective divided pixels c1 to c5, it is possible to calculate the pixel value S3 in the reconstructed pixel P3. For example, the pixel value S3 in the reconstructed pixel P3 can be calculated by using the following equation (1).
S3 = Σ (pixel value of ck) (1)
However, k = 1-5.
The pixel values S1, S2, S4, and S5 in the reconstructed pixels P1, P2, P4, and P5, which are other virtual pixels, can be calculated in the same manner as described above.

次に、リフォーカス面804にピントが合うように再構成を行う場合について図7を用いて説明する。図7は、再構成画像の生成を説明するための図である。図7は、リフォーカス面804にピントが合うように再構成を行う場合を示している。   Next, a case where reconstruction is performed so that the refocus surface 804 is focused will be described with reference to FIG. FIG. 7 is a diagram for explaining generation of a reconstructed image. FIG. 7 shows a case where reconstruction is performed so that the refocus plane 804 is in focus.

撮影レンズ103の各々の瞳領域L1〜L5から出射され、仮想的な画素である再構成画素P3に収束する光束r1〜r5は、マイクロレンズ1020a〜1020eをそれぞれ介して、単位画素210a〜210eにそれぞれ入射する。具体的には、瞳領域L1、L2、L4、L5からの光束r1、r2、d4、r5は、複数の分割画素にまたがるように入射する。より具体的には、瞳領域L5からの光束r5は、分割画素a2と分割画素a3の両方にまたがるように入射する。また、瞳領域L4からの光束r4は、分割画素b2と分割画素b3とにまたがるように入射する。また、瞳領域L2からの光束r2は、分割画素d3と分割画素d4とにまたがるように入射する。また、瞳領域L1からの光束r1は、分割画素e3と分割画素e4とにまたがるように入射する。一方、瞳領域L3からの光束r3は、複数の分割画素にまたがるように入射するわけではなく、1つの分割画素c3に入射する。   The luminous fluxes r1 to r5 emitted from the respective pupil regions L1 to L5 of the photographing lens 103 and converged on the reconstructed pixel P3 which is a virtual pixel are transmitted to the unit pixels 210a to 210e via the microlenses 1020a to 1020e, respectively. Each incident. Specifically, the light beams r1, r2, d4, and r5 from the pupil regions L1, L2, L4, and L5 are incident so as to straddle a plurality of divided pixels. More specifically, the light beam r5 from the pupil region L5 is incident so as to straddle both the divided pixel a2 and the divided pixel a3. Further, the light beam r4 from the pupil region L4 is incident on the divided pixel b2 and the divided pixel b3. Further, the light beam r2 from the pupil region L2 is incident on the divided pixel d3 and the divided pixel d4. In addition, the light beam r1 from the pupil region L1 is incident on the divided pixel e3 and the divided pixel e4. On the other hand, the light beam r3 from the pupil region L3 does not enter the plurality of divided pixels but enters one divided pixel c3.

各々の分割画素a2、a3、b2、b3、c3、d3、d4、e3、e4からの画素信号(画素値)を重み付け加算することによって、再構成画素P3における画素値S3を算出することが可能である。例えば、以下のような式(2)を用いることによって、再構成画素P3における画素値S3を算出することが可能である。
S3=w1・a2+w2・a3+w3・b2+w4・b3+c3+w3・d4+w4・d3+w2・e3+w1・e4 ・・・(2)
但し、w1〜w4は、重み付け係数を示している。
他の仮想的な画素である再構成画素P1、P2、P4、P5における画素値S1、S2、S4、S5についても、上記と同様にして算出することが可能である。
このように、撮像部22に設けられた分割画素a1〜e5のうちから再構成画素P1〜P5に関連する分割画素を選択し、選択された各々の分割画素の画素値を必要に応じて重み付け加算を行うことによって、再構成画像を生成することが可能である。
The pixel value S3 in the reconstructed pixel P3 can be calculated by weighted addition of pixel signals (pixel values) from the respective divided pixels a2, a3, b2, b3, c3, d3, d4, e3, and e4. It is. For example, the pixel value S3 in the reconstructed pixel P3 can be calculated by using the following equation (2).
S3 = w1 · a2 + w2 · a3 + w3 · b2 + w4 · b3 + c3 + w3 · d4 + w4 · d3 + w2 · e3 + w1 · e4 (2)
However, w1-w4 has shown the weighting coefficient.
The pixel values S1, S2, S4, and S5 in the reconstructed pixels P1, P2, P4, and P5, which are other virtual pixels, can be calculated in the same manner as described above.
As described above, the divided pixels related to the reconstructed pixels P1 to P5 are selected from the divided pixels a1 to e5 provided in the imaging unit 22, and the pixel values of the selected divided pixels are weighted as necessary. By performing addition, a reconstructed image can be generated.

しかしながら、すべての再構成画素についての重み付け係数の算出を再構成画像の生成の際に行うようにした場合には、再構成画像を生成する際の処理負荷が膨大となってしまう。再構成画像を生成する際の処理負荷を低減するためには、再構成画像を生成する際に必要とされる情報を、不揮発性メモリ56等に予め保持しておくことが好ましい。このため、本実施形態では、再構成画像を生成する際に必要とされる情報が不揮発性メモリ56に予め保持されている。再構成画像を生成する際に必要とされる情報としては、例えば、重み付け加算を行う際に用いられる重み付け係数等が挙げられる。また、再構成画像を生成する際に必要とされる情報として、各々の再構成画素に関連する分割画素についての情報等も挙げられる。   However, if the calculation of the weighting coefficient for all the reconstructed pixels is performed when the reconstructed image is generated, the processing load when the reconstructed image is generated becomes enormous. In order to reduce the processing load at the time of generating a reconstructed image, it is preferable to previously hold information necessary for generating a reconstructed image in the nonvolatile memory 56 or the like. For this reason, in the present embodiment, information necessary for generating a reconstructed image is stored in advance in the nonvolatile memory 56. Examples of information required when generating a reconstructed image include a weighting coefficient used when performing weighted addition. In addition, as information required when generating a reconstructed image, information on divided pixels related to each reconstructed pixel can be given.

ところで、最至近側から無限遠側までのすべての位置においてのかかる情報を、不揮発性メモリ56に予め保持させることは、情報量が膨大であるため困難である。そこで、本実施形態では、離散的な位置においてのかかる情報を、不揮発性メモリ56に予め保持するようにしている。具体的には、リフォーカス面803にピントが合うように再構成画像を生成する場合に用いられる情報としては、例えば以下のような情報が挙げられる。例えば、再構成画素P3に関連する分割画素がc1〜c5である旨の情報が挙げられる。また、例えば、重み付け係数w1〜w4がいずれも1である旨の情報が挙げられる。これらの情報は、不揮発性メモリ56等に予め保持されている。   By the way, it is difficult to previously store such information at all positions from the closest side to the infinity side in the nonvolatile memory 56 because the amount of information is enormous. Therefore, in the present embodiment, such information at discrete positions is held in the nonvolatile memory 56 in advance. Specifically, as information used when a reconstructed image is generated so that the refocus plane 803 is in focus, the following information is exemplified. For example, there is information that the divided pixels related to the reconstructed pixel P3 are c1 to c5. Further, for example, information indicating that the weighting coefficients w1 to w4 are all 1 is mentioned. These pieces of information are stored in advance in the nonvolatile memory 56 or the like.

本実施形態によれば、再構成画像を生成する際に必要とされる情報が不揮発性メモリ56等に予め保持されており、再構成画像を生成する際に必要とされる情報をリフォーカス時に算出する必要がない。このため、本実施形態によれば、リフォーカス時における処理負荷を低減することができる。   According to the present embodiment, information required when generating a reconstructed image is stored in advance in the nonvolatile memory 56 or the like, and information required when generating a reconstructed image is refocused. There is no need to calculate. For this reason, according to this embodiment, the processing load at the time of refocusing can be reduced.

次に、撮影をアシストするための画面である撮影アシスト画面800について図8を用いて説明する。図8は、本実施形態による撮像装置における撮影アシスト画面800の例を示す概略図である。なお、撮影アシスト画面800は、表示部28に表示される。撮影アシスト画面800を表示部28に表示するための画像信号(映像信号)は、システム制御部50等によって生成される。   Next, a photographing assist screen 800 that is a screen for assisting photographing will be described with reference to FIG. FIG. 8 is a schematic diagram illustrating an example of a shooting assist screen 800 in the imaging apparatus according to the present embodiment. Note that the shooting assist screen 800 is displayed on the display unit 28. An image signal (video signal) for displaying the photographing assist screen 800 on the display unit 28 is generated by the system control unit 50 or the like.

図8に示すように、撮影アシスト画面800には、再構成によって生成される再構成画像801が表示される。ここでは、リフォーカス面803(図5参照)において合焦するように再構成された再構成画像801を逐次更新しながら表示する場合を例に説明する。また、ここでは、撮影画像中に3つの被写体(被写体像)810〜812が含まれている場合を例に説明する。   As shown in FIG. 8, a reconstructed image 801 generated by reconstruction is displayed on the photographing assist screen 800. Here, a case where the reconstructed image 801 reconstructed so as to be focused on the refocus plane 803 (see FIG. 5) is displayed while being sequentially updated will be described as an example. In addition, here, a case where three subjects (subject images) 810 to 812 are included in the captured image will be described as an example.

図8に示すように、撮影アシスト画面800には、撮像装置100を模式的に示す図形100′と、リフォーカス面803〜805(図5参照)をそれぞれ模式的に示す図形803′〜805′とが表示される。なお、ここでは、説明の便宜上、撮像装置100を模式的に示す図形100′を、撮像装置と称することもある。また、リフォーカス面803〜805をそれぞれ模式的に示す図形803′〜805′を、リフォーカス面と称することもある。なお、リフォーカス面803〜805については、再構成画像を生成する際に必要とされる情報が、不揮発性メモリ56に予め保持されている。なお、ここでは、再構成画像を生成する際に必要とされる情報が不揮発性メモリ56に予め保持されているリフォーカス面803〜805を3つ示しているが、このようなリフォーカス面の数は3つに限定されるものではなく、適宜設定し得る。   As shown in FIG. 8, the photographing assist screen 800 includes a figure 100 ′ schematically showing the imaging device 100 and figures 803 ′ to 805 ′ schematically showing refocus surfaces 803 to 805 (see FIG. 5). Is displayed. Here, for convenience of explanation, a figure 100 ′ schematically showing the imaging device 100 may be referred to as an imaging device. Further, figures 803 'to 805' schematically showing the refocus surfaces 803 to 805, respectively, may be referred to as refocus surfaces. For the refocus planes 803 to 805, information necessary for generating a reconstructed image is held in the nonvolatile memory 56 in advance. Here, three refocus surfaces 803 to 805 in which information necessary for generating a reconstructed image is stored in advance in the nonvolatile memory 56 are shown. The number is not limited to three and can be set as appropriate.

また、図8に示すように、被写体810〜812をそれぞれ模式的に示す図形810′〜812′も、撮影アシスト画面800に表示される。なお、ここでは、説明の便宜上、被写体810〜812をそれぞれ模式的に示す図形810′〜812′を、被写体と称することもある。撮像装置100から各々の被写体810〜812までの距離は、上述したように、測距センサ104を用いて検出される。測距センサ104を用いて検出された距離に基づいて、被写体を模式的に示す図形810′〜812′の位置が設定される。   In addition, as shown in FIG. 8, graphics 810 ′ to 812 ′ schematically showing subjects 810 to 812 are also displayed on the photographing assist screen 800. Here, for convenience of explanation, figures 810 ′ to 812 ′ schematically showing the subjects 810 to 812 may be referred to as subjects. The distance from the imaging device 100 to each of the subjects 810 to 812 is detected using the distance measuring sensor 104 as described above. Based on the distance detected using the distance measuring sensor 104, positions of figures 810 ′ to 812 ′ schematically showing the subject are set.

被写体を模式的に示す図形810′〜812′のうちのいずれかをユーザが指でタッチすると、表示部28の上面に配されたタッチパネル36からの信号がシステム制御部50によって検出される。システム制御部50は、タッチパネル36からの信号に基づいて、被写体を模式的に示す複数の図形810′〜812′のうちのいずれの図形がユーザの指によってタッチされたかを検出する。システム制御部50は、タッチされた図形に対応する被写体を囲むように矩形の枠820を表示する。なお、図8は、被写体811に対応する図形811′がユーザの指によってタッチされた場合を例に示している。   When the user touches any of the figures 810 ′ to 812 ′ schematically showing the subject with a finger, the system control unit 50 detects a signal from the touch panel 36 disposed on the upper surface of the display unit 28. Based on a signal from the touch panel 36, the system control unit 50 detects which of the plurality of graphics 810 ′ to 812 ′ schematically showing the subject is touched by the user's finger. The system control unit 50 displays a rectangular frame 820 so as to surround the subject corresponding to the touched figure. FIG. 8 shows an example where the figure 811 ′ corresponding to the subject 811 is touched by the user's finger.

図形810′、812′にそれぞれ対応する被写体810、812の位置は、それぞれリフォーカス面804、805の位置とほぼ等しい。このため、図形810′,812′に対応する被写体810,812については、不揮発性メモリ56に予め保持されている情報を用いることによって、合焦度合い(合焦レベル)の高いリフォーカス画像を得ることができる。一方、図形811′に対応する被写体811の位置は、リフォーカス面804とリフォーカス面805のいずれからも大きく離れている。このため、被写体811にリフォーカスする際には、不揮発性メモリ56に予め保持されている情報を利用できない。このため、被写体811にピントが合うように再構成を行った場合には、十分な合焦度合いが得られない虞がある。被写体811にリフォーカスした場合であっても十分な合焦度合いが得られるようにするためには、例えば以下のようにすることが有効である。即ち、再構成画像を生成する際に必要とされる情報が不揮発性メモリ56に予め保持されているリフォーカス面803〜805のうちのいずれかの近くに被写体811を移動させることが有効である。しかしながら、どの被写体がリフォーカス面803〜805から大きく離れているかを、アシストなしにユーザが把握することは容易ではない。そこで、本実施形態では、システム制御部50が、図形810′〜812′と被写体810〜812とをそれぞれ関連付ける。そして、図形810′〜812′のうちのいずれかがユーザが指によってタッチされた場合には、システム制御部50は、タッチされた図形に関連付けられた被写体を目立たせるための表示を撮影アシスト画面800において行う。例えば、図形811′がユーザの指によってタッチされた場合には、システム制御部50は、当該図形811′に対応する被写体811を囲むような矩形の枠820を撮影アシスト画面800において表示する。これにより、ユーザは、どの被写体810〜812がリフォーカス面803〜805から大きく離れているのかを把握することができる。ユーザは、リフォーカス面803〜805から大きく離れている被写体811に対して移動を促すことができる。被写体811は、ユーザからの指示に従って、リフォーカス面803〜805の近くに移動する。これにより、いずれの被写体810〜812に対してピントが合うように再構成を行う場合であっても、合焦度合いの高い再構成画像を得ることができるようになる。   The positions of the subjects 810 and 812 corresponding to the figures 810 ′ and 812 ′ are substantially equal to the positions of the refocus planes 804 and 805, respectively. For this reason, for the subjects 810 and 812 corresponding to the figures 810 ′ and 812 ′, a refocus image with a high degree of focus (focus level) is obtained by using information stored in the nonvolatile memory 56 in advance. be able to. On the other hand, the position of the subject 811 corresponding to the figure 811 ′ is far away from both the refocus plane 804 and the refocus plane 805. For this reason, when refocusing on the subject 811, information previously stored in the nonvolatile memory 56 cannot be used. For this reason, when reconstruction is performed so that the subject 811 is in focus, there is a possibility that a sufficient degree of focus cannot be obtained. In order to obtain a sufficient degree of focus even when the subject 811 is refocused, for example, the following is effective. That is, it is effective to move the subject 811 near any one of the refocus surfaces 803 to 805 in which information necessary for generating a reconstructed image is held in the nonvolatile memory 56 in advance. . However, it is not easy for the user to grasp which subject is far away from the refocus surfaces 803 to 805 without assistance. Therefore, in the present embodiment, the system control unit 50 associates the figures 810 ′ to 812 ′ with the subjects 810 to 812, respectively. When any of the figures 810 ′ to 812 ′ is touched with a finger by the user, the system control unit 50 displays a display for making the subject associated with the touched figure stand out. At 800. For example, when the figure 811 ′ is touched by the user's finger, the system control unit 50 displays a rectangular frame 820 surrounding the subject 811 corresponding to the figure 811 ′ on the photographing assist screen 800. As a result, the user can grasp which subjects 810 to 812 are far away from the refocus planes 803 to 805. The user can urge the subject 811 far away from the refocus planes 803 to 805 to move. The subject 811 moves near the refocus planes 803 to 805 in accordance with an instruction from the user. As a result, a reconstructed image with a high degree of focus can be obtained even when reconstruction is performed so that any subject 810 to 812 is in focus.

また、リフォーカス面803〜805と被写体811との間の距離を示す情報821、即ち、テキスト表示を、撮影アシスト画面に設けるようにしてもよい。図8は、被写体811の前方6mの位置にリフォーカス面804が存在しており、被写体811の後方4mの位置にリフォーカス面805が存在している場合を例として示している。リフォーカス面803〜805と被写体811との間の距離を示す情報821を撮影アシスト画面に設けるようにすれば、被写体811が移動すべき移動量をユーザが正確に把握することができ、より速やかに撮影を行うことが可能となる。   Further, information 821 indicating the distance between the refocus planes 803 to 805 and the subject 811, that is, a text display may be provided on the photographing assist screen. FIG. 8 shows an example in which the refocus plane 804 exists at a position 6 m ahead of the subject 811 and the refocus plane 805 exists at a position 4 m behind the subject 811. If information 821 indicating the distance between the refocus planes 803 to 805 and the subject 811 is provided on the photographing assist screen, the user can accurately grasp the amount of movement that the subject 811 should move, and more quickly. It becomes possible to perform photography.

システム制御部50は、被写体810〜812と所定のリフォーカス面803〜805との位置関係を示す撮影アシスト画面を、表示部28を用いて表示する制御手段として機能し得る。   The system control unit 50 can function as a control unit that displays, using the display unit 28, a photographing assist screen that indicates the positional relationship between the subjects 810 to 812 and the predetermined refocus surfaces 803 to 805.

次に、本実施形態による撮像装置の動作について図9を用いて説明する。図9は、本実施形態による撮像装置の動作を示すフローチャートである。
ステップS901では、ユーザによって撮影の開始が指示される。撮影の開始の指示は、ユーザが操作部70を操作することによって行われる。ステップS902では、ライトフィールド画像(ライトフィールドデータ)の取得が行われる。ステップS903では、所定のリフォーカス面で合焦するように再構成された再構成画像を、ステップS902で取得したライトフィールド画像から生成し、生成された再構成画像801を撮影アシスト画面800に表示する。
Next, the operation of the imaging apparatus according to the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating the operation of the imaging apparatus according to the present embodiment.
In step S901, the user instructs the start of shooting. The instruction to start shooting is performed by the user operating the operation unit 70. In step S902, a light field image (light field data) is acquired. In step S903, a reconstructed image reconstructed so as to be focused on a predetermined refocus plane is generated from the light field image acquired in step S902, and the generated reconstructed image 801 is displayed on the photographing assist screen 800. To do.

ステップS904では、被写体810〜812の位置を示す距離情報に基づいて、被写体を示す図形810′〜812′を撮影アシスト画面800に表示する。なお、被写体810〜812の位置を示す距離情報は、上述したように、測距センサ104を用いて取得され、メモリ32に保持されている。また、再構成画像を生成する際に必要とされる情報が不揮発性メモリ56に予め保持されているリフォーカス面803〜805(図8参照)が撮影アシスト画面800に表示される。   In step S904, graphics 810 ′ to 812 ′ indicating the subject are displayed on the photographing assist screen 800 based on the distance information indicating the positions of the subjects 810 to 812. The distance information indicating the positions of the subjects 810 to 812 is acquired using the distance measuring sensor 104 and held in the memory 32 as described above. In addition, refocus planes 803 to 805 (see FIG. 8) in which information necessary for generating a reconstructed image is stored in advance in the nonvolatile memory 56 are displayed on the photographing assist screen 800.

ステップS905では、被写体を模式的に示す図形810′〜812′がユーザの指によってタッチされたか否かを検出する。かかる図形810′〜812′のうちのいずれかがユーザの指によってタッチされたことが検出された場合には(ステップS905においてYES)、ステップS906に移行する。かかる図形810′〜812′へのタッチが検出されない場合には(ステップS905においてNO)、ステップS905が繰り返し行われる。   In step S905, it is detected whether or not figures 810 'to 812' schematically showing the subject have been touched by the user's finger. When it is detected that any of the figures 810 ′ to 812 ′ is touched by the user's finger (YES in step S905), the process proceeds to step S906. If no touch is detected on the figures 810 'to 812' (NO in step S905), step S905 is repeated.

ステップS906では、タッチされた図形811′に関連付けられた被写体811を囲むような矩形の枠820を撮影アシスト画面に表示する。また、タッチされた図形811′に対応する被写体811とリフォーカス面804,805との間の距離が、システム制御部50によって算出され、当該距離を示す情報821が撮影アシスト画面800に表示される。   In step S906, a rectangular frame 820 surrounding the subject 811 associated with the touched figure 811 ′ is displayed on the photographing assist screen. In addition, the distance between the subject 811 corresponding to the touched figure 811 ′ and the refocus planes 804 and 805 is calculated by the system control unit 50, and information 821 indicating the distance is displayed on the photographing assist screen 800. .

このように、本実施形態によれば、被写体810〜812とリフォーカス面803〜805との位置関係を撮影アシスト画面に表示する。このため、良好な再構成画像が得られるように撮影をアシストすることができる。   As described above, according to the present embodiment, the positional relationship between the subjects 810 to 812 and the refocus planes 803 to 805 is displayed on the photographing assist screen. For this reason, photographing can be assisted so that a good reconstructed image can be obtained.

[第2実施形態]
本発明の第2実施形態による撮像装置及び撮像方法について図10及び図11を用いて説明する。図1乃至図9に示す第1実施形態による撮像装置と同一の構成要素には、同一の符号を付して説明を省略または簡潔にする。
本実施形態による撮像装置は、絞り値850を考慮した合焦範囲860を撮影アシスト画面800に表示するものである。
本実施形態において行われる絞り値の制御について図10を用いて説明する。図10は、絞り値の制御を説明するための図である。
瞳領域L1〜L5からの光束r1〜r5のうちの一部が低減されるようにすれば、絞り値を大きくすることが可能である。従って、本実施形態による撮像装置100では、単位画素210に含まれる複数の分割画素211からそれぞれ出力される複数の画素値を重み付け加算する際に用いられる重み付け係数を調整することによって絞り値を調整する。例えば、瞳領域L1からの光束r1と瞳領域L5からの光束r5とに関連する重み付け係数をゼロに設定することによって、絞り値を大きくするようにしてもよい。瞳領域L1からの光束r1と瞳領域L5からの光束r5とに関連する重み付け係数をゼロにした場合には、再構成画素P3の画素値S3を以下のような式(3)によって算出することができる。
S3=w3・b2+w4・b3+c3+w3・d4+w4・d3 ・・・(3)
[Second Embodiment]
An imaging apparatus and an imaging method according to the second embodiment of the present invention will be described with reference to FIGS. The same components as those of the imaging apparatus according to the first embodiment shown in FIGS. 1 to 9 are denoted by the same reference numerals, and description thereof is omitted or simplified.
The imaging apparatus according to the present embodiment displays the focusing range 860 in consideration of the aperture value 850 on the imaging assist screen 800.
The aperture value control performed in the present embodiment will be described with reference to FIG. FIG. 10 is a diagram for explaining aperture value control.
If a part of the light beams r1 to r5 from the pupil regions L1 to L5 is reduced, the aperture value can be increased. Therefore, in the imaging apparatus 100 according to the present embodiment, the aperture value is adjusted by adjusting the weighting coefficient used when the plurality of pixel values output from the plurality of divided pixels 211 included in the unit pixel 210 are weighted and added. To do. For example, the aperture value may be increased by setting the weighting coefficient relating to the light beam r1 from the pupil region L1 and the light beam r5 from the pupil region L5 to zero. When the weighting coefficient related to the light beam r1 from the pupil region L1 and the light beam r5 from the pupil region L5 is set to zero, the pixel value S3 of the reconstructed pixel P3 is calculated by the following equation (3). Can do.
S3 = w3 · b2 + w4 · b3 + c3 + w3 · d4 + w4 · d3 (3)

絞り値を大きくすれば、被写界深度が大きくなる。このため、絞り値を大きくすれば、不揮発性メモリ56に予め保持されている情報を用いて再構成を行った際に高い合焦度合いが得られる範囲950(図10参照)を、大きくすることができる。なお、絞り値の調整は、操作部70に設けられた操作部材をユーザが操作することによって行うことができる。   Increasing the aperture value increases the depth of field. Therefore, if the aperture value is increased, the range 950 (see FIG. 10) in which a high degree of focus is obtained when reconstruction is performed using information stored in the nonvolatile memory 56 in advance is increased. Can do. The aperture value can be adjusted by a user operating an operation member provided in the operation unit 70.

なお、ここでは、瞳領域L1からの光束r1と瞳領域L5からの光束r5とに関連する重み付け係数をゼロに設定する場合を例に説明したが、これに限定されるものではない。例えば、瞳領域L1からの光束r1と瞳領域L5からの光束r5とに関連する重み付け係数を減少させることによっても、絞り値を大きくすることが可能である。即ち、単位画素210に含まれる複数の分割画素211からそれぞれ出力される複数の画素値を重み付け加算する際に用いられる重み付け係数を適宜調整することによって絞り値を調整することができる。   Here, the case where the weighting coefficient relating to the light beam r1 from the pupil region L1 and the light beam r5 from the pupil region L5 is set to zero has been described as an example, but the present invention is not limited to this. For example, it is possible to increase the aperture value by reducing the weighting coefficient related to the light beam r1 from the pupil region L1 and the light beam r5 from the pupil region L5. That is, the aperture value can be adjusted by appropriately adjusting the weighting coefficient used when weighted addition of a plurality of pixel values respectively output from the plurality of divided pixels 211 included in the unit pixel 210.

本実施形態の撮像装置において表示される撮影アシスト画面800について図11を用いて説明する。図11は、本実施形態による撮像装置における撮影アシスト画面800の例を示す図である。   A shooting assist screen 800 displayed in the imaging apparatus of the present embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of a shooting assist screen 800 in the imaging apparatus according to the present embodiment.

図11に示すように、絞り値850が撮影アシスト画面800に表示される。ここでは、絞り値850をF5に設定した場合が例として示されている。また、設定された絞り値850に対応する再構成画像801が撮影アシスト画面800に表示される。また、絞り値850に応じた合焦範囲860が撮影アシスト画面800に示される。図11においては、合焦範囲860が矢印を用いて示されている。   As shown in FIG. 11, an aperture value 850 is displayed on the photographing assist screen 800. Here, a case where the aperture value 850 is set to F5 is shown as an example. In addition, a reconstructed image 801 corresponding to the set aperture value 850 is displayed on the photographing assist screen 800. Further, a focusing range 860 corresponding to the aperture value 850 is shown on the photographing assist screen 800. In FIG. 11, the focus range 860 is shown using arrows.

図11に示す場合においては、リフォーカス面805の合焦範囲860内に被写体811と被写体812とが位置している。また、リフォーカス面804の近傍に被写体810が位置している。従って、被写体810〜812のいずれにピントが合うように再構成画像を生成する場合であっても良好な再構成画像が得られることを、ユーザが容易に把握することができる。
このように、絞り値850に応じた合焦範囲860を撮影アシスト画面800に表示するようにしてもよい。
In the case shown in FIG. 11, the subject 811 and the subject 812 are located within the focusing range 860 of the refocus plane 805. A subject 810 is located near the refocus plane 804. Therefore, the user can easily grasp that a good reconstructed image can be obtained even when the reconstructed image is generated so that any of the subjects 810 to 812 is in focus.
As described above, the focusing range 860 corresponding to the aperture value 850 may be displayed on the photographing assist screen 800.

[第3実施形態]
第3実施形態による撮像装置及び撮像方法について図12を用いて説明する。図1乃至図11に示す第1又は第2実施形態による撮像装置及び撮像方法と同一の構成要素には、同一の符号を付して説明を省略または簡潔にする。
[Third Embodiment]
An imaging apparatus and an imaging method according to the third embodiment will be described with reference to FIG. The same components as those of the imaging apparatus and imaging method according to the first or second embodiment shown in FIGS. 1 to 11 are denoted by the same reference numerals, and description thereof will be omitted or simplified.

図12は、本実施形態による撮像装置における撮影アシスト画面800を示す図である。図12に示すように、本実施形態では、再構成画像801における各々の被写体810〜812の合焦度合いを示す図形880〜882が撮影アシスト画面800に表示される。ここでは、リフォーカス面803にピントが合うように再構成画像801を生成した場合の合焦度合いが示されている。合焦度合いを示す図形880〜882は、点線を用いて示されている。点線の長さが長いほど、合焦度合いが高い。リフォーカス面803を模式的に示す図形803′は、太い実線を用いて示されている。被写体810〜812をそれぞれ模式的に示す図形810′〜812′も、撮影アシスト画面800に表示される。被写体を模式的に示す図形810′〜812′は、被写体810〜812に関連付けられている。各々の被写体810〜812の合焦度合いは、リフォーカス面803と各々の被写体810〜812との間の距離に基づいて、例えばシステム制御部50によって算出される。   FIG. 12 is a diagram showing a photographing assist screen 800 in the imaging apparatus according to the present embodiment. As shown in FIG. 12, in this embodiment, graphics 880 to 882 indicating the degree of focus of each of the subjects 810 to 812 in the reconstructed image 801 are displayed on the photographing assist screen 800. Here, the degree of focus when the reconstructed image 801 is generated so that the refocus plane 803 is in focus is shown. The figures 880 to 882 indicating the degree of focus are shown using dotted lines. The longer the dotted line is, the higher the degree of focusing. A figure 803 ′ schematically showing the refocus plane 803 is indicated by a thick solid line. Graphics 810 ′ to 812 ′ schematically showing the subjects 810 to 812 are also displayed on the photographing assist screen 800. Figures 810 ′ to 812 ′ schematically showing the subject are associated with the subjects 810 to 812. For example, the system control unit 50 calculates the degree of focus of each of the subjects 810 to 812 based on the distance between the refocus plane 803 and each of the subjects 810 to 812.

このように、各々の被写体810〜812の合焦度合いを示す図形880〜882を撮影アシスト画面800に表示するようにすれば、再構成画像801において各々の被写体810〜812がどの程度合焦するかをユーザが容易に把握することができる。
このように、各々の被写体810〜812の合焦度合いを示す図形880〜882を撮影アシスト画面800に表示するようにしてもよい。
In this way, when the figures 880 to 882 indicating the degree of focus of the respective subjects 810 to 812 are displayed on the photographing assist screen 800, how much the respective subjects 810 to 812 are in focus in the reconstructed image 801. The user can easily grasp this.
As described above, the graphics 880 to 882 indicating the degree of focus of each of the subjects 810 to 812 may be displayed on the photographing assist screen 800.

なお、ここでは、リフォーカス面803にピントが合うように再構成画像801を生成した場合の合焦度合いを示したが、これに限定されるものではない。他のリフォーカス面804、805にピントが合うように再構成画像801を生成する際の各々の被写体810〜812の合焦度合いも、上記と同様にして表示することが可能である。また、リフォーカス面803〜805の選択は、ユーザが操作部70を操作することによって行うことが可能である。   Here, the focus level when the reconstructed image 801 is generated so that the refocus plane 803 is in focus is shown, but the present invention is not limited to this. The degree of focus of each of the subjects 810 to 812 when the reconstructed image 801 is generated so that the other refocus planes 804 and 805 are focused can be displayed in the same manner as described above. The refocus planes 803 to 805 can be selected by operating the operation unit 70 by the user.

以上、本発明の実施形態について説明したが、本発明はこれらの実施形態に限定されるものではない。
例えば、上記実施形態を適宜組み合わせるようにしてもよい。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
As mentioned above, although embodiment of this invention was described, this invention is not limited to these embodiment.
For example, you may make it combine the said embodiment suitably.
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

13…D/A変換器
15…メモリ制御部
18…I/F
22…撮像部
23…A/D変換器
24…画像処理部
28…表示部
30…電源部
32…メモリ
35…圧縮・伸張処理部
36…タッチパネル
50…システム制御部
56…不揮発性メモリ
60…モード切替スイッチ
61…シャッターボタン
62…シャッタースイッチ
70…操作部
72…電源スイッチ
80…電源制御部
101…シャッター
102…マイクロレンズアレイ
103…撮影レンズ
104…測距センサ
150…レンズユニット
200…記録媒体
13 ... D / A converter 15 ... memory control unit 18 ... I / F
22 ... Imaging unit 23 ... A / D converter 24 ... Image processing unit 28 ... Display unit 30 ... Power supply unit 32 ... Memory 35 ... Compression / decompression processing unit 36 ... Touch panel 50 ... System control unit 56 ... Non-volatile memory 60 ... Mode Switch 61 ... Shutter button 62 ... Shutter switch 70 ... Operation unit 72 ... Power switch 80 ... Power control unit 101 ... Shutter 102 ... Microlens array 103 ... Shooting lens 104 ... Distance sensor 150 ... Lens unit 200 ... Recording medium

Claims (14)

焦点位置が再調整された再構成画像を生成することが可能な画像データを取得する撮像手段と、
前記焦点位置が再調整された前記再構成画像を前記画像データから生成する再構成手段と、
被写体までの距離を検出する検出手段と、
前記被写体までの前記距離と、所定のリフォーカス面の位置とに基づいて、前記被写体と前記所定のリフォーカス面との位置関係を示す画面を表示手段に表示させ、又は、リフォーカス面と前記被写体との間の距離に基づいて、前記再構成画像における前記被写体の合焦度合いを示す画面を前記表示手段に表示させる制御手段と
を有することを特徴とする撮像装置。
Imaging means for acquiring image data capable of generating a reconstructed image with the focus position readjusted;
Reconstructing means for generating the reconstructed image with the focus position readjusted from the image data;
Detection means for detecting the distance to the subject;
Based on the distance to the subject and the position of the predetermined refocus surface, a screen showing a positional relationship between the subject and the predetermined refocus surface is displayed on the display means, or the refocus surface and the An imaging apparatus comprising: control means for causing the display means to display a screen indicating a degree of focus of the subject in the reconstructed image based on a distance to the subject.
前記被写体と前記所定のリフォーカス面との前記位置関係を示す前記画面は、前記被写体を模式的に示す第1の図形と、前記所定のリフォーカス面を模式的に示す第2の図形とを含む
ことを特徴とする請求項1に記載の撮像装置。
The screen showing the positional relationship between the subject and the predetermined refocus plane includes a first graphic schematically showing the subject and a second graphic schematically showing the predetermined refocus surface. The imaging apparatus according to claim 1, further comprising:
前記被写体の前記合焦度合いを示す前記画面は、前記被写体を模式的に示す第1の図形と、前記被写体の前記合焦度合いを示す第3の図形とを含む
ことを特徴とする請求項1に記載の撮像装置。
The screen showing the degree of focus of the subject includes a first figure schematically showing the subject and a third figure showing the degree of focus of the subject. The imaging device described in 1.
前記第1の図形に対しての操作が行われた際には、前記制御手段は、前記操作の対象となった前記第1の図形に関連付けられた被写体像を前記再構成画像において目立たせるための表示を行う
ことを特徴とする請求項2又は3に記載の撮像装置。
When the operation is performed on the first graphic, the control unit makes the subject image associated with the first graphic that is the target of the operation stand out in the reconstructed image. The image pickup apparatus according to claim 2, wherein display is performed.
前記表示手段に配されたタッチパネルを更に有し、
前記第1の図形に対しての前記操作は、前記タッチパネルへのタッチによって行われる
ことを特徴とする請求項4に記載の撮像装置。
A touch panel disposed on the display means;
The imaging apparatus according to claim 4, wherein the operation on the first graphic is performed by touching the touch panel.
前記被写体像を前記再構成画像において目立たせるための前記表示は、前記被写体像を囲むように枠を表示することによって行われる
ことを特徴とする請求項4又は5に記載の撮像装置。
The imaging apparatus according to claim 4, wherein the display for making the subject image stand out in the reconstructed image is performed by displaying a frame so as to surround the subject image.
前記制御手段は、絞り値に応じた合焦範囲を示す図形を前記画面に更に表示する
ことを特徴とする請求項1から6のいずれか1項に記載の撮像装置。
The imaging device according to any one of claims 1 to 6, wherein the control unit further displays a figure indicating an in-focus range according to an aperture value on the screen.
前記撮像手段は、複数の光電変換部をそれぞれ含む複数の単位画素が行列状に配された画素アレイと、前記画素アレイの上方に配され、複数のマイクロレンズを含み、1つの前記マイクロレンズが1つの前記単位画素に対応するように配されたマイクロレンズアレイとを含み、
前記再構成手段は、前記単位画素に含まれる前記複数の光電変換部からそれぞれ出力される複数の画素値を重み付け加算する際に用いられる重み付け係数を調整することによって前記絞り値を調整する
ことを特徴とする請求項7に記載の撮像装置。
The imaging means includes a pixel array in which a plurality of unit pixels each including a plurality of photoelectric conversion units are arranged in a matrix, a plurality of microlenses arranged above the pixel array, and one microlens A microlens array arranged to correspond to one unit pixel,
The reconfiguring means adjusts the aperture value by adjusting a weighting coefficient used when weighted addition of a plurality of pixel values respectively output from the plurality of photoelectric conversion units included in the unit pixel. The imaging apparatus according to claim 7, wherein the imaging apparatus is characterized.
前記被写体と前記所定のリフォーカス面との間の前記距離を示す情報を前記画面に更に表示する
ことを特徴とする請求項1から8のいずれか1項に記載の撮像装置。
9. The imaging apparatus according to claim 1, wherein information indicating the distance between the subject and the predetermined refocus plane is further displayed on the screen.
撮像装置を模式的に示す第4の図形を前記画面に更に表示する
ことを特徴とする請求項1から9のいずれか1項に記載の撮像装置。
The 4th figure which shows an imaging device typically is further displayed on the screen. An imaging device given in any 1 paragraph of Claims 1-9 characterized by things.
前記所定のリフォーカス面における前記再構成画像を生成するために必要とされる情報を記憶する記憶手段を更に有する
ことを特徴とする請求項1から10のいずれか1項に記載の撮像装置。
The imaging apparatus according to any one of claims 1 to 10, further comprising a storage unit that stores information required to generate the reconstructed image on the predetermined refocus plane.
前記撮像手段は、複数の光電変換部をそれぞれ含む複数の単位画素が行列状に配された画素アレイと、前記画素アレイの上方に配され、複数のマイクロレンズを含み、1つの前記マイクロレンズが1つの前記単位画素に対応するように配されたマイクロレンズアレイとを含み、
前記再構成手段は、前記単位画素に含まれる前記複数の光電変換部からそれぞれ出力される複数の画素値を重み付け加算することによって前記再構成画像を生成し、
前記所定のリフォーカス面における前記再構成画像を生成するために必要とされる前記情報は、前記重み付け加算に用いられる重み付け係数を含む
ことを特徴とする請求項11記載の撮像装置。
The imaging means includes a pixel array in which a plurality of unit pixels each including a plurality of photoelectric conversion units are arranged in a matrix, a plurality of microlenses arranged above the pixel array, and one microlens A microlens array arranged to correspond to one unit pixel,
The reconstruction unit generates the reconstructed image by weighted addition of a plurality of pixel values respectively output from the plurality of photoelectric conversion units included in the unit pixel,
The imaging apparatus according to claim 11, wherein the information necessary for generating the reconstructed image on the predetermined refocus plane includes a weighting coefficient used for the weighted addition.
被写体までの距離を検出するステップと、
前記被写体までの前記距離と、所定のリフォーカス面の位置とに基づいて、前記被写体と前記所定のリフォーカス面との位置関係を示す画面を表示する、又は、リフォーカス面と前記被写体との間の距離に基づいて、再構成画像における前記被写体の合焦度合いを示す画面を表示するステップと
を有することを特徴とする撮像方法。
Detecting the distance to the subject;
Based on the distance to the subject and the position of the predetermined refocus plane, a screen showing a positional relationship between the subject and the predetermined refocus plane is displayed, or between the refocus plane and the subject And a step of displaying a screen showing the degree of focus of the subject in the reconstructed image based on the distance between them.
コンピュータに、
被写体までの距離を検出するステップと、
前記被写体までの前記距離と、所定のリフォーカス面の位置とに基づいて、前記被写体と前記所定のリフォーカス面との位置関係を示す画面を表示する、又は、リフォーカス面と前記被写体との間の距離に基づいて、再構成画像における前記被写体の合焦度合いを示す画面を表示するステップと
を実行させるためのプログラム。
On the computer,
Detecting the distance to the subject;
Based on the distance to the subject and the position of the predetermined refocus plane, a screen showing a positional relationship between the subject and the predetermined refocus plane is displayed, or between the refocus plane and the subject And a step of displaying a screen indicating the degree of focus of the subject in the reconstructed image based on the distance between the two.
JP2015215862A 2015-11-02 2015-11-02 Imaging apparatus and imaging method Active JP6592330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015215862A JP6592330B2 (en) 2015-11-02 2015-11-02 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015215862A JP6592330B2 (en) 2015-11-02 2015-11-02 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2017092529A true JP2017092529A (en) 2017-05-25
JP6592330B2 JP6592330B2 (en) 2019-10-16

Family

ID=58768992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015215862A Active JP6592330B2 (en) 2015-11-02 2015-11-02 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP6592330B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197824A (en) * 2013-03-05 2014-10-16 キヤノン株式会社 Image processing apparatus, image capturing apparatus, image processing method, and program
JP2015026880A (en) * 2013-07-24 2015-02-05 株式会社ニコン Imaging apparatus
JP2015056693A (en) * 2013-09-10 2015-03-23 キヤノン株式会社 Reproduction device, reproduction device control method, and program
JP2015154254A (en) * 2014-02-14 2015-08-24 株式会社ニコン Electronic apparatus and control program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197824A (en) * 2013-03-05 2014-10-16 キヤノン株式会社 Image processing apparatus, image capturing apparatus, image processing method, and program
JP2015026880A (en) * 2013-07-24 2015-02-05 株式会社ニコン Imaging apparatus
JP2015056693A (en) * 2013-09-10 2015-03-23 キヤノン株式会社 Reproduction device, reproduction device control method, and program
JP2015154254A (en) * 2014-02-14 2015-08-24 株式会社ニコン Electronic apparatus and control program

Also Published As

Publication number Publication date
JP6592330B2 (en) 2019-10-16

Similar Documents

Publication Publication Date Title
US10021309B2 (en) Image recording apparatus and image reproducing apparatus
US20150185434A1 (en) Image pickup apparatus, control method thereof, and program
US9819857B2 (en) Electronic apparatus, control method for the same, and image capturing apparatus
CN107040718B (en) Display control apparatus and control method thereof
JP2014078826A (en) Imaging apparatus, control method therefor, control program, and recording medium
JP6312460B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6431429B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2013205781A (en) Imaging apparatus
JP6592330B2 (en) Imaging apparatus and imaging method
JP6712506B2 (en) Focus detection device and focus detection method
JP6082223B2 (en) Imaging apparatus, control method thereof, and program
JP2019087923A (en) Imaging apparatus, imaging method, and program
US10382740B2 (en) Image processing apparatus, method for controlling the same, and image capture apparatus
JP2016134686A (en) Imaging apparatus and imaging method
JP6720037B2 (en) Image processing device, imaging device, image processing method, and image processing program
JP6395156B2 (en) Imaging apparatus and imaging method
JP2013247478A (en) Image pickup device, control method and program thereof, and recording medium
JP5853510B2 (en) Imaging device
US20220321752A1 (en) Imaging device and diaphragm mechanism control method
JP6298494B2 (en) Image reproducing apparatus and control method thereof
JP6144880B2 (en) Display device, display method, and imaging device including the display device
JP2014102400A (en) Imaging apparatus and method for controlling imaging apparatus
JP2013090240A (en) Imaging device and control program of the same
JP2019191439A (en) Imaging device
JP2019047380A (en) Image processing apparatus and image processing apparatus control method

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20171214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190920

R151 Written notification of patent or utility model registration

Ref document number: 6592330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151