JP2018005008A - Camera body and interchangeable lens - Google Patents

Camera body and interchangeable lens Download PDF

Info

Publication number
JP2018005008A
JP2018005008A JP2016132797A JP2016132797A JP2018005008A JP 2018005008 A JP2018005008 A JP 2018005008A JP 2016132797 A JP2016132797 A JP 2016132797A JP 2016132797 A JP2016132797 A JP 2016132797A JP 2018005008 A JP2018005008 A JP 2018005008A
Authority
JP
Japan
Prior art keywords
camera body
imaging
image
range
focus detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016132797A
Other languages
Japanese (ja)
Inventor
尚也 杉本
Hisaya Sugimoto
尚也 杉本
前田 敏彰
Toshiaki Maeda
敏彰 前田
朗 木下
Akira Kinoshita
朗 木下
昭彦 小濱
Akihiko Kohama
昭彦 小濱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2016132797A priority Critical patent/JP2018005008A/en
Publication of JP2018005008A publication Critical patent/JP2018005008A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which conventionally, when a picture-taking lens is changed, a range capable of focus detection has been unknown.SOLUTION: A camera body comprises: a mounting unit to which an interchangeable lens is mounted; an image pick-up element that has a plurality of focus detection-purpose pixels receiving light passing through the interchangeable lens to output a focus detection signal; a reception unit that receives information on an optical property from he interchangeable lens; a focus detection unit that detects a focusing state of the interchangeable lens by means of the focus detection signal output from the image pick-up element; and a setting unit that sets a range for detecting the focusing state from the optical property of the interchangeable lens and information about the focus detection-purpose pixel.SELECTED DRAWING: Figure 1

Description

本発明は、カメラボディおよび交換レンズに関する。   The present invention relates to a camera body and an interchangeable lens.

従来から、焦点検出用の画素を有する撮像素子を用いたカメラが知られている(たとえば特許文献1)。従来は、撮影レンズが変更されると焦点検出が可能な範囲がわからないという問題があった。   2. Description of the Related Art Conventionally, a camera using an image sensor having a focus detection pixel is known (for example, Patent Document 1). Conventionally, when the photographing lens is changed, there is a problem that the range in which focus detection is possible is not known.

特開2015−43026号公報Japanese Unexamined Patent Publication No. 2015-43026

第1の態様によると、カメラボディは、交換レンズが装着される装着部と、前記交換レンズを通過した光を受光して焦点検出信号を出力する複数の焦点検出用画素を有する撮像素子と、前記交換レンズから光学特性の情報を受信する受信部と、前記撮像素子から出力された焦点検出信号により前記交換レンズの合焦状態を検出する焦点検出部と、前記交換レンズの光学特性と前記焦点検出用画素に関する情報とから合焦状態を検出する範囲を設定する設定部と、を備える。
第2の態様によると、交換レンズは、撮像素子を有するカメラボディが装着される装着部と、撮像光学系の射出瞳に関する情報を記憶する記憶部と、前記カメラボディから、前記撮像素子が有する焦点検出用画素に関する情報を受信する受信部と、前記撮像光学系の射出瞳に関する情報と前記焦点検出用画素に関する情報とから合焦状態を検出する範囲を設定する設定部と、前記設定部により設定された前記範囲に関する情報を前記カメラボディに送信する送信部と、を備える。
According to the first aspect, the camera body includes a mounting portion on which the interchangeable lens is mounted, an imaging element having a plurality of focus detection pixels that receive light that has passed through the interchangeable lens and output a focus detection signal; A receiving unit that receives information on optical characteristics from the interchangeable lens, a focus detection unit that detects the in-focus state of the interchangeable lens based on a focus detection signal output from the imaging device, and the optical characteristics and the focus of the interchangeable lens A setting unit that sets a range in which the in-focus state is detected from the information related to the detection pixels.
According to the second aspect, the interchangeable lens is included in the imaging element from the mounting unit to which the camera body having the imaging element is mounted, the storage unit that stores information on the exit pupil of the imaging optical system, and the camera body. A receiving unit that receives information related to focus detection pixels, a setting unit that sets a range for detecting a focus state from information related to the exit pupil of the imaging optical system and information related to the focus detection pixels, and the setting unit. A transmission unit configured to transmit information regarding the set range to the camera body.

本発明の実施の形態による撮像装置の構成を説明する横断面図である。It is a cross-sectional view explaining the structure of the imaging device by embodiment of this invention. 実施の形態による撮像素子の制御系の要部構成を説明するブロック図である。It is a block diagram explaining the principal part structure of the control system of the image pick-up element by embodiment. 撮像素子を説明する図である。It is a figure explaining an image sensor. 撮像画素が設けられた位置とケラレとの関係を説明する模式図である。It is a schematic diagram explaining the relationship between the position where an imaging pixel was provided, and vignetting. 撮像面上に設定される撮像範囲を説明する模式図である。It is a schematic diagram explaining the imaging range set on an imaging surface. 被写体と部分範囲ごとのデフォーカス量との関係を説明する模式図である。It is a schematic diagram explaining the relationship between a to-be-photographed object and the defocus amount for every partial range. ぼかし効果が施された画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image to which the blurring effect was given. ぼかし効果の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of the blurring effect. 静止画データを生成する場合における動作を説明するフローチャートである。It is a flowchart explaining the operation | movement in the case of producing | generating still image data. 動画データを生成する場合における動作を説明するフローチャートである。It is a flowchart explaining the operation | movement in the case of producing | generating moving image data. ぼかし効果を施す際の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement at the time of giving a blurring effect. ぼかし効果を施す際の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement at the time of giving a blurring effect. 第2および第3の実施の形態による交換レンズの制御系の要部構成を説明するブロック図である。It is a block diagram explaining the principal part structure of the control system of the interchangeable lens by 2nd and 3rd embodiment.

−第1の実施の形態−
図面を参照しながら、本実施の形態による交換レンズと、当該交換レンズを備えるカメラボディについて説明する。
図1は実施の形態による交換レンズ300を装着したカメラボディ200からなるデジタルカメラ100の構成を説明する横断面図である。なお、説明の都合上、x軸、y軸、z軸からなる座標系を図示の通りに設定する。
-First embodiment-
An interchangeable lens according to the present embodiment and a camera body including the interchangeable lens will be described with reference to the drawings.
FIG. 1 is a cross-sectional view illustrating a configuration of a digital camera 100 including a camera body 200 to which an interchangeable lens 300 according to an embodiment is attached. For convenience of explanation, a coordinate system including an x-axis, a y-axis, and a z-axis is set as illustrated.

デジタルカメラ100は、カメラボディ200と交換レンズ300とにより構成され、交換レンズ300はマウント部(不図示)を介して装着される、いわゆるミラーレスカメラである。カメラボディ200には、マウント部を介して種々の撮像光学系を有する交換レンズ300が装着可能である。上記のマウント部には電気接点201、202が設けられ、カメラボディ200と交換レンズ300とが結合された時には、電気接点201および202を介して電気的な接続が確立される。   The digital camera 100 includes a camera body 200 and an interchangeable lens 300, and the interchangeable lens 300 is a so-called mirrorless camera that is mounted via a mount (not shown). An interchangeable lens 300 having various imaging optical systems can be attached to the camera body 200 via a mount portion. The mount part is provided with electrical contacts 201 and 202. When the camera body 200 and the interchangeable lens 300 are coupled, an electrical connection is established through the electrical contacts 201 and 202.

交換レンズ300は、撮像光学系1と、駆動機構3と、レンズデータ部4と、レンズ制御部7とを備えている。撮像光学系1は、被写体像を撮像素子8の撮像面上に結像させるための光学系であり、焦点調節レンズを含む複数のレンズによって構成されている。レンズ制御部7は、CPU、ROM、RAMなどを有し、制御プログラムに基づいて、交換レンズ300の各構成要素を制御したり、各種のデータ処理を実行したりする演算回路である。レンズ制御部7は、電気接点201および202を介して、カメラボディ200との間で種々の情報を送受信する。駆動機構3は、レンズ制御部7により制御され、電気接点201を介してカメラボディ200側から入力したレンズ駆動量に応じて撮像光学系1を構成する焦点調節レンズを光軸Lの方向(z軸方向)に沿って合焦位置へ駆動する。レンズデータ部4は、たとえば不揮発性の記録媒体により構成され、交換レンズ300に関連する各種のレンズ情報、たとえば撮像光学系1の射出瞳の位置や明るさ(開放F値)等が格納されている。   The interchangeable lens 300 includes an imaging optical system 1, a drive mechanism 3, a lens data unit 4, and a lens control unit 7. The imaging optical system 1 is an optical system for forming a subject image on the imaging surface of the imaging element 8 and is composed of a plurality of lenses including a focus adjustment lens. The lens control unit 7 includes a CPU, a ROM, a RAM, and the like, and is an arithmetic circuit that controls each component of the interchangeable lens 300 and executes various data processing based on a control program. The lens control unit 7 transmits / receives various information to / from the camera body 200 via the electrical contacts 201 and 202. The drive mechanism 3 is controlled by the lens control unit 7, and moves the focus adjustment lens constituting the imaging optical system 1 in the direction of the optical axis L (z) according to the lens drive amount input from the camera body 200 side via the electrical contact 201. Drive to the in-focus position along the axial direction. The lens data unit 4 is configured by, for example, a non-volatile recording medium, and stores various lens information related to the interchangeable lens 300, for example, the position and brightness (open F value) of the exit pupil of the imaging optical system 1 and the like. Yes.

カメラボディ200内部には、制御部5と、撮像素子制御回路6と、撮像素子8と、電子ビューファインダ(EVF)9と、接眼レンズ10とが設けられている。カメラボディ200には操作部11が設けられている。カメラボディ200の背面には液晶モニタ17が設けられている。撮像素子8には、CCDやCMOS等の撮像画素がxy平面上において二次元状(行と列)に配置される。撮像素子8の撮像画素には、それぞれR(赤)、G(緑)、B(青)のカラーフィルタが設けられている。撮像素子8は、撮像光学系1を介して入射される光束を受光して被写体像を撮像して、撮像信号を撮像素子制御回路6に出力する。撮像信号は、画像データ生成用の信号(画像信号)として、また、焦点検出用の信号(焦点検出用信号)として使用される。撮像素子8がカラーフィルタを通して被写体像を撮像するため、撮像素子8の撮像画素から出力される撮像信号はRGB表色系の色情報を有する。なお、撮像素子8については、詳細を後述する。   Inside the camera body 200, a control unit 5, an image sensor control circuit 6, an image sensor 8, an electronic viewfinder (EVF) 9, and an eyepiece 10 are provided. The camera body 200 is provided with an operation unit 11. A liquid crystal monitor 17 is provided on the back of the camera body 200. In the imaging element 8, imaging pixels such as a CCD and a CMOS are two-dimensionally arranged (rows and columns) on the xy plane. The imaging pixels of the imaging device 8 are provided with R (red), G (green), and B (blue) color filters, respectively. The image sensor 8 receives a light beam incident through the imaging optical system 1 to capture a subject image, and outputs an image signal to the image sensor control circuit 6. The imaging signal is used as a signal for generating image data (image signal) and a signal for focus detection (focus detection signal). Since the image pickup device 8 picks up a subject image through the color filter, the image pickup signal output from the image pickup pixel of the image pickup device 8 has color information of the RGB color system. Details of the image sensor 8 will be described later.

電子ビューファインダ9は、制御部5により生成された表示画像データに対応する画像の表示を行う。また、電子ビューファインダ9は、撮像条件に関連する各種情報(シャッタ速度、絞り値、ISO感度など)の表示を行う。電子ビューファインダ9に表示された画像や各種情報は、接眼レンズ10を介してユーザにより観察される。
背面モニタ17は、たとえば液晶モニタ等の表示部であり、制御部5により生成された表示画像データに対応する画像の表示を行う。また、背面モニタ17は、撮像条件に関連する各種情報(シャッタ速度、絞り値、ISO感度など)の表示を行う。
The electronic viewfinder 9 displays an image corresponding to the display image data generated by the control unit 5. The electronic viewfinder 9 displays various information (shutter speed, aperture value, ISO sensitivity, etc.) related to the imaging conditions. The image and various information displayed on the electronic viewfinder 9 are observed by the user through the eyepiece 10.
The rear monitor 17 is a display unit such as a liquid crystal monitor, for example, and displays an image corresponding to the display image data generated by the control unit 5. Further, the rear monitor 17 displays various information (shutter speed, aperture value, ISO sensitivity, etc.) related to the imaging conditions.

操作部11はユーザによって操作される種々の操作部材に対応して設けられた種々のスイッチを含み、操作部材の操作に応じた操作信号を制御部5へ出力する。操作部材は、たとえばレリーズボタンや、カメラボディ200の背面に設けられた背面モニタ17にメニュー画面を表示させるためのメニューボタンや、各種の設定等を選択操作する時に操作される十字キー、十字キーにより選択された設定等を決定するための決定ボタン、撮影モードと再生モードとの間でデジタルカメラ100の動作を切替える動作モード切替ボタン、露出モードを設定する露出モード切替ボタン等を含む。   The operation unit 11 includes various switches provided corresponding to various operation members operated by the user, and outputs an operation signal corresponding to the operation of the operation member to the control unit 5. The operation member is, for example, a release button, a menu button for displaying a menu screen on the rear monitor 17 provided on the rear surface of the camera body 200, a cross key or a cross key operated when selecting and operating various settings, and the like. A determination button for determining the setting selected by the button, an operation mode switching button for switching the operation of the digital camera 100 between the shooting mode and the playback mode, an exposure mode switching button for setting the exposure mode, and the like.

さらに、図2に示すブロック図を用いて、カメラボディ200の制御系について説明する。図2に示すようにカメラボディ200は、A/D変換部12と、画像処理回路13と、焦点検出演算回路14と、ボディ−レンズ通信部15と、マップ作成部16と、メモリ18とを有している。制御部5は、CPU、ROM、RAMなどを有し、制御プログラムに基づいて、カメラボディ200と、カメラボディ200に装着された交換レンズ300とが有する各構成要素を制御したり、各種のデータ処理を実行したりする演算回路である。制御プログラムは、制御部5内の不図示の不揮発性メモリに格納されている。制御部5は、算出部(設定部)51を機能として備える。算出部(設定部)51は、後述する焦点検出演算回路14による焦点状態(合焦状態)の検出精度が所定の閾値以上となる撮像素子8の撮像面上の範囲を、撮像範囲として算出(設定)する。なお、算出部51の詳細については、説明を後述する。   Furthermore, the control system of the camera body 200 will be described with reference to the block diagram shown in FIG. As shown in FIG. 2, the camera body 200 includes an A / D conversion unit 12, an image processing circuit 13, a focus detection calculation circuit 14, a body-lens communication unit 15, a map creation unit 16, and a memory 18. Have. The control unit 5 includes a CPU, a ROM, a RAM, and the like, and controls each component included in the camera body 200 and the interchangeable lens 300 attached to the camera body 200 based on a control program, and various data. An arithmetic circuit that executes processing. The control program is stored in a nonvolatile memory (not shown) in the control unit 5. The control unit 5 includes a calculation unit (setting unit) 51 as a function. The calculation unit (setting unit) 51 calculates, as an imaging range, a range on the imaging surface of the imaging element 8 in which the detection accuracy of a focus state (focus state) by a focus detection calculation circuit 14 described later is equal to or greater than a predetermined threshold ( Set). The details of the calculation unit 51 will be described later.

撮像素子制御回路6は、制御部5によって制御され、撮像素子8およびA/D変換部12の駆動を制御して、撮像素子8に電荷蓄積および撮像信号の読み出し等を行わせる。A/D変換部12は、撮像素子8から出力されたアナログの撮像信号をデジタルに変換する。画像処理回路13は、撮像素子8から出力された撮像信号を画像信号として用い、画像信号に対して種々の画像処理を施して画像データを生成した後、付加情報等を付与して画像ファイルを生成する。画像処理回路13は、生成した画像ファイルをメモリカード等の記録媒体19に記録する。画像処理回路13は、生成した画像データや記録媒体19に記録されている画像データに基づいて、電子ビューファインダ9や背面モニタ17に表示するための表示画像データを生成する。   The image sensor control circuit 6 is controlled by the control unit 5 and controls the driving of the image sensor 8 and the A / D converter 12 to cause the image sensor 8 to perform charge accumulation, image signal readout, and the like. The A / D converter 12 converts the analog imaging signal output from the imaging device 8 into digital. The image processing circuit 13 uses the image signal output from the image sensor 8 as an image signal, performs various image processing on the image signal to generate image data, and then adds additional information and the like to generate an image file. Generate. The image processing circuit 13 records the generated image file on a recording medium 19 such as a memory card. The image processing circuit 13 generates display image data to be displayed on the electronic viewfinder 9 and the rear monitor 17 based on the generated image data and the image data recorded on the recording medium 19.

焦点検出演算回路14は、撮像素子8から出力された撮像信号を焦点検出用信号として使用して、公知の位相差検出方式を用いてデフォーカス量を算出する。ボディ−レンズ通信部15は、制御部5に制御され、電気接点201、202を介して交換レンズ300内のレンズ制御部7と通信を行い、カメラ情報(デフォーカス量や絞り値など)の送信やレンズ情報の受信を行う。マップ作成部16は、焦点検出演算回路14による焦点検出演算の結果を用いて、撮影された画像上でのデフォーカ量の分布を示すデフォーカスマップを作成する。メモリ18は、たとえば不揮発性の記録媒体により構成され、撮像素子8に関連する各種の情報、たとえば撮像素子8の撮像面の大きさや、撮像素子8に設けられた複数の撮像画素80(図3参照)の位置や、撮像画素80が有するマイクロレンズ81(図3参照)の特性等が格納されている。記憶媒体19は、たとえばメモリカード等の不揮発性の記憶媒体であり、画像処理回路13により生成された画像ファイルを記憶する。   The focus detection calculation circuit 14 uses the imaging signal output from the imaging device 8 as a focus detection signal and calculates a defocus amount using a known phase difference detection method. The body-lens communication unit 15 is controlled by the control unit 5 and communicates with the lens control unit 7 in the interchangeable lens 300 via the electrical contacts 201 and 202 to transmit camera information (defocus amount, aperture value, etc.). And lens information. The map creation unit 16 creates a defocus map indicating the distribution of the defocus amount on the captured image using the result of the focus detection calculation by the focus detection calculation circuit 14. The memory 18 is configured by, for example, a non-volatile recording medium, and various types of information related to the image sensor 8, for example, the size of the image pickup surface of the image sensor 8 and a plurality of image pickup pixels 80 (see FIG. 3) provided in the image sensor 8. Reference) position, characteristics of the microlens 81 (see FIG. 3) of the imaging pixel 80, and the like. The storage medium 19 is a non-volatile storage medium such as a memory card, and stores an image file generated by the image processing circuit 13.

次に、本実施の形態における撮像素子8について詳細に説明する。
図3(a)は撮像素子8の中心部を含む一部の領域を模式的に示す平面図であり、図3(b)は1つの撮像画素80の断面を模式的に示す図である。なお、図3においても、x軸、y軸、z軸からなる座標系を、図1に示す例と同様にして設定する。撮像素子8は、複数の撮像画素80が行方向(x方向)と列方向(y方向)とに二次元配列される。撮像画素80の各画素位置には、たとえばベイヤー配列の規則に従って上述したカラーフィルタ(R:赤色フィルタ、G:緑色フィルタ、B:青色フィルタ)が設けられる。図3(a)においては、撮像画素80に配置されたカラーフィルタの色を、「R」、「G」または「B」と表記して模式的に表す。なお、焦点検出領域に設けられた撮像画素80はカラーフィルタを備えていなくても良い。
Next, the image sensor 8 in the present embodiment will be described in detail.
FIG. 3A is a plan view schematically showing a part of the region including the central portion of the image sensor 8, and FIG. 3B is a diagram schematically showing a cross section of one image pickup pixel 80. Also in FIG. 3, a coordinate system including the x-axis, y-axis, and z-axis is set in the same manner as in the example shown in FIG. In the imaging element 8, a plurality of imaging pixels 80 are two-dimensionally arranged in a row direction (x direction) and a column direction (y direction). The color filters (R: red filter, G: green filter, B: blue filter) described above are provided at each pixel position of the imaging pixel 80 according to, for example, the rules of the Bayer array. In FIG. 3A, the color of the color filter arranged in the imaging pixel 80 is schematically expressed as “R”, “G”, or “B”. Note that the imaging pixel 80 provided in the focus detection area may not include a color filter.

撮像画素80は、マイクロレンズ81と、1つのマイクロレンズ81の下に設けられた第1光電変換部82および第2光電変換部83とによって構成される。第1光電変換部82と第2光電変換部83とは、x方向に並んで設けられる。図3に示す例では、第1光電変換部82はx方向+側、第2光電変換部83はx方向−側に設けられる。第1光電変換部82および第2光電変換部83には、それぞれ撮像光学系1の異なる領域を介して入射された光が入射する。すなわち、焦点検出演算回路14が位相差検出演算に用いる一対の被写体光束が入射する。   The imaging pixel 80 includes a microlens 81 and a first photoelectric conversion unit 82 and a second photoelectric conversion unit 83 provided under one microlens 81. The first photoelectric conversion unit 82 and the second photoelectric conversion unit 83 are provided side by side in the x direction. In the example illustrated in FIG. 3, the first photoelectric conversion unit 82 is provided on the x direction + side, and the second photoelectric conversion unit 83 is provided on the x direction − side. Light incident through the different regions of the imaging optical system 1 is incident on the first photoelectric conversion unit 82 and the second photoelectric conversion unit 83. That is, a pair of subject light beams used by the focus detection calculation circuit 14 for phase difference detection calculation are incident.

上述したように、撮像画素80には、R、GまたはBの何れかのカラーフィルタが設けられている。このため、撮像画素80が設けられる位置に応じて、出力される第1撮像信号および第2撮像信号は緑、赤または青の色情報からなる。本実施の形態では、焦点検出演算回路14は、緑、赤または青のうち何れか一色の色情報からなる、第1光電変換部82から出力された第1撮像信号を順次並べた第1信号列{an}と、第2光電変換部83から出力された第2撮像信号を順次並べた第2信号列{bn}との相対的な像ズレ量を検出することによって、撮像光学系1の焦点調節状態、すなわちデフォーカス量を検出する。
なお、画像処理回路13は、撮像画素80の第1光電変換部82からの第1撮像信号と第2光電変換部83からの第2撮像信号とが加算された信号を画像信号として使用して、画像データを生成する。
As described above, the imaging pixel 80 is provided with any one of R, G, and B color filters. For this reason, according to the position where the imaging pixel 80 is provided, the output first imaging signal and second imaging signal are composed of color information of green, red, or blue. In the present embodiment, the focus detection calculation circuit 14 is a first signal obtained by sequentially arranging the first imaging signals output from the first photoelectric conversion unit 82, which are color information of one of green, red, and blue. By detecting the relative image shift amount between the sequence {an} and the second signal sequence {bn} in which the second imaging signals output from the second photoelectric conversion unit 83 are sequentially arranged, the imaging optical system 1 The focus adjustment state, that is, the defocus amount is detected.
Note that the image processing circuit 13 uses a signal obtained by adding the first imaging signal from the first photoelectric conversion unit 82 of the imaging pixel 80 and the second imaging signal from the second photoelectric conversion unit 83 as an image signal. , Generate image data.

図4を用いて、撮像画素80の配置位置と、撮像光学系1の射出瞳領域を通過する被写体光のケラレとの関係について説明する。図4は、マイクロレンズ81による第1光電変換部82、第2光電変換部83の投影位置とは異なる位置に射出瞳が位置する交換レンズ300が装着された場合を示す。また、撮像光学系1の光軸近傍に配置された撮像画素80−1と、撮像素子8の撮像面の周辺部、すなわち光軸からの距離が大きい、いわゆる高い像高の位置に配置された撮像画素80−2とを代表して示す。   The relationship between the arrangement position of the imaging pixel 80 and the vignetting of the subject light passing through the exit pupil region of the imaging optical system 1 will be described with reference to FIG. FIG. 4 shows a case where the interchangeable lens 300 having the exit pupil located at a position different from the projection positions of the first photoelectric conversion unit 82 and the second photoelectric conversion unit 83 by the microlens 81 is attached. In addition, the imaging pixel 80-1 disposed in the vicinity of the optical axis of the imaging optical system 1 and the peripheral portion of the imaging surface of the imaging element 8, that is, a position at a so-called high image height that is large from the optical axis. The imaging pixel 80-2 is shown as a representative.

光軸近傍に配置された撮像画素80−1では、被写体からの光束のうち、撮像光学系1の一対の射出瞳領域841を通過した光束861が第1光電変換部82−1に入射する。撮像光学系1の一対の射出瞳領域851を通過した光束871は、撮像画素80−1の第2光電変換部83−1に入射する。図示のように、撮像画素80−1は撮像光学系1の光軸近傍に配置されているので、光束861および871は、交換レンズ300やカメラボディ200の構造等によりケラレることなく第1光電変換部82−1および第2光電変換部83−1に入射する。   In the imaging pixel 80-1 disposed in the vicinity of the optical axis, the light beam 861 that has passed through the pair of exit pupil regions 841 of the imaging optical system 1 is incident on the first photoelectric conversion unit 82-1. The light beam 871 that has passed through the pair of exit pupil regions 851 of the imaging optical system 1 enters the second photoelectric conversion unit 83-1 of the imaging pixel 80-1. As shown in the drawing, since the imaging pixel 80-1 is disposed in the vicinity of the optical axis of the imaging optical system 1, the light beams 861 and 871 are not vignetted by the structure of the interchangeable lens 300, the camera body 200, or the like. The light enters the conversion unit 82-1 and the second photoelectric conversion unit 83-1.

高い像高の位置に配置された撮像画素80−2では、撮像光学系1の一対の射出瞳領域841を通過した光束862が第1光電変換部82−2に入射する。撮像光学系1の一対の射出瞳領域851を通過した光束872は、一部が撮像画素80−2の第2光電変換部83−2に入射する。すなわち、高い像高の位置に配置された撮像画素80−2では、第2光電変換部83−2に入射する光の量が、第1光電変換部82−2に入射する光の量よりも少ない。このため、第1光電変換部82−2から出力された第1撮像信号に基づく第1信号列{an}と、第2光電変換部83−2から出力された第2撮像信号に基づく第2信号列{bn}とを用いて算出されたデフォーカス量の精度が低下する。すなわち、焦点状態の検出精度が低下する。   In the imaging pixel 80-2 arranged at a high image height position, the light beam 862 that has passed through the pair of exit pupil regions 841 of the imaging optical system 1 enters the first photoelectric conversion unit 82-2. A part of the light beam 872 that has passed through the pair of exit pupil regions 851 of the imaging optical system 1 is incident on the second photoelectric conversion unit 83-2 of the imaging pixel 80-2. That is, in the imaging pixel 80-2 disposed at a high image height position, the amount of light incident on the second photoelectric conversion unit 83-2 is larger than the amount of light incident on the first photoelectric conversion unit 82-2. Few. Therefore, the first signal sequence {an} based on the first imaging signal output from the first photoelectric conversion unit 82-2 and the second signal based on the second imaging signal output from the second photoelectric conversion unit 83-2. The accuracy of the defocus amount calculated using the signal sequence {bn} is lowered. That is, the focus state detection accuracy decreases.

本実施の形態では、射出瞳の位置が異なる交換レンズ300が装着された場合や、ズームレンズのように射出瞳の位置が変化する場合に、焦点状態の検出精度が低下しない領域に含まれる撮像画素80からの撮像信号を用いて、焦点検出演算および画像データの生成を行う。
制御部5の算出部51は、撮像素子8の撮像面のうち、ケラレによる影響が少ない光束が入射する範囲を撮像範囲として算出する。算出部51は、メモリ18に記憶された撮像画素80に関する情報と、交換レンズ300から、ボディ−レンズ通信部15を介して受信した撮像光学系1に関する情報とに基づいて撮像範囲を算出する。撮像画素80に関する情報は、マイクロレンズ81による第1光電変換部82、第2光電変換部83の投影位置と、各撮像画素80の撮像面上での位置の情報とを含む。撮像光学系1に関する情報は、撮像光学系1の射出瞳の位置の情報を含む。
In the present embodiment, when an interchangeable lens 300 having a different exit pupil position is attached, or when the exit pupil position changes like a zoom lens, imaging included in a region where the focus state detection accuracy does not decrease. A focus detection calculation and generation of image data are performed using the imaging signal from the pixel 80.
The calculation unit 51 of the control unit 5 calculates, as an imaging range, a range in which a light beam that is less affected by vignetting is incident on the imaging surface of the imaging element 8. The calculation unit 51 calculates an imaging range based on information related to the imaging pixel 80 stored in the memory 18 and information related to the imaging optical system 1 received from the interchangeable lens 300 via the body-lens communication unit 15. The information regarding the imaging pixel 80 includes projection positions of the first photoelectric conversion unit 82 and the second photoelectric conversion unit 83 by the microlens 81 and information on the position of each imaging pixel 80 on the imaging surface. Information regarding the imaging optical system 1 includes information on the position of the exit pupil of the imaging optical system 1.

算出部51は、たとえばマイクロレンズ81による第1光電変換部82、第2光電変換部83の投影位置と、撮像光学系1の射出瞳の位置とが重複していな範囲Δを算出する。算出部51は、算出した重複していない範囲Δに基づいて、ケラレの影響を受けていない光束が入射する撮像画素80の撮像面上での範囲(以下、有効範囲91(図5(a)参照))を算出し、有効範囲91に含まれる所定の範囲を撮像範囲92(図5(a)参照)として設定する。算出部51は、算出した有効範囲91の内部に撮像範囲92を設定する。   For example, the calculation unit 51 calculates a range Δ in which the projection positions of the first photoelectric conversion unit 82 and the second photoelectric conversion unit 83 by the microlens 81 and the position of the exit pupil of the imaging optical system 1 do not overlap. Based on the calculated non-overlapping range Δ, the calculation unit 51 determines the range (hereinafter referred to as an effective range 91 (FIG. 5A) on the imaging surface of the imaging pixel 80 into which the luminous flux not affected by vignetting is incident. Reference))) is calculated, and a predetermined range included in the effective range 91 is set as the imaging range 92 (see FIG. 5A). The calculation unit 51 sets the imaging range 92 inside the calculated effective range 91.

図5に、撮像素子8の全撮像範囲90と、有効範囲91と、撮像範囲92との関係を模式的に示す。図5(a)に示すように、算出部51は、有効範囲91に内接する矩形形状の範囲を撮像範囲92に設定する。算出部51は、撮像範囲92の長辺と短辺との比率を、たとえば3:2に設定する。なお、撮像範囲92の長辺と短辺との比率は3:2に限定されるものではなく、任意の比率に設定して良い。   FIG. 5 schematically shows the relationship among the entire imaging range 90, the effective range 91, and the imaging range 92 of the imaging device 8. As illustrated in FIG. 5A, the calculation unit 51 sets a rectangular range inscribed in the effective range 91 as the imaging range 92. The calculation unit 51 sets the ratio of the long side to the short side of the imaging range 92, for example, 3: 2. Note that the ratio of the long side to the short side of the imaging range 92 is not limited to 3: 2, but may be set to an arbitrary ratio.

算出部51は、撮像面上における撮像画素80の位置の情報を参照して、撮像面上の各撮像画素80が撮像範囲92内に位置するか否かを判定する。算出部51は、撮像範囲92に含まれる撮像画素80を、焦点検出演算に使用し、画像データを生成するための撮像画素80として選択する。   The calculation unit 51 refers to information on the position of the imaging pixel 80 on the imaging surface and determines whether or not each imaging pixel 80 on the imaging surface is located within the imaging range 92. The calculation unit 51 uses the imaging pixel 80 included in the imaging range 92 for the focus detection calculation and selects it as the imaging pixel 80 for generating image data.

撮像範囲92が算出されると、制御部5は、撮像素子制御回路6を介して、撮像素子8の撮像画素80から撮像信号を出力させる。出力された撮像信号のうち、撮像範囲92内の撮像画素80、すなわち算出部51により選択された撮像画素80からの撮像信号が、焦点検出演算や画像データの生成に使用される。焦点検出演算回路14は、撮像範囲92内の撮像画素80から出力された撮像信号を焦点検出信号として使用して、位相差検出方式により撮像光学系1の焦点状態を検出する。画像処理回路13は、撮像範囲92内の撮像画素80の第1光電変換部82から出力された第1撮像信号と第2光電変換部83から出力された第2撮像信号とが加算された画像信号に基づいて画像データを生成する。
なお、撮像素子制御回路6は、撮像素子8の撮像画素80のうち、撮像範囲92内の撮像画素80から撮像信号を出力させ、撮像範囲92の外部の撮像画素80からの撮像信号を出力させなくても良い。
When the imaging range 92 is calculated, the control unit 5 outputs an imaging signal from the imaging pixel 80 of the imaging element 8 via the imaging element control circuit 6. Among the output imaging signals, the imaging signals from the imaging pixels 80 in the imaging range 92, that is, the imaging pixels 80 selected by the calculation unit 51 are used for focus detection calculation and image data generation. The focus detection calculation circuit 14 detects the focus state of the imaging optical system 1 by the phase difference detection method using the imaging signal output from the imaging pixel 80 in the imaging range 92 as a focus detection signal. The image processing circuit 13 is an image obtained by adding the first imaging signal output from the first photoelectric conversion unit 82 of the imaging pixel 80 in the imaging range 92 and the second imaging signal output from the second photoelectric conversion unit 83. Image data is generated based on the signal.
Note that the image sensor control circuit 6 outputs an imaging signal from the imaging pixels 80 within the imaging range 92 among the imaging pixels 80 of the imaging element 8 and outputs an imaging signal from the imaging pixels 80 outside the imaging range 92. It is not necessary.

焦点検出演算回路14は、図5(b)に示すように、撮像範囲92を分割して複数の部分範囲93を設定する。なお、図5(b)では、撮像範囲92を3×4の部分範囲93に分割した例を示すが、部分範囲93の個数はこの例に限定されるものではない。焦点検出演算回路14は、部分範囲93に含まれる撮像画素80のうち緑、赤または青のうち何れか一色の色情報からなる第1光電変換部82から出力された第1撮像信号を順次並べた第1信号列{an}と、第2光電変換部83から出力された第2撮像信号を順次並べた第2信号列{bn}との相対的な像ズレ量を検出することによって、部分範囲93ごとにデフォーカス量を算出する。焦点検出演算回路14は、デフォーカス量に基づいて算出した撮像光学系1の駆動量を算出し、駆動信号としてボディ−レンズ通信部15を介して交換レンズ300に送信する。交換レンズ300の駆動機構3は、受信した駆動信号に従って、フォーカスレンズを合焦位置に駆動させる。マップ作成部16は、焦点検出演算回路14により算出された部分範囲93ごとのデフォーカス量を用いて、撮像範囲92におけるデフォーカス量の分布を示すデフォーカスマップを作成する。   As shown in FIG. 5B, the focus detection calculation circuit 14 divides the imaging range 92 and sets a plurality of partial ranges 93. 5B shows an example in which the imaging range 92 is divided into 3 × 4 partial ranges 93, but the number of the partial ranges 93 is not limited to this example. The focus detection calculation circuit 14 sequentially arranges the first imaging signals output from the first photoelectric conversion unit 82 including color information of any one of green, red, and blue among the imaging pixels 80 included in the partial range 93. By detecting a relative image shift amount between the first signal sequence {an} and the second signal sequence {bn} in which the second imaging signals output from the second photoelectric conversion unit 83 are sequentially arranged. A defocus amount is calculated for each range 93. The focus detection calculation circuit 14 calculates the drive amount of the imaging optical system 1 calculated based on the defocus amount, and transmits it as a drive signal to the interchangeable lens 300 via the body-lens communication unit 15. The drive mechanism 3 of the interchangeable lens 300 drives the focus lens to the in-focus position according to the received drive signal. The map creation unit 16 creates a defocus map indicating the distribution of the defocus amount in the imaging range 92 using the defocus amount for each partial range 93 calculated by the focus detection calculation circuit 14.

画像処理回路13は、撮像範囲92内の撮像画素80から出力され、A/D変換回路12によりデジタル変換された撮像信号に対して種々の画像処理を施して、画像データを生成する。さらに、画像処理回路13は、マップ作成部16により生成されたデフォーカスマップを用いて、画像データに対して、デフォーカス量に基づいたぼかし処理を施す。   The image processing circuit 13 performs various image processing on the imaging signal output from the imaging pixel 80 within the imaging range 92 and digitally converted by the A / D conversion circuit 12 to generate image data. Furthermore, the image processing circuit 13 performs a blurring process based on the defocus amount on the image data using the defocus map generated by the map creating unit 16.

画像処理回路13は、部分範囲93ごとに算出されたデフォーカス量の値の絶対値に基づいて、ボケ効果の強調度合いを設定する。この場合、画像処理回路13は、公知の背景ボケ効果を得るための手法を用いて画像処理を行う際に、デフォーカス量の値の絶対値に基づいて設定された係数を用いてボケ効果の強調度合い、すなわちボケ量を設定する。   The image processing circuit 13 sets the degree of enhancement of the blur effect based on the absolute value of the defocus amount value calculated for each partial range 93. In this case, the image processing circuit 13 uses the coefficient set based on the absolute value of the defocus amount value when performing image processing using a known method for obtaining the background blur effect. Set the degree of emphasis, that is, the amount of blur.

本実施の形態においては、画像処理回路13が異なる種類のぼかし理を行うため、例えば以下のような各モードを備えている。
(1)デフォーカス量の増加に伴ってボケ効果を強調する(第1モード)
(2)ピントが合った被写体の前方と後方のボケ効果の強調度合いを制御する(第2モード)
(3)デフォーカス量に基づいて、特定の領域についてはボケ効果を制限する(第3モード)
(4)ピントを合わせる被写体を選択し、選択された被写体以外の領域にボケ効果を施す(第4モード)
以下、上記の第1〜第4モードごとに説明を行う。なお、各モードの選択は、ユーザにより行うことができる。この場合、ユーザは、たとえば背面モニタ17に表示されたメニュー画面等から、操作部11を操作することにより所望するモードを選択する。なお、ユーザは、上記の第1モード〜第4モードのうち1つを選択しても良いし、複数のモードを選択して、異なる種類のボケ効果が施された画像を画像処理回路13に生成させても良い。
In the present embodiment, since the image processing circuit 13 performs different types of blurring, for example, the following modes are provided.
(1) Emphasize the blur effect as the defocus amount increases (first mode)
(2) Control the degree of emphasis on the front and rear blur effects of the focused subject (second mode)
(3) Based on the defocus amount, the blur effect is limited for a specific area (third mode).
(4) Select a subject to be focused and apply a blur effect to an area other than the selected subject (fourth mode)
Hereinafter, description will be made for each of the first to fourth modes. Each mode can be selected by the user. In this case, the user selects a desired mode by operating the operation unit 11 from, for example, a menu screen displayed on the rear monitor 17. Note that the user may select one of the first mode to the fourth mode described above, or select a plurality of modes and input images with different types of blur effects to the image processing circuit 13. It may be generated.

<第1モード>
第1モードにおいては、上述したボケ量を設定するための係数は、デフォーカス量の値の絶対値の増加に伴って、ボケ効果がより強調されるように設定される。なお、ボケ効果の増減は、デフォーカス量の値の絶対値の増加に伴って連続的に増加しても良いし、所定の増加量ごとに段階的に増加しても良い。
これにより、デフォーカス量の値の絶対値が大きい部分範囲93に対応する範囲のボケ量が増加する。すなわち、画像処理回路13は、撮像光学系1の光学的な特性で得られるボケ効果よりもボケ効果が強調された画像データを生成する。このボケ効果が強調された画像データは、背面モニタ17によりライブビュー画像として表示される。
<First mode>
In the first mode, the coefficient for setting the blur amount described above is set so that the blur effect is more emphasized as the absolute value of the defocus amount value increases. Note that the increase / decrease in the blur effect may be continuously increased as the absolute value of the defocus amount is increased, or may be increased step by step for each predetermined increase amount.
As a result, the amount of blur in the range corresponding to the partial range 93 where the absolute value of the defocus amount is large increases. That is, the image processing circuit 13 generates image data in which the blur effect is emphasized more than the blur effect obtained from the optical characteristics of the imaging optical system 1. The image data in which the blur effect is emphasized is displayed as a live view image on the rear monitor 17.

図6を用いてぼかし処理を説明する。図6(a)は、撮像範囲92と、撮像範囲92内における被写体S1〜S4とを重畳して模式的に示す。被写体S1は、他の被写体S2〜S4と比較して、デジタルカメラ100からの距離が最短の場所に位置する。被写体S4は、他の被写体S1〜S3と比較して、デジタルカメラ100からの距離が最長の場所に位置する。被写体S2とS3とは、デジタルカメラ100からの距離が被写体S1とS4との間に位置する。すなわち、被写体S1〜S4は、この順序でデジタルカメラ100からの距離が増加するように位置するものとする。   The blurring process will be described with reference to FIG. FIG. 6A schematically shows the imaging range 92 and the subjects S1 to S4 in the imaging range 92 in a superimposed manner. The subject S1 is located at the shortest distance from the digital camera 100 as compared to the other subjects S2 to S4. The subject S4 is located at the place where the distance from the digital camera 100 is the longest compared to the other subjects S1 to S3. The subjects S2 and S3 are located between the subjects S1 and S4 at a distance from the digital camera 100. That is, the subjects S1 to S4 are positioned so that the distance from the digital camera 100 increases in this order.

図6(b)は、図6(a)の撮像範囲92を分割した複数の部分範囲93と被写体S1〜S4とを重畳して模式的に示す。図6(b)では、一例として、撮像範囲92を5×7の部分範囲93に分割した場合を示す。上述したように、被写体S1〜S4は、この順序でデジタルカメラ100からの距離が増加するように位置している。被写体S2にピントが合うようにした状態では、焦点検出演算回路14によって算出される各部分範囲93ごとのデフォーカス量は、被写体S1〜S4のそれぞれに対応する部分範囲93ごとに異なる。   FIG. 6B schematically shows a plurality of partial ranges 93 obtained by dividing the imaging range 92 of FIG. 6A and the subjects S1 to S4 in a superimposed manner. FIG. 6B shows a case where the imaging range 92 is divided into 5 × 7 partial ranges 93 as an example. As described above, the subjects S1 to S4 are positioned such that the distance from the digital camera 100 increases in this order. In a state in which the subject S2 is in focus, the defocus amount for each partial range 93 calculated by the focus detection calculation circuit 14 differs for each partial range 93 corresponding to each of the subjects S1 to S4.

図6(c)には、各被写体S1〜S4にそれぞれ対応する部分範囲93におけるデフォーカス量の値の一例を示す。なお、図6(c)において、被写体S1に対応する複数の部分範囲93を纏めて部分範囲群95−1、被写体S2に対応する複数の部分範囲93を纏めて部分範囲群95−2、被写体S3に対応する複数の部分範囲93を纏めて部分範囲群95−3、被写体S4に対応する複数の部分範囲93を纏めて部分範囲群95−4と呼ぶ。なお、以下の説明において、部分範囲群を総称する場合には、符号95を付与する。デジタルカメラ100から最至近に位置する被写体S1からの光が入射する部分範囲93ではデフォーカス量の値は、たとえば−D1となる。デジタルカメラ100からの距離が、被写体S2よりも遠い被写体S3からの光が入射する部分範囲93では、デフォーカス量の値は、D2となる。被写体S4からの光が入射する部分範囲93では、被写体S3の場合と比較して、デフォーカス量の値は、D3(>D2)となる。すなわち、部分範囲群95−1にはデフォーカス量の値が−D1の部分範囲93が含まれ、部分範囲群95−2にはデフォーカス量の値が0の部分範囲93が含まれ、部分範囲群95−3にはデフォーカス量の値がD2の部分範囲93が含まれ、部分範囲群95−4にはデフォーカス量の値がD3の部分範囲93が含まれる。   FIG. 6C shows an example of the defocus amount value in the partial range 93 corresponding to each of the subjects S1 to S4. In FIG. 6C, the partial range group 95-1 including a plurality of partial ranges 93 corresponding to the subject S1, and the partial range group 95-2 including a plurality of partial ranges 93 corresponding to the subject S2. A plurality of partial ranges 93 corresponding to S3 are collectively referred to as a partial range group 95-3, and a plurality of partial ranges 93 corresponding to the subject S4 are collectively referred to as a partial range group 95-4. In the following description, the reference numeral 95 is given to collectively refer to the partial range group. In the partial range 93 in which light from the subject S1 located closest to the digital camera 100 is incident, the value of the defocus amount is, for example, -D1. In the partial range 93 in which light from the subject S3 whose distance from the digital camera 100 is farther than the subject S2 is incident, the value of the defocus amount is D2. In the partial range 93 where the light from the subject S4 is incident, the defocus amount value is D3 (> D2) compared to the case of the subject S3. That is, the partial range group 95-1 includes a partial range 93 having a defocus amount value of −D1, and the partial range group 95-2 includes a partial range 93 having a defocus amount value of 0. The range group 95-3 includes a partial range 93 having a defocus amount value D2, and the partial range group 95-4 includes a partial range 93 having a defocus amount value D3.

図6(c)に示す例では、デフォーカス量の値の絶対値は、被写体S4に対応する部分範囲群95−4、被写体S1に対応する部分範囲群95−1、被写体S3に対応する部分範囲群95−3の順序で小さくなる。画像処理回路13は、被写体S4、被写体S1、被写体S3のそれぞれに対応する部分範囲群95−4、95−1、95−3ごとに、デフォーカス量の値の絶対値に応じて決まるボケ量でボケ効果を付与する。   In the example shown in FIG. 6C, the absolute value of the defocus amount value is the partial range group 95-4 corresponding to the subject S4, the partial range group 95-1 corresponding to the subject S1, and the portion corresponding to the subject S3. It becomes smaller in the order of the range group 95-3. The image processing circuit 13 determines the blur amount determined according to the absolute value of the defocus amount value for each of the partial range groups 95-4, 95-1, and 95-3 corresponding to the subject S4, the subject S1, and the subject S3. To add a blur effect.

図7に、被写体S1、S3、S4のそれぞれに対応する部分範囲群95−4、95−1、95−3にボケ効果が付与されて生成された画像データを模式的に示す。図7では、図示の都合上、ボケ効果の大きさに伴って、粗い斜線にて描く。被写体S1、S3、S4について、デフォーカス量の値の絶対値に基づいてボケ量が強調される。したがって、撮像光学系1の光学特性で得られるボケ効果よりもボケ効果の強調度を大きくすることができる。デフォーカス量の値の絶対値は、被写体S4で最大であるので、画像処理回路13によって施されるボケ量は、被写体S4に対応する部分範囲群95−4で、他の被写体S1、S3に対応する部分範囲群95−1、95−3と比較して大きくなる。   FIG. 7 schematically shows image data generated by applying the blur effect to the partial range groups 95-4, 95-1, and 95-3 corresponding to the subjects S1, S3, and S4, respectively. In FIG. 7, for the sake of illustration, a rough oblique line is drawn in accordance with the magnitude of the blur effect. For the subjects S1, S3, and S4, the blur amount is emphasized based on the absolute value of the defocus amount value. Therefore, the degree of enhancement of the blur effect can be made larger than the blur effect obtained from the optical characteristics of the imaging optical system 1. Since the absolute value of the defocus amount is the maximum for the subject S4, the amount of blur applied by the image processing circuit 13 is the partial range group 95-4 corresponding to the subject S4, and the other subjects S1 and S3. It becomes larger than the corresponding partial range groups 95-1 and 95-3.

<第2モード>
第2モードにおいては、上述したボケ量を設定するための係数は、必ずしもデフォーカス量の絶対値の増加に伴って、ボケ効果が強調度が大きくなるようには設定されない。たとえば、図6や図7で示す被写体S2よりも前方(デジタルカメラ100側)の被写体S1に対するボケ効果の強調度と、後方の被写体S3、S4に対するボケ効果の強調度とを異ならせる。一例として、撮像光学系1が有する収差の前後方向(光軸方向)の非対称性に類似したボケの度合いとなるように、画像処理回路13は、ボケ効果の強調度、すなわちボケ量を設定するための係数を設定する。この場合、画像処理回路13は、前方の被写体S1に対するボケ量が小さくなるように係数を設定し、後方の被写体S3、S4に対するボケ量が大きくなるように係数を設定する。画像処理回路13は、交換レンズ300からボディ−レンズ通信部15を介して受信した撮像光学系1に関する情報に含まれる収差に関する情報に基づいて、前方の被写体S1に対する係数と、後方の被写体S3、S4に対する係数とを設定する。撮像光学系1の収差と、デフォーカス量と、係数との関係は、予め試験等を行った結果に基づいて対応付けされたデータとして、メモリ18に記憶されている。画像処理回路13は、このデータを参照して、各被写体S1、S3、S4のそれぞれに対して係数を設定する。なお、ピントが合った被写体S2の近傍でボケ効果の線形性が崩れることを防ぐために、前方の被写体S1と後方の被写体S3、S4との間のボケ量の差が所定量以下となるように係数が設定されることが好ましい。
<Second mode>
In the second mode, the above-described coefficient for setting the blur amount is not necessarily set so that the degree of enhancement of the blur effect increases as the absolute value of the defocus amount increases. For example, the degree of enhancement of the blur effect on the subject S1 ahead (on the digital camera 100 side) of the subject S2 shown in FIGS. 6 and 7 is different from the degree of enhancement of the blur effect on the subjects S3 and S4 behind. As an example, the image processing circuit 13 sets the degree of enhancement of the blur effect, that is, the blur amount so that the degree of blur is similar to the asymmetry of the aberration of the imaging optical system 1 in the front-rear direction (optical axis direction). Set the coefficient for. In this case, the image processing circuit 13 sets a coefficient so that the blur amount for the front subject S1 is small, and sets the coefficient so that the blur amount for the rear subjects S3 and S4 is large. The image processing circuit 13 determines the coefficient for the front subject S1, the rear subject S3, based on the information about aberration included in the information about the imaging optical system 1 received from the interchangeable lens 300 via the body-lens communication unit 15. A coefficient for S4 is set. The relationship between the aberration of the imaging optical system 1, the defocus amount, and the coefficient is stored in the memory 18 as data associated based on the result of a test or the like performed in advance. The image processing circuit 13 refers to this data and sets a coefficient for each of the subjects S1, S3, and S4. In order to prevent the linearity of the blur effect from being lost in the vicinity of the in-focus subject S2, the difference in blur amount between the front subject S1 and the rear subjects S3 and S4 is set to a predetermined amount or less. It is preferable that a coefficient is set.

画像処理回路13は、各被写体に対応する部分範囲群95ごとに、設定した係数に基づいたボケ量にてボケ効果を付与して、画像データを生成する。これにより、第1モードにて生成された被写体S1に対するボケ効果と比較して、第2モードで生成された被写体S1のボケ効果は小さくなる。また、第1モードにて生成された被写体S3、S4に対するボケ効果と比較して、第2モードで生成された被写体S3、S4のボケ効果は大きくなる。   The image processing circuit 13 generates image data by applying a blur effect with a blur amount based on the set coefficient for each partial range group 95 corresponding to each subject. Accordingly, the blur effect of the subject S1 generated in the second mode is smaller than the blur effect on the subject S1 generated in the first mode. In addition, the blur effect of the subjects S3 and S4 generated in the second mode is larger than the blur effect of the subjects S3 and S4 generated in the first mode.

<第3モード>
第3モードにおいては、撮像範囲92のうちの所定のデフォーカス量の領域に対してはボケ効果を付与せず、他のデフォーカス量の領域に対してボケ効果を付与する。たとえば、画像処理回路13は、撮像範囲92内で、公知の顔認識処理を用いて検出した人物の顔に対応する領域に対してはボケ効果を付与せず、顔以外の領域(例えば髪の毛や背景)に対してボケ効果を付与するようにする。この場合、画像処理回路13は、顔の全領域にピントが合った状態となるようにするため、たとえばF値が8の場合の深度に相当し、顔以外の領域にはF値が2.8の場合の深度に相当するようなボケ量となるように係数を設定する。なお、深度とは、ピントが合っているとみなせる距離範囲である。また、上記のF値は一例であり、この値に限定されるものではない。
<Third mode>
In the third mode, the blur effect is not applied to a predetermined defocus amount region in the imaging range 92, and the blur effect is applied to other defocus amount regions. For example, the image processing circuit 13 does not give the blur effect to the area corresponding to the face of the person detected using the known face recognition process within the imaging range 92, and the area other than the face (for example, hair or A blur effect is applied to (background). In this case, the image processing circuit 13 corresponds to the depth when the F value is 8, for example, so that the entire area of the face is in focus. The coefficient is set so that the blur amount corresponds to the depth in the case of 8. The depth is a distance range that can be regarded as being in focus. Moreover, said F value is an example and is not limited to this value.

なお、画像処理回路13は、検出した顔と同一の距離情報、すなわちデフォーカス量を有する顔以外の被写体(すなわち背景)に対してはボケ効果を付与するが、ピントが合っている顔との間でボケ具合が不自然とならないように、ボケ効果の強調度合いを他の背景の領域よりも小さくするとよい。また、人物の顔に対応する領域に対してボケ効果を付与しないものに限定されず、度合いを弱めたボケ効果を付与してもよい。また、人物の顔が検出されない場合には、画像処理回路13は、上述した第1モードによるぼかし処理によりボケ効果を付与してよい。   Note that the image processing circuit 13 gives a blur effect to a subject other than the face having the same distance information as the detected face, that is, a defocus amount (that is, the background), but with the face in focus. The degree of enhancement of the blur effect should be smaller than other background regions so that the blur condition does not become unnatural. Further, the present invention is not limited to the case where the blur effect is not given to the region corresponding to the person's face, and a blur effect with a reduced degree may be given. Further, when a human face is not detected, the image processing circuit 13 may give a blur effect by the blurring process in the first mode described above.

撮像範囲92内に複数の顔が検出された場合には、画像処理回路13は、それぞれの顔に対応する部分範囲群95の距離情報、すなわちデフォーカス量に応じて、ボケ効果を付与するか否かを決定する。複数の顔が深度内に含まれる場合には、画像処理回路13は、以下の(1)〜(3)の何れかのぼかし処理を行う。(1)〜(3)のぼかし処理のうちどの処理を行うかについては、ユーザが背面モニタ17に表示されたメニュー画面等から操作部11を操作することにより選択することができる。
(1)全ての顔に対してボケ効果を付与しない。
(2)最至近の顔に対してはボケ効果を付与せず、他の顔に対してはボケ効果を付与する。
(3)複数の顔に対応する人物のうち、デジタルカメラ100からの距離が最至近と最遠方との中間に位置する顔に対してボケ効果を付与せず、他の顔に対してはボケ効果を付与する。
When a plurality of faces are detected in the imaging range 92, the image processing circuit 13 gives the blur effect according to the distance information of the partial range group 95 corresponding to each face, that is, the defocus amount. Decide whether or not. When a plurality of faces are included in the depth, the image processing circuit 13 performs any one of the following blurring processes (1) to (3). Which of the blurring processes (1) to (3) is to be performed can be selected by the user operating the operation unit 11 from a menu screen or the like displayed on the rear monitor 17.
(1) No blur effect is given to all faces.
(2) The blur effect is not given to the closest face, and the blur effect is given to other faces.
(3) Among the persons corresponding to a plurality of faces, the blur effect is not given to the face located at the middle between the nearest and farthest distance from the digital camera 100, and the blur is not given to other faces. Gives an effect.

上記の(2)または(3)のぼかし処理を行う場合、画像処理回路13は、検出した顔のそれぞれに対応する部分範囲群95のデフォーカス量に基づいて、ボケ効果を付与しない顔を特定する。また、画像処理回路13は、(2)のぼかし処理を行う場合には、ボケ効果を付与する顔に対応する部分範囲群95のデフォーカス量に基づいて、第1モードと同様にしてボケ量、すなわち係数を設定する。(3)のぼかし処理を行う場合には、画像処理回路13は、ボケ効果を付与する顔に対応する部分範囲群95のデフォーカス量に基づいて、第1モードや第2モードと同様にしてボケ量を設定する。   When performing the blurring process (2) or (3) above, the image processing circuit 13 identifies a face to which no blur effect is to be applied based on the defocus amount of the partial range group 95 corresponding to each detected face. To do. Further, when performing the blurring process of (2), the image processing circuit 13 is based on the defocus amount of the partial range group 95 corresponding to the face to which the blur effect is applied, as in the first mode. That is, a coefficient is set. When performing the blurring process of (3), the image processing circuit 13 performs the same process as in the first mode or the second mode based on the defocus amount of the partial range group 95 corresponding to the face to which the blur effect is to be applied. Set the amount of blur.

検出された複数の顔の全てが深度内に含まれない場合には、画像処理回路13は、最至近の顔に対応する部分範囲群95にピントが合った状態となるように、撮像範囲92にボケ効果を付与する。すなわち、画像処理回路13は、最至近の顔と同一の深度内に含まれる顔に対応する部分範囲群95に対して、上述した(1)〜(3)の何れかのぼかし処理を行う。   When all of the detected plurality of faces are not included in the depth, the image processing circuit 13 captures the imaging range 92 so that the partial range group 95 corresponding to the closest face is in focus. Gives a blur effect. That is, the image processing circuit 13 performs the blurring process of any one of (1) to (3) described above on the partial range group 95 corresponding to the face included in the same depth as the closest face.

<第4モード>
第4モードでは、画像処理回路13は、撮像範囲92内の選択された複数の被写体に対してピントを合わせ、他の被写体にはボケ効果を施す。なお、以下では、撮像範囲92内の複数の被写体は深度内に含まれるものとして説明を行う。ユーザは、背面モニタ17に表示されたライブビュー画像を観察しながら、ピントを合わせたい複数の被写体を操作部11の操作によって選択する。なお、背面モニタ17がタッチパネルを備える場合には、ユーザは、表示されたライブビュー画像上で、所望する被写体に触れる操作(タッチ操作)を行うことにより被写体の選択を行うことができる。
<4th mode>
In the fourth mode, the image processing circuit 13 focuses on a plurality of selected subjects in the imaging range 92 and applies a blur effect to other subjects. In the following description, it is assumed that a plurality of subjects in the imaging range 92 are included in the depth. The user selects a plurality of subjects to be focused by operating the operation unit 11 while observing the live view image displayed on the rear monitor 17. When the rear monitor 17 includes a touch panel, the user can select a subject by performing an operation (touch operation) to touch a desired subject on the displayed live view image.

画像処理回路13は、ユーザにより選択された複数の被写体(以後、選択被写体と呼ぶ)のデフォーカス量に基づいて、生成する画像データの像面を設定する。すなわち、画像処理回路13は、光軸に直交する撮像素子8の撮像面とは異なる像面を画像データ上で擬似的に作り出す。以後、詳細に説明する。   The image processing circuit 13 sets the image plane of the image data to be generated based on the defocus amounts of a plurality of subjects selected by the user (hereinafter referred to as “selected subjects”). That is, the image processing circuit 13 artificially creates an image plane different from the imaging plane of the imaging element 8 orthogonal to the optical axis on the image data. Hereinafter, a detailed description will be given.

図6に示す被写体S1〜S4では、上述したように、被写体S1、S2、S3、S4の順序でデジタルカメラ100からの距離が離れる。被写体S1〜S4のうち、被写体S1とS2とが選択被写体として選択されたものとする。この場合、画像処理回路13は、選択被写体である被写体S1とS2とにピントがあるように画像データを生成する。   In the subjects S1 to S4 shown in FIG. 6, as described above, the distance from the digital camera 100 increases in the order of the subjects S1, S2, S3, and S4. It is assumed that the subjects S1 and S2 are selected as the selected subjects among the subjects S1 to S4. In this case, the image processing circuit 13 generates image data so that the subjects S1 and S2, which are the selected subjects, are in focus.

図8に、この場合の各被写体S1〜S4の光軸方向の位置関係と、各被写体S1〜S4の結像位置とを模式的に示す。上述したように、被写体S2にピントが合う状態の場合には、被写体S2は撮像素子8の撮像面P1上で像S2−1を結ぶ。他の被写体S1、S3、S4は、デジタルカメラ100からの距離に応じて、撮像面P1とは異なる位置に像S1−1、S3−1、S4−1をそれぞれ結ぶ。   FIG. 8 schematically shows the positional relationship in the optical axis direction of each of the subjects S1 to S4 and the imaging position of each of the subjects S1 to S4 in this case. As described above, when the subject S2 is in focus, the subject S2 forms the image S2-1 on the imaging surface P1 of the imaging element 8. Other subjects S1, S3, and S4 connect images S1-1, S3-1, and S4-1 to positions different from the imaging surface P1, respectively, according to the distance from the digital camera 100.

この状態において、被写体S1とS2とが選択被写体として選択されているので、画像処理回路13は、像S1−1とS2−1とを含む平面を像面P2となるように画像データを生成する。この場合、画像処理回路13は、被写体S1に対応する部分範囲群95−1にボケ効果を施さず、被写体S3とS4とに対応する部分範囲群95−3と95−4とにボケ効果を施す。このとき、画像処理回路13は、デフォーカスマップを参照して、被写体S3、S4に対応する部分範囲群95−3、94−4のデフォーカス量を像面P2を基準としたデフォーカス量に換算し、換算したデフォーカス量に基づいてボケ効果の強調度、すなわち係数を設定する。   In this state, since the subjects S1 and S2 are selected as the selected subjects, the image processing circuit 13 generates image data so that the plane including the images S1-1 and S2-1 becomes the image plane P2. . In this case, the image processing circuit 13 does not apply the blur effect to the partial range group 95-1 corresponding to the subject S1, but applies the blur effect to the partial range groups 95-3 and 95-4 corresponding to the subjects S3 and S4. Apply. At this time, the image processing circuit 13 refers to the defocus map, and sets the defocus amounts of the partial range groups 95-3 and 94-4 corresponding to the subjects S3 and S4 to the defocus amounts based on the image plane P2. After conversion, the degree of enhancement of the blur effect, that is, the coefficient is set based on the converted defocus amount.

なお、図8においては、像面P2を平面とした例を示したが、これに限定されず、像面P2は曲面であってもよい。また、ユーザの選択に従って、画像処理回路13は、像面P2を平面とするか曲面にするかを決定してもよい。
また、図8における像面P2に対する深度をユーザにより設定可能にしてもよい。この場合、制御部5は、設定された深度が得られるための絞り(不図示)の値を算出し、ボディ−レンズ通信部15を介して交換レンズ300のレンズ制御部7に絞りの駆動を制御させる。
また、ユーザの操作により選択被写体が選択されるものに限定されない。たとえば、画像処理回路13が、画像データにおいて主要被写体として認識した被写体を選択被写体として選択してもよい。この場合、画像処理回路13は、公知の顔認識処理を用いて認識した顔を選択被写体として選択してもよいし、認識した顔を有する人物を選択被写体として選択してもよい。
Although FIG. 8 shows an example in which the image plane P2 is a plane, the present invention is not limited to this, and the image plane P2 may be a curved surface. Further, according to the user's selection, the image processing circuit 13 may determine whether the image plane P2 is a flat surface or a curved surface.
Further, the depth with respect to the image plane P2 in FIG. 8 may be set by the user. In this case, the control unit 5 calculates a value of an aperture (not shown) for obtaining the set depth, and drives the aperture to the lens control unit 7 of the interchangeable lens 300 via the body-lens communication unit 15. Let me control.
Further, the present invention is not limited to the case where the selected subject is selected by a user operation. For example, the image processing circuit 13 may select the subject recognized as the main subject in the image data as the selected subject. In this case, the image processing circuit 13 may select a face recognized using a known face recognition process as a selected subject, or may select a person having a recognized face as a selected subject.

上記のようにして第1モード〜第4モードの少なくとも1つのモードに応じてボケ効果が施された画像データは、背面モニタ17によりライブビュー画像として表示される。なお、ボケ効果が施された画像データに対応するライブビュー画像と、ボケ効果が施されていない画像データに対応するライブビュー画像とが、所定の時間間隔ごとに交互に背面モニタ17に表示されてもよい。この場合、ボケ効果が施された画像データに対応するライブビュー画像は、ボケ効果が施されていることを示す指標や色等を重畳して表示されるとよい。または、ボケ効果が施された画像データに対応するライブビュー画像にエンボス処理を施して表示してもよい。   The image data on which the blur effect is applied according to at least one of the first mode to the fourth mode as described above is displayed as a live view image on the rear monitor 17. The live view image corresponding to the image data with the blur effect and the live view image corresponding to the image data without the blur effect are alternately displayed on the rear monitor 17 at predetermined time intervals. May be. In this case, the live view image corresponding to the image data to which the blur effect is applied may be displayed with an index, a color, or the like indicating that the blur effect is applied. Alternatively, the live view image corresponding to the image data on which the blur effect has been applied may be embossed and displayed.

静止画データを生成する場合には、ライブビュー画像が表示されているときに、ユーザによるレリーズボタンの全押し操作が行われると、制御部5は、交換レンズ300にフォーカスレンズを合焦位置に駆動させる。この状態で、焦点検出演算回路14によって算出されたデフォーカス量を用いて、マップ作成部16はデフォーカスマップを作成する。制御部5は、撮像素子制御回路6を介して撮像素子8に撮影動作を行わせる。   When generating still image data, when the user fully presses the release button while the live view image is displayed, the control unit 5 brings the focus lens to the in-focus position on the interchangeable lens 300. Drive. In this state, the map creation unit 16 creates a defocus map using the defocus amount calculated by the focus detection calculation circuit 14. The control unit 5 causes the image sensor 8 to perform a photographing operation via the image sensor control circuit 6.

撮像動作を行う際に、前処理として、制御部5は、ライブビュー画像を表示する際に生成されたデフォーカスマップに基づいて、複数の被写体S1〜S4が深度内に含まれるようにF値を算出して、交換レンズ300に対して絞りを駆動させる。算出したF値では全ての被写体S1〜S4が深度内に含まれない場合には、制御部5は撮像素子8に対してフォーカスブラケッティングにより撮影動作を行わせる。なお、制御部5は、ライブビュー画像を表示する際に生成されたデフォーカスマップに基づいてF値を算出して絞りを駆動させるものに限定されない。たとえば、制御部5は、デフォーカスマップを参照して、各被写体S1〜S4の撮影距離、すなわちデフォーカス量に応じた枚数分の画像データをフォーカスブラケッティングにより生成してもよい。この場合、F値を小さく設定した状態で、フォーカスブラケッティングにより生成する画像データの枚数を増加させることにより、分解能の高い画像データを生成させることが可能になる。   When performing the imaging operation, as preprocessing, the control unit 5 uses the F value so that a plurality of subjects S1 to S4 are included in the depth based on the defocus map generated when the live view image is displayed. And the diaphragm is driven with respect to the interchangeable lens 300. When all the subjects S1 to S4 are not included in the depth in the calculated F value, the control unit 5 causes the image sensor 8 to perform a shooting operation by focus bracketing. The control unit 5 is not limited to the one that calculates the F value based on the defocus map generated when the live view image is displayed and drives the diaphragm. For example, the control unit 5 may generate image data corresponding to the shooting distance of each of the subjects S1 to S4, that is, the number of defocus amounts by focus bracketing with reference to the defocus map. In this case, it is possible to generate image data with high resolution by increasing the number of image data generated by focus bracketing with the F value set small.

画像処理回路13は、撮影動作によって撮像素子8の撮像範囲92内の撮像画素80から出力された撮像信号を用いて、記録用の静止画データや動画データを生成する。この場合、画像処理回路13は、記録用の静止画データや動画データに対して、上述したボケ効果を施してもよいし、ボケ効果を施さなくても良い。ボケ効果を施さない場合には、画像処理回路13は、上述したボケ効果を施さない画像データを、撮影動作の際に生成されたデフォーカスマップと関連付けして記憶媒体19に記憶する。画像処理回路13は、静止画データと動画データとを再生する際に、デフォーカスマップを参照して画像データに対してぼかし処理を施して、ボケ効果が付与された静止画データや動画データを生成する。この場合も、ユーザによる設定に応じて、画像処理回路13は、上述した第1モード〜第4モードにてボケ効果が付与された静止画データや動画データを生成する。なお、再生時においては、第4モードにおいて絞りの制御を伴う深度の設定は行わない。   The image processing circuit 13 generates still image data and moving image data for recording using the imaging signal output from the imaging pixel 80 in the imaging range 92 of the imaging device 8 by the imaging operation. In this case, the image processing circuit 13 may perform the above-described blur effect on the still image data or moving image data for recording or may not perform the blur effect. When the blur effect is not applied, the image processing circuit 13 stores the image data not subjected to the blur effect described above in the storage medium 19 in association with the defocus map generated during the photographing operation. When the image processing circuit 13 reproduces still image data and moving image data, the image processing circuit 13 performs blurring processing on the image data with reference to the defocus map, and the still image data or moving image data to which the blur effect is given is performed. Generate. Also in this case, according to the setting by the user, the image processing circuit 13 generates still image data or moving image data to which the blur effect is added in the first mode to the fourth mode described above. At the time of reproduction, the depth setting with the aperture control is not performed in the fourth mode.

ボケ効果を施した記録用の静止画データや動画データを生成した場合には、画像処理回路13は、生成したボケ効果が付与された静止画データや動画データを、デフォーカスマップと関連付けて記憶媒体19に記憶する。また、撮影動作の際に生成したボケ効果が付与された静止画データや動画データに、デフォーカスマップに加えて、ボケ効果を付与する前の静止画データや動画データを関連付けて記憶媒体19に記憶してもよい。
なお、ボケ効果の強調度を、記録用の静止画データと、動画データおよびライブビュー画像との間で異ならせても良い。特に、ライブビュー画像の場合に、ボケ効果の強調度を、静止画データの場合と比べて大きくすると良い。背面モニタ17で観察されるライブビュー画像では、視認できる範囲が狭いので、ボケ効果の強調度を大きくすることにより、ユーザはボケ効果を把握しやすくする。
ボケ効果の強調の程度を、ユーザの操作に基づいて決定してもよい。この場合、ユーザは操作部11を操作してボケ効果の強調度を決定するパラメータを変更する。操作は背面モニタ17に表示されたメニュー画面から操作部11を介して行うようにしても良いし、専用の操作部材を設けてよい。
When recording still image data or moving image data for which a blur effect is applied is generated, the image processing circuit 13 stores the generated still image data or moving image data to which the blur effect is added in association with the defocus map. Store in the medium 19. Further, in addition to the defocus map, the still image data and moving image data before the blur effect is added to the storage medium 19 in association with the still image data and the moving image data to which the blur effect generated during the shooting operation is added. You may remember.
Note that the degree of enhancement of the blur effect may be different between still image data for recording, moving image data, and live view images. In particular, in the case of a live view image, the enhancement degree of the blur effect is preferably larger than that in the case of still image data. In the live view image observed on the rear monitor 17, the visible range is narrow, so that the user can easily grasp the blur effect by increasing the degree of enhancement of the blur effect.
The degree of enhancement of the blur effect may be determined based on a user operation. In this case, the user operates the operation unit 11 to change a parameter that determines the degree of enhancement of the blur effect. The operation may be performed from the menu screen displayed on the rear monitor 17 via the operation unit 11, or a dedicated operation member may be provided.

図9、図10に示すフローチャートを参照しながら、デジタルカメラ100の動作を説明する。図9は、静止画データを生成する場合の動作を説明するフローチャートであり、図10は動画データまたはライブビュー画像を生成する場合の動作を説明するフローチャートである。図9、図10のフローチャートに示す各処理は、制御部5でプログラムを実行して行われる。このプログラムは、メモリ(不図示)に格納されており、制御部5により起動されて、実行される。   The operation of the digital camera 100 will be described with reference to the flowcharts shown in FIGS. FIG. 9 is a flowchart for explaining an operation when generating still image data, and FIG. 10 is a flowchart for explaining an operation when generating moving image data or a live view image. Each process shown in the flowcharts of FIGS. 9 and 10 is performed by executing a program in the control unit 5. This program is stored in a memory (not shown), and is activated and executed by the control unit 5.

まず、図9のフローチャートに示す静止画データを生成する場合について説明する。ステップS1では、ボディ−レンズ通信部15を介して、交換レンズ300から、撮像光学系1に関する情報を受信してステップS2へ進む。ステップS2では、算出部51は、受信した撮像光学系1に関する情報の射出瞳の位置の情報と、マイクロレンズ81により第1光電変換部82、第2光電変換部83が投影される位置に関する情報とから、撮像素子8の撮像面上で射出瞳がケラレない撮像範囲92を算出する。撮像範囲92が算出されると、処理はステップS3へ進む。   First, the case where the still image data shown in the flowchart of FIG. 9 is generated will be described. In step S1, the information regarding the imaging optical system 1 is received from the interchangeable lens 300 via the body-lens communication part 15, and it progresses to step S2. In step S <b> 2, the calculation unit 51 receives information regarding the position of the exit pupil of the information related to the imaging optical system 1 and information regarding the positions where the first photoelectric conversion unit 82 and the second photoelectric conversion unit 83 are projected by the microlens 81. Thus, an imaging range 92 in which the exit pupil is not vignetted on the imaging surface of the imaging device 8 is calculated. When the imaging range 92 is calculated, the process proceeds to step S3.

ステップS3では、撮像素子制御回路6を介して、撮像素子8の撮像画素80から撮像信号を出力させてステップS4へ進む。ステップS4では、焦点検出演算回路14は撮像範囲92の撮像画素80から出力された撮像信号を焦点検出信号として使用して焦点検出演算を行い、デフォーカス量を算出する。マップ作成部16は、焦点検出演算回路14により算出されたデフォーカス量を用いて、デフォーカスマップを作成し、ステップS5へ進む。   In step S3, the imaging signal is output from the imaging pixel 80 of the imaging element 8 via the imaging element control circuit 6, and the process proceeds to step S4. In step S4, the focus detection calculation circuit 14 performs focus detection calculation using the imaging signal output from the imaging pixel 80 in the imaging range 92 as a focus detection signal, and calculates a defocus amount. The map creation unit 16 creates a defocus map using the defocus amount calculated by the focus detection calculation circuit 14, and proceeds to step S5.

ステップS5では、画像処理回路13は、撮像範囲92の内部の撮像画素80の第1光電変換部82からの第1撮像信号と第2光電変換部83からの第2撮像信号とが加算された画像信号を用いて画像データを生成し、ステップS3で作成されたデフォーカスマップを参照して、部分範囲群95−1、95−2、95−3、95−4ごとにボケ効果を施して、ステップS6へ進む。なお、ステップS5におけるボケ効果を付与するための動作については、詳細を後述する。ステップS6では、ステップS5で生成されたボケ効果が施された画像を電子ビューファインダ9や背面モニタ17にライブビュー画像として表示させてステップS7へ進む。   In step S5, the image processing circuit 13 adds the first imaging signal from the first photoelectric conversion unit 82 and the second imaging signal from the second photoelectric conversion unit 83 of the imaging pixel 80 inside the imaging range 92. Image data is generated using the image signal, and a blur effect is applied to each of the partial range groups 95-1, 95-2, 95-3, and 95-4 with reference to the defocus map created in step S3. The process proceeds to step S6. Details of the operation for providing the blur effect in step S5 will be described later. In step S6, the image with the blur effect generated in step S5 is displayed as a live view image on the electronic viewfinder 9 or the rear monitor 17, and the process proceeds to step S7.

ステップS7では、ユーザによりレリーズボタンが全押し操作されたか否かを判定する。ユーザによるレリーズボタンの全押し操作に応じて操作部11から操作信号が出力されると、ステップS7が肯定判定されてステップS8へ進む。ユーザによるレリーズボタンの全押し操作が行われず操作部11からの操作信号の出力が無い場合には、ステップS7が否定判定されてステップS1へ戻る。
なお、ステップS7が否定判定された場合には、ステップS1に戻るものに代えて、ステップS3に戻るようにしても良い。すなわち、既に算出した撮像範囲92を用いて、次フレーム以降の処理を行っても良い。ただし、異なる交換レンズ300が装着された場合や、ズームにより射出瞳の位置が変化した場合に、ステップS1に戻り、再度、射出瞳の位置を示す情報を取得して、撮像範囲92を算出する。
In step S7, it is determined whether or not the release button has been fully pressed by the user. When an operation signal is output from the operation unit 11 in response to the user fully pressing the release button, an affirmative determination is made in step S7 and the process proceeds to step S8. If the release button is not fully pressed by the user and no operation signal is output from the operation unit 11, a negative determination is made in step S7 and the process returns to step S1.
If a negative determination is made in step S7, the process may return to step S3 instead of returning to step S1. In other words, the processing after the next frame may be performed using the imaging range 92 already calculated. However, when a different interchangeable lens 300 is attached, or when the position of the exit pupil changes due to zooming, the process returns to step S1, and information indicating the position of the exit pupil is acquired again to calculate the imaging range 92. .

ステップS8では、焦点検出演算回路14は、デフォーカス量に基づいて算出した撮像光学系1の駆動量を算出し、駆動信号としてボディ−レンズ通信部15を介して交換レンズ300に送信する。交換レンズ300の駆動機構3は、受信した駆動信号に従って、フォーカスレンズを合焦位置に駆動させてステップS9へ進む。ステップS9では、焦点検出演算回路14は、撮像範囲92の撮像画素80から出力された撮像信号を焦点検出信号として使用して焦点検出演算を行い、デフォーカス量を算出する。マップ作成部16は、焦点検出演算回路14により算出されたデフォーカス量を用いて、デフォーカスマップを作成し、ステップS10へ進む。   In step S <b> 8, the focus detection calculation circuit 14 calculates the drive amount of the imaging optical system 1 calculated based on the defocus amount, and transmits it as a drive signal to the interchangeable lens 300 via the body-lens communication unit 15. The drive mechanism 3 of the interchangeable lens 300 drives the focus lens to the in-focus position according to the received drive signal, and proceeds to step S9. In step S9, the focus detection calculation circuit 14 performs focus detection calculation using the imaging signal output from the imaging pixel 80 in the imaging range 92 as a focus detection signal, and calculates the defocus amount. The map creation unit 16 creates a defocus map using the defocus amount calculated by the focus detection calculation circuit 14, and proceeds to step S10.

ステップS10では、撮像素子制御回路6を介して、撮像画素80から撮像信号を出力させて撮影動作を実行してステップS11へ進む。ステップS11では、画像処理回路13は、ステップS10で出力された撮像信号のうち撮像範囲92内の撮像画素80から出力された撮像信号を用いて画像データを生成する。画像処理回路13は、生成した画像データと、ステップS9で作成されたデフォーカスマップとを関連付けて、記憶媒体(不図示)に記憶してステップS12へ進む。ステップS12では、連写撮像中か否かを判定する。連写撮像中の場合には、ステップS12が肯定判定されてステップS8へ戻る。連写撮像中ではない場合には、ステップS12が否定判定されて処理を終了する。   In step S10, an imaging signal is output from the imaging pixel 80 via the imaging element control circuit 6, an imaging operation is executed, and the process proceeds to step S11. In step S11, the image processing circuit 13 generates image data using the imaging signal output from the imaging pixel 80 in the imaging range 92 among the imaging signals output in step S10. The image processing circuit 13 associates the generated image data with the defocus map created in step S9, stores it in a storage medium (not shown), and proceeds to step S12. In step S12, it is determined whether continuous shooting is being performed. When continuous shooting is being performed, an affirmative determination is made in step S12 and the process returns to step S8. If it is not during continuous shooting, a negative determination is made in step S12, and the process ends.

次に、図10のフローチャートに示す動画データまたはライブビュー画像を生成する場合について説明する。このフローチャートに示す処理は、ユーザにより操作部11が操作され、動画撮像が指示されると開始する。ステップS21(撮像光学系1に関する情報取得)からステップS26(ライブビュー画像表示)までの各処理は、図9のステップS1(撮像光学系1に関する情報取得)からステップS6(ライブビュー画像表示)までの各処理と同様である。   Next, a case where moving image data or a live view image shown in the flowchart of FIG. 10 is generated will be described. The processing shown in this flowchart starts when the user operates the operation unit 11 and gives an instruction to capture a moving image. Each processing from step S21 (information acquisition regarding the imaging optical system 1) to step S26 (live view image display) is from step S1 (information acquisition regarding the imaging optical system 1) to step S6 (live view image display) in FIG. This is the same as each process.

ステップS27では、画像処理回路13により生成された画像データと、デフォーカスマップとを関連付けて記憶媒体(不図示)に記憶してステップS28へ進む。ステップS28では、動画撮像を終了するか否かを判定する。動画撮像を終了する場合、すなわちユーザにより動画撮像終了のための操作が行われ、操作部11から操作信号が出力された場合には、ステップS28が肯定判定されてステップS29へ進む。動画撮像を継続する場合、すなわちユーザにより動画撮像終了のための操作が行われず操作部11から操作信号が出力されない場合には、ステップS28が否定判定されてステップS21へ戻る。ステップS29では、ライブビュー画像の表示を終了するか否かを判定する。ライブビュー画像の表示を継続する場合、すなわちユーザによりライブビュー画像の表示終了のための操作が行われず、操作部11から操作信号が出力されない場合には、ステップS28が否定判定されてステップS21へ戻る。ライブビュー画像の表示を終了する場合、すなわちユーザによりライブビュー画像の表示終了のための操作が行われ、操作部11から操作信号が出力された場合には、ステップS29が肯定判定されて処理を終了する。
なお、ステップS28、S29が否定判定された場合に、ステップS21に戻るものに代えて、ステップS23に戻ってもよい。すなわち、既に算出した撮像範囲92を用いて、次フレーム以降の処理を行っても良い。ただし、異なる交換レンズ300が装着された場合や、ズームにより射出瞳の位置が変化した場合に、ステップS21に戻り、再度、射出瞳の位置を示す情報を取得して、撮像範囲92を算出する。
In step S27, the image data generated by the image processing circuit 13 and the defocus map are associated and stored in a storage medium (not shown), and the process proceeds to step S28. In step S28, it is determined whether or not to finish moving image capturing. When ending moving image capturing, that is, when an operation for ending moving image capturing is performed by the user and an operation signal is output from the operation unit 11, an affirmative determination is made in step S28 and the process proceeds to step S29. When moving image capturing is to be continued, that is, when an operation for ending moving image capturing is not performed by the user and an operation signal is not output from the operation unit 11, a negative determination is made in step S28 and the process returns to step S21. In step S29, it is determined whether or not to end the display of the live view image. When the display of the live view image is continued, that is, when the user does not perform an operation for ending the display of the live view image and no operation signal is output from the operation unit 11, a negative determination is made in step S28 and the process proceeds to step S21. Return. When the display of the live view image is ended, that is, when an operation for the end of the display of the live view image is performed by the user and an operation signal is output from the operation unit 11, an affirmative determination is made in step S <b> 29. finish.
In addition, when negative determination is made at steps S28 and S29, the process may return to step S23 instead of the process returning to step S21. In other words, the processing after the next frame may be performed using the imaging range 92 already calculated. However, when a different interchangeable lens 300 is attached or when the position of the exit pupil changes due to zooming, the process returns to step S21, and information indicating the position of the exit pupil is acquired again to calculate the imaging range 92. .

図11、図12を参照して、図9のステップS5や図10のステップS25におけるボケ効果を付与する処理の一例について説明する。図11は、第2モードが設定されている場合の処理を示すフローチャートであり、図12は、第3モードが設定されている場合の処理を示すフローチャートである。   With reference to FIG. 11 and FIG. 12, an example of the process for providing the blur effect in step S5 of FIG. 9 and step S25 of FIG. 10 will be described. FIG. 11 is a flowchart showing processing when the second mode is set, and FIG. 12 is a flowchart showing processing when the third mode is set.

まず、図11を参照して、第2モードの場合の処理を説明する。
ステップS31では、交換レンズ300から撮像光学系1の収差に関する情報を取得してステップS32へ進む。ステップS32では、取得した収差に関する情報に基づいて、前方の被写体S1に対する係数と、後方の被写体S3、S4に対する係数とを設定してステップS33へ進む。ステップS33では、各部分画素群95ごとに、設定した係数に基づいたボケ量にてボケ効果を付与した画像データを生成して第2モードを終了する。
First, the process in the second mode will be described with reference to FIG.
In step S31, information regarding the aberration of the imaging optical system 1 is acquired from the interchangeable lens 300, and the process proceeds to step S32. In step S32, a coefficient for the front subject S1 and a coefficient for the rear subjects S3 and S4 are set based on the acquired information on the aberration, and the process proceeds to step S33. In step S33, for each partial pixel group 95, image data to which a blur effect is applied with a blur amount based on the set coefficient is generated, and the second mode is terminated.

次に、図12を参照して、第3モードの場合の処理を説明する。
ステップS41では、生成された画像データに対して顔認識処理を行ってステップS42へ進む。ステップS42では、検出された複数の顔の全てが深度内に含まれるか否かを判定する。全ての顔が深度内の場合、ステップS42が肯定判定されてステップS43へ進む。深度内に含まれない顔がある場合には、ステップS42が否定判定されて後述するステップS50へ進む。
Next, processing in the third mode will be described with reference to FIG.
In step S41, face recognition processing is performed on the generated image data, and the process proceeds to step S42. In step S42, it is determined whether or not all of the detected faces are included in the depth. If all the faces are within the depth, an affirmative determination is made in step S42 and the process proceeds to step S43. If there is a face that is not included in the depth, a negative determination is made in step S42, and the process proceeds to step S50 described later.

ステップS43では、全ての顔にボケ効果を付与しない設定がなされているか否かを判定する。全ての顔にボケ効果を付与しない設定の場合には、ステップS43が肯定判定されてステップS44へ進む。ステップS44では、検出された顔以外の領域に対応する部分範囲群95に対するボケ量を決める係数を設定して後述するステップS49へ進む。全ての顔にボケ効果を付与しない設定がなされていない場合には、ステップS43が否定判定されてステップS45へ進む。   In step S43, it is determined whether or not a setting has been made so that no blur effect is applied to all faces. In the case of setting not to give the blur effect to all the faces, an affirmative determination is made in step S43 and the process proceeds to step S44. In step S44, a coefficient for determining the amount of blur for the partial range group 95 corresponding to the area other than the detected face is set, and the process proceeds to step S49 described later. If no setting has been made to not give the blur effect to all the faces, a negative determination is made in step S43 and the process proceeds to step S45.

ステップS45では、最至近の顔にボケ効果を付与しない設定がなされているか否かを判定する。最至近の顔にボケ効果を付与しない設定の場合には、ステップS45が肯定判定されてステップS46へ進む。ステップS46では、検出した顔に対応する部分範囲群95のデフォーカス量を比較して、最至近の顔、すなわちボケ効果を付与しない顔を特定して後述するステップS48へ進む。   In step S45, it is determined whether or not a setting is made so as not to give the blur effect to the closest face. In the case of setting not to give the blur effect to the closest face, an affirmative determination is made in step S45 and the process proceeds to step S46. In step S46, the defocus amount of the partial range group 95 corresponding to the detected face is compared, the closest face, that is, the face to which the blur effect is not given is specified, and the process proceeds to step S48 described later.

最至近と最遠方との中間位置の顔にボケ効果を付与しない設定がなされている場合には、ステップS45が否定判定されてステップS47へ進む。ステップS47では、検出した顔に対応する部分範囲群95のデフォーカス量を比較して、中間位置の顔、すなわちボケ効果を付与しない顔を特定して後述するステップS48へ進む。ステップS48では、ステップS46またはステップS47で特定されていない顔に対応する部分範囲群95のデフォーカス量に基づいて、各部分範囲群95に対するボケ量を決める係数を設定してステップS49へ進む。   If the setting is made so that the blur effect is not given to the face at the intermediate position between the nearest and farthest, a negative determination is made in step S45 and the process proceeds to step S47. In step S47, the defocus amount of the partial range group 95 corresponding to the detected face is compared, a face at an intermediate position, that is, a face to which no blur effect is applied is specified, and the process proceeds to step S48 described later. In step S48, a coefficient for determining the blur amount for each partial range group 95 is set based on the defocus amount of the partial range group 95 corresponding to the face not specified in step S46 or step S47, and the process proceeds to step S49.

ステップS49では、部分範囲群95ごとに、ステップS44またはステップS48で設定された係数に基づくボケ量にてボケ効果を付与した画像データを生成し第3モードを終了する。
ステップS42にて深度内に含まれない顔がある場合には、ステップS42が否定判定されてステップS50へ進み、検出した顔に対応する部分範囲群95のデフォーカス量を比較して、最至近の顔を特定してステップS51へ進む。ステップS51では、ステップS50にて特定された最至近の顔と同一の深度に含まれる顔を特定してステップS43へ進む。以後、ステップS51にて特定された複数の顔に対して、上述したステップS43〜ステップS49までの処理を行う。
In step S49, for each partial range group 95, image data to which a blur effect is applied with a blur amount based on the coefficient set in step S44 or step S48 is generated, and the third mode is ended.
If there is a face that is not included in the depth in step S42, a negative determination is made in step S42 and the process proceeds to step S50, where the defocus amount of the partial range group 95 corresponding to the detected face is compared, and the closest The face is identified and the process proceeds to step S51. In step S51, a face included in the same depth as the closest face specified in step S50 is specified, and the process proceeds to step S43. Thereafter, the processes from step S43 to step S49 described above are performed on the plurality of faces specified in step S51.

上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)カメラボディ200は、撮像素子8と、焦点検出演算回路14と、制御部5の算出部51と、背面モニタ17とを有する。撮像素子8は、撮像光学系1を通過した光束を受光して画像信号を出力する複数の撮像画素80を有する。焦点検出演算回路14は、撮像素子8から出力された画像信号を用いて撮像光学系1の焦点状態を検出する。算出部51は、焦点状態の検出精度が所定の閾値以上となる範囲を、撮像範囲92として算出する。背面モニタ17は、算出された撮像範囲92内の撮像画素80から出力された画像信号を用いて生成された画像を表示する。したがって、撮像素子8の撮像面のうち、ケラレ等の影響のない、またはケラレ等の影響の少ない光束が入射する範囲に設けられた撮像画素80からの撮像信号を用いて焦点検出演算と画像データの生成とを行い、焦点検出精度の低下を抑制させることができる。
According to the first embodiment described above, the following operational effects are obtained.
(1) The camera body 200 includes the image sensor 8, the focus detection calculation circuit 14, the calculation unit 51 of the control unit 5, and the rear monitor 17. The imaging element 8 has a plurality of imaging pixels 80 that receive a light beam that has passed through the imaging optical system 1 and output an image signal. The focus detection calculation circuit 14 detects the focus state of the imaging optical system 1 using the image signal output from the imaging element 8. The calculation unit 51 calculates a range where the focus state detection accuracy is equal to or higher than a predetermined threshold as the imaging range 92. The rear monitor 17 displays an image generated using the image signal output from the imaging pixel 80 within the calculated imaging range 92. Therefore, the focus detection calculation and the image data are performed using the imaging signal from the imaging pixel 80 provided in a range in which a light beam not affected by vignetting or less affected by vignetting is incident on the imaging surface of the image sensor 8. And the reduction in focus detection accuracy can be suppressed.

(2)ボディ−レンズ通信部15は、撮像光学系1の射出瞳に関する情報を受信し、算出部51は、受信した撮像光学系1の射出瞳に関する情報と、撮像画素80における第1光電変換部82、第2光電変換部83がマイクロレンズ81により投影される位置に関する情報とを用いて、撮像範囲92を算出する。したがって、射出瞳の位置が異なる交換レンズ300が装着された場合や、ズームレンズのように射出瞳の位置が変化する場合であっても、ケラレ等の影響のない、またはケラレ等の影響の少ない光束が入射する撮像範囲92内の撮像画素80からの撮像信号を用いて焦点検出演算と画像データの生成とを行うことができる。 (2) The body-lens communication unit 15 receives information related to the exit pupil of the imaging optical system 1, and the calculation unit 51 receives the received information related to the exit pupil of the imaging optical system 1 and the first photoelectric conversion in the imaging pixel 80. The imaging range 92 is calculated using the information regarding the position projected by the micro lens 81 by the unit 82 and the second photoelectric conversion unit 83. Therefore, even when the interchangeable lens 300 having a different exit pupil position is attached, or even when the exit pupil position changes like a zoom lens, there is no vignetting effect or little vignetting effect. The focus detection calculation and the generation of image data can be performed using the imaging signal from the imaging pixel 80 in the imaging range 92 where the light beam enters.

(3)焦点検出演算回路14は、撮像範囲92を分割した部分範囲93について、デフォーカス量を算出する。マップ作成部16は、部分範囲93ごとのデフォーカス量の分布を示すデフォーカスマップを作成する。画像処理回路13は、マップ作成部16によって作成されたデフォーカスマップを用いて、画像信号を用いて生成された画像に対してぼかし処理を施す。背面モニタ17は、ぼかし処理が施された画像を表示する。これにより、撮像光学系1の光学的な特性で得られるボケ効果とは異なるボケ効果が施された画像データを生成することができる。 (3) The focus detection calculation circuit 14 calculates the defocus amount for the partial range 93 obtained by dividing the imaging range 92. The map creation unit 16 creates a defocus map indicating the distribution of the defocus amount for each partial range 93. The image processing circuit 13 performs a blurring process on the image generated using the image signal, using the defocus map created by the map creating unit 16. The rear monitor 17 displays the image that has been subjected to the blurring process. Thereby, it is possible to generate image data on which a blur effect different from the blur effect obtained from the optical characteristics of the imaging optical system 1 is applied.

(4)画像処理回路13は、部分範囲93ごとに、デフォーカス量の大きさに基づいて決定したボケ量でぼかし処理を施す。これにより、撮像光学系1の光学的な特性で得られるボケ効果よりもボケ効果が強調された画像データを生成することができる。 (4) The image processing circuit 13 performs the blurring process for each partial range 93 with the blur amount determined based on the size of the defocus amount. Thereby, it is possible to generate image data in which the blur effect is emphasized more than the blur effect obtained by the optical characteristics of the imaging optical system 1.

−第2の実施の形態−
第2の実施の形態について説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、交換レンズが有する制御部にて撮像範囲を算出し、算出した撮像範囲をカメラボディ200へ送信する点で第1の実施の形態と異なる。
-Second Embodiment-
A second embodiment will be described. In the following description, the same components as those in the first embodiment are denoted by the same reference numerals, and different points will be mainly described. Points that are not particularly described are the same as those in the first embodiment. The present embodiment is different from the first embodiment in that an imaging range is calculated by a control unit included in the interchangeable lens, and the calculated imaging range is transmitted to the camera body 200.

図13は、第2の実施の形態による交換レンズ300の制御系の構成を示すブロック図である。第2の実施の形態による交換レンズ300のレンズ制御部7は、算出部71を有する。算出部71は、第1の実施の形態における制御部5が有する算出部51と同様に、焦点検出演算回路14による焦点状態の検出精度が所定の閾値以上となる撮像素子8の撮像面上の範囲を、撮像範囲92として算出する。撮像範囲92を算出するために、レンズ制御部7は、電気接点201、202(図1参照)を介して交換レンズ300に撮像素子8に関する情報の送信を依頼し、依頼に応じて送信された撮像素子8に関する情報を受信する。これにより、レンズ制御部7は、撮像素子8の撮像面の大きさや、撮像画素80のマイクロレンズ81により第1光電変換部82および第2光電変換部83が投影される投影像の位置を示す情報、撮像素子8の撮像面上での各撮像画素80の位置を示す情報を受信する。   FIG. 13 is a block diagram illustrating a configuration of a control system of the interchangeable lens 300 according to the second embodiment. The lens control unit 7 of the interchangeable lens 300 according to the second embodiment includes a calculation unit 71. Similar to the calculation unit 51 included in the control unit 5 in the first embodiment, the calculation unit 71 is on the imaging surface of the image sensor 8 in which the focus state detection accuracy by the focus detection calculation circuit 14 is equal to or greater than a predetermined threshold. The range is calculated as the imaging range 92. In order to calculate the imaging range 92, the lens control unit 7 requests the interchangeable lens 300 to transmit information about the imaging element 8 via the electrical contacts 201 and 202 (see FIG. 1), and is transmitted in response to the request. Information on the image sensor 8 is received. Thereby, the lens control unit 7 indicates the size of the imaging surface of the imaging element 8 and the position of the projected image on which the first photoelectric conversion unit 82 and the second photoelectric conversion unit 83 are projected by the microlens 81 of the imaging pixel 80. Information indicating the position of each imaging pixel 80 on the imaging surface of the imaging element 8 is received.

算出部71は、レンズデータ部4から読み出した撮像光学系1の射出瞳の位置に関する情報と、カメラボディ200から受信した撮像素子8に関する情報とを用いて、撮像面上における撮像範囲92を算出する。この場合、算出部71は、第1の実施の形態におけるカメラボディ200に設けられた制御部5の算出部51と同様にして、撮像範囲92の大きさ、たとえば矩形範囲の各頂点の座標値を算出する。レンズ制御部7は、算出した撮像範囲92の大きさを示す情報を電気接点202を介してカメラボディ200の制御部5へ送信する。なお、レンズ制御部7は、撮像範囲92の頂点の座標値を大きさを算出して送信するものに限定されない。たとえば、算出部71は、撮像素子8の各撮像画素80が撮像範囲92内に含まれるか否かに対する判定結果を情報として送信しても良い。   The calculation unit 71 calculates the imaging range 92 on the imaging surface using information regarding the position of the exit pupil of the imaging optical system 1 read from the lens data unit 4 and information regarding the imaging element 8 received from the camera body 200. To do. In this case, the calculation unit 71 is the same as the calculation unit 51 of the control unit 5 provided in the camera body 200 in the first embodiment, and the size of the imaging range 92, for example, the coordinate value of each vertex of the rectangular range Is calculated. The lens control unit 7 transmits information indicating the calculated size of the imaging range 92 to the control unit 5 of the camera body 200 via the electrical contact 202. The lens control unit 7 is not limited to the one that calculates the coordinate value of the vertex of the imaging range 92 and transmits the coordinate value. For example, the calculation unit 71 may transmit a determination result as to whether or not each imaging pixel 80 of the imaging element 8 is included in the imaging range 92 as information.

レンズ制御部7から撮像範囲92の大きさを示す情報を受信したカメラボディ200では、第1の実施の形態の場合と同様にして、撮像範囲92からの撮像信号の出力、デフォーカス量の算出およびデフォーカスマップの作成、画像データの生成および表示等の処理を行う。すなわち、第2の実施の形態においては、図9のステップS2および図10のステップS22で行われた処理を交換レンズ300側で行う。   In the camera body 200 that has received the information indicating the size of the imaging range 92 from the lens control unit 7, the output of the imaging signal from the imaging range 92 and the calculation of the defocus amount are the same as in the case of the first embodiment. Also, processing such as creation of a defocus map, generation and display of image data is performed. That is, in the second embodiment, the process performed in step S2 in FIG. 9 and step S22 in FIG. 10 is performed on the interchangeable lens 300 side.

上述した第2の実施の形態によれば、次の作用効果が得られる。
交換レンズ300は、レンズデータ部4と、レンズ制御部7とを備える。レンズデータ部4は、撮像光学系1の射出瞳に関する情報を記憶する。レンズ制御部7の算出部71は、カメラボディ200から受信した撮像素子8が有する撮像画素80に関する情報と、撮像光学系1の射出瞳に関する情報とに基づいて、撮像素子8の撮像面上の撮像範囲92を算出し、レンズ制御部7は撮像範囲92を示す情報をカメラボディ200に送信する。したがって、交換レンズ300側で撮像範囲92の演算を行うことにより、カメラボディ200側では他の演算を行うことができる。これにより、デジタルカメラ100の全体に対する処理負荷をカメラボディ200のみで負担することを防ぎ、デジタルカメラ100全体での処理負荷を低減することができる。
According to the second embodiment described above, the following operational effects can be obtained.
The interchangeable lens 300 includes a lens data unit 4 and a lens control unit 7. The lens data unit 4 stores information related to the exit pupil of the imaging optical system 1. The calculation unit 71 of the lens control unit 7 is on the imaging surface of the imaging device 8 based on the information related to the imaging pixel 80 included in the imaging device 8 received from the camera body 200 and the information related to the exit pupil of the imaging optical system 1. The imaging range 92 is calculated, and the lens control unit 7 transmits information indicating the imaging range 92 to the camera body 200. Therefore, by calculating the imaging range 92 on the interchangeable lens 300 side, other calculations can be performed on the camera body 200 side. Thereby, it is possible to prevent the processing load on the entire digital camera 100 from being borne only by the camera body 200, and to reduce the processing load on the entire digital camera 100.

なお、上述した第2の実施の形態の交換レンズ300を以下のように変形しても良い。本変形例では、撮像範囲92の算出が、交換レンズ300のレンズ制御部7と、カメラボディ200の制御部5とによって分担して行われる。
本変形例の交換レンズ300の制御系の主要部構成は、図10に示す第2の実施の形態による交換レンズ300と同様である。レンズ制御部7の算出部71は、カメラボディ200の制御部5が撮像範囲92を決定する際に必要となる情報を算出し、算出した結果をカメラボディ200へ送信する。算出部71は、撮像範囲92の算出に必要となる情報として、撮像光学系1の射出瞳の位置と、撮像画素80のマイクロレンズ81により第1光電変換部82および第2光電変換部83が投影される投影像の位置とが重複していない範囲Δを算出する。
The interchangeable lens 300 according to the second embodiment described above may be modified as follows. In the present modification, the calculation of the imaging range 92 is performed by the lens control unit 7 of the interchangeable lens 300 and the control unit 5 of the camera body 200.
The main configuration of the control system of the interchangeable lens 300 of this modification is the same as that of the interchangeable lens 300 according to the second embodiment shown in FIG. The calculation unit 71 of the lens control unit 7 calculates information necessary for the control unit 5 of the camera body 200 to determine the imaging range 92 and transmits the calculated result to the camera body 200. The calculation unit 71 uses the position of the exit pupil of the imaging optical system 1 and the microlens 81 of the imaging pixel 80 as information necessary for calculating the imaging range 92 so that the first photoelectric conversion unit 82 and the second photoelectric conversion unit 83 A range Δ in which the position of the projected image to be projected does not overlap is calculated.

まず、算出部71は、電気接点201、202を介してカメラボディ200に撮像素子8に関する情報の送信を依頼し、依頼に応じて送信された撮像素子8に関する情報を受信する。これにより、算出部71は、撮像画素80の第1光電変換部82および第2光電変換部83の投影像の位置を示す情報を受信する。算出部71は、レンズデータ部4から読み出した撮像光学系1の射出瞳の位置と、カメラボディ200から受信した投影像の位置とが重複していない範囲Δを算出する。レンズ制御部7は、算出した重複していない範囲Δを示す情報を電気接点202を介してカメラボディ200の制御部5へ送信する。   First, the calculation unit 71 requests the camera body 200 to transmit information regarding the image sensor 8 via the electrical contacts 201 and 202, and receives information regarding the image sensor 8 transmitted in response to the request. Accordingly, the calculation unit 71 receives information indicating the positions of the projection images of the first photoelectric conversion unit 82 and the second photoelectric conversion unit 83 of the imaging pixel 80. The calculation unit 71 calculates a range Δ in which the position of the exit pupil of the imaging optical system 1 read from the lens data unit 4 and the position of the projection image received from the camera body 200 do not overlap. The lens control unit 7 transmits information indicating the calculated non-overlapping range Δ to the control unit 5 of the camera body 200 via the electrical contact 202.

レンズ制御部7から重複していない範囲Δを示す情報を受信したカメラボディ200の制御部5の算出部51は、重複していない範囲Δを用いて、第1の実施の形態の場合と同様にして、撮像範囲92を算出する。以後、制御部5、撮像素子制御回路6、焦点検出演算回路14および画像処理回路13は、第1の実施の形態で説明した処理と同様の処理を行う。   The calculation unit 51 of the control unit 5 of the camera body 200 that has received the information indicating the non-overlapping range Δ from the lens control unit 7 uses the non-overlapping range Δ as in the case of the first embodiment. Thus, the imaging range 92 is calculated. Thereafter, the control unit 5, the image sensor control circuit 6, the focus detection calculation circuit 14, and the image processing circuit 13 perform the same processing as the processing described in the first embodiment.

上述した第2の実施の形態の変形例によれば、次の作用効果が得られる。
交換レンズ300のレンズ制御部7の算出部71は、カメラボディ200から受信した撮像画素80の第1光電変換部82、第2光電変換部83のマイクロレンズ81による投影像の位置の情報と、撮像光学系1の射出瞳の位置の情報とに基づいて、撮像範囲92の算出の際に必要となる情報を算出する。これにより、カメラボディ200側で撮像光学系1の射出瞳の位置を示す情報が取得できない場合であっても、撮像範囲92を設定することが可能になる。
According to the modification of the second embodiment described above, the following operational effects are obtained.
The calculation unit 71 of the lens control unit 7 of the interchangeable lens 300 includes information on the position of the projected image by the microlens 81 of the first photoelectric conversion unit 82 and the second photoelectric conversion unit 83 of the imaging pixel 80 received from the camera body 200, and Based on the information on the position of the exit pupil of the imaging optical system 1, information necessary for calculating the imaging range 92 is calculated. Thereby, even when the information indicating the position of the exit pupil of the imaging optical system 1 cannot be acquired on the camera body 200 side, the imaging range 92 can be set.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(1)算出部51は、撮像範囲92内のケラレのない撮像画素80を選択するものに限定されず、撮像範囲92の外部の所定範囲(以後、外周範囲と呼ぶ)の撮像画素80についても選択して良い。外周範囲は、ケラレの影響を受けているが、第1光電変換部82、第2光電変換部83へ入射する光束の光量が大幅に減じられない範囲である。撮像範囲92と外周範囲とに含まれる撮像画素80からの撮像信号を用いて焦点検出を行った場合に、焦点検出精度が所定の閾値以上となるように外周範囲が設定される。すなわち、外周範囲は、焦点検出を行う場合の焦点検出精度の閾値に基づいて設定される範囲である。
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(1) The calculation unit 51 is not limited to selecting the vignetting-free imaging pixel 80 in the imaging range 92, but also for the imaging pixels 80 in a predetermined range outside the imaging range 92 (hereinafter referred to as an outer peripheral range). You can choose. Although the outer peripheral range is affected by vignetting, it is a range in which the amount of light beams incident on the first photoelectric conversion unit 82 and the second photoelectric conversion unit 83 is not significantly reduced. When focus detection is performed using imaging signals from the imaging pixels 80 included in the imaging range 92 and the outer peripheral range, the outer peripheral range is set so that the focus detection accuracy is equal to or higher than a predetermined threshold. That is, the outer peripheral range is a range that is set based on a threshold value of focus detection accuracy when focus detection is performed.

焦点検出演算回路14は、撮像範囲92と外周範囲との内部の撮像画素80から出力された撮像信号を焦点検出信号として使用して、撮像光学系1の焦点状態を検出する。画像処理回路13は、撮像範囲92と外周範囲との内部の撮像画素80の第1光電変換部82からの第1撮像信号と第2光電変換部83からの第2撮像信号とが加算された画像信号を用いて、画像データを生成する。   The focus detection calculation circuit 14 detects the focus state of the imaging optical system 1 using the imaging signal output from the imaging pixel 80 inside the imaging range 92 and the outer peripheral range as a focus detection signal. The image processing circuit 13 adds the first imaging signal from the first photoelectric conversion unit 82 and the second imaging signal from the second photoelectric conversion unit 83 of the imaging pixel 80 inside the imaging range 92 and the outer peripheral range. Image data is generated using the image signal.

(2)撮像範囲92内の撮像画素80からの撮像信号を用いてライブビュー画像を表示させるものに限定されない。たとえば、画像処理回路13は、撮像素子8の全ての撮像画素80から出力された撮像信号を用いてライブビュー画像を生成し、背面モニタ17はライブビュー画像に撮像範囲92を示す枠等を重畳して表示を行っても良い。 (2) It is not limited to what displays a live view image using the imaging signal from the imaging pixel 80 in the imaging range 92. FIG. For example, the image processing circuit 13 generates a live view image using imaging signals output from all the imaging pixels 80 of the imaging element 8, and the rear monitor 17 superimposes a frame or the like indicating the imaging range 92 on the live view image. May be displayed.

(3)撮像範囲92内の撮像画素80から出力された撮像信号に基づいて生成された静止画データや動画データを記憶媒体19に記憶するものに限定されない。撮像素子8の全ての撮像画素80から出力された撮像信号に基づいて生成された画像データと、撮像範囲92内の撮像画素80から出力された撮像信号に基づいて生成された静止画データや動画データとを関連付けて記憶媒体19に記憶しても良い。または、全ての撮像画素80からの撮像信号に対応する画像データと、ボケ効果が付与された静止画データや動画データとを関連付けて記憶媒体19に記憶してもよい。この場合も、静止画データや動画データにはデフォーカスマップが関連付けされて記憶されてよい。 (3) The present invention is not limited to storing the still image data and moving image data generated based on the imaging signal output from the imaging pixel 80 in the imaging range 92 in the storage medium 19. Image data generated based on the imaging signals output from all the imaging pixels 80 of the imaging element 8, and still image data and moving images generated based on the imaging signals output from the imaging pixels 80 in the imaging range 92. Data may be associated with and stored in the storage medium 19. Alternatively, the image data corresponding to the imaging signals from all the imaging pixels 80 may be stored in the storage medium 19 in association with still image data or moving image data to which the blur effect is given. Also in this case, the defocus map may be stored in association with the still image data or the moving image data.

(4)表示中のライブビュー画像に大きなボケが発生している場合には、画像処理回路13は、生成された画像データをリサイズしてライブビュー画像として背面モニタ17に表示させてよい。この場合、リサイズした画像のみをライブビュー画像として表示しても良いし、リサイズした画像をライブビュー画像に重畳して表示しても良い。これにより、大きなボケが発生している画像を縮小した画像として表示させることができるので、ユーザは被写体の判別を容易に行うことができる。 (4) When a large blur occurs in the live view image being displayed, the image processing circuit 13 may resize the generated image data and display it on the rear monitor 17 as a live view image. In this case, only the resized image may be displayed as a live view image, or the resized image may be displayed superimposed on the live view image. As a result, an image in which a large blur has occurred can be displayed as a reduced image, so that the user can easily determine the subject.

1…撮像光学系、4…レンズデータ部、5…制御部、
6…撮像素子制御回路、7…レンズ制御部、8…撮像素子、
9…電子ビューファインダ、11…操作部、13…画像処理回路、
14…焦点検出演算回路、15…ボディ−レンズ通信部、16…マップ作成部、
51…算出部、71…算出部、80…撮像画素、
100…デジタルカメラ、200…カメラボディ、300…交換レンズ
DESCRIPTION OF SYMBOLS 1 ... Imaging optical system, 4 ... Lens data part, 5 ... Control part,
6 ... Image sensor control circuit, 7 ... Lens control unit, 8 ... Image sensor,
9 ... Electronic viewfinder, 11 ... Operation unit, 13 ... Image processing circuit,
14 ... focus detection calculation circuit, 15 ... body-lens communication unit, 16 ... map creation unit,
51... Calculation unit, 71... Calculation unit, 80.
100 ... Digital camera, 200 ... Camera body, 300 ... Interchangeable lens

Claims (17)

交換レンズが装着される装着部と、
前記交換レンズを通過した光を受光して焦点検出信号を出力する複数の焦点検出用画素を有する撮像素子と、
前記交換レンズから光学特性の情報を受信する受信部と、
前記撮像素子から出力された焦点検出信号により前記交換レンズの合焦状態を検出する焦点検出部と、
前記交換レンズの光学特性と前記焦点検出用画素に関する情報とから合焦状態を検出する範囲を設定する設定部と、を備えるカメラボディ。
A mounting part to which the interchangeable lens is mounted;
An image sensor having a plurality of focus detection pixels that receive light passing through the interchangeable lens and output a focus detection signal;
A receiver for receiving information on optical characteristics from the interchangeable lens;
A focus detection unit that detects the in-focus state of the interchangeable lens based on a focus detection signal output from the image sensor;
A camera body comprising: a setting unit that sets a range in which a focus state is detected from optical characteristics of the interchangeable lens and information on the focus detection pixels.
請求項1に記載のカメラボディにおいて、
前記受信部は、前記交換レンズの光学特性の情報として、前記交換レンズの射出瞳に関する情報を受信するカメラボディ。
The camera body according to claim 1,
The receiving unit is a camera body that receives information about an exit pupil of the interchangeable lens as information on optical characteristics of the interchangeable lens.
請求項1または2に記載のカメラボディにおいて、
前記焦点検出用画素に関する情報は、前記複数の焦点検出用画素の配置と、前記交換レンズを通過した光がマイクロレンズを介して前記焦点検出用画素に入射する位置とであるカメラボディ。
The camera body according to claim 1 or 2,
The information relating to the focus detection pixel is a camera body that is an arrangement of the plurality of focus detection pixels and a position where light that has passed through the interchangeable lens enters the focus detection pixel via a microlens.
請求項1から3の何れか一項に記載のカメラボディにおいて、
前記焦点検出用画素毎に複数の光電変換部が設けられているカメラボディ。
The camera body according to any one of claims 1 to 3,
A camera body in which a plurality of photoelectric conversion units are provided for each focus detection pixel.
請求項1から4の何れか一項に記載のカメラボディにおいて、
前記焦点検出部は、前記範囲を分割した部分範囲について、デフォーカス量を算出し、
前記部分範囲ごとのデフォーカス量の分布に基づくマップを作成するマップ作成部を備えるカメラボディ。
The camera body according to any one of claims 1 to 4,
The focus detection unit calculates a defocus amount for a partial range obtained by dividing the range,
A camera body comprising a map creation unit that creates a map based on a distribution of defocus amounts for each partial range.
請求項5に記載のカメラボディにおいて、
前記マップ作成部によって作成された前記マップを用いて、前記撮像素子で生成された画像信号を用いて生成された画像に対してぼかし処理を施す処理部を備え、
前記処理部によりぼかし処理が施された画像が表示部に表示されるカメラボディ。
The camera body according to claim 5,
A processing unit that performs a blurring process on an image generated using an image signal generated by the image sensor using the map created by the map creating unit,
A camera body in which an image subjected to blurring processing by the processing unit is displayed on a display unit.
請求項6に記載のカメラボディにおいて、
前記処理部は、前記部分範囲ごとに、前記デフォーカス量の大きさに基づいて決定したぼかし量で前記ぼかし処理を施すカメラボディ。
The camera body according to claim 6,
The camera body which performs the blurring process with the blurring amount determined based on the size of the defocus amount for each partial range.
請求項6または7に記載のカメラボディにおいて、
前記ぼかし処理が施された画像と、前記作成されたマップとを関連付けて記憶する記憶部をさらに備えるカメラボディ。
The camera body according to claim 6 or 7,
A camera body further comprising a storage unit that stores the blurred image and the created map in association with each other.
請求項6または7に記載のカメラボディにおいて、
前記範囲から出力された画像信号から生成された画像と、前記作成されたマップとを関連付けて記憶する記憶部をさらに備えるカメラボディ。
The camera body according to claim 6 or 7,
A camera body further comprising a storage unit that stores an image generated from an image signal output from the range and the created map in association with each other.
請求項6または7に記載のカメラボディにおいて、
前記範囲から出力された画像信号から生成された画像と、前記ぼかし処理が施された画像と、前記作成されたマップとを関連付けて記憶する記憶部をさらに備えるカメラボディ。
The camera body according to claim 6 or 7,
A camera body further comprising a storage unit that stores an image generated from an image signal output from the range, an image subjected to the blurring process, and the created map in association with each other.
請求項5に記載のカメラボディにおいて、
前記マップ作成部によって作成された前記マップを用いて、前記部分範囲ごとに、前記デフォーカス量の大きさに基づいて決定した強調効果を前記範囲から出力された画像に付加する処理部と、
前記処理部により前記強調効果が付加された画像を表示する表示部と、を備えるカメラボディ。
The camera body according to claim 5,
Using the map created by the map creation unit, a processing unit that adds, for each partial range, an enhancement effect determined based on the size of the defocus amount to an image output from the range;
And a display unit that displays an image to which the enhancement effect is added by the processing unit.
請求項11に記載のカメラボディにおいて、
前記処理部は、前記決定した強調効果に対して、操作部材への操作に基づいてボケ量の強調度合いを変更するカメラボディ。
The camera body according to claim 11,
The processing unit is a camera body that changes an enhancement degree of a blur amount based on an operation on an operation member with respect to the determined enhancement effect.
請求項11または12に記載のカメラボディにおいて、
前記強調効果が施された画像と、前記作成されたマップとを関連付けて記憶する記憶部をさらに備えるカメラボディ。
The camera body according to claim 11 or 12,
A camera body further comprising a storage unit that stores the image on which the enhancement effect has been applied and the created map in association with each other.
請求項11または12に記載のカメラボディにおいて、
前記範囲から出力された画像と、前記作成されたマップとを関連付けて記憶する記憶部をさらに備えるカメラボディ。
The camera body according to claim 11 or 12,
A camera body further comprising a storage unit that stores an image output from the range in association with the created map.
請求項11または12に記載のカメラボディにおいて、
前記範囲から出力された画像と、前記強調効果が施された画像と、前記作成されたマップとを関連付けて記憶する記憶部をさらに備えるカメラボディ。
The camera body according to claim 11 or 12,
A camera body further comprising a storage unit that stores an image output from the range, an image on which the enhancement effect is applied, and the created map in association with each other.
撮像素子を有するカメラボディが装着される装着部と、
撮像光学系の射出瞳に関する情報を記憶する記憶部と、
前記カメラボディから、前記撮像素子が有する焦点検出用画素に関する情報を受信する受信部と、
前記撮像光学系の射出瞳に関する情報と前記焦点検出用画素に関する情報とから合焦状態を検出する範囲を設定する設定部と、
前記設定部により設定された前記範囲に関する情報を前記カメラボディに送信する送信部と、を備える交換レンズ。
A mounting portion to which a camera body having an image sensor is mounted;
A storage unit for storing information related to the exit pupil of the imaging optical system;
A receiving unit that receives information on focus detection pixels included in the image sensor from the camera body;
A setting unit for setting a range for detecting the in-focus state from information related to the exit pupil of the imaging optical system and information related to the focus detection pixels;
An interchangeable lens comprising: a transmission unit that transmits information about the range set by the setting unit to the camera body.
請求項16に記載の交換レンズにおいて、
前記受信部は、複数の前記焦点検出用画素の配置と、前記交換レンズを通過した光がマイクロレンズを介して前記焦点検出用画素に入射する位置とを受信し、
前記設定部は、前記撮像光学系の前記射出瞳の位置の情報と、前記複数の焦点検出用画素の配置と、前記交換レンズを通過した光がマイクロレンズを介して前記焦点検出用画素に入射する位置とに基づいて、前記範囲に関する情報を設定する交換レンズ。

The interchangeable lens according to claim 16,
The receiving unit receives an arrangement of the plurality of focus detection pixels and a position at which light that has passed through the interchangeable lens enters the focus detection pixels via a microlens;
The setting unit includes information on a position of the exit pupil of the imaging optical system, an arrangement of the plurality of focus detection pixels, and light that has passed through the interchangeable lens enters the focus detection pixels via a microlens. An interchangeable lens that sets information on the range based on the position to be operated.

JP2016132797A 2016-07-04 2016-07-04 Camera body and interchangeable lens Pending JP2018005008A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016132797A JP2018005008A (en) 2016-07-04 2016-07-04 Camera body and interchangeable lens

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016132797A JP2018005008A (en) 2016-07-04 2016-07-04 Camera body and interchangeable lens

Publications (1)

Publication Number Publication Date
JP2018005008A true JP2018005008A (en) 2018-01-11

Family

ID=60949169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016132797A Pending JP2018005008A (en) 2016-07-04 2016-07-04 Camera body and interchangeable lens

Country Status (1)

Country Link
JP (1) JP2018005008A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020195198A1 (en) * 2019-03-27 2020-10-01
EP3873083A4 (en) * 2018-11-02 2021-12-01 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Depth image processing method, depth image processing apparatus and electronic apparatus

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63284526A (en) * 1987-05-15 1988-11-21 Minolta Camera Co Ltd Focus detecting device
JP2008015754A (en) * 2006-07-05 2008-01-24 Nikon Corp Image pickup device, image processor and image processing method
JP2009219085A (en) * 2008-03-13 2009-09-24 Sony Corp Imaging apparatus
JP2010279054A (en) * 2010-07-15 2010-12-09 Fujifilm Corp Image pickup device, image processing device, image pickup method, and image processing method
JP2012032452A (en) * 2010-07-28 2012-02-16 Canon Inc Camera system
JP2014228818A (en) * 2013-05-27 2014-12-08 キヤノン株式会社 Imaging device, imaging system, method for controlling imaging device, program and storage medium
JP2016059051A (en) * 2015-10-23 2016-04-21 リコーイメージング株式会社 Imaging device and distance information acquisition method
JP2017021177A (en) * 2015-07-10 2017-01-26 キヤノン株式会社 Range-finding point upon lens vignetting, range-finding area transition method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63284526A (en) * 1987-05-15 1988-11-21 Minolta Camera Co Ltd Focus detecting device
JP2008015754A (en) * 2006-07-05 2008-01-24 Nikon Corp Image pickup device, image processor and image processing method
JP2009219085A (en) * 2008-03-13 2009-09-24 Sony Corp Imaging apparatus
JP2010279054A (en) * 2010-07-15 2010-12-09 Fujifilm Corp Image pickup device, image processing device, image pickup method, and image processing method
JP2012032452A (en) * 2010-07-28 2012-02-16 Canon Inc Camera system
JP2014228818A (en) * 2013-05-27 2014-12-08 キヤノン株式会社 Imaging device, imaging system, method for controlling imaging device, program and storage medium
JP2017021177A (en) * 2015-07-10 2017-01-26 キヤノン株式会社 Range-finding point upon lens vignetting, range-finding area transition method
JP2016059051A (en) * 2015-10-23 2016-04-21 リコーイメージング株式会社 Imaging device and distance information acquisition method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3873083A4 (en) * 2018-11-02 2021-12-01 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Depth image processing method, depth image processing apparatus and electronic apparatus
US11562496B2 (en) 2018-11-02 2023-01-24 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Depth image processing method, depth image processing apparatus and electronic device
JPWO2020195198A1 (en) * 2019-03-27 2020-10-01
WO2020195198A1 (en) * 2019-03-27 2020-10-01 ソニー株式会社 Image processing device, image processing method, program, and imaging device
EP3933474A4 (en) * 2019-03-27 2022-07-27 Sony Group Corporation Image processing device, image processing method, program, and imaging device
JP7435592B2 (en) 2019-03-27 2024-02-21 ソニーグループ株式会社 Image processing device, image processing method, program, imaging device

Similar Documents

Publication Publication Date Title
KR101632578B1 (en) Image capturing apparatus, image processing apparatus, and image processing method for generating auxiliary information for captured image
JP5421829B2 (en) Imaging device
JP5676988B2 (en) Focus adjustment device
JP5368350B2 (en) Stereo imaging device
JP6045214B2 (en) Focus adjustment apparatus and control method thereof
EP3383023B1 (en) Imaging apparatus, control method, and non-transitory storage medium
JP6843604B2 (en) Information processing device and information processing method
US20130141631A1 (en) Auto-focus apparatus, image pick-up apparatus, and auto-focus method
JP2011022386A5 (en)
JP2019079024A (en) Imaging apparatus, control method, and program
JP6095266B2 (en) Image processing apparatus and control method thereof
JP5628914B2 (en) Imaging apparatus and imaging method
JP2018005008A (en) Camera body and interchangeable lens
JP2014135562A (en) Image pickup device and control method thereof
JP2012083584A (en) Imaging device
JP6234094B2 (en) Focus detection apparatus and imaging apparatus
JP6720037B2 (en) Image processing device, imaging device, image processing method, and image processing program
JP5415208B2 (en) Imaging device
JP6223502B2 (en) Image processing apparatus, image processing method, program, and storage medium storing the same
JP2020085967A (en) Image processor, method for controlling the same, and program
JP7271316B2 (en) Imaging device and its control method
JP6702798B2 (en) Image processing apparatus, control method thereof, imaging apparatus, and program
JP2017219786A (en) Control device, imaging device, control method, program, and storage medium
JP2014063190A (en) Imaging apparatus
JP2012247613A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20201126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210423

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210521

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210817

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210831