JP2018005008A - Camera body and interchangeable lens - Google Patents
Camera body and interchangeable lens Download PDFInfo
- Publication number
- JP2018005008A JP2018005008A JP2016132797A JP2016132797A JP2018005008A JP 2018005008 A JP2018005008 A JP 2018005008A JP 2016132797 A JP2016132797 A JP 2016132797A JP 2016132797 A JP2016132797 A JP 2016132797A JP 2018005008 A JP2018005008 A JP 2018005008A
- Authority
- JP
- Japan
- Prior art keywords
- camera body
- imaging
- image
- range
- focus detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、カメラボディおよび交換レンズに関する。 The present invention relates to a camera body and an interchangeable lens.
従来から、焦点検出用の画素を有する撮像素子を用いたカメラが知られている(たとえば特許文献1)。従来は、撮影レンズが変更されると焦点検出が可能な範囲がわからないという問題があった。 2. Description of the Related Art Conventionally, a camera using an image sensor having a focus detection pixel is known (for example, Patent Document 1). Conventionally, when the photographing lens is changed, there is a problem that the range in which focus detection is possible is not known.
第1の態様によると、カメラボディは、交換レンズが装着される装着部と、前記交換レンズを通過した光を受光して焦点検出信号を出力する複数の焦点検出用画素を有する撮像素子と、前記交換レンズから光学特性の情報を受信する受信部と、前記撮像素子から出力された焦点検出信号により前記交換レンズの合焦状態を検出する焦点検出部と、前記交換レンズの光学特性と前記焦点検出用画素に関する情報とから合焦状態を検出する範囲を設定する設定部と、を備える。
第2の態様によると、交換レンズは、撮像素子を有するカメラボディが装着される装着部と、撮像光学系の射出瞳に関する情報を記憶する記憶部と、前記カメラボディから、前記撮像素子が有する焦点検出用画素に関する情報を受信する受信部と、前記撮像光学系の射出瞳に関する情報と前記焦点検出用画素に関する情報とから合焦状態を検出する範囲を設定する設定部と、前記設定部により設定された前記範囲に関する情報を前記カメラボディに送信する送信部と、を備える。
According to the first aspect, the camera body includes a mounting portion on which the interchangeable lens is mounted, an imaging element having a plurality of focus detection pixels that receive light that has passed through the interchangeable lens and output a focus detection signal; A receiving unit that receives information on optical characteristics from the interchangeable lens, a focus detection unit that detects the in-focus state of the interchangeable lens based on a focus detection signal output from the imaging device, and the optical characteristics and the focus of the interchangeable lens A setting unit that sets a range in which the in-focus state is detected from the information related to the detection pixels.
According to the second aspect, the interchangeable lens is included in the imaging element from the mounting unit to which the camera body having the imaging element is mounted, the storage unit that stores information on the exit pupil of the imaging optical system, and the camera body. A receiving unit that receives information related to focus detection pixels, a setting unit that sets a range for detecting a focus state from information related to the exit pupil of the imaging optical system and information related to the focus detection pixels, and the setting unit. A transmission unit configured to transmit information regarding the set range to the camera body.
−第1の実施の形態−
図面を参照しながら、本実施の形態による交換レンズと、当該交換レンズを備えるカメラボディについて説明する。
図1は実施の形態による交換レンズ300を装着したカメラボディ200からなるデジタルカメラ100の構成を説明する横断面図である。なお、説明の都合上、x軸、y軸、z軸からなる座標系を図示の通りに設定する。
-First embodiment-
An interchangeable lens according to the present embodiment and a camera body including the interchangeable lens will be described with reference to the drawings.
FIG. 1 is a cross-sectional view illustrating a configuration of a
デジタルカメラ100は、カメラボディ200と交換レンズ300とにより構成され、交換レンズ300はマウント部(不図示)を介して装着される、いわゆるミラーレスカメラである。カメラボディ200には、マウント部を介して種々の撮像光学系を有する交換レンズ300が装着可能である。上記のマウント部には電気接点201、202が設けられ、カメラボディ200と交換レンズ300とが結合された時には、電気接点201および202を介して電気的な接続が確立される。
The
交換レンズ300は、撮像光学系1と、駆動機構3と、レンズデータ部4と、レンズ制御部7とを備えている。撮像光学系1は、被写体像を撮像素子8の撮像面上に結像させるための光学系であり、焦点調節レンズを含む複数のレンズによって構成されている。レンズ制御部7は、CPU、ROM、RAMなどを有し、制御プログラムに基づいて、交換レンズ300の各構成要素を制御したり、各種のデータ処理を実行したりする演算回路である。レンズ制御部7は、電気接点201および202を介して、カメラボディ200との間で種々の情報を送受信する。駆動機構3は、レンズ制御部7により制御され、電気接点201を介してカメラボディ200側から入力したレンズ駆動量に応じて撮像光学系1を構成する焦点調節レンズを光軸Lの方向(z軸方向)に沿って合焦位置へ駆動する。レンズデータ部4は、たとえば不揮発性の記録媒体により構成され、交換レンズ300に関連する各種のレンズ情報、たとえば撮像光学系1の射出瞳の位置や明るさ(開放F値)等が格納されている。
The
カメラボディ200内部には、制御部5と、撮像素子制御回路6と、撮像素子8と、電子ビューファインダ(EVF)9と、接眼レンズ10とが設けられている。カメラボディ200には操作部11が設けられている。カメラボディ200の背面には液晶モニタ17が設けられている。撮像素子8には、CCDやCMOS等の撮像画素がxy平面上において二次元状(行と列)に配置される。撮像素子8の撮像画素には、それぞれR(赤)、G(緑)、B(青)のカラーフィルタが設けられている。撮像素子8は、撮像光学系1を介して入射される光束を受光して被写体像を撮像して、撮像信号を撮像素子制御回路6に出力する。撮像信号は、画像データ生成用の信号(画像信号)として、また、焦点検出用の信号(焦点検出用信号)として使用される。撮像素子8がカラーフィルタを通して被写体像を撮像するため、撮像素子8の撮像画素から出力される撮像信号はRGB表色系の色情報を有する。なお、撮像素子8については、詳細を後述する。
Inside the
電子ビューファインダ9は、制御部5により生成された表示画像データに対応する画像の表示を行う。また、電子ビューファインダ9は、撮像条件に関連する各種情報(シャッタ速度、絞り値、ISO感度など)の表示を行う。電子ビューファインダ9に表示された画像や各種情報は、接眼レンズ10を介してユーザにより観察される。
背面モニタ17は、たとえば液晶モニタ等の表示部であり、制御部5により生成された表示画像データに対応する画像の表示を行う。また、背面モニタ17は、撮像条件に関連する各種情報(シャッタ速度、絞り値、ISO感度など)の表示を行う。
The
The
操作部11はユーザによって操作される種々の操作部材に対応して設けられた種々のスイッチを含み、操作部材の操作に応じた操作信号を制御部5へ出力する。操作部材は、たとえばレリーズボタンや、カメラボディ200の背面に設けられた背面モニタ17にメニュー画面を表示させるためのメニューボタンや、各種の設定等を選択操作する時に操作される十字キー、十字キーにより選択された設定等を決定するための決定ボタン、撮影モードと再生モードとの間でデジタルカメラ100の動作を切替える動作モード切替ボタン、露出モードを設定する露出モード切替ボタン等を含む。
The
さらに、図2に示すブロック図を用いて、カメラボディ200の制御系について説明する。図2に示すようにカメラボディ200は、A/D変換部12と、画像処理回路13と、焦点検出演算回路14と、ボディ−レンズ通信部15と、マップ作成部16と、メモリ18とを有している。制御部5は、CPU、ROM、RAMなどを有し、制御プログラムに基づいて、カメラボディ200と、カメラボディ200に装着された交換レンズ300とが有する各構成要素を制御したり、各種のデータ処理を実行したりする演算回路である。制御プログラムは、制御部5内の不図示の不揮発性メモリに格納されている。制御部5は、算出部(設定部)51を機能として備える。算出部(設定部)51は、後述する焦点検出演算回路14による焦点状態(合焦状態)の検出精度が所定の閾値以上となる撮像素子8の撮像面上の範囲を、撮像範囲として算出(設定)する。なお、算出部51の詳細については、説明を後述する。
Furthermore, the control system of the
撮像素子制御回路6は、制御部5によって制御され、撮像素子8およびA/D変換部12の駆動を制御して、撮像素子8に電荷蓄積および撮像信号の読み出し等を行わせる。A/D変換部12は、撮像素子8から出力されたアナログの撮像信号をデジタルに変換する。画像処理回路13は、撮像素子8から出力された撮像信号を画像信号として用い、画像信号に対して種々の画像処理を施して画像データを生成した後、付加情報等を付与して画像ファイルを生成する。画像処理回路13は、生成した画像ファイルをメモリカード等の記録媒体19に記録する。画像処理回路13は、生成した画像データや記録媒体19に記録されている画像データに基づいて、電子ビューファインダ9や背面モニタ17に表示するための表示画像データを生成する。
The image
焦点検出演算回路14は、撮像素子8から出力された撮像信号を焦点検出用信号として使用して、公知の位相差検出方式を用いてデフォーカス量を算出する。ボディ−レンズ通信部15は、制御部5に制御され、電気接点201、202を介して交換レンズ300内のレンズ制御部7と通信を行い、カメラ情報(デフォーカス量や絞り値など)の送信やレンズ情報の受信を行う。マップ作成部16は、焦点検出演算回路14による焦点検出演算の結果を用いて、撮影された画像上でのデフォーカ量の分布を示すデフォーカスマップを作成する。メモリ18は、たとえば不揮発性の記録媒体により構成され、撮像素子8に関連する各種の情報、たとえば撮像素子8の撮像面の大きさや、撮像素子8に設けられた複数の撮像画素80(図3参照)の位置や、撮像画素80が有するマイクロレンズ81(図3参照)の特性等が格納されている。記憶媒体19は、たとえばメモリカード等の不揮発性の記憶媒体であり、画像処理回路13により生成された画像ファイルを記憶する。
The focus
次に、本実施の形態における撮像素子8について詳細に説明する。
図3(a)は撮像素子8の中心部を含む一部の領域を模式的に示す平面図であり、図3(b)は1つの撮像画素80の断面を模式的に示す図である。なお、図3においても、x軸、y軸、z軸からなる座標系を、図1に示す例と同様にして設定する。撮像素子8は、複数の撮像画素80が行方向(x方向)と列方向(y方向)とに二次元配列される。撮像画素80の各画素位置には、たとえばベイヤー配列の規則に従って上述したカラーフィルタ(R:赤色フィルタ、G:緑色フィルタ、B:青色フィルタ)が設けられる。図3(a)においては、撮像画素80に配置されたカラーフィルタの色を、「R」、「G」または「B」と表記して模式的に表す。なお、焦点検出領域に設けられた撮像画素80はカラーフィルタを備えていなくても良い。
Next, the
FIG. 3A is a plan view schematically showing a part of the region including the central portion of the
撮像画素80は、マイクロレンズ81と、1つのマイクロレンズ81の下に設けられた第1光電変換部82および第2光電変換部83とによって構成される。第1光電変換部82と第2光電変換部83とは、x方向に並んで設けられる。図3に示す例では、第1光電変換部82はx方向+側、第2光電変換部83はx方向−側に設けられる。第1光電変換部82および第2光電変換部83には、それぞれ撮像光学系1の異なる領域を介して入射された光が入射する。すなわち、焦点検出演算回路14が位相差検出演算に用いる一対の被写体光束が入射する。
The
上述したように、撮像画素80には、R、GまたはBの何れかのカラーフィルタが設けられている。このため、撮像画素80が設けられる位置に応じて、出力される第1撮像信号および第2撮像信号は緑、赤または青の色情報からなる。本実施の形態では、焦点検出演算回路14は、緑、赤または青のうち何れか一色の色情報からなる、第1光電変換部82から出力された第1撮像信号を順次並べた第1信号列{an}と、第2光電変換部83から出力された第2撮像信号を順次並べた第2信号列{bn}との相対的な像ズレ量を検出することによって、撮像光学系1の焦点調節状態、すなわちデフォーカス量を検出する。
なお、画像処理回路13は、撮像画素80の第1光電変換部82からの第1撮像信号と第2光電変換部83からの第2撮像信号とが加算された信号を画像信号として使用して、画像データを生成する。
As described above, the
Note that the
図4を用いて、撮像画素80の配置位置と、撮像光学系1の射出瞳領域を通過する被写体光のケラレとの関係について説明する。図4は、マイクロレンズ81による第1光電変換部82、第2光電変換部83の投影位置とは異なる位置に射出瞳が位置する交換レンズ300が装着された場合を示す。また、撮像光学系1の光軸近傍に配置された撮像画素80−1と、撮像素子8の撮像面の周辺部、すなわち光軸からの距離が大きい、いわゆる高い像高の位置に配置された撮像画素80−2とを代表して示す。
The relationship between the arrangement position of the
光軸近傍に配置された撮像画素80−1では、被写体からの光束のうち、撮像光学系1の一対の射出瞳領域841を通過した光束861が第1光電変換部82−1に入射する。撮像光学系1の一対の射出瞳領域851を通過した光束871は、撮像画素80−1の第2光電変換部83−1に入射する。図示のように、撮像画素80−1は撮像光学系1の光軸近傍に配置されているので、光束861および871は、交換レンズ300やカメラボディ200の構造等によりケラレることなく第1光電変換部82−1および第2光電変換部83−1に入射する。
In the imaging pixel 80-1 disposed in the vicinity of the optical axis, the
高い像高の位置に配置された撮像画素80−2では、撮像光学系1の一対の射出瞳領域841を通過した光束862が第1光電変換部82−2に入射する。撮像光学系1の一対の射出瞳領域851を通過した光束872は、一部が撮像画素80−2の第2光電変換部83−2に入射する。すなわち、高い像高の位置に配置された撮像画素80−2では、第2光電変換部83−2に入射する光の量が、第1光電変換部82−2に入射する光の量よりも少ない。このため、第1光電変換部82−2から出力された第1撮像信号に基づく第1信号列{an}と、第2光電変換部83−2から出力された第2撮像信号に基づく第2信号列{bn}とを用いて算出されたデフォーカス量の精度が低下する。すなわち、焦点状態の検出精度が低下する。
In the imaging pixel 80-2 arranged at a high image height position, the
本実施の形態では、射出瞳の位置が異なる交換レンズ300が装着された場合や、ズームレンズのように射出瞳の位置が変化する場合に、焦点状態の検出精度が低下しない領域に含まれる撮像画素80からの撮像信号を用いて、焦点検出演算および画像データの生成を行う。
制御部5の算出部51は、撮像素子8の撮像面のうち、ケラレによる影響が少ない光束が入射する範囲を撮像範囲として算出する。算出部51は、メモリ18に記憶された撮像画素80に関する情報と、交換レンズ300から、ボディ−レンズ通信部15を介して受信した撮像光学系1に関する情報とに基づいて撮像範囲を算出する。撮像画素80に関する情報は、マイクロレンズ81による第1光電変換部82、第2光電変換部83の投影位置と、各撮像画素80の撮像面上での位置の情報とを含む。撮像光学系1に関する情報は、撮像光学系1の射出瞳の位置の情報を含む。
In the present embodiment, when an
The
算出部51は、たとえばマイクロレンズ81による第1光電変換部82、第2光電変換部83の投影位置と、撮像光学系1の射出瞳の位置とが重複していな範囲Δを算出する。算出部51は、算出した重複していない範囲Δに基づいて、ケラレの影響を受けていない光束が入射する撮像画素80の撮像面上での範囲(以下、有効範囲91(図5(a)参照))を算出し、有効範囲91に含まれる所定の範囲を撮像範囲92(図5(a)参照)として設定する。算出部51は、算出した有効範囲91の内部に撮像範囲92を設定する。
For example, the
図5に、撮像素子8の全撮像範囲90と、有効範囲91と、撮像範囲92との関係を模式的に示す。図5(a)に示すように、算出部51は、有効範囲91に内接する矩形形状の範囲を撮像範囲92に設定する。算出部51は、撮像範囲92の長辺と短辺との比率を、たとえば3:2に設定する。なお、撮像範囲92の長辺と短辺との比率は3:2に限定されるものではなく、任意の比率に設定して良い。
FIG. 5 schematically shows the relationship among the
算出部51は、撮像面上における撮像画素80の位置の情報を参照して、撮像面上の各撮像画素80が撮像範囲92内に位置するか否かを判定する。算出部51は、撮像範囲92に含まれる撮像画素80を、焦点検出演算に使用し、画像データを生成するための撮像画素80として選択する。
The
撮像範囲92が算出されると、制御部5は、撮像素子制御回路6を介して、撮像素子8の撮像画素80から撮像信号を出力させる。出力された撮像信号のうち、撮像範囲92内の撮像画素80、すなわち算出部51により選択された撮像画素80からの撮像信号が、焦点検出演算や画像データの生成に使用される。焦点検出演算回路14は、撮像範囲92内の撮像画素80から出力された撮像信号を焦点検出信号として使用して、位相差検出方式により撮像光学系1の焦点状態を検出する。画像処理回路13は、撮像範囲92内の撮像画素80の第1光電変換部82から出力された第1撮像信号と第2光電変換部83から出力された第2撮像信号とが加算された画像信号に基づいて画像データを生成する。
なお、撮像素子制御回路6は、撮像素子8の撮像画素80のうち、撮像範囲92内の撮像画素80から撮像信号を出力させ、撮像範囲92の外部の撮像画素80からの撮像信号を出力させなくても良い。
When the
Note that the image
焦点検出演算回路14は、図5(b)に示すように、撮像範囲92を分割して複数の部分範囲93を設定する。なお、図5(b)では、撮像範囲92を3×4の部分範囲93に分割した例を示すが、部分範囲93の個数はこの例に限定されるものではない。焦点検出演算回路14は、部分範囲93に含まれる撮像画素80のうち緑、赤または青のうち何れか一色の色情報からなる第1光電変換部82から出力された第1撮像信号を順次並べた第1信号列{an}と、第2光電変換部83から出力された第2撮像信号を順次並べた第2信号列{bn}との相対的な像ズレ量を検出することによって、部分範囲93ごとにデフォーカス量を算出する。焦点検出演算回路14は、デフォーカス量に基づいて算出した撮像光学系1の駆動量を算出し、駆動信号としてボディ−レンズ通信部15を介して交換レンズ300に送信する。交換レンズ300の駆動機構3は、受信した駆動信号に従って、フォーカスレンズを合焦位置に駆動させる。マップ作成部16は、焦点検出演算回路14により算出された部分範囲93ごとのデフォーカス量を用いて、撮像範囲92におけるデフォーカス量の分布を示すデフォーカスマップを作成する。
As shown in FIG. 5B, the focus
画像処理回路13は、撮像範囲92内の撮像画素80から出力され、A/D変換回路12によりデジタル変換された撮像信号に対して種々の画像処理を施して、画像データを生成する。さらに、画像処理回路13は、マップ作成部16により生成されたデフォーカスマップを用いて、画像データに対して、デフォーカス量に基づいたぼかし処理を施す。
The
画像処理回路13は、部分範囲93ごとに算出されたデフォーカス量の値の絶対値に基づいて、ボケ効果の強調度合いを設定する。この場合、画像処理回路13は、公知の背景ボケ効果を得るための手法を用いて画像処理を行う際に、デフォーカス量の値の絶対値に基づいて設定された係数を用いてボケ効果の強調度合い、すなわちボケ量を設定する。
The
本実施の形態においては、画像処理回路13が異なる種類のぼかし理を行うため、例えば以下のような各モードを備えている。
(1)デフォーカス量の増加に伴ってボケ効果を強調する(第1モード)
(2)ピントが合った被写体の前方と後方のボケ効果の強調度合いを制御する(第2モード)
(3)デフォーカス量に基づいて、特定の領域についてはボケ効果を制限する(第3モード)
(4)ピントを合わせる被写体を選択し、選択された被写体以外の領域にボケ効果を施す(第4モード)
以下、上記の第1〜第4モードごとに説明を行う。なお、各モードの選択は、ユーザにより行うことができる。この場合、ユーザは、たとえば背面モニタ17に表示されたメニュー画面等から、操作部11を操作することにより所望するモードを選択する。なお、ユーザは、上記の第1モード〜第4モードのうち1つを選択しても良いし、複数のモードを選択して、異なる種類のボケ効果が施された画像を画像処理回路13に生成させても良い。
In the present embodiment, since the
(1) Emphasize the blur effect as the defocus amount increases (first mode)
(2) Control the degree of emphasis on the front and rear blur effects of the focused subject (second mode)
(3) Based on the defocus amount, the blur effect is limited for a specific area (third mode).
(4) Select a subject to be focused and apply a blur effect to an area other than the selected subject (fourth mode)
Hereinafter, description will be made for each of the first to fourth modes. Each mode can be selected by the user. In this case, the user selects a desired mode by operating the
<第1モード>
第1モードにおいては、上述したボケ量を設定するための係数は、デフォーカス量の値の絶対値の増加に伴って、ボケ効果がより強調されるように設定される。なお、ボケ効果の増減は、デフォーカス量の値の絶対値の増加に伴って連続的に増加しても良いし、所定の増加量ごとに段階的に増加しても良い。
これにより、デフォーカス量の値の絶対値が大きい部分範囲93に対応する範囲のボケ量が増加する。すなわち、画像処理回路13は、撮像光学系1の光学的な特性で得られるボケ効果よりもボケ効果が強調された画像データを生成する。このボケ効果が強調された画像データは、背面モニタ17によりライブビュー画像として表示される。
<First mode>
In the first mode, the coefficient for setting the blur amount described above is set so that the blur effect is more emphasized as the absolute value of the defocus amount value increases. Note that the increase / decrease in the blur effect may be continuously increased as the absolute value of the defocus amount is increased, or may be increased step by step for each predetermined increase amount.
As a result, the amount of blur in the range corresponding to the
図6を用いてぼかし処理を説明する。図6(a)は、撮像範囲92と、撮像範囲92内における被写体S1〜S4とを重畳して模式的に示す。被写体S1は、他の被写体S2〜S4と比較して、デジタルカメラ100からの距離が最短の場所に位置する。被写体S4は、他の被写体S1〜S3と比較して、デジタルカメラ100からの距離が最長の場所に位置する。被写体S2とS3とは、デジタルカメラ100からの距離が被写体S1とS4との間に位置する。すなわち、被写体S1〜S4は、この順序でデジタルカメラ100からの距離が増加するように位置するものとする。
The blurring process will be described with reference to FIG. FIG. 6A schematically shows the
図6(b)は、図6(a)の撮像範囲92を分割した複数の部分範囲93と被写体S1〜S4とを重畳して模式的に示す。図6(b)では、一例として、撮像範囲92を5×7の部分範囲93に分割した場合を示す。上述したように、被写体S1〜S4は、この順序でデジタルカメラ100からの距離が増加するように位置している。被写体S2にピントが合うようにした状態では、焦点検出演算回路14によって算出される各部分範囲93ごとのデフォーカス量は、被写体S1〜S4のそれぞれに対応する部分範囲93ごとに異なる。
FIG. 6B schematically shows a plurality of
図6(c)には、各被写体S1〜S4にそれぞれ対応する部分範囲93におけるデフォーカス量の値の一例を示す。なお、図6(c)において、被写体S1に対応する複数の部分範囲93を纏めて部分範囲群95−1、被写体S2に対応する複数の部分範囲93を纏めて部分範囲群95−2、被写体S3に対応する複数の部分範囲93を纏めて部分範囲群95−3、被写体S4に対応する複数の部分範囲93を纏めて部分範囲群95−4と呼ぶ。なお、以下の説明において、部分範囲群を総称する場合には、符号95を付与する。デジタルカメラ100から最至近に位置する被写体S1からの光が入射する部分範囲93ではデフォーカス量の値は、たとえば−D1となる。デジタルカメラ100からの距離が、被写体S2よりも遠い被写体S3からの光が入射する部分範囲93では、デフォーカス量の値は、D2となる。被写体S4からの光が入射する部分範囲93では、被写体S3の場合と比較して、デフォーカス量の値は、D3(>D2)となる。すなわち、部分範囲群95−1にはデフォーカス量の値が−D1の部分範囲93が含まれ、部分範囲群95−2にはデフォーカス量の値が0の部分範囲93が含まれ、部分範囲群95−3にはデフォーカス量の値がD2の部分範囲93が含まれ、部分範囲群95−4にはデフォーカス量の値がD3の部分範囲93が含まれる。
FIG. 6C shows an example of the defocus amount value in the
図6(c)に示す例では、デフォーカス量の値の絶対値は、被写体S4に対応する部分範囲群95−4、被写体S1に対応する部分範囲群95−1、被写体S3に対応する部分範囲群95−3の順序で小さくなる。画像処理回路13は、被写体S4、被写体S1、被写体S3のそれぞれに対応する部分範囲群95−4、95−1、95−3ごとに、デフォーカス量の値の絶対値に応じて決まるボケ量でボケ効果を付与する。
In the example shown in FIG. 6C, the absolute value of the defocus amount value is the partial range group 95-4 corresponding to the subject S4, the partial range group 95-1 corresponding to the subject S1, and the portion corresponding to the subject S3. It becomes smaller in the order of the range group 95-3. The
図7に、被写体S1、S3、S4のそれぞれに対応する部分範囲群95−4、95−1、95−3にボケ効果が付与されて生成された画像データを模式的に示す。図7では、図示の都合上、ボケ効果の大きさに伴って、粗い斜線にて描く。被写体S1、S3、S4について、デフォーカス量の値の絶対値に基づいてボケ量が強調される。したがって、撮像光学系1の光学特性で得られるボケ効果よりもボケ効果の強調度を大きくすることができる。デフォーカス量の値の絶対値は、被写体S4で最大であるので、画像処理回路13によって施されるボケ量は、被写体S4に対応する部分範囲群95−4で、他の被写体S1、S3に対応する部分範囲群95−1、95−3と比較して大きくなる。
FIG. 7 schematically shows image data generated by applying the blur effect to the partial range groups 95-4, 95-1, and 95-3 corresponding to the subjects S1, S3, and S4, respectively. In FIG. 7, for the sake of illustration, a rough oblique line is drawn in accordance with the magnitude of the blur effect. For the subjects S1, S3, and S4, the blur amount is emphasized based on the absolute value of the defocus amount value. Therefore, the degree of enhancement of the blur effect can be made larger than the blur effect obtained from the optical characteristics of the imaging
<第2モード>
第2モードにおいては、上述したボケ量を設定するための係数は、必ずしもデフォーカス量の絶対値の増加に伴って、ボケ効果が強調度が大きくなるようには設定されない。たとえば、図6や図7で示す被写体S2よりも前方(デジタルカメラ100側)の被写体S1に対するボケ効果の強調度と、後方の被写体S3、S4に対するボケ効果の強調度とを異ならせる。一例として、撮像光学系1が有する収差の前後方向(光軸方向)の非対称性に類似したボケの度合いとなるように、画像処理回路13は、ボケ効果の強調度、すなわちボケ量を設定するための係数を設定する。この場合、画像処理回路13は、前方の被写体S1に対するボケ量が小さくなるように係数を設定し、後方の被写体S3、S4に対するボケ量が大きくなるように係数を設定する。画像処理回路13は、交換レンズ300からボディ−レンズ通信部15を介して受信した撮像光学系1に関する情報に含まれる収差に関する情報に基づいて、前方の被写体S1に対する係数と、後方の被写体S3、S4に対する係数とを設定する。撮像光学系1の収差と、デフォーカス量と、係数との関係は、予め試験等を行った結果に基づいて対応付けされたデータとして、メモリ18に記憶されている。画像処理回路13は、このデータを参照して、各被写体S1、S3、S4のそれぞれに対して係数を設定する。なお、ピントが合った被写体S2の近傍でボケ効果の線形性が崩れることを防ぐために、前方の被写体S1と後方の被写体S3、S4との間のボケ量の差が所定量以下となるように係数が設定されることが好ましい。
<Second mode>
In the second mode, the above-described coefficient for setting the blur amount is not necessarily set so that the degree of enhancement of the blur effect increases as the absolute value of the defocus amount increases. For example, the degree of enhancement of the blur effect on the subject S1 ahead (on the
画像処理回路13は、各被写体に対応する部分範囲群95ごとに、設定した係数に基づいたボケ量にてボケ効果を付与して、画像データを生成する。これにより、第1モードにて生成された被写体S1に対するボケ効果と比較して、第2モードで生成された被写体S1のボケ効果は小さくなる。また、第1モードにて生成された被写体S3、S4に対するボケ効果と比較して、第2モードで生成された被写体S3、S4のボケ効果は大きくなる。
The
<第3モード>
第3モードにおいては、撮像範囲92のうちの所定のデフォーカス量の領域に対してはボケ効果を付与せず、他のデフォーカス量の領域に対してボケ効果を付与する。たとえば、画像処理回路13は、撮像範囲92内で、公知の顔認識処理を用いて検出した人物の顔に対応する領域に対してはボケ効果を付与せず、顔以外の領域(例えば髪の毛や背景)に対してボケ効果を付与するようにする。この場合、画像処理回路13は、顔の全領域にピントが合った状態となるようにするため、たとえばF値が8の場合の深度に相当し、顔以外の領域にはF値が2.8の場合の深度に相当するようなボケ量となるように係数を設定する。なお、深度とは、ピントが合っているとみなせる距離範囲である。また、上記のF値は一例であり、この値に限定されるものではない。
<Third mode>
In the third mode, the blur effect is not applied to a predetermined defocus amount region in the
なお、画像処理回路13は、検出した顔と同一の距離情報、すなわちデフォーカス量を有する顔以外の被写体(すなわち背景)に対してはボケ効果を付与するが、ピントが合っている顔との間でボケ具合が不自然とならないように、ボケ効果の強調度合いを他の背景の領域よりも小さくするとよい。また、人物の顔に対応する領域に対してボケ効果を付与しないものに限定されず、度合いを弱めたボケ効果を付与してもよい。また、人物の顔が検出されない場合には、画像処理回路13は、上述した第1モードによるぼかし処理によりボケ効果を付与してよい。
Note that the
撮像範囲92内に複数の顔が検出された場合には、画像処理回路13は、それぞれの顔に対応する部分範囲群95の距離情報、すなわちデフォーカス量に応じて、ボケ効果を付与するか否かを決定する。複数の顔が深度内に含まれる場合には、画像処理回路13は、以下の(1)〜(3)の何れかのぼかし処理を行う。(1)〜(3)のぼかし処理のうちどの処理を行うかについては、ユーザが背面モニタ17に表示されたメニュー画面等から操作部11を操作することにより選択することができる。
(1)全ての顔に対してボケ効果を付与しない。
(2)最至近の顔に対してはボケ効果を付与せず、他の顔に対してはボケ効果を付与する。
(3)複数の顔に対応する人物のうち、デジタルカメラ100からの距離が最至近と最遠方との中間に位置する顔に対してボケ効果を付与せず、他の顔に対してはボケ効果を付与する。
When a plurality of faces are detected in the
(1) No blur effect is given to all faces.
(2) The blur effect is not given to the closest face, and the blur effect is given to other faces.
(3) Among the persons corresponding to a plurality of faces, the blur effect is not given to the face located at the middle between the nearest and farthest distance from the
上記の(2)または(3)のぼかし処理を行う場合、画像処理回路13は、検出した顔のそれぞれに対応する部分範囲群95のデフォーカス量に基づいて、ボケ効果を付与しない顔を特定する。また、画像処理回路13は、(2)のぼかし処理を行う場合には、ボケ効果を付与する顔に対応する部分範囲群95のデフォーカス量に基づいて、第1モードと同様にしてボケ量、すなわち係数を設定する。(3)のぼかし処理を行う場合には、画像処理回路13は、ボケ効果を付与する顔に対応する部分範囲群95のデフォーカス量に基づいて、第1モードや第2モードと同様にしてボケ量を設定する。
When performing the blurring process (2) or (3) above, the
検出された複数の顔の全てが深度内に含まれない場合には、画像処理回路13は、最至近の顔に対応する部分範囲群95にピントが合った状態となるように、撮像範囲92にボケ効果を付与する。すなわち、画像処理回路13は、最至近の顔と同一の深度内に含まれる顔に対応する部分範囲群95に対して、上述した(1)〜(3)の何れかのぼかし処理を行う。
When all of the detected plurality of faces are not included in the depth, the
<第4モード>
第4モードでは、画像処理回路13は、撮像範囲92内の選択された複数の被写体に対してピントを合わせ、他の被写体にはボケ効果を施す。なお、以下では、撮像範囲92内の複数の被写体は深度内に含まれるものとして説明を行う。ユーザは、背面モニタ17に表示されたライブビュー画像を観察しながら、ピントを合わせたい複数の被写体を操作部11の操作によって選択する。なお、背面モニタ17がタッチパネルを備える場合には、ユーザは、表示されたライブビュー画像上で、所望する被写体に触れる操作(タッチ操作)を行うことにより被写体の選択を行うことができる。
<4th mode>
In the fourth mode, the
画像処理回路13は、ユーザにより選択された複数の被写体(以後、選択被写体と呼ぶ)のデフォーカス量に基づいて、生成する画像データの像面を設定する。すなわち、画像処理回路13は、光軸に直交する撮像素子8の撮像面とは異なる像面を画像データ上で擬似的に作り出す。以後、詳細に説明する。
The
図6に示す被写体S1〜S4では、上述したように、被写体S1、S2、S3、S4の順序でデジタルカメラ100からの距離が離れる。被写体S1〜S4のうち、被写体S1とS2とが選択被写体として選択されたものとする。この場合、画像処理回路13は、選択被写体である被写体S1とS2とにピントがあるように画像データを生成する。
In the subjects S1 to S4 shown in FIG. 6, as described above, the distance from the
図8に、この場合の各被写体S1〜S4の光軸方向の位置関係と、各被写体S1〜S4の結像位置とを模式的に示す。上述したように、被写体S2にピントが合う状態の場合には、被写体S2は撮像素子8の撮像面P1上で像S2−1を結ぶ。他の被写体S1、S3、S4は、デジタルカメラ100からの距離に応じて、撮像面P1とは異なる位置に像S1−1、S3−1、S4−1をそれぞれ結ぶ。
FIG. 8 schematically shows the positional relationship in the optical axis direction of each of the subjects S1 to S4 and the imaging position of each of the subjects S1 to S4 in this case. As described above, when the subject S2 is in focus, the subject S2 forms the image S2-1 on the imaging surface P1 of the
この状態において、被写体S1とS2とが選択被写体として選択されているので、画像処理回路13は、像S1−1とS2−1とを含む平面を像面P2となるように画像データを生成する。この場合、画像処理回路13は、被写体S1に対応する部分範囲群95−1にボケ効果を施さず、被写体S3とS4とに対応する部分範囲群95−3と95−4とにボケ効果を施す。このとき、画像処理回路13は、デフォーカスマップを参照して、被写体S3、S4に対応する部分範囲群95−3、94−4のデフォーカス量を像面P2を基準としたデフォーカス量に換算し、換算したデフォーカス量に基づいてボケ効果の強調度、すなわち係数を設定する。
In this state, since the subjects S1 and S2 are selected as the selected subjects, the
なお、図8においては、像面P2を平面とした例を示したが、これに限定されず、像面P2は曲面であってもよい。また、ユーザの選択に従って、画像処理回路13は、像面P2を平面とするか曲面にするかを決定してもよい。
また、図8における像面P2に対する深度をユーザにより設定可能にしてもよい。この場合、制御部5は、設定された深度が得られるための絞り(不図示)の値を算出し、ボディ−レンズ通信部15を介して交換レンズ300のレンズ制御部7に絞りの駆動を制御させる。
また、ユーザの操作により選択被写体が選択されるものに限定されない。たとえば、画像処理回路13が、画像データにおいて主要被写体として認識した被写体を選択被写体として選択してもよい。この場合、画像処理回路13は、公知の顔認識処理を用いて認識した顔を選択被写体として選択してもよいし、認識した顔を有する人物を選択被写体として選択してもよい。
Although FIG. 8 shows an example in which the image plane P2 is a plane, the present invention is not limited to this, and the image plane P2 may be a curved surface. Further, according to the user's selection, the
Further, the depth with respect to the image plane P2 in FIG. 8 may be set by the user. In this case, the
Further, the present invention is not limited to the case where the selected subject is selected by a user operation. For example, the
上記のようにして第1モード〜第4モードの少なくとも1つのモードに応じてボケ効果が施された画像データは、背面モニタ17によりライブビュー画像として表示される。なお、ボケ効果が施された画像データに対応するライブビュー画像と、ボケ効果が施されていない画像データに対応するライブビュー画像とが、所定の時間間隔ごとに交互に背面モニタ17に表示されてもよい。この場合、ボケ効果が施された画像データに対応するライブビュー画像は、ボケ効果が施されていることを示す指標や色等を重畳して表示されるとよい。または、ボケ効果が施された画像データに対応するライブビュー画像にエンボス処理を施して表示してもよい。
The image data on which the blur effect is applied according to at least one of the first mode to the fourth mode as described above is displayed as a live view image on the
静止画データを生成する場合には、ライブビュー画像が表示されているときに、ユーザによるレリーズボタンの全押し操作が行われると、制御部5は、交換レンズ300にフォーカスレンズを合焦位置に駆動させる。この状態で、焦点検出演算回路14によって算出されたデフォーカス量を用いて、マップ作成部16はデフォーカスマップを作成する。制御部5は、撮像素子制御回路6を介して撮像素子8に撮影動作を行わせる。
When generating still image data, when the user fully presses the release button while the live view image is displayed, the
撮像動作を行う際に、前処理として、制御部5は、ライブビュー画像を表示する際に生成されたデフォーカスマップに基づいて、複数の被写体S1〜S4が深度内に含まれるようにF値を算出して、交換レンズ300に対して絞りを駆動させる。算出したF値では全ての被写体S1〜S4が深度内に含まれない場合には、制御部5は撮像素子8に対してフォーカスブラケッティングにより撮影動作を行わせる。なお、制御部5は、ライブビュー画像を表示する際に生成されたデフォーカスマップに基づいてF値を算出して絞りを駆動させるものに限定されない。たとえば、制御部5は、デフォーカスマップを参照して、各被写体S1〜S4の撮影距離、すなわちデフォーカス量に応じた枚数分の画像データをフォーカスブラケッティングにより生成してもよい。この場合、F値を小さく設定した状態で、フォーカスブラケッティングにより生成する画像データの枚数を増加させることにより、分解能の高い画像データを生成させることが可能になる。
When performing the imaging operation, as preprocessing, the
画像処理回路13は、撮影動作によって撮像素子8の撮像範囲92内の撮像画素80から出力された撮像信号を用いて、記録用の静止画データや動画データを生成する。この場合、画像処理回路13は、記録用の静止画データや動画データに対して、上述したボケ効果を施してもよいし、ボケ効果を施さなくても良い。ボケ効果を施さない場合には、画像処理回路13は、上述したボケ効果を施さない画像データを、撮影動作の際に生成されたデフォーカスマップと関連付けして記憶媒体19に記憶する。画像処理回路13は、静止画データと動画データとを再生する際に、デフォーカスマップを参照して画像データに対してぼかし処理を施して、ボケ効果が付与された静止画データや動画データを生成する。この場合も、ユーザによる設定に応じて、画像処理回路13は、上述した第1モード〜第4モードにてボケ効果が付与された静止画データや動画データを生成する。なお、再生時においては、第4モードにおいて絞りの制御を伴う深度の設定は行わない。
The
ボケ効果を施した記録用の静止画データや動画データを生成した場合には、画像処理回路13は、生成したボケ効果が付与された静止画データや動画データを、デフォーカスマップと関連付けて記憶媒体19に記憶する。また、撮影動作の際に生成したボケ効果が付与された静止画データや動画データに、デフォーカスマップに加えて、ボケ効果を付与する前の静止画データや動画データを関連付けて記憶媒体19に記憶してもよい。
なお、ボケ効果の強調度を、記録用の静止画データと、動画データおよびライブビュー画像との間で異ならせても良い。特に、ライブビュー画像の場合に、ボケ効果の強調度を、静止画データの場合と比べて大きくすると良い。背面モニタ17で観察されるライブビュー画像では、視認できる範囲が狭いので、ボケ効果の強調度を大きくすることにより、ユーザはボケ効果を把握しやすくする。
ボケ効果の強調の程度を、ユーザの操作に基づいて決定してもよい。この場合、ユーザは操作部11を操作してボケ効果の強調度を決定するパラメータを変更する。操作は背面モニタ17に表示されたメニュー画面から操作部11を介して行うようにしても良いし、専用の操作部材を設けてよい。
When recording still image data or moving image data for which a blur effect is applied is generated, the
Note that the degree of enhancement of the blur effect may be different between still image data for recording, moving image data, and live view images. In particular, in the case of a live view image, the enhancement degree of the blur effect is preferably larger than that in the case of still image data. In the live view image observed on the
The degree of enhancement of the blur effect may be determined based on a user operation. In this case, the user operates the
図9、図10に示すフローチャートを参照しながら、デジタルカメラ100の動作を説明する。図9は、静止画データを生成する場合の動作を説明するフローチャートであり、図10は動画データまたはライブビュー画像を生成する場合の動作を説明するフローチャートである。図9、図10のフローチャートに示す各処理は、制御部5でプログラムを実行して行われる。このプログラムは、メモリ(不図示)に格納されており、制御部5により起動されて、実行される。
The operation of the
まず、図9のフローチャートに示す静止画データを生成する場合について説明する。ステップS1では、ボディ−レンズ通信部15を介して、交換レンズ300から、撮像光学系1に関する情報を受信してステップS2へ進む。ステップS2では、算出部51は、受信した撮像光学系1に関する情報の射出瞳の位置の情報と、マイクロレンズ81により第1光電変換部82、第2光電変換部83が投影される位置に関する情報とから、撮像素子8の撮像面上で射出瞳がケラレない撮像範囲92を算出する。撮像範囲92が算出されると、処理はステップS3へ進む。
First, the case where the still image data shown in the flowchart of FIG. 9 is generated will be described. In step S1, the information regarding the imaging
ステップS3では、撮像素子制御回路6を介して、撮像素子8の撮像画素80から撮像信号を出力させてステップS4へ進む。ステップS4では、焦点検出演算回路14は撮像範囲92の撮像画素80から出力された撮像信号を焦点検出信号として使用して焦点検出演算を行い、デフォーカス量を算出する。マップ作成部16は、焦点検出演算回路14により算出されたデフォーカス量を用いて、デフォーカスマップを作成し、ステップS5へ進む。
In step S3, the imaging signal is output from the
ステップS5では、画像処理回路13は、撮像範囲92の内部の撮像画素80の第1光電変換部82からの第1撮像信号と第2光電変換部83からの第2撮像信号とが加算された画像信号を用いて画像データを生成し、ステップS3で作成されたデフォーカスマップを参照して、部分範囲群95−1、95−2、95−3、95−4ごとにボケ効果を施して、ステップS6へ進む。なお、ステップS5におけるボケ効果を付与するための動作については、詳細を後述する。ステップS6では、ステップS5で生成されたボケ効果が施された画像を電子ビューファインダ9や背面モニタ17にライブビュー画像として表示させてステップS7へ進む。
In step S5, the
ステップS7では、ユーザによりレリーズボタンが全押し操作されたか否かを判定する。ユーザによるレリーズボタンの全押し操作に応じて操作部11から操作信号が出力されると、ステップS7が肯定判定されてステップS8へ進む。ユーザによるレリーズボタンの全押し操作が行われず操作部11からの操作信号の出力が無い場合には、ステップS7が否定判定されてステップS1へ戻る。
なお、ステップS7が否定判定された場合には、ステップS1に戻るものに代えて、ステップS3に戻るようにしても良い。すなわち、既に算出した撮像範囲92を用いて、次フレーム以降の処理を行っても良い。ただし、異なる交換レンズ300が装着された場合や、ズームにより射出瞳の位置が変化した場合に、ステップS1に戻り、再度、射出瞳の位置を示す情報を取得して、撮像範囲92を算出する。
In step S7, it is determined whether or not the release button has been fully pressed by the user. When an operation signal is output from the
If a negative determination is made in step S7, the process may return to step S3 instead of returning to step S1. In other words, the processing after the next frame may be performed using the
ステップS8では、焦点検出演算回路14は、デフォーカス量に基づいて算出した撮像光学系1の駆動量を算出し、駆動信号としてボディ−レンズ通信部15を介して交換レンズ300に送信する。交換レンズ300の駆動機構3は、受信した駆動信号に従って、フォーカスレンズを合焦位置に駆動させてステップS9へ進む。ステップS9では、焦点検出演算回路14は、撮像範囲92の撮像画素80から出力された撮像信号を焦点検出信号として使用して焦点検出演算を行い、デフォーカス量を算出する。マップ作成部16は、焦点検出演算回路14により算出されたデフォーカス量を用いて、デフォーカスマップを作成し、ステップS10へ進む。
In step S <b> 8, the focus
ステップS10では、撮像素子制御回路6を介して、撮像画素80から撮像信号を出力させて撮影動作を実行してステップS11へ進む。ステップS11では、画像処理回路13は、ステップS10で出力された撮像信号のうち撮像範囲92内の撮像画素80から出力された撮像信号を用いて画像データを生成する。画像処理回路13は、生成した画像データと、ステップS9で作成されたデフォーカスマップとを関連付けて、記憶媒体(不図示)に記憶してステップS12へ進む。ステップS12では、連写撮像中か否かを判定する。連写撮像中の場合には、ステップS12が肯定判定されてステップS8へ戻る。連写撮像中ではない場合には、ステップS12が否定判定されて処理を終了する。
In step S10, an imaging signal is output from the
次に、図10のフローチャートに示す動画データまたはライブビュー画像を生成する場合について説明する。このフローチャートに示す処理は、ユーザにより操作部11が操作され、動画撮像が指示されると開始する。ステップS21(撮像光学系1に関する情報取得)からステップS26(ライブビュー画像表示)までの各処理は、図9のステップS1(撮像光学系1に関する情報取得)からステップS6(ライブビュー画像表示)までの各処理と同様である。
Next, a case where moving image data or a live view image shown in the flowchart of FIG. 10 is generated will be described. The processing shown in this flowchart starts when the user operates the
ステップS27では、画像処理回路13により生成された画像データと、デフォーカスマップとを関連付けて記憶媒体(不図示)に記憶してステップS28へ進む。ステップS28では、動画撮像を終了するか否かを判定する。動画撮像を終了する場合、すなわちユーザにより動画撮像終了のための操作が行われ、操作部11から操作信号が出力された場合には、ステップS28が肯定判定されてステップS29へ進む。動画撮像を継続する場合、すなわちユーザにより動画撮像終了のための操作が行われず操作部11から操作信号が出力されない場合には、ステップS28が否定判定されてステップS21へ戻る。ステップS29では、ライブビュー画像の表示を終了するか否かを判定する。ライブビュー画像の表示を継続する場合、すなわちユーザによりライブビュー画像の表示終了のための操作が行われず、操作部11から操作信号が出力されない場合には、ステップS28が否定判定されてステップS21へ戻る。ライブビュー画像の表示を終了する場合、すなわちユーザによりライブビュー画像の表示終了のための操作が行われ、操作部11から操作信号が出力された場合には、ステップS29が肯定判定されて処理を終了する。
なお、ステップS28、S29が否定判定された場合に、ステップS21に戻るものに代えて、ステップS23に戻ってもよい。すなわち、既に算出した撮像範囲92を用いて、次フレーム以降の処理を行っても良い。ただし、異なる交換レンズ300が装着された場合や、ズームにより射出瞳の位置が変化した場合に、ステップS21に戻り、再度、射出瞳の位置を示す情報を取得して、撮像範囲92を算出する。
In step S27, the image data generated by the
In addition, when negative determination is made at steps S28 and S29, the process may return to step S23 instead of the process returning to step S21. In other words, the processing after the next frame may be performed using the
図11、図12を参照して、図9のステップS5や図10のステップS25におけるボケ効果を付与する処理の一例について説明する。図11は、第2モードが設定されている場合の処理を示すフローチャートであり、図12は、第3モードが設定されている場合の処理を示すフローチャートである。 With reference to FIG. 11 and FIG. 12, an example of the process for providing the blur effect in step S5 of FIG. 9 and step S25 of FIG. 10 will be described. FIG. 11 is a flowchart showing processing when the second mode is set, and FIG. 12 is a flowchart showing processing when the third mode is set.
まず、図11を参照して、第2モードの場合の処理を説明する。
ステップS31では、交換レンズ300から撮像光学系1の収差に関する情報を取得してステップS32へ進む。ステップS32では、取得した収差に関する情報に基づいて、前方の被写体S1に対する係数と、後方の被写体S3、S4に対する係数とを設定してステップS33へ進む。ステップS33では、各部分画素群95ごとに、設定した係数に基づいたボケ量にてボケ効果を付与した画像データを生成して第2モードを終了する。
First, the process in the second mode will be described with reference to FIG.
In step S31, information regarding the aberration of the imaging
次に、図12を参照して、第3モードの場合の処理を説明する。
ステップS41では、生成された画像データに対して顔認識処理を行ってステップS42へ進む。ステップS42では、検出された複数の顔の全てが深度内に含まれるか否かを判定する。全ての顔が深度内の場合、ステップS42が肯定判定されてステップS43へ進む。深度内に含まれない顔がある場合には、ステップS42が否定判定されて後述するステップS50へ進む。
Next, processing in the third mode will be described with reference to FIG.
In step S41, face recognition processing is performed on the generated image data, and the process proceeds to step S42. In step S42, it is determined whether or not all of the detected faces are included in the depth. If all the faces are within the depth, an affirmative determination is made in step S42 and the process proceeds to step S43. If there is a face that is not included in the depth, a negative determination is made in step S42, and the process proceeds to step S50 described later.
ステップS43では、全ての顔にボケ効果を付与しない設定がなされているか否かを判定する。全ての顔にボケ効果を付与しない設定の場合には、ステップS43が肯定判定されてステップS44へ進む。ステップS44では、検出された顔以外の領域に対応する部分範囲群95に対するボケ量を決める係数を設定して後述するステップS49へ進む。全ての顔にボケ効果を付与しない設定がなされていない場合には、ステップS43が否定判定されてステップS45へ進む。 In step S43, it is determined whether or not a setting has been made so that no blur effect is applied to all faces. In the case of setting not to give the blur effect to all the faces, an affirmative determination is made in step S43 and the process proceeds to step S44. In step S44, a coefficient for determining the amount of blur for the partial range group 95 corresponding to the area other than the detected face is set, and the process proceeds to step S49 described later. If no setting has been made to not give the blur effect to all the faces, a negative determination is made in step S43 and the process proceeds to step S45.
ステップS45では、最至近の顔にボケ効果を付与しない設定がなされているか否かを判定する。最至近の顔にボケ効果を付与しない設定の場合には、ステップS45が肯定判定されてステップS46へ進む。ステップS46では、検出した顔に対応する部分範囲群95のデフォーカス量を比較して、最至近の顔、すなわちボケ効果を付与しない顔を特定して後述するステップS48へ進む。 In step S45, it is determined whether or not a setting is made so as not to give the blur effect to the closest face. In the case of setting not to give the blur effect to the closest face, an affirmative determination is made in step S45 and the process proceeds to step S46. In step S46, the defocus amount of the partial range group 95 corresponding to the detected face is compared, the closest face, that is, the face to which the blur effect is not given is specified, and the process proceeds to step S48 described later.
最至近と最遠方との中間位置の顔にボケ効果を付与しない設定がなされている場合には、ステップS45が否定判定されてステップS47へ進む。ステップS47では、検出した顔に対応する部分範囲群95のデフォーカス量を比較して、中間位置の顔、すなわちボケ効果を付与しない顔を特定して後述するステップS48へ進む。ステップS48では、ステップS46またはステップS47で特定されていない顔に対応する部分範囲群95のデフォーカス量に基づいて、各部分範囲群95に対するボケ量を決める係数を設定してステップS49へ進む。 If the setting is made so that the blur effect is not given to the face at the intermediate position between the nearest and farthest, a negative determination is made in step S45 and the process proceeds to step S47. In step S47, the defocus amount of the partial range group 95 corresponding to the detected face is compared, a face at an intermediate position, that is, a face to which no blur effect is applied is specified, and the process proceeds to step S48 described later. In step S48, a coefficient for determining the blur amount for each partial range group 95 is set based on the defocus amount of the partial range group 95 corresponding to the face not specified in step S46 or step S47, and the process proceeds to step S49.
ステップS49では、部分範囲群95ごとに、ステップS44またはステップS48で設定された係数に基づくボケ量にてボケ効果を付与した画像データを生成し第3モードを終了する。
ステップS42にて深度内に含まれない顔がある場合には、ステップS42が否定判定されてステップS50へ進み、検出した顔に対応する部分範囲群95のデフォーカス量を比較して、最至近の顔を特定してステップS51へ進む。ステップS51では、ステップS50にて特定された最至近の顔と同一の深度に含まれる顔を特定してステップS43へ進む。以後、ステップS51にて特定された複数の顔に対して、上述したステップS43〜ステップS49までの処理を行う。
In step S49, for each partial range group 95, image data to which a blur effect is applied with a blur amount based on the coefficient set in step S44 or step S48 is generated, and the third mode is ended.
If there is a face that is not included in the depth in step S42, a negative determination is made in step S42 and the process proceeds to step S50, where the defocus amount of the partial range group 95 corresponding to the detected face is compared, and the closest The face is identified and the process proceeds to step S51. In step S51, a face included in the same depth as the closest face specified in step S50 is specified, and the process proceeds to step S43. Thereafter, the processes from step S43 to step S49 described above are performed on the plurality of faces specified in step S51.
上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)カメラボディ200は、撮像素子8と、焦点検出演算回路14と、制御部5の算出部51と、背面モニタ17とを有する。撮像素子8は、撮像光学系1を通過した光束を受光して画像信号を出力する複数の撮像画素80を有する。焦点検出演算回路14は、撮像素子8から出力された画像信号を用いて撮像光学系1の焦点状態を検出する。算出部51は、焦点状態の検出精度が所定の閾値以上となる範囲を、撮像範囲92として算出する。背面モニタ17は、算出された撮像範囲92内の撮像画素80から出力された画像信号を用いて生成された画像を表示する。したがって、撮像素子8の撮像面のうち、ケラレ等の影響のない、またはケラレ等の影響の少ない光束が入射する範囲に設けられた撮像画素80からの撮像信号を用いて焦点検出演算と画像データの生成とを行い、焦点検出精度の低下を抑制させることができる。
According to the first embodiment described above, the following operational effects are obtained.
(1) The
(2)ボディ−レンズ通信部15は、撮像光学系1の射出瞳に関する情報を受信し、算出部51は、受信した撮像光学系1の射出瞳に関する情報と、撮像画素80における第1光電変換部82、第2光電変換部83がマイクロレンズ81により投影される位置に関する情報とを用いて、撮像範囲92を算出する。したがって、射出瞳の位置が異なる交換レンズ300が装着された場合や、ズームレンズのように射出瞳の位置が変化する場合であっても、ケラレ等の影響のない、またはケラレ等の影響の少ない光束が入射する撮像範囲92内の撮像画素80からの撮像信号を用いて焦点検出演算と画像データの生成とを行うことができる。
(2) The body-
(3)焦点検出演算回路14は、撮像範囲92を分割した部分範囲93について、デフォーカス量を算出する。マップ作成部16は、部分範囲93ごとのデフォーカス量の分布を示すデフォーカスマップを作成する。画像処理回路13は、マップ作成部16によって作成されたデフォーカスマップを用いて、画像信号を用いて生成された画像に対してぼかし処理を施す。背面モニタ17は、ぼかし処理が施された画像を表示する。これにより、撮像光学系1の光学的な特性で得られるボケ効果とは異なるボケ効果が施された画像データを生成することができる。
(3) The focus
(4)画像処理回路13は、部分範囲93ごとに、デフォーカス量の大きさに基づいて決定したボケ量でぼかし処理を施す。これにより、撮像光学系1の光学的な特性で得られるボケ効果よりもボケ効果が強調された画像データを生成することができる。
(4) The
−第2の実施の形態−
第2の実施の形態について説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、交換レンズが有する制御部にて撮像範囲を算出し、算出した撮像範囲をカメラボディ200へ送信する点で第1の実施の形態と異なる。
-Second Embodiment-
A second embodiment will be described. In the following description, the same components as those in the first embodiment are denoted by the same reference numerals, and different points will be mainly described. Points that are not particularly described are the same as those in the first embodiment. The present embodiment is different from the first embodiment in that an imaging range is calculated by a control unit included in the interchangeable lens, and the calculated imaging range is transmitted to the
図13は、第2の実施の形態による交換レンズ300の制御系の構成を示すブロック図である。第2の実施の形態による交換レンズ300のレンズ制御部7は、算出部71を有する。算出部71は、第1の実施の形態における制御部5が有する算出部51と同様に、焦点検出演算回路14による焦点状態の検出精度が所定の閾値以上となる撮像素子8の撮像面上の範囲を、撮像範囲92として算出する。撮像範囲92を算出するために、レンズ制御部7は、電気接点201、202(図1参照)を介して交換レンズ300に撮像素子8に関する情報の送信を依頼し、依頼に応じて送信された撮像素子8に関する情報を受信する。これにより、レンズ制御部7は、撮像素子8の撮像面の大きさや、撮像画素80のマイクロレンズ81により第1光電変換部82および第2光電変換部83が投影される投影像の位置を示す情報、撮像素子8の撮像面上での各撮像画素80の位置を示す情報を受信する。
FIG. 13 is a block diagram illustrating a configuration of a control system of the
算出部71は、レンズデータ部4から読み出した撮像光学系1の射出瞳の位置に関する情報と、カメラボディ200から受信した撮像素子8に関する情報とを用いて、撮像面上における撮像範囲92を算出する。この場合、算出部71は、第1の実施の形態におけるカメラボディ200に設けられた制御部5の算出部51と同様にして、撮像範囲92の大きさ、たとえば矩形範囲の各頂点の座標値を算出する。レンズ制御部7は、算出した撮像範囲92の大きさを示す情報を電気接点202を介してカメラボディ200の制御部5へ送信する。なお、レンズ制御部7は、撮像範囲92の頂点の座標値を大きさを算出して送信するものに限定されない。たとえば、算出部71は、撮像素子8の各撮像画素80が撮像範囲92内に含まれるか否かに対する判定結果を情報として送信しても良い。
The
レンズ制御部7から撮像範囲92の大きさを示す情報を受信したカメラボディ200では、第1の実施の形態の場合と同様にして、撮像範囲92からの撮像信号の出力、デフォーカス量の算出およびデフォーカスマップの作成、画像データの生成および表示等の処理を行う。すなわち、第2の実施の形態においては、図9のステップS2および図10のステップS22で行われた処理を交換レンズ300側で行う。
In the
上述した第2の実施の形態によれば、次の作用効果が得られる。
交換レンズ300は、レンズデータ部4と、レンズ制御部7とを備える。レンズデータ部4は、撮像光学系1の射出瞳に関する情報を記憶する。レンズ制御部7の算出部71は、カメラボディ200から受信した撮像素子8が有する撮像画素80に関する情報と、撮像光学系1の射出瞳に関する情報とに基づいて、撮像素子8の撮像面上の撮像範囲92を算出し、レンズ制御部7は撮像範囲92を示す情報をカメラボディ200に送信する。したがって、交換レンズ300側で撮像範囲92の演算を行うことにより、カメラボディ200側では他の演算を行うことができる。これにより、デジタルカメラ100の全体に対する処理負荷をカメラボディ200のみで負担することを防ぎ、デジタルカメラ100全体での処理負荷を低減することができる。
According to the second embodiment described above, the following operational effects can be obtained.
The
なお、上述した第2の実施の形態の交換レンズ300を以下のように変形しても良い。本変形例では、撮像範囲92の算出が、交換レンズ300のレンズ制御部7と、カメラボディ200の制御部5とによって分担して行われる。
本変形例の交換レンズ300の制御系の主要部構成は、図10に示す第2の実施の形態による交換レンズ300と同様である。レンズ制御部7の算出部71は、カメラボディ200の制御部5が撮像範囲92を決定する際に必要となる情報を算出し、算出した結果をカメラボディ200へ送信する。算出部71は、撮像範囲92の算出に必要となる情報として、撮像光学系1の射出瞳の位置と、撮像画素80のマイクロレンズ81により第1光電変換部82および第2光電変換部83が投影される投影像の位置とが重複していない範囲Δを算出する。
The
The main configuration of the control system of the
まず、算出部71は、電気接点201、202を介してカメラボディ200に撮像素子8に関する情報の送信を依頼し、依頼に応じて送信された撮像素子8に関する情報を受信する。これにより、算出部71は、撮像画素80の第1光電変換部82および第2光電変換部83の投影像の位置を示す情報を受信する。算出部71は、レンズデータ部4から読み出した撮像光学系1の射出瞳の位置と、カメラボディ200から受信した投影像の位置とが重複していない範囲Δを算出する。レンズ制御部7は、算出した重複していない範囲Δを示す情報を電気接点202を介してカメラボディ200の制御部5へ送信する。
First, the
レンズ制御部7から重複していない範囲Δを示す情報を受信したカメラボディ200の制御部5の算出部51は、重複していない範囲Δを用いて、第1の実施の形態の場合と同様にして、撮像範囲92を算出する。以後、制御部5、撮像素子制御回路6、焦点検出演算回路14および画像処理回路13は、第1の実施の形態で説明した処理と同様の処理を行う。
The
上述した第2の実施の形態の変形例によれば、次の作用効果が得られる。
交換レンズ300のレンズ制御部7の算出部71は、カメラボディ200から受信した撮像画素80の第1光電変換部82、第2光電変換部83のマイクロレンズ81による投影像の位置の情報と、撮像光学系1の射出瞳の位置の情報とに基づいて、撮像範囲92の算出の際に必要となる情報を算出する。これにより、カメラボディ200側で撮像光学系1の射出瞳の位置を示す情報が取得できない場合であっても、撮像範囲92を設定することが可能になる。
According to the modification of the second embodiment described above, the following operational effects are obtained.
The
次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(1)算出部51は、撮像範囲92内のケラレのない撮像画素80を選択するものに限定されず、撮像範囲92の外部の所定範囲(以後、外周範囲と呼ぶ)の撮像画素80についても選択して良い。外周範囲は、ケラレの影響を受けているが、第1光電変換部82、第2光電変換部83へ入射する光束の光量が大幅に減じられない範囲である。撮像範囲92と外周範囲とに含まれる撮像画素80からの撮像信号を用いて焦点検出を行った場合に、焦点検出精度が所定の閾値以上となるように外周範囲が設定される。すなわち、外周範囲は、焦点検出を行う場合の焦点検出精度の閾値に基づいて設定される範囲である。
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(1) The
焦点検出演算回路14は、撮像範囲92と外周範囲との内部の撮像画素80から出力された撮像信号を焦点検出信号として使用して、撮像光学系1の焦点状態を検出する。画像処理回路13は、撮像範囲92と外周範囲との内部の撮像画素80の第1光電変換部82からの第1撮像信号と第2光電変換部83からの第2撮像信号とが加算された画像信号を用いて、画像データを生成する。
The focus
(2)撮像範囲92内の撮像画素80からの撮像信号を用いてライブビュー画像を表示させるものに限定されない。たとえば、画像処理回路13は、撮像素子8の全ての撮像画素80から出力された撮像信号を用いてライブビュー画像を生成し、背面モニタ17はライブビュー画像に撮像範囲92を示す枠等を重畳して表示を行っても良い。
(2) It is not limited to what displays a live view image using the imaging signal from the
(3)撮像範囲92内の撮像画素80から出力された撮像信号に基づいて生成された静止画データや動画データを記憶媒体19に記憶するものに限定されない。撮像素子8の全ての撮像画素80から出力された撮像信号に基づいて生成された画像データと、撮像範囲92内の撮像画素80から出力された撮像信号に基づいて生成された静止画データや動画データとを関連付けて記憶媒体19に記憶しても良い。または、全ての撮像画素80からの撮像信号に対応する画像データと、ボケ効果が付与された静止画データや動画データとを関連付けて記憶媒体19に記憶してもよい。この場合も、静止画データや動画データにはデフォーカスマップが関連付けされて記憶されてよい。
(3) The present invention is not limited to storing the still image data and moving image data generated based on the imaging signal output from the
(4)表示中のライブビュー画像に大きなボケが発生している場合には、画像処理回路13は、生成された画像データをリサイズしてライブビュー画像として背面モニタ17に表示させてよい。この場合、リサイズした画像のみをライブビュー画像として表示しても良いし、リサイズした画像をライブビュー画像に重畳して表示しても良い。これにより、大きなボケが発生している画像を縮小した画像として表示させることができるので、ユーザは被写体の判別を容易に行うことができる。
(4) When a large blur occurs in the live view image being displayed, the
1…撮像光学系、4…レンズデータ部、5…制御部、
6…撮像素子制御回路、7…レンズ制御部、8…撮像素子、
9…電子ビューファインダ、11…操作部、13…画像処理回路、
14…焦点検出演算回路、15…ボディ−レンズ通信部、16…マップ作成部、
51…算出部、71…算出部、80…撮像画素、
100…デジタルカメラ、200…カメラボディ、300…交換レンズ
DESCRIPTION OF
6 ... Image sensor control circuit, 7 ... Lens control unit, 8 ... Image sensor,
9 ... Electronic viewfinder, 11 ... Operation unit, 13 ... Image processing circuit,
14 ... focus detection calculation circuit, 15 ... body-lens communication unit, 16 ... map creation unit,
51... Calculation unit, 71... Calculation unit, 80.
100 ... Digital camera, 200 ... Camera body, 300 ... Interchangeable lens
Claims (17)
前記交換レンズを通過した光を受光して焦点検出信号を出力する複数の焦点検出用画素を有する撮像素子と、
前記交換レンズから光学特性の情報を受信する受信部と、
前記撮像素子から出力された焦点検出信号により前記交換レンズの合焦状態を検出する焦点検出部と、
前記交換レンズの光学特性と前記焦点検出用画素に関する情報とから合焦状態を検出する範囲を設定する設定部と、を備えるカメラボディ。 A mounting part to which the interchangeable lens is mounted;
An image sensor having a plurality of focus detection pixels that receive light passing through the interchangeable lens and output a focus detection signal;
A receiver for receiving information on optical characteristics from the interchangeable lens;
A focus detection unit that detects the in-focus state of the interchangeable lens based on a focus detection signal output from the image sensor;
A camera body comprising: a setting unit that sets a range in which a focus state is detected from optical characteristics of the interchangeable lens and information on the focus detection pixels.
前記受信部は、前記交換レンズの光学特性の情報として、前記交換レンズの射出瞳に関する情報を受信するカメラボディ。 The camera body according to claim 1,
The receiving unit is a camera body that receives information about an exit pupil of the interchangeable lens as information on optical characteristics of the interchangeable lens.
前記焦点検出用画素に関する情報は、前記複数の焦点検出用画素の配置と、前記交換レンズを通過した光がマイクロレンズを介して前記焦点検出用画素に入射する位置とであるカメラボディ。 The camera body according to claim 1 or 2,
The information relating to the focus detection pixel is a camera body that is an arrangement of the plurality of focus detection pixels and a position where light that has passed through the interchangeable lens enters the focus detection pixel via a microlens.
前記焦点検出用画素毎に複数の光電変換部が設けられているカメラボディ。 The camera body according to any one of claims 1 to 3,
A camera body in which a plurality of photoelectric conversion units are provided for each focus detection pixel.
前記焦点検出部は、前記範囲を分割した部分範囲について、デフォーカス量を算出し、
前記部分範囲ごとのデフォーカス量の分布に基づくマップを作成するマップ作成部を備えるカメラボディ。 The camera body according to any one of claims 1 to 4,
The focus detection unit calculates a defocus amount for a partial range obtained by dividing the range,
A camera body comprising a map creation unit that creates a map based on a distribution of defocus amounts for each partial range.
前記マップ作成部によって作成された前記マップを用いて、前記撮像素子で生成された画像信号を用いて生成された画像に対してぼかし処理を施す処理部を備え、
前記処理部によりぼかし処理が施された画像が表示部に表示されるカメラボディ。 The camera body according to claim 5,
A processing unit that performs a blurring process on an image generated using an image signal generated by the image sensor using the map created by the map creating unit,
A camera body in which an image subjected to blurring processing by the processing unit is displayed on a display unit.
前記処理部は、前記部分範囲ごとに、前記デフォーカス量の大きさに基づいて決定したぼかし量で前記ぼかし処理を施すカメラボディ。 The camera body according to claim 6,
The camera body which performs the blurring process with the blurring amount determined based on the size of the defocus amount for each partial range.
前記ぼかし処理が施された画像と、前記作成されたマップとを関連付けて記憶する記憶部をさらに備えるカメラボディ。 The camera body according to claim 6 or 7,
A camera body further comprising a storage unit that stores the blurred image and the created map in association with each other.
前記範囲から出力された画像信号から生成された画像と、前記作成されたマップとを関連付けて記憶する記憶部をさらに備えるカメラボディ。 The camera body according to claim 6 or 7,
A camera body further comprising a storage unit that stores an image generated from an image signal output from the range and the created map in association with each other.
前記範囲から出力された画像信号から生成された画像と、前記ぼかし処理が施された画像と、前記作成されたマップとを関連付けて記憶する記憶部をさらに備えるカメラボディ。 The camera body according to claim 6 or 7,
A camera body further comprising a storage unit that stores an image generated from an image signal output from the range, an image subjected to the blurring process, and the created map in association with each other.
前記マップ作成部によって作成された前記マップを用いて、前記部分範囲ごとに、前記デフォーカス量の大きさに基づいて決定した強調効果を前記範囲から出力された画像に付加する処理部と、
前記処理部により前記強調効果が付加された画像を表示する表示部と、を備えるカメラボディ。 The camera body according to claim 5,
Using the map created by the map creation unit, a processing unit that adds, for each partial range, an enhancement effect determined based on the size of the defocus amount to an image output from the range;
And a display unit that displays an image to which the enhancement effect is added by the processing unit.
前記処理部は、前記決定した強調効果に対して、操作部材への操作に基づいてボケ量の強調度合いを変更するカメラボディ。 The camera body according to claim 11,
The processing unit is a camera body that changes an enhancement degree of a blur amount based on an operation on an operation member with respect to the determined enhancement effect.
前記強調効果が施された画像と、前記作成されたマップとを関連付けて記憶する記憶部をさらに備えるカメラボディ。 The camera body according to claim 11 or 12,
A camera body further comprising a storage unit that stores the image on which the enhancement effect has been applied and the created map in association with each other.
前記範囲から出力された画像と、前記作成されたマップとを関連付けて記憶する記憶部をさらに備えるカメラボディ。 The camera body according to claim 11 or 12,
A camera body further comprising a storage unit that stores an image output from the range in association with the created map.
前記範囲から出力された画像と、前記強調効果が施された画像と、前記作成されたマップとを関連付けて記憶する記憶部をさらに備えるカメラボディ。 The camera body according to claim 11 or 12,
A camera body further comprising a storage unit that stores an image output from the range, an image on which the enhancement effect is applied, and the created map in association with each other.
撮像光学系の射出瞳に関する情報を記憶する記憶部と、
前記カメラボディから、前記撮像素子が有する焦点検出用画素に関する情報を受信する受信部と、
前記撮像光学系の射出瞳に関する情報と前記焦点検出用画素に関する情報とから合焦状態を検出する範囲を設定する設定部と、
前記設定部により設定された前記範囲に関する情報を前記カメラボディに送信する送信部と、を備える交換レンズ。 A mounting portion to which a camera body having an image sensor is mounted;
A storage unit for storing information related to the exit pupil of the imaging optical system;
A receiving unit that receives information on focus detection pixels included in the image sensor from the camera body;
A setting unit for setting a range for detecting the in-focus state from information related to the exit pupil of the imaging optical system and information related to the focus detection pixels;
An interchangeable lens comprising: a transmission unit that transmits information about the range set by the setting unit to the camera body.
前記受信部は、複数の前記焦点検出用画素の配置と、前記交換レンズを通過した光がマイクロレンズを介して前記焦点検出用画素に入射する位置とを受信し、
前記設定部は、前記撮像光学系の前記射出瞳の位置の情報と、前記複数の焦点検出用画素の配置と、前記交換レンズを通過した光がマイクロレンズを介して前記焦点検出用画素に入射する位置とに基づいて、前記範囲に関する情報を設定する交換レンズ。
The interchangeable lens according to claim 16,
The receiving unit receives an arrangement of the plurality of focus detection pixels and a position at which light that has passed through the interchangeable lens enters the focus detection pixels via a microlens;
The setting unit includes information on a position of the exit pupil of the imaging optical system, an arrangement of the plurality of focus detection pixels, and light that has passed through the interchangeable lens enters the focus detection pixels via a microlens. An interchangeable lens that sets information on the range based on the position to be operated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016132797A JP2018005008A (en) | 2016-07-04 | 2016-07-04 | Camera body and interchangeable lens |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016132797A JP2018005008A (en) | 2016-07-04 | 2016-07-04 | Camera body and interchangeable lens |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018005008A true JP2018005008A (en) | 2018-01-11 |
Family
ID=60949169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016132797A Pending JP2018005008A (en) | 2016-07-04 | 2016-07-04 | Camera body and interchangeable lens |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018005008A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020195198A1 (en) * | 2019-03-27 | 2020-10-01 | ||
EP3873083A4 (en) * | 2018-11-02 | 2021-12-01 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Depth image processing method, depth image processing apparatus and electronic apparatus |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63284526A (en) * | 1987-05-15 | 1988-11-21 | Minolta Camera Co Ltd | Focus detecting device |
JP2008015754A (en) * | 2006-07-05 | 2008-01-24 | Nikon Corp | Image pickup device, image processor and image processing method |
JP2009219085A (en) * | 2008-03-13 | 2009-09-24 | Sony Corp | Imaging apparatus |
JP2010279054A (en) * | 2010-07-15 | 2010-12-09 | Fujifilm Corp | Image pickup device, image processing device, image pickup method, and image processing method |
JP2012032452A (en) * | 2010-07-28 | 2012-02-16 | Canon Inc | Camera system |
JP2014228818A (en) * | 2013-05-27 | 2014-12-08 | キヤノン株式会社 | Imaging device, imaging system, method for controlling imaging device, program and storage medium |
JP2016059051A (en) * | 2015-10-23 | 2016-04-21 | リコーイメージング株式会社 | Imaging device and distance information acquisition method |
JP2017021177A (en) * | 2015-07-10 | 2017-01-26 | キヤノン株式会社 | Range-finding point upon lens vignetting, range-finding area transition method |
-
2016
- 2016-07-04 JP JP2016132797A patent/JP2018005008A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63284526A (en) * | 1987-05-15 | 1988-11-21 | Minolta Camera Co Ltd | Focus detecting device |
JP2008015754A (en) * | 2006-07-05 | 2008-01-24 | Nikon Corp | Image pickup device, image processor and image processing method |
JP2009219085A (en) * | 2008-03-13 | 2009-09-24 | Sony Corp | Imaging apparatus |
JP2010279054A (en) * | 2010-07-15 | 2010-12-09 | Fujifilm Corp | Image pickup device, image processing device, image pickup method, and image processing method |
JP2012032452A (en) * | 2010-07-28 | 2012-02-16 | Canon Inc | Camera system |
JP2014228818A (en) * | 2013-05-27 | 2014-12-08 | キヤノン株式会社 | Imaging device, imaging system, method for controlling imaging device, program and storage medium |
JP2017021177A (en) * | 2015-07-10 | 2017-01-26 | キヤノン株式会社 | Range-finding point upon lens vignetting, range-finding area transition method |
JP2016059051A (en) * | 2015-10-23 | 2016-04-21 | リコーイメージング株式会社 | Imaging device and distance information acquisition method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3873083A4 (en) * | 2018-11-02 | 2021-12-01 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Depth image processing method, depth image processing apparatus and electronic apparatus |
US11562496B2 (en) | 2018-11-02 | 2023-01-24 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Depth image processing method, depth image processing apparatus and electronic device |
JPWO2020195198A1 (en) * | 2019-03-27 | 2020-10-01 | ||
WO2020195198A1 (en) * | 2019-03-27 | 2020-10-01 | ソニー株式会社 | Image processing device, image processing method, program, and imaging device |
EP3933474A4 (en) * | 2019-03-27 | 2022-07-27 | Sony Group Corporation | Image processing device, image processing method, program, and imaging device |
JP7435592B2 (en) | 2019-03-27 | 2024-02-21 | ソニーグループ株式会社 | Image processing device, image processing method, program, imaging device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101632578B1 (en) | Image capturing apparatus, image processing apparatus, and image processing method for generating auxiliary information for captured image | |
JP5421829B2 (en) | Imaging device | |
JP5676988B2 (en) | Focus adjustment device | |
JP5368350B2 (en) | Stereo imaging device | |
JP6045214B2 (en) | Focus adjustment apparatus and control method thereof | |
EP3383023B1 (en) | Imaging apparatus, control method, and non-transitory storage medium | |
JP6843604B2 (en) | Information processing device and information processing method | |
US20130141631A1 (en) | Auto-focus apparatus, image pick-up apparatus, and auto-focus method | |
JP2011022386A5 (en) | ||
JP2019079024A (en) | Imaging apparatus, control method, and program | |
JP6095266B2 (en) | Image processing apparatus and control method thereof | |
JP5628914B2 (en) | Imaging apparatus and imaging method | |
JP2018005008A (en) | Camera body and interchangeable lens | |
JP2014135562A (en) | Image pickup device and control method thereof | |
JP2012083584A (en) | Imaging device | |
JP6234094B2 (en) | Focus detection apparatus and imaging apparatus | |
JP6720037B2 (en) | Image processing device, imaging device, image processing method, and image processing program | |
JP5415208B2 (en) | Imaging device | |
JP6223502B2 (en) | Image processing apparatus, image processing method, program, and storage medium storing the same | |
JP2020085967A (en) | Image processor, method for controlling the same, and program | |
JP7271316B2 (en) | Imaging device and its control method | |
JP6702798B2 (en) | Image processing apparatus, control method thereof, imaging apparatus, and program | |
JP2017219786A (en) | Control device, imaging device, control method, program, and storage medium | |
JP2014063190A (en) | Imaging apparatus | |
JP2012247613A (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200728 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200924 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201126 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20201126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20210423 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210521 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210726 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210817 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210831 |