JP2014090227A - Imaging device and control method for the same - Google Patents

Imaging device and control method for the same Download PDF

Info

Publication number
JP2014090227A
JP2014090227A JP2012237482A JP2012237482A JP2014090227A JP 2014090227 A JP2014090227 A JP 2014090227A JP 2012237482 A JP2012237482 A JP 2012237482A JP 2012237482 A JP2012237482 A JP 2012237482A JP 2014090227 A JP2014090227 A JP 2014090227A
Authority
JP
Japan
Prior art keywords
image
imaging
shutter
focus state
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012237482A
Other languages
Japanese (ja)
Inventor
Yasushi Yamamoto
泰史 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012237482A priority Critical patent/JP2014090227A/en
Publication of JP2014090227A publication Critical patent/JP2014090227A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Shutters For Cameras (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress exposure unevenness in a shutter direction by an image correction processing in an imaging device having a shutter mechanism using both of a mechanical shutter and an electronic shutter function.SOLUTION: An imaging device has a shutter mechanism using both of a mechanical shutter 105 and an electronic shutter 107. An image processor 109 determines occurrence of exposure unevenness on the basis of information of an eye relief, a diaphragm value, an image height, a focal state detection result, the distance from an imaging face to the mechanical shutter and the slit width of the shutter. When a lack determination unit 122 determines occurrence of lack in a blurred image, correction processing for symmetrizing the brightness distribution of an image in an occurrence direction of the lack is executed. A correction filter applying unit 129 applies a correction filter with a filter coefficient having a characteristic whose shape corresponds to a shape obtained by reversing the brightness distribution of an achieved image 120 in the shutter running direction, and outputs data of a corrected image 130.

Description

本発明は、メカニカルシャッタと電子シャッタ機能を併用して撮像を行う場合の画像処理技術に関する。   The present invention relates to an image processing technique when imaging is performed using both a mechanical shutter and an electronic shutter function.

一眼レフタイプのデジタルカメラには、メカニカルシャッタと電子シャッタ機能を併用した機構(以下、併用型機構という)で撮像動作を行う装置がある。この場合、メカニカルシャッタとはフォーカルプレンシャッタであり、後幕を構成する。後幕の走行に先行して、撮像素子の電子シャッタ駆動が行われる。メカニカルシャッタの先幕に代えて、撮像素子の画素の電荷蓄積開始走査を行う電子シャッタを駆動することを、以下では電子先幕と呼ぶ。電子シャッタによる撮像動作の場合、例えばCMOS(相補型金属酸化膜半導体)センサを用いた撮像素子では、画素の蓄積電荷量をゼロにするリセット走査が行われる。これは、画素毎に、または複数の画素から成る領域若しくはライン(以下、画素領域という)毎に行われる。リセット走査から所定時間の経過後に、画素毎または画素領域毎に信号をそれぞれ読み出す走査が行われて、電子シャッタによる撮像動作が行われる。
併用型機構で撮像素子の露光を制御する場合には、先ず、撮像素子の電荷蓄積開始走査として、後幕の走行方向にて撮像素子の画素領域毎に順次リセット走査が行われる。所定時間の経過後に、後幕によって撮像素子を遮光した後、各画素に蓄積された電荷を順次に読み出す走査が行われる。
A single-lens reflex digital camera includes a device that performs an imaging operation using a mechanism that uses a mechanical shutter and an electronic shutter function together (hereinafter referred to as a combined mechanism). In this case, the mechanical shutter is a focal plane shutter and constitutes the rear curtain. Prior to the running of the trailing curtain, the electronic shutter of the image sensor is driven. Driving an electronic shutter that performs charge accumulation start scanning of the pixels of the image sensor instead of the mechanical shutter front curtain is hereinafter referred to as an electronic front curtain. In the case of an imaging operation using an electronic shutter, for example, in an imaging device using a CMOS (complementary metal oxide semiconductor) sensor, reset scanning is performed to reduce the accumulated charge amount of a pixel to zero. This is performed for each pixel or for each region or line (hereinafter referred to as a pixel region) composed of a plurality of pixels. After a lapse of a predetermined time from the reset scanning, scanning for reading out signals for each pixel or each pixel region is performed, and an imaging operation using an electronic shutter is performed.
When the exposure of the image sensor is controlled by the combined mechanism, first, as the charge accumulation start scan of the image sensor, reset scanning is sequentially performed for each pixel area of the image sensor in the running direction of the rear curtain. After a predetermined time has elapsed, the image sensor is shielded from light by the rear curtain, and then scanning is performed to sequentially read out the charges accumulated in each pixel.

ところで、交換レンズ式の一眼レフデジタルカメラでは、カメラ本体に装着された撮影レンズに応じて、焦点距離や射出瞳距離(像面からレンズの射出瞳位置までの距離)が異なる。このため、併用型機構では以下の問題がある。
電子シャッタは撮像素子面で機能し、メカニカルシャッタはその構成上、撮像素子面から光軸方向にやや離れた位置に配置される。従って、撮影レンズの焦点距離、射出瞳位置等の違いのため、メカニカルシャッタによる撮像面上での遮光位置が変化する。特にリセット走査時点からメカニカルシャッタによる遮光時点までの露光時間が短い場合、シャッタ走行方向にて露光ムラが生じることがある。この現象については後で詳述するが、カメラ本体に装着された撮影レンズの焦点距離、射出瞳位置等に応じて変化する。例えば、ピントの合っていない暈け像が円形ではなく、一部が欠けた状態になる。各種シーンを撮影して確認すると、特に木漏れ日の暈け像のように明暗がはっきりしている場合、円形の一部が欠けた像が明瞭に写ってしまうため、撮影者の意図しない画像になる可能性がある。
By the way, in an interchangeable lens type single-lens reflex digital camera, the focal length and the exit pupil distance (the distance from the image plane to the exit pupil position of the lens) differ depending on the photographing lens mounted on the camera body. For this reason, the combined mechanism has the following problems.
The electronic shutter functions on the image sensor surface, and the mechanical shutter is disposed at a position slightly away from the image sensor surface in the optical axis direction due to its configuration. Therefore, the light-shielding position on the imaging surface by the mechanical shutter changes due to differences in focal length, exit pupil position, and the like of the photographing lens. In particular, when the exposure time from the reset scanning time to the light shielding time by the mechanical shutter is short, uneven exposure may occur in the shutter travel direction. Although this phenomenon will be described in detail later, it changes according to the focal length, exit pupil position, and the like of the photographic lens mounted on the camera body. For example, a blurred image that is out of focus is not circular but partly missing. When shooting various scenes and checking them, especially when the light and darkness is clear, such as the sunbeams, the image lacking a part of the circle is clearly shown, resulting in an image unintended by the photographer. there is a possibility.

また、撮影レンズの絞り値及びピント位置、マクロレンズのフォーカス等によっても、射出瞳距離が変化し、メカニカルシャッタによる撮像面上の遮光位置が変化する場合がある。これらの原因によっても、シャッタ走査方向における像の一部が欠落する現象が発生し得る。この問題に対して特許文献1では、撮像素子のISO感度や露出時間を規制することで、像欠けが発生する撮影条件を回避する技術が開示されている。   Also, the exit pupil distance may change depending on the aperture value and focus position of the photographic lens, the focus of the macro lens, etc., and the light shielding position on the imaging surface by the mechanical shutter may change. Due to these causes, a phenomenon in which a part of the image in the shutter scanning direction is lost may occur. With respect to this problem, Patent Document 1 discloses a technique for avoiding an imaging condition in which image loss occurs by regulating the ISO sensitivity and exposure time of an image sensor.

特開2010−41510号公報JP 2010-41510 A

しかしながら、特許文献1のように撮影条件を制約することは、撮影者が自由に撮影設定を選べない点で不利益を受ける。
本発明は、メカニカルシャッタと電子シャッタ機能を併用したシャッタ機構を有する撮像装置において、画像補正処理によりシャッタ走行方向の露光ムラを抑制することを目的とする。
However, limiting the shooting conditions as in Patent Document 1 is disadvantageous in that the photographer cannot freely select the shooting settings.
An object of the present invention is to suppress exposure unevenness in the shutter traveling direction by image correction processing in an imaging apparatus having a shutter mechanism using both a mechanical shutter and an electronic shutter function.

上記課題を解決するために、本発明に係る装置は、撮像光学系を介して入射した光を電気信号に変換する撮像手段を有し、該撮像手段による電子シャッタを先幕とし、メカニカルシャッタを後幕とするシャッタ機構により露光制御を行う撮像装置であって、前記撮像光学系を介して入射した光を受光して焦点状態を検出する焦点状態検出手段と、前記焦点状態検出手段の検出情報を取得してデフォーカス量を算出し、前記撮像光学系の焦点調節制御を行う制御手段と、前記撮像手段による画像データと、前記焦点状態検出手段の検出情報と、前記制御手段からの撮影条件を示す情報を取得し、前記画像データに係る画像に露光ムラが発生すると判定した場合、前記シャッタ機構の走行方向にて前記画像の輝度分布を対称化する画像補正を行い、補正した画像データを出力する画像処理手段を備える。   In order to solve the above-described problems, an apparatus according to the present invention includes an imaging unit that converts light incident through an imaging optical system into an electrical signal, an electronic shutter by the imaging unit is used as a front curtain, and a mechanical shutter is provided. An imaging apparatus that performs exposure control using a shutter mechanism as a rear curtain, and receives focus light that is incident through the imaging optical system to detect a focus state, and detection information of the focus state detection unit , Calculating a defocus amount, and performing focus adjustment control of the imaging optical system, image data by the imaging unit, detection information of the focus state detection unit, and imaging conditions from the control unit Is acquired, and when it is determined that uneven exposure occurs in the image related to the image data, image correction is performed to symmetrize the luminance distribution of the image in the traveling direction of the shutter mechanism. An image processing means for outputting the corrected image data.

本発明によれば、画像補正処理によりシャッタ走行方向の露光ムラを抑制することができる。   According to the present invention, exposure unevenness in the shutter travel direction can be suppressed by the image correction process.

併用型機構における暈け像を説明する図である。It is a figure explaining the profit image in a combined use type mechanism. 図3ないし図7と併せて本発明の第1実施形態を説明するために、システム構成例(A)および画像処理部の構成例(B)を示すブロック図である。FIG. 8 is a block diagram showing a system configuration example (A) and a configuration example (B) of an image processing unit for explaining the first embodiment of the present invention in conjunction with FIG. 3 to FIG. 7. 撮像部が有する焦点状態検出部を説明する図である。It is a figure explaining the focus state detection part which an imaging part has. 像欠けについて算出処理例を説明する図である。It is a figure explaining the example of a calculation process about an image defect. 画像補正用フィルタ係数を説明する図である。It is a figure explaining the filter coefficient for image correction. 遠近競合時のフィルタ係数の修正について説明する図である。It is a figure explaining correction of the filter coefficient at the time of distance competition. チルト判定時の像の算出処理を説明する図である。It is a figure explaining the calculation process of the image at the time of tilt determination. 本発明の第2実施形態に係るシステム構成例を示すブロック図である。It is a block diagram which shows the system configuration example which concerns on 2nd Embodiment of this invention. 画像の分割例を示す図である。It is a figure which shows the example of a division | segmentation of an image.

以下、添付図面を参照して本発明の各実施形態について詳細に説明する。
撮像装置の構成を説明する前に、図1を参照して、併用型機構における電子先幕およびメカニカルシャッタの動作と、シャッタ走行方向に露光ムラが生じる現象について説明する。ここでは、特にリセット走査の実行時点から、メカニカルシャッタによる遮光時点までの時間が短い場合(例えば、1/4000秒等の短時間露光秒時)について、図1(A)ないし(C)を参照して説明する。なお、被写体側を前方と定義して各部の前後関係を説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
Before describing the configuration of the imaging apparatus, the operation of the electronic front curtain and mechanical shutter in the combined mechanism and the phenomenon in which uneven exposure occurs in the shutter traveling direction will be described with reference to FIG. Here, in particular, in the case where the time from the reset scanning execution time to the light shielding time by the mechanical shutter is short (for example, a short exposure time such as 1/4000 seconds), refer to FIGS. To explain. Note that the subject side is defined as the front side, and the front-rear relationship of each unit will be described.

図1(A)は撮影光束の状態を例示する。(a)図にて撮像面1のやや前方には、メカニカルシャッタ面2が位置し、さらに前方に射出瞳面3を示しており、撮像光学系の光軸4を2点鎖線で示している。(a)図は、光軸4より露光終了側(上方)にずれた像高5において、撮像面1の後方にレンズの焦点6が位置する、いわゆる「後ピン」状態を示している。リセットライン7は電子先幕の先端(下端)に相当し、図1では便宜上、部材として視覚化して表している。後幕8の先端(上端)はメカニカルシャッタの後幕のスリット形成部を示す。光線9、10は射出瞳を通る光束の上側光線9と下側光線10である。
(b−1)ないし(b−3)図に示す状態は、光軸4に沿う方向から見た場合に、射出瞳を通る光束の広がりを撮像面に投影した様子を示している。円11は撮像面1における光束の広がりを投影した像の外形を表し、円12はメカニカルシャッタ面2における光束の広がりを投影した像の外形を表す。(b−1)図にて、リセットライン7が下から上へと走行し、円11を横切るタイミングで露光が開始してから、後幕8が下から上へと走行し、円12を横切るタイミングで露光が終了する。
FIG. 1A illustrates the state of the imaging light flux. (A) In the figure, a mechanical shutter surface 2 is located slightly in front of the image pickup surface 1, and an exit pupil surface 3 is shown further forward, and an optical axis 4 of the image pickup optical system is indicated by a two-dot chain line. . FIG. 5A shows a so-called “rear pin” state in which the focal point 6 of the lens is located behind the imaging surface 1 at an image height 5 shifted from the optical axis 4 to the exposure end side (upward). The reset line 7 corresponds to the front end (lower end) of the electronic front curtain, and is shown as a member for convenience in FIG. The leading end (upper end) of the rear curtain 8 indicates a slit forming portion of the rear curtain of the mechanical shutter. Rays 9 and 10 are an upper ray 9 and a lower ray 10 of the light beam passing through the exit pupil.
The state shown in FIGS. (B-1) to (b-3) shows a state in which the spread of the light flux passing through the exit pupil is projected onto the imaging surface when viewed from the direction along the optical axis 4. A circle 11 represents the outer shape of the image obtained by projecting the spread of the light beam on the imaging surface 1, and a circle 12 represents the outer shape of the image obtained by projecting the spread of the light beam on the mechanical shutter surface 2. (B-1) In the figure, after the reset line 7 travels from the bottom to the top and exposure starts at the timing of crossing the circle 11, the rear curtain 8 travels from the bottom to the top and crosses the circle 12. The exposure ends at the timing.

リセット走査の実行からメカニカルシャッタによる遮光までの時間が極端に短い場合について、(b−2)図を参照して説明する。この場合、リセットライン7が円11の下端11aに到達する前に、円12の下端12aを後幕8の上端が通過してしまうことが起こり得る。円11と円12の上端を通る光線が上側光線9に対応し、円11と円12の下端を通る光線が下側光線10に対応する。下側光線10では露光開始時点より先に、露光終了のタイミングが来ることになるため、撮像面1での像は下側の一部が欠けた形状となる。
(b−3)図は、(b−2)図よりも僅かに時間が経過した状態を示す。リセットライン7は円11のほぼ中心にまで到達しており、後幕8の上端は円12の中心に到達していない。つまり、像欠けが発生した以後には円形状の暈け像が露光されることになる。この様に、撮像面1とメカニカルシャッタ面2での各光束の広がりに対して、電子先幕および後幕がその下端、中心、上端を通過するタイミングにばらつきが生じると、露光ムラが発生する。その結果、(c)図に示すように、撮像面1で露光される像13は下側に欠落部が生じ、上下方向(シャッタ走行方向)に露光ムラが発生する。
A case where the time from the execution of reset scanning to the light shielding by the mechanical shutter is extremely short will be described with reference to FIG. In this case, the upper end of the trailing curtain 8 may pass through the lower end 12a of the circle 12 before the reset line 7 reaches the lower end 11a of the circle 11. A light ray passing through the upper ends of the circles 11 and 12 corresponds to the upper light ray 9, and a light ray passing through the lower ends of the circles 11 and 12 corresponds to the lower light ray 10. In the lower light ray 10, since the exposure end timing comes before the exposure start time, the image on the imaging surface 1 has a shape in which a part on the lower side is missing.
(B-3) The figure shows the state in which a little time has passed compared to (b-2). The reset line 7 reaches almost the center of the circle 11, and the upper end of the trailing curtain 8 does not reach the center of the circle 12. That is, a circular blurred image is exposed after image loss occurs. As described above, if the timings at which the electronic front curtain and the rear curtain pass through the lower end, the center, and the upper end of the light beams on the imaging surface 1 and the mechanical shutter surface 2 vary, exposure unevenness occurs. . As a result, as shown in FIG. 3C, the image 13 exposed on the imaging surface 1 has a missing portion on the lower side, and uneven exposure occurs in the vertical direction (shutter travel direction).

図1(B)は、図1(A)の場合と同様の像高5にて、撮像面1よりも焦点6が前方に位置する、いわゆる「前ピン」状態を示す。(b)図に示す円11は撮像面1での光束の広がりを表し、その上端を通る光線が下側光線10に対応し、円11の下端を通る光線が上側光線9に対応する。一方、円12はメカニカルシャッタ面2での光束の広がりを表し、上端を通る光線が上側光線9に対応し、下端を通る光線が下側光線10に対応する。つまり、「前ピン」状態では、円11、12の上下端にそれぞれ対応する上側光線と下側光線の関係が逆になっている。その結果、(c)図に示すように、撮像面1で露光される像13の欠ける位置が「後ピン」状態とは逆になり、露光ムラも逆向きとなる。   FIG. 1B shows a so-called “front pin” state in which the focal point 6 is positioned forward of the imaging surface 1 at the same image height 5 as in FIG. (B) The circle 11 shown in the figure represents the spread of the light flux on the imaging surface 1, the light ray passing through the upper end thereof corresponds to the lower light ray 10, and the light ray passing through the lower end of the circle 11 corresponds to the upper light ray 9. On the other hand, the circle 12 represents the spread of the light flux on the mechanical shutter surface 2, the light ray passing through the upper end corresponds to the upper light ray 9, and the light ray passing through the lower end corresponds to the lower light ray 10. That is, in the “front pin” state, the relationship between the upper and lower rays corresponding to the upper and lower ends of the circles 11 and 12 is reversed. As a result, as shown in FIG. 7C, the position where the image 13 exposed on the imaging surface 1 is missing is opposite to the “rear pin” state, and the exposure unevenness is also opposite.

図1(C)は、図1(A)と同様に「後ピン」状態であるが、像高5が光軸4の下側である。(b)図に示すように、円11と円12との中心同士の関係が、図1(A)にて(b−1)図に示す状態と異なる。具体的には、図1(C)の(b)図にて、円11と円12は同心ではなく、円11の中心が円12の中心から下側にずれている。他方、図1(A)のように像高5が光軸4の上側である場合、円11の中心は円12の中心よりも上側にずれている。(b)図に示す状態では、このずれの違いにより、後幕8の上端が円12の下端を取り過ぎる前に、リセットライン7が円11の下端を通過できる。結果として、撮像面1で露光される像13は、欠けのない円となるが、露光ムラは発生する。   FIG. 1C shows a “rear pin” state as in FIG. 1A, but the image height 5 is below the optical axis 4. (B) As shown in the figure, the relationship between the centers of the circle 11 and the circle 12 is different from the state shown in the (b-1) diagram in FIG. Specifically, in FIG. 1C (b), the circle 11 and the circle 12 are not concentric, and the center of the circle 11 is shifted downward from the center of the circle 12. On the other hand, when the image height 5 is above the optical axis 4 as shown in FIG. 1A, the center of the circle 11 is shifted above the center of the circle 12. (B) In the state shown in the figure, due to the difference in the deviation, the reset line 7 can pass through the lower end of the circle 11 before the upper end of the trailing curtain 8 takes the lower end of the circle 12 too much. As a result, the image 13 exposed on the imaging surface 1 becomes a circle without a chip, but exposure unevenness occurs.

以上のことから、以下の現象が引き起こされることが分かる。
・ピントの合っていない暈け像が円形でなく、一部が欠けること。
・ピントの合った被写体を基準として、遠景側と近景側とで暈け像の欠ける方向が異なること。
・画面の位置(像高)によって像の欠け状態(欠落部の有無を含む)が異なること。
例えば、撮影状態でのカメラ姿勢を正位置として、シャッタ走行方向を図1の下から上とする場合、遠景側の暈け像は下側が欠け(図1(A)の(c)図参照)、近景側の暈け像は上側が欠ける(図1(B)の(c)図参照)。特に、画面の下側にて像の欠ける現象(近景の暈け像の欠け)が顕著である。
From the above, it can be seen that the following phenomenon is caused.
・ The out-of-focus image is not circular and part of it is missing.
-The direction in which the blurred image is missing differs between the distant view and the close view, with the subject in focus as the reference.
-The missing state of the image (including the presence or absence of a missing part) differs depending on the screen position (image height).
For example, when the camera posture in the shooting state is the normal position and the shutter travel direction is from the bottom to the top in FIG. 1, the blurred image on the far side is missing on the bottom (see FIG. 1 (C)). In the near-field side, the upper side of the blurred image is missing (see FIG. 1B (c)). In particular, a phenomenon in which an image is missing at the lower side of the screen (a missing blurred image in the foreground) is remarkable.

[第1実施形態]
以下、本発明の第1実施形態を説明する。本実施形態に係る撮像装置は、併用型機構を用いて露光制御を行う場合に発生する前記現象による露光ムラを画像補正で抑制する手段を備える。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described. The imaging apparatus according to the present embodiment includes means for suppressing exposure unevenness due to the above-described phenomenon that occurs when exposure control is performed using a combined mechanism by image correction.

図2(A)は本実施形態のシステムおよび画像処理を説明するブロック図である。カメラ本体101と撮影レンズ装置102から成る、レンズ交換タイプの撮像装置を例示する。
撮像光学系103は複数のレンズ群や光学部材を備える。図2(A)には、撮像光学系に含まれる絞り103aと、焦点調節用のフォーカスレンズ103bを光軸104上に示すが、ズームレンズ等が設けられている。レンズ駆動部110は可動光学部材を駆動するアクチュエータを備え、レンズ制御部111からの制御信号に従って、絞り103aの開口制御や可動レンズの位置制御を行う。電気接点112は、カメラ本体101と、これに装着された撮影レンズ装置102とを繋ぐ通信および電源接続部であり、レンズ制御部111とカメラ制御部114とを仲介する。これらの制御部は、例えばCPU(中央演算処理装置)を備え、メモリから読み出した所定のプログラムを実行することにより各部を制御する。
FIG. 2A is a block diagram illustrating the system and image processing of this embodiment. An example of an interchangeable lens type imaging device that includes a camera body 101 and a photographing lens device 102 is illustrated.
The imaging optical system 103 includes a plurality of lens groups and optical members. In FIG. 2A, a diaphragm 103a and a focus lens 103b for focus adjustment included in the imaging optical system are shown on the optical axis 104, but a zoom lens or the like is provided. The lens driving unit 110 includes an actuator that drives the movable optical member, and performs aperture control of the diaphragm 103a and position control of the movable lens in accordance with a control signal from the lens control unit 111. The electrical contact 112 is a communication and power supply connection unit that connects the camera body 101 and the photographing lens device 102 attached thereto, and mediates between the lens control unit 111 and the camera control unit 114. These control units include, for example, a CPU (Central Processing Unit), and control each unit by executing a predetermined program read from the memory.

メカニカルシャッタ105はフォーカルプレンシャッタであり、カメラ制御部114により駆動制御が行われる。メカニカルシャッタ105の後幕は、電子先幕とともにシャッタ機構を構成する。撮像部106はCMOSセンサ等の撮像素子を備える。撮像素子は、撮像光学系103を介して入射した光を電気信号に変換し、撮像した画像データを画像処理部109に出力する。撮像部106は電子シャッタ107の機能を有し、焦点状態検出部108を備える。撮像光学系103に係る焦点状態の検出情報は、焦点状態検出部108からカメラ制御部114に送られて焦点調節制御が行われる。焦点状態検出部108の検出情報は、ピントが合っているか否か、およびピントが合っていない場合にはそのずれ量の情報を含んでおり、カメラ制御部114は検出情報からデフォーカス量を算出する。
画像処理部109が処理した画像データは、メモリ部116に記憶される。表示部115は液晶パネル等の表示デバイスを有し、カメラ制御部114の制御指令に従って、撮影画像や各種情報を表示する。
The mechanical shutter 105 is a focal plane shutter, and drive control is performed by the camera control unit 114. The rear curtain of the mechanical shutter 105 constitutes a shutter mechanism together with the electronic front curtain. The imaging unit 106 includes an imaging element such as a CMOS sensor. The imaging element converts light incident through the imaging optical system 103 into an electrical signal, and outputs the captured image data to the image processing unit 109. The imaging unit 106 has a function of an electronic shutter 107 and includes a focus state detection unit 108. The focus state detection information related to the imaging optical system 103 is sent from the focus state detection unit 108 to the camera control unit 114 to perform focus adjustment control. The detection information of the focus state detection unit 108 includes information on whether or not the subject is in focus, and information on the amount of shift when the subject is not in focus. The camera control unit 114 calculates the defocus amount from the detection information. To do.
The image data processed by the image processing unit 109 is stored in the memory unit 116. The display unit 115 includes a display device such as a liquid crystal panel, and displays captured images and various types of information according to control commands from the camera control unit 114.

次に、撮像装置の動作について概要を説明する。
撮影レンズ装置102において、撮像光学系103を構成する絞り103aおよびフォーカスレンズ103bはレンズ駆動部110により制御され、この状態で被写体からの光がカメラ本体101へと導かれる。カメラ本体101では、焦点状態検出部108により焦点状態検出が行われる。つまり、被写体にピントが合っているか否か、およびずれ量が検出され、検出信号はカメラ制御部114に出力される。また、撮影レンズ装置102によりカメラ本体101に導かれた被写体光は、メカニカルシャッタ105および電子シャッタ107により露出制御され、撮像部106は撮像信号を画像処理部109に出力する。画像処理部109は、撮像部106から取得した撮像信号の画像データと、カメラ制御部114を介して送られる焦点状態検出情報を含む撮影情報に基づいて画像処理を行う。画像処理部109が行う画像補正処理の詳細については後で説明する。画像処理後の画像データはメモリ部116に記憶され、カメラ制御部114は操作部(不図示)からの操作指示を受け付けて、撮影画像等のデータをメモリ部116から読み出して、表示部115の画面に表示させる制御を行う。
Next, an outline of the operation of the imaging apparatus will be described.
In the photographic lens device 102, the aperture 103a and the focus lens 103b constituting the imaging optical system 103 are controlled by the lens driving unit 110, and light from the subject is guided to the camera body 101 in this state. In the camera body 101, the focus state detection unit 108 performs focus state detection. That is, whether or not the subject is in focus and the amount of shift are detected, and the detection signal is output to the camera control unit 114. The subject light guided to the camera body 101 by the photographic lens device 102 is exposure controlled by the mechanical shutter 105 and the electronic shutter 107, and the imaging unit 106 outputs an imaging signal to the image processing unit 109. The image processing unit 109 performs image processing based on image data of an imaging signal acquired from the imaging unit 106 and imaging information including focus state detection information sent via the camera control unit 114. Details of the image correction processing performed by the image processing unit 109 will be described later. The image data after image processing is stored in the memory unit 116, and the camera control unit 114 receives an operation instruction from an operation unit (not shown), reads out data such as a photographed image from the memory unit 116, and displays the data on the display unit 115. Control the display on the screen.

次に図3を参照して、撮像部106における焦点状態検出部108の構成について説明する。本実施形態において撮像素子の各画素131は、複数の焦点状態検出素子を有する。これらの検出素子は、射出瞳の異なる領域を通過した光をそれぞれ検出する。図3の例では、1つの画素131が1対の副画素108a,108aを有する。副画素108a,108aの分割線は、隣接する画素同士で90°の角度差をもって互に相違し、各副画素108aを構成する光検出部(フォトダイオード)と不図示のマイクロレンズが設けられている。これらの複数の画素が全体として焦点状態検出部108を構成する。図3の例では、対をなす副画素108a,108aによってそれぞれ検出される各像(A像およびB像)の信号同士を比較することで像ずれ量が算出され、デフォーカス量(焦点ずれ量)への換算処理が行われる。カメラ制御部114は、デフォーカス量からレンズ駆動量を算出し、電気接点112を介して制御信号をレンズ制御部111に送信する。この制御信号を受信したレンズ制御部111はレンズ駆動部110を制御し、フォーカスレンズ103bを光軸に沿って移動させて焦点調節動作を行う。なお、1つの画素部における副画素の分割数については3以上でもよい。   Next, the configuration of the focus state detection unit 108 in the imaging unit 106 will be described with reference to FIG. In the present embodiment, each pixel 131 of the image sensor has a plurality of focus state detection elements. These detection elements respectively detect light that has passed through different areas of the exit pupil. In the example of FIG. 3, one pixel 131 has a pair of sub-pixels 108a and 108a. The dividing lines of the sub-pixels 108a and 108a are different from each other with an angle difference of 90 ° between adjacent pixels, and a photodetector (photodiode) and a microlens (not shown) constituting each sub-pixel 108a are provided. Yes. The plurality of pixels constitute the focus state detection unit 108 as a whole. In the example of FIG. 3, the image shift amount is calculated by comparing the signals of the respective images (A image and B image) detected by the pair of sub-pixels 108a and 108a, and the defocus amount (focus shift amount). ) Is converted. The camera control unit 114 calculates a lens driving amount from the defocus amount, and transmits a control signal to the lens control unit 111 via the electrical contact 112. Receiving this control signal, the lens control unit 111 controls the lens driving unit 110 and moves the focus lens 103b along the optical axis to perform a focus adjustment operation. Note that the number of sub-pixel divisions in one pixel portion may be three or more.

図2(B)は、画像処理部109が行う画像補正処理の流れを示す。データの流れがわかり易いように、処理手段を矩形枠で表し、データについては角を丸めた面取り状態の枠で区別して示している。取得画像120は画像処理部109が撮像部106から取得した画像データを示し、撮影情報121は画像処理部109がカメラ制御部114から取得した参照情報であり、焦点状態検出情報(デフォーカス量)を含む。補正フィルタテーブル123は、補正フィルタ係数のデータを含む。   FIG. 2B shows the flow of image correction processing performed by the image processing unit 109. In order to make the flow of data easy to understand, the processing means is represented by a rectangular frame, and the data is distinguished by a chamfered frame with rounded corners. The acquired image 120 indicates image data acquired by the image processing unit 109 from the imaging unit 106, and the shooting information 121 is reference information acquired by the image processing unit 109 from the camera control unit 114, and includes focus state detection information (defocus amount). including. The correction filter table 123 includes correction filter coefficient data.

欠け判定部122は、取得画像120と撮影情報121に基づき、暈け像に欠けがないか否かを判定する。暈け像に欠けが発生する場合(図1(A)、(B)参照)には、補正フィルタテーブル123から補正フィルタ係数124を取得する。この補正フィルタ係数124に対して、補正フィルタ修正部125は、取得画像120と撮影情報121に基づき、修正を施す。修正処理の詳細については後述するが、遠近競合判定部126およびチルト判定部127による判定結果に従って実行される。補正フィルタ修正部125は修正済み補正フィルタ係数128を補正フィルタ適用部129に出力する。補正フィルタ適用部129は取得画像120に対して実際に補正を行う画像補正手段である。この補正により取得画像120から補正画像130が得られる。補正画像130のデータは前記現象による露光ムラの発生を抑えた画像データである。   The lack determination unit 122 determines whether or not the blurred image is missing based on the acquired image 120 and the shooting information 121. When the blur image is missing (see FIGS. 1A and 1B), the correction filter coefficient 124 is acquired from the correction filter table 123. The correction filter correction unit 125 corrects the correction filter coefficient 124 based on the acquired image 120 and the shooting information 121. Although details of the correction process will be described later, the correction process is executed according to the determination results by the perspective conflict determination unit 126 and the tilt determination unit 127. The correction filter correction unit 125 outputs the corrected correction filter coefficient 128 to the correction filter application unit 129. The correction filter application unit 129 is an image correction unit that actually corrects the acquired image 120. With this correction, a corrected image 130 is obtained from the acquired image 120. The data of the corrected image 130 is image data in which the occurrence of uneven exposure due to the above phenomenon is suppressed.

取得画像120および撮影情報121を参照して常に画像補正処理に実行される訳ではなく、暈け像の欠け等が発生しない場合、補正は不要である。欠け判定部122は補正フィルタテーブル123から補正フィルタ係数124を選択せず、補正フィルタ適用部129は修正済み補正フィルタ係数128を適用しない。つまり、何も補正していない取得画像120のままで画像データが出力される。なお、本実施形態では、カメラ本体101の画像処理部109が画像補正処理を行う構成例を説明した。これに限らず、カメラ本体101と別途設けられた情報処理装置とを接続し、取得画像120および撮影情報121を情報処理装置に送信して前記と同様の画像補正処理を行う形態でもよい。この場合、カメラ本体101と情報処理装置により撮像装置(システム)が構成される。   The image correction process is not always executed with reference to the acquired image 120 and the photographing information 121, and correction is not necessary when a missing image is not lost. The lack determination unit 122 does not select the correction filter coefficient 124 from the correction filter table 123, and the correction filter application unit 129 does not apply the corrected correction filter coefficient 128. That is, the image data is output with the acquired image 120 without any correction. In the present embodiment, the configuration example in which the image processing unit 109 of the camera body 101 performs image correction processing has been described. However, the present invention is not limited to this, and the camera main body 101 and an information processing apparatus provided separately may be connected, and the acquired image 120 and shooting information 121 may be transmitted to the information processing apparatus to perform the same image correction processing as described above. In this case, the camera body 101 and the information processing apparatus constitute an imaging apparatus (system).

次に、図4を参照して、暈け像の欠けに関する算出処理を説明する。算出に際して、使用する各種パラメータは以下の通りである。
・射出瞳距離。
・絞り値(いわゆるF値)。
・像高および像高におけるデフォーカス量。
・撮像面からのメカニカルシャッタ面までの距離。
・電子先幕と後幕(メカニカルシャッタ)の走行時の距離であるスリット幅。
Next, with reference to FIG. 4, calculation processing related to missing blur images will be described. In the calculation, various parameters used are as follows.
-Exit pupil distance.
Aperture value (so-called F value).
-Image height and defocus amount at image height.
-Distance from the imaging surface to the mechanical shutter surface.
-The slit width, which is the distance when the electronic front curtain and rear curtain (mechanical shutter) travel.

図4(A)において(a)図は、図1(A)の(a)図に相当し、「後ピン」状態を示す。(b)図は横軸に時間をとり、縦軸に像高をとって示すグラフである。
(a)図に示す角度14は、撮像面1の光軸上での位置を基準として、F値から決定される上側光線と下側光線とがなす角度を表す。この角度14、および射出瞳面3と撮像面1との距離である射出瞳距離15から射出瞳径16が求まる。次に、ある像高5において、焦点状態検出部108の検出結果に基づくデフォーカス量17から焦点6の位置が決定される。これにより、撮像面1上での光束の広がりを表す円11を決めることができる。(a)図では、円11に対して上下方向の長さ(直径)11cを示す。また、設計量である撮像面1とメカニカルシャッタ面2との距離18から、同様にメカニカルシャッタ面2での光束の広がりを表す円12を決めることができる。(a)図では、円12に対して上下方向の長さ(直径)12cを示す。
なお、以下では撮像面1の上下方向における像高位置のみを議論する。撮像面の左右方向の像高位置に依存して、撮像面1とメカニカルシャッタ面2とで光束の広がりの関係は変化するが、欠けには影響しない。その理由は、2つの光束の広がりの位置関係におけるずれ方向が、シャッタ走査方向と垂直であることによる。
In FIG. 4A, FIG. 4A corresponds to FIG. 1A and shows the “rear pin” state. FIG. 4B is a graph showing time on the horizontal axis and image height on the vertical axis.
(A) The angle 14 shown in the figure represents an angle formed by the upper ray and the lower ray determined from the F value with reference to the position of the imaging surface 1 on the optical axis. The exit pupil diameter 16 is obtained from this angle 14 and the exit pupil distance 15 that is the distance between the exit pupil plane 3 and the imaging plane 1. Next, at a certain image height 5, the position of the focus 6 is determined from the defocus amount 17 based on the detection result of the focus state detection unit 108. Thereby, the circle 11 representing the spread of the light beam on the imaging surface 1 can be determined. In the figure, the length (diameter) 11c in the vertical direction with respect to the circle 11 is shown. Further, from the distance 18 between the imaging surface 1 and the mechanical shutter surface 2 which is a design amount, a circle 12 representing the spread of the light beam on the mechanical shutter surface 2 can be similarly determined. In the figure, the length (diameter) 12c in the vertical direction with respect to the circle 12 is shown.
In the following, only the image height position in the vertical direction of the imaging surface 1 will be discussed. Depending on the image height position in the left-right direction of the image pickup surface, the relationship between the spread of light fluxes on the image pickup surface 1 and the mechanical shutter surface 2 changes, but it does not affect the chipping. The reason is that the shift direction in the positional relationship between the spread of the two light beams is perpendicular to the shutter scanning direction.

(b)図では、撮像面1およびメカニカルシャッタ面2での上下方向の光束の広がりをそれぞれ表す円の長さ11c、12cを、縦軸である像高軸に射影して示している。円11の下端位置で像高11aとし、円12の下端位置で像高12aとする。また、円11の上端位置で像高11bをし、円12の上端位置で像高12bとする。右上がりのグラフ線7aは、電子先幕の先端の走行タイミングを例示し、グラフ線7a上の点から時間軸に下ろした垂線の足における時刻が露光開始のタイミングに相当する。時刻19a、19bは、像高11a、11bにそれぞれ対応する。また、右上がりのグラフ線8aは後幕の先端の走行タイミングを例示し、グラフ線8a上の点から時間軸に下ろした垂線の足における時刻が露光終了のタイミングに相当する。時刻20a、20bは、像高12a、12bにそれぞれ対応する。   In FIG. 5B, the lengths 11c and 12c of the circles representing the spread of the light beam in the vertical direction on the imaging surface 1 and the mechanical shutter surface 2 are projected onto the image height axis which is the vertical axis. The image height 11a is set at the lower end position of the circle 11, and the image height 12a is set at the lower end position of the circle 12. The image height 11b is set at the upper end position of the circle 11, and the image height 12b is set at the upper end position of the circle 12. The graph line 7a that rises to the right exemplifies the travel timing of the tip of the electronic front curtain, and the time at the foot of the perpendicular line drawn from the point on the graph line 7a to the time axis corresponds to the exposure start timing. Times 19a and 19b correspond to the image heights 11a and 11b, respectively. Further, the graph line 8a that rises to the right exemplifies the travel timing of the leading edge of the rear curtain, and the time at the foot of the perpendicular line drawn down from the point on the graph line 8a to the time axis corresponds to the exposure end timing. Times 20a and 20b correspond to the image heights 12a and 12b, respectively.

まず、グラフ線7aを参照して露光開始タイミングを説明する。像高11aを電子先幕が横切る時刻19aが、像下端での露光開始タイミングである。そして、像高11bを電子先幕が横切る時刻19bが、像上端での露光開始タイミングである。電子先幕の幕速が準等速であるとした場合、時刻19aから19bにかけて、像の下端から上端へと線形特性を示すグラフ線7aに従って露光が順次開始する。
次に、グラフ線8aを参照して露光終了タイミングについて説明する。像高12aを後幕が横切る時刻20aが、像下端での露光終了タイミングである。そして、像高12bを後幕が横切る時刻20bが、像上端での露光終了タイミングである。後幕の幕速が準等速であるとした場合、時刻20aから20bにかけて、像の下端から上端へと線形特性を示すグラフ線8aに従って露光が順次終了する。
First, the exposure start timing will be described with reference to the graph line 7a. The time 19a when the electronic front curtain crosses the image height 11a is the exposure start timing at the lower end of the image. The time 19b when the electronic front curtain crosses the image height 11b is the exposure start timing at the upper end of the image. Assuming that the curtain speed of the electronic front curtain is quasi-constant, the exposure starts sequentially from time 19a to 19b in accordance with the graph line 7a indicating linear characteristics from the lower end to the upper end of the image.
Next, the exposure end timing will be described with reference to the graph line 8a. The time 20a when the trailing curtain crosses the image height 12a is the exposure end timing at the lower end of the image. The time 20b when the trailing curtain crosses the image height 12b is the exposure end timing at the upper end of the image. Assuming that the curtain speed of the trailing curtain is quasi-constant, the exposure is sequentially terminated from time 20a to 20b according to the graph line 8a indicating the linear characteristic from the lower end to the upper end of the image.

以上の時刻19a、19b、20a、20b(20a<19a<19b<20b)から、像欠けおよび露光ムラが生じる原因を説明できる。例えば、(a)図に示す光学状態において、像下端での露光開始時刻19aと露光終了時刻20aを比べると、時刻20aの方が時間的に早い。この場合、像下端で露出が開始するよりも前に、終了時刻が過ぎているので、露出時間がゼロになる結果、像欠けが発生する。一方、像上端では露光開始時刻19bが先で、露光終了時刻20bが後である。露光開始タイミングと露光終了タイミングの時間的な前後関係は正常である。像上端で露出が行われ、像欠けは発生しない。   From the above times 19a, 19b, 20a, and 20b (20a <19a <19b <20b), the cause of image loss and exposure unevenness can be explained. For example, when the exposure start time 19a at the lower end of the image is compared with the exposure end time 20a in the optical state shown in FIG. 9A, the time 20a is earlier in time. In this case, since the end time has passed before the exposure starts at the lower end of the image, the image lack occurs as a result of the exposure time becoming zero. On the other hand, at the upper end of the image, the exposure start time 19b is first and the exposure end time 20b is later. The temporal relationship between the exposure start timing and the exposure end timing is normal. Exposure is performed at the upper end of the image, and no image loss occurs.

以上のように、像の下端と上端では欠け状態、つまり欠けの有無が異なり、当然に露出時間も異なる。露光開始タイミングおよび露光終了タイミングについては、像の下端から上端へと線形性をもつことを考慮すると、上下方向での露出時間は均一または線形な分布になっている筈である。図4(A)の場合、像下端の露出時間はゼロであって、暈け像の上端ではある露出時間となる。よって、像下端から露出時間ゼロの欠け状態が続き、ある位置(像高)から露出時間がゼロでなくなって(欠けがなくなり)、上端に向かうにつれ線形に露出時間が次第に長くなる、という光量分布が得られる。   As described above, the chipped state, that is, the presence / absence of the chipping is different at the lower end and the upper end of the image, and the exposure time is naturally different. With regard to the exposure start timing and the exposure end timing, the exposure time in the vertical direction should have a uniform or linear distribution in consideration of linearity from the lower end to the upper end of the image. In the case of FIG. 4A, the exposure time at the lower end of the image is zero, and the exposure time is at the upper end of the blurred image. Accordingly, the light quantity distribution is such that a chipped state with zero exposure time continues from the lower end of the image, the exposure time becomes zero (no chipping) from a certain position (image height), and the exposure time gradually increases linearly toward the upper end. Is obtained.

ここで、露光開始時刻19aよりも露光終了時刻20aが早くなってしまう場合について、「マイナスの露出時間」という概念を導入する。通常の露出時間はゼロまたは正値をとる。さらに負値を含むように露出時間を拡張した場合、「露光終了時刻−露光開始時刻」から決まる露出時間は、露光終了時刻<露光開始時刻のときに負値を示す。これにより、像の上端から下端以外の領域でも露出時間を線形に補間することができる。この概念を図4(B)に示す。
左図に示す像13は欠けており、斜線部13eが欠落部を示す。像13の円中心を通って上下方向に延びる直線との交点が下端での像高13aと上端での像高13bにそれぞれ対応する。像13の円中心を通って上下方向に延びる直線と、斜線部13eの境界線との交点の位置は像高13dに相当する。右図は、像13の各位置を縦軸である像高軸へと投射し、横軸に露出時間をとって両者の関係を示すグラフである。露出時間軸は原点Oの右側が正軸である。
Here, in the case where the exposure end time 20a is earlier than the exposure start time 19a, the concept of “minus exposure time” is introduced. Normal exposure time is zero or positive. When the exposure time is further extended to include a negative value, the exposure time determined from “exposure end time−exposure start time” shows a negative value when exposure end time <exposure start time. As a result, the exposure time can be linearly interpolated even in a region other than the upper end to the lower end of the image. This concept is shown in FIG.
The image 13 shown in the left figure is missing, and the hatched portion 13e indicates the missing portion. The intersections with a straight line extending in the vertical direction through the circle center of the image 13 correspond to the image height 13a at the lower end and the image height 13b at the upper end, respectively. The position of the intersection of the straight line extending in the vertical direction through the circle center of the image 13 and the boundary line of the hatched portion 13e corresponds to the image height 13d. The right figure is a graph showing the relationship between each position of the image 13 projected onto the image height axis which is the vertical axis and the exposure time on the horizontal axis. The exposure time axis is the positive axis on the right side of the origin O.

像高13aでの露出時間は負値であり、点21aに対応する時間を示す。また、像高13bでの露出時間は正値であり、点21bに対応する時間を示す。像高13aから像高13bにかけての露出時間の分布はグラフ線21で示すように線形であり、直線補間により得られる分布を呈する。この分布をみると縦軸の切片に相当する像高13dで露出時間がゼロとなっており、その下側に位置する像高13aないし像高13dの範囲(斜線部13e参照)で像が欠けることが分かる。   The exposure time at the image height 13a is a negative value and indicates the time corresponding to the point 21a. The exposure time at the image height 13b is a positive value and indicates the time corresponding to the point 21b. The exposure time distribution from the image height 13a to the image height 13b is linear as shown by the graph line 21, and exhibits a distribution obtained by linear interpolation. Looking at this distribution, the exposure time is zero at the image height 13d corresponding to the intercept of the vertical axis, and the image is missing in the range of the image height 13a to the image height 13d located below (see the hatched portion 13e). I understand that.

以上の手順により、欠け判定部122(図2(B)参照)は、像の欠け状態と露出時間分布を算出する。なお、像欠けおよび露光ムラは、前記パラメータにより一意的に決定される。その為、毎回算出を行う必要はない。本実施形態では、算出結果を予め求めておき、補正フィルタテーブル123を用いて画像補正を行うことで対処する。以下、補正フィルタ係数124の詳細について、図5を参照して説明する。
図5(A)は像13を例示し、下側の一部が欠けており、円中心を通って上下方向に延びる軸をynとする。この軸は、撮像面の横方向に設定されるx軸に直交する軸である。また、図5(B)にて(a)図に示すグラフは、ynを横軸にとり、縦軸に輝度をとって、像13の輝度分布22を例示する。図示のように輝度分布22は上下方向(yn方向)において非対称であり、範囲23に欠けがある。
Through the above procedure, the chipping determination unit 122 (see FIG. 2B) calculates the chipped state of the image and the exposure time distribution. Note that image defect and exposure unevenness are uniquely determined by the parameters. Therefore, it is not necessary to perform calculation every time. In the present embodiment, a calculation result is obtained in advance, and this is dealt with by performing image correction using the correction filter table 123. Details of the correction filter coefficient 124 will be described below with reference to FIG.
FIG. 5A illustrates the image 13, where a part of the lower side is missing and an axis extending in the vertical direction through the center of the circle is denoted by yn. This axis is an axis orthogonal to the x axis set in the horizontal direction of the imaging surface. 5B illustrates the luminance distribution 22 of the image 13 with y n on the horizontal axis and luminance on the vertical axis. As shown in the figure, the luminance distribution 22 is asymmetric in the vertical direction (y n direction), and the range 23 is missing.

撮像面の左右方向の座標をxとし、上下方向の座標をyとすると、暈け像の輝度分布関数f(x,y)を定義できる。(b)図は、暈け像に対し、欠けと上下非対称性を補正するフィルタ係数を例示し、横軸に座標ynをとり、縦軸にフィルタ係数をとっている。グラフ線24は補正フィルタ係数の変化を表し、係数値の分布は、(a)図に示す輝度分布22を、上下方向(yn方向)にて反転させた形状の特性をもつ。対称軸はynの原点を通って(b)図の縦軸に平行な方向に延びる軸である。
像13全体の輝度の和を変化させないようにするため、フィルタ係数の和は1となるように設定される。x座標とy座標を用いて補正フィルタを関数g(x,y)と定義することができる。補正後の暈け像の輝度分布関数をF(x,y)と定義した場合、下式で表される。
The brightness distribution function f (x, y) of the blurred image can be defined where x is the horizontal coordinate of the imaging surface and y is the vertical coordinate. FIG. 4B illustrates filter coefficients for correcting chipping and vertical asymmetry with respect to a blurred image, with the coordinate y n on the horizontal axis and the filter coefficient on the vertical axis. The graph line 24 represents the change of the correction filter coefficient, and the coefficient value distribution has a characteristic of a shape obtained by inverting the luminance distribution 22 shown in (a) in the vertical direction (y n direction). The symmetry axis is an axis that passes through the origin of y n and extends in a direction parallel to the vertical axis of FIG.
In order not to change the sum of the luminances of the entire image 13, the sum of the filter coefficients is set to 1. The correction filter can be defined as a function g (x, y) using the x coordinate and the y coordinate. When the brightness distribution function of the blurred image after correction is defined as F (x, y), it is expressed by the following equation.

[数式1]
F(x,y) = g(x,y)*f(x,y)
「*」はコンボリューション(畳み込み演算)を表す。F(x,y)に相当する補正後の輝度分布25を(c)図に示す。横軸は座標ynであり、縦軸は輝度を表す。輝度分布25の形状には欠けがなく、上下方向(yn方向)において対称となる。
[Formula 1]
F (x, y) = g (x, y) * f (x, y)
“*” Represents convolution (convolution operation). The corrected luminance distribution 25 corresponding to F (x, y) is shown in FIG. The horizontal axis is the coordinate y n, the vertical axis represents luminance. The shape of the luminance distribution 25 is not chipped and is symmetric in the vertical direction (y n direction).

対称化の画像補正処理によって像13の欠落部が補われ、輝度分布が上下対称形状へと補正される。なお、このような補正については、焦点状態検出部108での検出誤差や、補正処理の負荷を考慮して特定の条件下で適用する形態が挙げられる。特定の条件とは、例えば、特に像欠けが明瞭に判る木漏れ日のような後ピン状態での撮影シーン等である。   The missing portion of the image 13 is compensated by the symmetrized image correction process, and the luminance distribution is corrected to a vertically symmetric shape. Such correction may be applied under specific conditions in consideration of detection errors in the focus state detection unit 108 and the load of correction processing. The specific condition is, for example, a shooting scene in a back-pin state such as a sun leaking day in which an image defect is clearly seen.

次に、補正フィルタ選択の特殊な場合について図6を参照して説明する。
図6(A)は、近接する範囲内で異なる焦点状態検出結果となる領域が存在する、いわゆる遠近競合の状態を例示する。暈け像13Kと13Lは近接しており、暈け像13Lの方が13Kよりもデフォーカス量が大きいものとする。暈け像13Kと13Lにはいずれも欠けがあり、重なり合う領域内に点P25を示す。
両像の重なる領域内の点P25を中心とする暈け像を補正する場合、異なるデフォーカス量の2像が近接する領域では、正確な焦点状態検出を行うことが困難な場合がある。つまり、暈け像13K,13Lと、点P25で得られた焦点状態検出結果をもとに算出した暈け像13x(2点鎖線参照)が異なる結果、暈け像13xに対応する補正フィルタ係数では、実際の暈け像に対して適切な補正ができない。この問題への解決策を以下に説明する。なお、遠近競合判定部126(図2(B)参照)は、異なるデフォーカス量から算出される暈け像13Kと13Lが重なる状態を遠近競合として判定し、後述する回避処理を実施する。
Next, a special case of correction filter selection will be described with reference to FIG.
FIG. 6A illustrates a so-called perspective conflict state in which there are regions that have different focus state detection results within a close range. It is assumed that the blurred images 13K and 13L are close to each other, and the blurred image 13L has a larger defocus amount than 13K. The blurred images 13K and 13L are both missing, and a point P25 is shown in the overlapping region.
When correcting a blurred image centered on the point P25 in a region where both images overlap, it may be difficult to accurately detect the focus state in a region where two images having different defocus amounts are close to each other. That is, as a result of the difference between the blurred images 13K and 13L and the blurred image 13x (see the two-dot chain line) calculated based on the focus state detection result obtained at the point P25, the correction filter coefficient corresponding to the blurred image 13x. Then, an appropriate correction cannot be performed for an actual blurred image. A solution to this problem is described below. The perspective conflict determination unit 126 (see FIG. 2B) determines that the blurred images 13K and 13L calculated from different defocus amounts overlap as perspective conflict, and performs an avoidance process described later.

図6(A)に示す点P25では焦点状態検出が困難である一方で、点P25を挟んで暈け像13Kと13Lが近接している。よって、点P25、暈け像13K、13Lでのデフォーカス量をそれぞれDEF(P25)、DEF(13K)、DEF(13L)と記すとき、「DEF(13K)<DEF(P25)<DEF(13L)」の関係が成立する。点P25では、暈け像13Kより大きく暈け像13Lより小さいデフォーカス値であるため、暈け像13Kと13Lに対応する補正フィルタ係数のうち、どちらを施すかについての選択基準が必要になる。以下では、どちらを使えば支障なく補正が行われ、影響を回避できるのかについて説明する。   While it is difficult to detect the focus state at the point P25 shown in FIG. 6A, the blurred images 13K and 13L are close to each other across the point P25. Accordingly, when the defocus amounts at the point P25 and the blurred images 13K and 13L are denoted as DEF (P25), DEF (13K), and DEF (13L), respectively, “DEF (13K) <DEF (P25) <DEF (13L) ) ”Is established. Since the defocus value is larger than the blurred image 13K and smaller than the blurred image 13L at the point P25, a selection criterion is required as to which of the correction filter coefficients corresponding to the blurred images 13K and 13L is to be applied. . In the following, it will be described which one can be used for correction without any trouble and the influence can be avoided.

本実施形態のように、正のフィルタ係数だけで構成されるフィルタ処理を画像データに施すと、画像の鮮鋭度が低下し、暈けた画像となる。暈けの度合いは、よりタップ長の長いフィルタにおいて大きい。径および欠けの予測できない暈け像に対して、ぼやけさせる効果をもつフィルタを施す場合、暈けの度合いを低く抑えた方が劣化は小さい。このことから、暈け像13Kと13Lに対応する補正フィルタのタップ長に着目し、タップ長がより短い方を選択するという基準を採用すればよい。   As in the present embodiment, when image data is subjected to filter processing composed of only positive filter coefficients, the sharpness of the image is reduced, resulting in a blurred image. The degree of blurring is greater for filters with longer tap lengths. When a filter having a blurring effect is applied to a blurred image whose diameter and chipping cannot be predicted, the deterioration is smaller when the degree of blurring is kept low. Therefore, it is only necessary to pay attention to the tap length of the correction filter corresponding to the blurred images 13K and 13L and to adopt a criterion of selecting a shorter tap length.

まず、遠近競合判定部126は、暈け像13Kと13Lを比較する。図6(B)の左図に暈け像13Kと13Lを同心状態で示す。右図はynを横軸にとり、輝度を縦軸にとったグラフである。グラフ線22Kはデフォーカス量が相対的に小さい暈け像13Kの輝度分布を示し、グラフ線22Lはデフォーカス量が相対的に大きい暈け像13Lの輝度分布を示す。グラフ線22Kと22Lは重なり合っているが、多少のずれがある。暈け像13Kと13Lは、1枚の撮影画像中の暈け像であるため、像高および焦点状態検出結果以外の撮影情報は等しい。但し、両像は近接する像であるため、像高さはほぼ等しいと考えられるので、焦点状態検出結果であるデフォーカス量だけが異なる。径26K、26Lは暈け像13K、13Lの径をそれぞれ示している。これらの径はデフォーカス量に比例して変化するが、暈け像におけるそれぞれの欠けの範囲23K、23Lの割合は、さほど異ならない。 First, the perspective conflict determination unit 126 compares the blurred images 13K and 13L. The left images in FIG. 6B show the blurred images 13K and 13L in a concentric state. The right figure is a graph with y n on the horizontal axis and luminance on the vertical axis. The graph line 22K indicates the luminance distribution of the blurred image 13K with a relatively small defocus amount, and the graph line 22L indicates the luminance distribution of the blurred image 13L with a relatively large defocus amount. Although the graph lines 22K and 22L overlap, there is a slight deviation. Since the blurred images 13K and 13L are blurred images in one captured image, the captured information other than the image height and the focus state detection result is the same. However, since both images are close to each other, the image heights are considered to be substantially equal, and therefore only the defocus amount as a focus state detection result is different. The diameters 26K and 26L indicate the diameters of the blurred images 13K and 13L, respectively. These diameters change in proportion to the defocus amount, but the ratios of the respective missing areas 23K and 23L in the blurred image are not so different.

次に、暈け像13Kおよび13Lに対する、補正用のフィルタ係数について、図6(C)を参照して説明する。グラフ線24Kはデフォーカス量が相対的に小さい暈け像13Kに対するフィルタ係数を示し、グラフ線24Lはデフォーカス量が相対的に大きな暈け像13Lに対するフィルタ係数を示す。これらは図6(B)に示すグラフ線22K、22Lを対称軸に関してそれぞれ折り返した反転形状を有する。像同士の径の差と、欠け割合が概ね一致することを考慮すると、フィルタのタップ長はデフォーカス量の大きいフィルタの方が長く、デフォーカス量の小さいフィルタの方が短くなることが分る。このことと前述の議論を踏まえると、点P25に施すのに好ましいフィルタ、すなわち、遠近競合判定部126の選択結果は、デフォーカス量の小さい暈け像13Kに対応するフィルタである。該フィルタの使用により、遠近競合時における上記問題を解決できる。   Next, correction filter coefficients for the blurred images 13K and 13L will be described with reference to FIG. A graph line 24K indicates a filter coefficient for the blurred image 13K having a relatively small defocus amount, and a graph line 24L indicates a filter coefficient for the blurred image 13L having a relatively large defocus amount. These have inverted shapes in which the graph lines 22K and 22L shown in FIG. Considering that the difference between the diameters of the images and the ratio of missing parts are almost the same, it can be seen that the filter tap length is longer for a filter with a large defocus amount and shorter for a filter with a small defocus amount. . Based on this and the above-described argument, the filter that is preferable for the point P25, that is, the selection result of the perspective conflict determination unit 126 is a filter corresponding to the blurred image 13K with a small defocus amount. The use of the filter can solve the above problem at the time of perspective conflict.

次に、補正フィルタ選択に係る特殊な場合の別例について、図7を用いて説明する。
図7(A)は、撮像面1、メカニカルシャッタ面2、射出瞳面3等の光学的な関係を示し、カメラ本体101に装着される撮影レンズ装置102がチルトレンズの場合である。つまり、射出瞳面3およびその中心軸28は光軸4に対して傾斜しているので、撮像面1、メカニカルシャッタ面2に対して垂直でない。この場合、補正対象の暈け像は、レンズの傾きに起因して楕円形となる。以下では、撮像光学系のチルト状態において好ましい補正フィルタについて説明する。なお、チルト判定部127(図2(B)参照)はチルト量(撮像面1に対するレンズの傾き角)を求め、傾き判定結果を補正フィルタの修正結果に反映させる。
Next, another example of a special case relating to correction filter selection will be described with reference to FIG.
FIG. 7A shows an optical relationship between the imaging surface 1, the mechanical shutter surface 2, the exit pupil surface 3, and the like, and is a case where the photographing lens device 102 mounted on the camera body 101 is a tilt lens. That is, the exit pupil plane 3 and the central axis 28 thereof are not perpendicular to the imaging plane 1 and the mechanical shutter plane 2 because they are inclined with respect to the optical axis 4. In this case, the blurred image to be corrected is elliptical due to the tilt of the lens. Hereinafter, a preferable correction filter in the tilt state of the imaging optical system will be described. Note that the tilt determination unit 127 (see FIG. 2B) calculates a tilt amount (a lens tilt angle with respect to the imaging surface 1), and reflects the tilt determination result in the correction filter correction result.

図2(A)に示す撮影レンズ装置102がカメラ本体101に装着された際、レンズ制御部111は電気接点112を介してレンズの情報をカメラ制御部114へ送る。これにより、チルトレンズが装着された際にカメラ制御部114は撮影レンズがチルトレンズであると認識できる。一方で、多くのチルトレンズではそのチルト量を検出して、カメラ本体へと通知する構成とはなっていない。したがって、以下に説明する補正手順においては、チルトレンズがカメラ本体に装着されているという情報は利用できるが、そのチルト量の情報を取得できない状況を前提として説明する。なお、カメラ制御部114がチルト量の情報を取得できる場合には、そのチルト量を暈け像の算出処理に反映させればよい。   When the photographic lens device 102 shown in FIG. 2A is attached to the camera body 101, the lens control unit 111 sends lens information to the camera control unit 114 via the electrical contact 112. Thereby, when the tilt lens is attached, the camera control unit 114 can recognize that the photographing lens is the tilt lens. On the other hand, many tilt lenses are not configured to detect the amount of tilt and notify the camera body. Therefore, in the correction procedure described below, the information that the tilt lens is attached to the camera body can be used, but the description will be made on the assumption that the information on the tilt amount cannot be acquired. If the camera control unit 114 can acquire information on the tilt amount, the tilt amount may be reflected in the calculation process of the blurred image.

図7(B)は、図7(A)における撮像面近傍を拡大して示す図である。光軸4に対して射出瞳面3の中心軸28が傾いた状態では、焦点6の存在する焦点面6fが中心軸28に垂直となる。デフォーカス量はこの焦点面6fを基準とした距離で定義される。なお、撮像面1における光束の広がりについては、欠けを考慮しないこととし、単純に撮像面1での光束の広がりから暈け像について議論する。
暈け像30は撮像面1上での光束の広がりを表しており、欠けを無視した時の暈け像である。これは左右方向(短軸方向)に比べて上下方向(長軸方向)に長い楕円である。暈け像30の下端30aでのデフォーカス量32aは、射出瞳面3の中心軸28に垂直な焦点面6fから平面31aまでの距離に等しい。この平面31aは、撮像面1上の暈け像30の下端30aを含み、射出瞳面3の中心軸28に対して垂直な平面である。一方、暈け像30の上端30bでのデフォーカス量32bは、焦点面6fから平面31bまでの距離に等しい。この平面31bは、撮像面1上の暈け像30の上端30bを含み、射出瞳面3の中心軸28に対して垂直な平面である。
FIG. 7B is an enlarged view showing the vicinity of the imaging surface in FIG. In a state where the central axis 28 of the exit pupil plane 3 is inclined with respect to the optical axis 4, the focal plane 6 f where the focal point 6 exists is perpendicular to the central axis 28. The defocus amount is defined as a distance with reference to the focal plane 6f. It should be noted that the spread of the light flux on the imaging surface 1 is not taken into consideration, and a blurred image is simply discussed from the spread of the light flux on the imaging surface 1.
The blurred image 30 represents the spread of the light flux on the imaging surface 1 and is a blurred image when the chipping is ignored. This is an ellipse that is longer in the vertical direction (major axis direction) than in the left-right direction (minor axis direction). The defocus amount 32a at the lower end 30a of the blurred image 30 is equal to the distance from the focal plane 6f perpendicular to the central axis 28 of the exit pupil plane 3 to the plane 31a. The plane 31 a is a plane that includes the lower end 30 a of the blurred image 30 on the imaging surface 1 and is perpendicular to the central axis 28 of the exit pupil plane 3. On the other hand, the defocus amount 32b at the upper end 30b of the blurred image 30 is equal to the distance from the focal plane 6f to the plane 31b. The plane 31 b is a plane that includes the upper end 30 b of the blurred image 30 on the imaging plane 1 and is perpendicular to the central axis 28 of the exit pupil plane 3.

デフォーカス量32aと32bを比較すると、「32a>32b」が分かる。これは、撮像面1に対して焦点面6fが傾いているためであり、暈け像30の下端30aから上端30bにかけてデフォーカス量が連続的に短くなっていく。
ここで上下方向に沿って3点の焦点状態検出点(33a、33b、33c参照)を暈け像30内に設定した場合に、各検出点で正確な焦点状態の検出結果が得られたとする。前述した暈け像の算出手順によれば、検出点33a、33b、33cでの暈け像はそれぞれ径の異なる円34a、34b、34cになる。チルトレンズ装着時の暈け像30は楕円形であるため、算出した暈け像の形状と実際の暈け像の形状とが異なることになる。この問題の解決策を以下に説明する。
When the defocus amounts 32a and 32b are compared, “32a> 32b” is obtained. This is because the focal plane 6f is inclined with respect to the imaging surface 1, and the defocus amount is continuously shortened from the lower end 30a to the upper end 30b of the blurred image 30.
Here, when three focus state detection points (see 33a, 33b, and 33c) along the vertical direction are set in the blurred image 30, it is assumed that an accurate focus state detection result is obtained at each detection point. . According to the blur image calculation procedure described above, blur images at the detection points 33a, 33b, and 33c become circles 34a, 34b, and 34c having different diameters, respectively. Since the blurred image 30 when the tilt lens is mounted is elliptical, the calculated shape of the blurred image is different from the actual shape of the blurred image. A solution to this problem is described below.

前述したように、チルトレンズ装着時には撮像面1に対して焦点面6fが傾くことが原因で、上下方向における各検出点のデフォーカス量は連続的に変化する。しかも、このデフォーカス量の変化する領域は、暈け像が重なるほど狭い領域である。カメラ制御部114は、カメラ本体101にチルトレンズが装着されていることを認識しているので、チルト判定部127はこの情報に基づいて、検出点33a、33b、33cでの暈け像が本来的には楕円状の暈け像であると判断する。   As described above, the defocus amount at each detection point in the vertical direction changes continuously because the focal plane 6f is inclined with respect to the imaging surface 1 when the tilt lens is mounted. Moreover, the region where the defocus amount changes is a narrower region as the blurred images overlap. Since the camera control unit 114 recognizes that the tilt lens is attached to the camera body 101, the tilt determination unit 127 originally creates a blurred image at the detection points 33a, 33b, and 33c based on this information. Specifically, it is determined to be an elliptical blur image.

楕円形状の暈け像の算出処理では、撮像面1における上下方向のデフォーカス量の変化が判っているので、この情報から撮像面1と射出瞳面3との傾き(角度35参照)が算出される。異なるデフォーカス量が算出される検出点33a、33b、33cが、図7の紙面に対して奥行き方向に傾いていると想定した場合、傾き角度と、前述した光束の幾何学的形状に基づき、楕円38の長軸の長さ36を算出できる。また楕円38の短軸の長さ37については、検出点33bにて算出した暈け像(円34b参照)の径と等しい。以上から、検出点33bにおいて算出される暈け像(円34b参照)を、暈け像(楕円38参照)へと補正することができる。   In the elliptical blur image calculation process, since the change in the defocus amount in the vertical direction on the imaging surface 1 is known, the inclination (see angle 35) between the imaging surface 1 and the exit pupil surface 3 is calculated from this information. Is done. When it is assumed that the detection points 33a, 33b, and 33c from which different defocus amounts are calculated are inclined in the depth direction with respect to the paper surface of FIG. 7, based on the inclination angle and the geometric shape of the light beam described above, The length 36 of the major axis of the ellipse 38 can be calculated. The short axis length 37 of the ellipse 38 is equal to the diameter of the blurred image (see the circle 34b) calculated at the detection point 33b. From the above, it is possible to correct the blurred image (see the circle 34b) calculated at the detection point 33b into a blurred image (see the ellipse 38).

補正フィルタ修正部125は、チルトレンズ装着時に発生する円形像から楕円形像への変形の影響を考慮し、チルト判定部127が算出した楕円形状の暈け像に基づきフィルタ係数を修正する処理を行う。図4、図5にて円形の暈け像13は変化して楕円となるが、基本的な処理は前記と同様である。なお、チルト方向に直交するパン方向における射出瞳の傾きについても、傾き方向が異なるだけであるため、前記と同様の傾き判定により補正処理を行えばよい。また、本実施形態ではカメラ制御部114が撮影レンズ装置のチルト量の情報を直接的に取得できないことを前提として説明した。当該情報を取得できる場合には、チルト量から直接的に楕円形状を算出できるので、これをフィルタ係数の修正処理に反映させればよい。   The correction filter correction unit 125 considers the influence of deformation from a circular image generated when the tilt lens is mounted to an elliptical image, and corrects the filter coefficient based on the elliptical blur image calculated by the tilt determination unit 127. I do. 4 and 5, the circular blur image 13 changes to become an ellipse, but the basic processing is the same as described above. Note that the tilt of the exit pupil in the pan direction orthogonal to the tilt direction is also different only in the tilt direction, and thus correction processing may be performed by the same tilt determination as described above. Further, the present embodiment has been described on the assumption that the camera control unit 114 cannot directly acquire information on the tilt amount of the photographing lens device. When the information can be acquired, the elliptical shape can be directly calculated from the tilt amount, and this may be reflected in the filter coefficient correction process.

第1実施形態によれば、併用型機構にて、射出瞳距離、絞り値、像高、焦点状態検出結果、撮像面からのメカニカルシャッタまでの距離、シャッタのスリット幅に基づき、画像補正が行われる。撮影条件を制限することなく、像欠け等を補正し、露光ムラを抑制できるので、撮影者は制約を受けずに意図する設定で撮影を行える。   According to the first embodiment, the combined mechanism performs image correction based on the exit pupil distance, aperture value, image height, focus state detection result, distance from the imaging surface to the mechanical shutter, and shutter slit width. Is called. Without limiting the shooting conditions, image defects and the like can be corrected and uneven exposure can be suppressed, so that the photographer can shoot with the intended settings without being restricted.

[第2実施形態]
次に本発明の第2実施形態を説明する。本実施形態では、焦点状態検出部108を撮像部106とは別に設けた点が第1実施形態と相違する。よって、第1実施形態の場合と同様の構成及び処理について既に使用した符号を用いることで、それらの説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. The present embodiment is different from the first embodiment in that the focus state detection unit 108 is provided separately from the imaging unit 106. Therefore, by using the same reference numerals already used for the same configuration and processing as in the case of the first embodiment, description thereof is omitted.

図8は、本実施形態に係るシステム構成例を示すブロック図である。撮像部106は焦点状態検出手段を有しておらず、焦点状態検出部108は別に設けられる。光学部材113は、いわゆるクイックリターンミラーであり、撮影レンズ装置102からカメラ本体101へと導かれた光を所定のタイミングで焦点状態検出部108へと導く状態に切り替わる。光学部材113の駆動はカメラ制御部114により制御される駆動機構(不図示)により行われる。焦点状態検出部108はクイックリターンミラーの反射光を受光して、焦点状態検出を行い、検出信号をカメラ制御部114に出力する。カメラ制御部114はデフォーカス量を算出し、電気接点112を介してレンズ制御部111に制御信号を送信する。レンズ制御部111はレンズ駆動部110を介してフォーカスレンズ103bの駆動制御を行う。   FIG. 8 is a block diagram illustrating a system configuration example according to the present embodiment. The imaging unit 106 does not have a focus state detection unit, and the focus state detection unit 108 is provided separately. The optical member 113 is a so-called quick return mirror, and switches to a state in which light guided from the photographing lens device 102 to the camera body 101 is guided to the focus state detection unit 108 at a predetermined timing. The optical member 113 is driven by a drive mechanism (not shown) controlled by the camera control unit 114. The focus state detection unit 108 receives the reflected light of the quick return mirror, performs focus state detection, and outputs a detection signal to the camera control unit 114. The camera control unit 114 calculates the defocus amount and transmits a control signal to the lens control unit 111 via the electrical contact 112. The lens control unit 111 performs drive control of the focus lens 103 b via the lens driving unit 110.

本実施形態のように、個別に設けられた焦点状態検出部108では、撮像面全域での焦点状態検出ができない場合が多く、連続した検出位置でのデフォーカス量は得られない。つまり、離散的位置においてのみデフォーカス量を取得できる。第1実施形態で述べたように、暈け像の算出処理では、暈け像の位置でのデフォーカス量が必要である。本実施形態では、離散的位置でのデフォーカス量を用いて暈け像の算出処理を行う。   As in the present embodiment, the focus state detection unit 108 provided individually often cannot detect the focus state over the entire imaging surface, and the defocus amount at consecutive detection positions cannot be obtained. That is, the defocus amount can be acquired only at discrete positions. As described in the first embodiment, the blur image calculation process requires a defocus amount at the position of the blur image. In the present embodiment, a blur image calculation process is performed using defocus amounts at discrete positions.

図9は、離散的位置でのデフォーカス量について説明する概念図である。画像領域201に対して、複数の領域202は分割領域を示している。つまり、画像全体に亘って横方向にN分割し、縦方向にM分割することで、N×M個の領域202に区分される。画像処理部109は、分割領域202に対して1つの代表値(デフォーカス量)を用いて暈け像を算出し、この代表値から算出したフィルタ係数を有する補正フィルタを、当該分割領域全体に対して適用する。   FIG. 9 is a conceptual diagram illustrating defocus amounts at discrete positions. A plurality of areas 202 indicate divided areas with respect to the image area 201. In other words, the image is divided into N × M regions 202 by dividing the entire image into N in the horizontal direction and M in the vertical direction. The image processing unit 109 calculates a blurred image using one representative value (defocus amount) for the divided area 202, and applies a correction filter having a filter coefficient calculated from the representative value to the entire divided area. It applies to.

この方法では分割数を充分にとって、1つの離散的な検出位置(焦点状態検出点の位置)に対して、1つの分割領域を割り当てることが望ましい。しかし、分割された各領域と、離散的な各検出点の位置を1対1に対応させることができない場合には、1つの分割領域内に複数の検出点が存在することがあり得る。そのような場合、第1実施形態にて述べた遠近競合の回避と同様の理由により、デフォーカス量が相対的に小さい検出点にて代表値を設定する処理が行われる。これにより、暈け具合を小さく抑えることができ、厳密なデフォーカス量に代えて代表値を使用してフィルタ係数を算出することによる弊害を回避できる。   In this method, the number of divisions is sufficient, and it is desirable to assign one division region to one discrete detection position (the position of the focus state detection point). However, if the divided areas cannot be associated with the discrete positions of the detection points on a one-to-one basis, there may be a plurality of detection points in one divided area. In such a case, for the same reason as the avoidance of perspective conflict described in the first embodiment, processing for setting a representative value at a detection point with a relatively small defocus amount is performed. As a result, the degree of blur can be kept small, and adverse effects caused by calculating the filter coefficient using the representative value instead of the strict defocus amount can be avoided.

第2実施形態では、併用型機構にて離散的な検出位置でのデフォーカス量しか得られない場合でも第1実施形態と同様の効果が得られる。すなわち、撮影レンズ、撮像素子とメカニカルシャッタの位置関係、被写体の状況に起因する、シャッタ走査方向の像欠けや露光ムラを抑制することで、ユーザは撮影条件の制約を受けずに撮影できる。   In the second embodiment, the same effect as in the first embodiment can be obtained even when only the defocus amount at discrete detection positions can be obtained by the combined mechanism. In other words, the user can shoot without being restricted by the shooting conditions by suppressing image loss and exposure unevenness in the shutter scanning direction due to the positional relationship between the shooting lens, the imaging device and the mechanical shutter, and the situation of the subject.

103 撮像光学系
106 撮像部
105 メカニカルシャッタ
107 電子シャッタ
122 欠け判定部
126 遠近競合判定部
127 チルト判定部
129 補正フィルタ適用部
DESCRIPTION OF SYMBOLS 103 Imaging optical system 106 Imaging part 105 Mechanical shutter 107 Electronic shutter 122 Defect determination part 126 Perspective competition determination part 127 Tilt determination part 129 Correction filter application part

Claims (10)

撮像光学系を介して入射した光を電気信号に変換する撮像手段を有し、該撮像手段による電子シャッタを先幕とし、メカニカルシャッタを後幕とするシャッタ機構により露光制御を行う撮像装置であって、
前記撮像光学系を介して入射した光を受光して焦点状態を検出する焦点状態検出手段と、
前記焦点状態検出手段の検出情報を取得してデフォーカス量を算出し、前記撮像光学系の焦点調節制御を行う制御手段と、
前記撮像手段による画像データと、前記焦点状態検出手段の検出情報と、前記制御手段からの撮影条件を示す情報を取得し、前記画像データに係る画像に露光ムラが発生すると判定した場合、前記シャッタ機構の走行方向にて前記画像の輝度分布を対称化する画像補正を行い、補正した画像データを出力する画像処理手段を備えることを特徴とする撮像装置。
An imaging apparatus having imaging means for converting light incident through an imaging optical system into an electrical signal, and performing exposure control by a shutter mechanism having an electronic shutter by the imaging means as a front curtain and a mechanical shutter as a rear curtain. And
A focus state detecting means for detecting the focus state by receiving the light incident through the imaging optical system;
Control means for obtaining detection information of the focus state detection means, calculating a defocus amount, and performing focus adjustment control of the imaging optical system;
When the image data obtained by the imaging unit, the detection information of the focus state detection unit, and the information indicating the photographing condition from the control unit are acquired, and it is determined that exposure unevenness occurs in the image related to the image data, the shutter An image pickup apparatus comprising image processing means for performing image correction for symmetrizing the luminance distribution of the image in the traveling direction of the mechanism and outputting the corrected image data.
前記画像処理手段は、前記画像データに係る画像に欠けが発生するか否かを判定する欠け判定手段を有し、
前記欠け判定手段によって前記画像に欠けが発生すると判定された場合、前記画像データに適用するフィルタ係数を補正することにより、前記シャッタ機構の走行方向にて前記画像の輝度分布を対称化する処理を行うことを特徴とする請求項1に記載の撮像装置。
The image processing means includes a chipping determination means for determining whether or not a chip occurs in the image related to the image data.
When it is determined by the missing determination means that the image is missing, a process of symmetrizing the luminance distribution of the image in the traveling direction of the shutter mechanism by correcting a filter coefficient applied to the image data. The imaging device according to claim 1, wherein the imaging device is performed.
前記欠け判定手段は、前記制御手段からの撮影条件を示す情報として、射出瞳距離、絞り値、像高、撮像面から前記メカニカルシャッタまでの距離、前記シャッタ機構のスリット幅を取得して前記画像の欠けの発生を判定することを特徴とする請求項2に記載の撮像装置。   The missing determination means acquires an exit pupil distance, an aperture value, an image height, a distance from the imaging surface to the mechanical shutter, and a slit width of the shutter mechanism as information indicating imaging conditions from the control means, and the image The imaging apparatus according to claim 2, wherein occurrence of chipping is determined. 前記画像処理手段は、前記欠け判定手段によって前記画像に欠けが発生すると判定された場合、前記画像の輝度分布を前記シャッタ機構の走行方向にて反転させた形状の特性をもつ前記フィルタ係数を用いて、前記画像補正を行うことを特徴とする請求項2または3に記載の撮像装置。   The image processing means uses the filter coefficient having a characteristic of a shape obtained by inverting the luminance distribution of the image in the traveling direction of the shutter mechanism when the lack determination means determines that the image is defective. The imaging apparatus according to claim 2, wherein the image correction is performed. 前記画像処理手段は、複数の前記焦点状態検出手段の検出情報が近接する範囲内にて異なる遠近競合の状態が発生するか否かを判定する遠近競合判定手段を有し、
前記遠近競合判定手段によって遠近競合が発生することが判定された場合、前記複数の焦点状態検出手段の検出情報のうちでデフォーカス量が相対的に小さい検出情報にしたがって前記画像補正を行うことを特徴する請求項1ないし4のいずれか1項に記載の撮像装置。
The image processing unit includes a perspective conflict determination unit that determines whether different perspective conflict states occur within a range in which detection information of the plurality of focus state detection units is close to each other,
When it is determined by the perspective conflict determination means that perspective conflict occurs, the image correction is performed according to detection information with a relatively small defocus amount among detection information of the plurality of focus state detection means. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized.
前記画像処理手段は、前記撮像光学系が前記撮像手段の撮像面に対して傾いているか否かを判定する傾き判定手段を有し、
前記傾き判定手段によって前記撮像光学系が前記撮像手段の撮像面に対して傾いていると判定された場合、傾きによって変化する像の変形を算出して前記画像補正を行うこと特徴とする請求項1ないし5のいずれか1項に記載の撮像装置。
The image processing unit includes an inclination determination unit that determines whether or not the imaging optical system is inclined with respect to the imaging surface of the imaging unit,
The image correction is performed by calculating a deformation of an image that changes according to an inclination when the inclination determination unit determines that the imaging optical system is inclined with respect to an imaging surface of the imaging unit. The imaging device according to any one of 1 to 5.
前記撮像手段は、前記焦点状態検出手段として、前記撮像光学系の射出瞳の異なる領域を通過した光をそれぞれ検出する複数の検出素子を有することを特徴とする請求項1ないし6のいずれか1項に記載の撮像装置。   7. The imaging apparatus according to claim 1, wherein the imaging unit includes a plurality of detection elements that respectively detect light that has passed through different areas of an exit pupil of the imaging optical system as the focus state detection unit. The imaging device according to item. 前記画像処理手段は、前記画像データに係る画像領域を複数の領域に分割し、分割された各領域に対して、前記焦点状態検出手段の検出情報から算出されるデフォーカス量をそれぞれ代表値として対応させた上で前記画像補正を行う請求項1ないし6のいずれか1項に記載の撮像装置。   The image processing means divides an image area related to the image data into a plurality of areas, and for each divided area, a defocus amount calculated from detection information of the focus state detection means is used as a representative value. The imaging apparatus according to claim 1, wherein the image correction is performed after making the correspondence. 前記画像処理手段は、前記分割された各領域と、焦点状態検出に係る離散的な各検出点の位置とが1対1に対応せず、1つの分割領域内に複数の検出点が存在する場合、デフォーカス量が相対的に小さい検出点にて代表値を設定することを特徴とする請求項8に記載の撮像装置。   In the image processing unit, each of the divided areas and the positions of discrete detection points related to focus state detection do not correspond one-to-one, and a plurality of detection points exist in one divided area. In this case, the representative value is set at a detection point with a relatively small defocus amount. 撮像光学系を介して入射した光を電気信号に変換する撮像手段を有し、該撮像手段による電子シャッタを先幕とし、メカニカルシャッタを後幕とするシャッタ機構により露光制御を行う撮像装置にて実行される制御方法であって、
前記撮像手段による画像データと、前記撮像光学系に係る焦点状態の検出情報と、撮影条件を示す情報を取得するステップと、
取得した情報を用いて前記画像データに係る画像に露光ムラが発生するか否かを判定するステップと、
前記画像データに係る画像に露光ムラが発生すると判定された場合、前記シャッタ機構の走行方向にて前記画像の輝度分布を対称化する画像補正を行い、補正した画像データを出力するステップを有することを特徴とする撮像装置の制御方法。
An imaging apparatus having imaging means for converting light incident through an imaging optical system into an electrical signal, and performing exposure control by a shutter mechanism having an electronic shutter by the imaging means as a front curtain and a mechanical shutter as a rear curtain A control method to be executed,
Obtaining image data by the imaging means, detection information of a focus state related to the imaging optical system, and information indicating imaging conditions;
Determining whether exposure unevenness occurs in the image according to the image data using the acquired information; and
When it is determined that exposure unevenness occurs in the image related to the image data, the image correction is performed to symmetrize the luminance distribution of the image in the traveling direction of the shutter mechanism, and the corrected image data is output. A method for controlling an image pickup apparatus.
JP2012237482A 2012-10-29 2012-10-29 Imaging device and control method for the same Pending JP2014090227A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012237482A JP2014090227A (en) 2012-10-29 2012-10-29 Imaging device and control method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012237482A JP2014090227A (en) 2012-10-29 2012-10-29 Imaging device and control method for the same

Publications (1)

Publication Number Publication Date
JP2014090227A true JP2014090227A (en) 2014-05-15

Family

ID=50791846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012237482A Pending JP2014090227A (en) 2012-10-29 2012-10-29 Imaging device and control method for the same

Country Status (1)

Country Link
JP (1) JP2014090227A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016208262A (en) * 2015-04-22 2016-12-08 キヤノン株式会社 Image processing apparatus, imaging apparatus, and image processing program
JP2018045105A (en) * 2016-09-14 2018-03-22 キヤノン株式会社 Imaging device and control method of the same, information processing device as well as information processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016208262A (en) * 2015-04-22 2016-12-08 キヤノン株式会社 Image processing apparatus, imaging apparatus, and image processing program
JP2018045105A (en) * 2016-09-14 2018-03-22 キヤノン株式会社 Imaging device and control method of the same, information processing device as well as information processing method

Similar Documents

Publication Publication Date Title
JP5169499B2 (en) Imaging device and imaging apparatus
JP4946059B2 (en) Imaging device
US8730374B2 (en) Focus detection apparatus
JP5947602B2 (en) Imaging device
US11297271B2 (en) Image sensor and image capture apparatus
JP2012234152A (en) Imaging apparatus and control method thereof
JP6415140B2 (en) Imaging apparatus and control method thereof
JP5157377B2 (en) Focus detection apparatus and imaging apparatus
US9049365B2 (en) Image capturing apparatus and control method thereof
JP2021027523A5 (en)
JP5381646B2 (en) Imaging device
JP2014090227A (en) Imaging device and control method for the same
JP2008311711A (en) Imaging apparatus
JP2015034859A (en) Automatic focus adjustment lens device and photographing device
JP6477275B2 (en) Imaging device
JP2012118154A (en) Imaging device
JP6234094B2 (en) Focus detection apparatus and imaging apparatus
JP2018045105A (en) Imaging device and control method of the same, information processing device as well as information processing method
JP2018042145A (en) Imaging apparatus and control method of the same, program, and storage mediums
JP2019186852A (en) Imaging apparatus and control method thereof
JP6136364B2 (en) Defocus amount detection device and camera
JP2018026604A (en) Imaging device and imaging device system
JP6493444B2 (en) Imaging device
JP2012023562A (en) Device of acquiring phase difference detection information, device of detecting phase difference, and imaging apparatus
JP5728928B2 (en) Receiver