JP2015056709A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2015056709A JP2015056709A JP2013187864A JP2013187864A JP2015056709A JP 2015056709 A JP2015056709 A JP 2015056709A JP 2013187864 A JP2013187864 A JP 2013187864A JP 2013187864 A JP2013187864 A JP 2013187864A JP 2015056709 A JP2015056709 A JP 2015056709A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- exposure time
- exposure
- unit
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 102
- 238000001514 detection method Methods 0.000 claims description 7
- 238000005375 photometry Methods 0.000 claims description 4
- 238000003702 image correction Methods 0.000 claims 2
- 230000003321 amplification Effects 0.000 abstract description 4
- 230000006866 deterioration Effects 0.000 abstract description 4
- 238000003199 nucleic acid amplification method Methods 0.000 abstract description 4
- 230000009467 reduction Effects 0.000 abstract description 4
- 230000002093 peripheral effect Effects 0.000 description 42
- 238000000034 method Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 18
- 230000007423 decrease Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 238000000149 argon plasma sintering Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
Landscapes
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Abstract
Description
本発明は、領域ごとに露光制御可能な撮像素子を有する撮像装置の制御方法及び、画像の補正方法に関するものである。 The present invention relates to a method for controlling an image pickup apparatus having an image pickup element that can control exposure for each region, and a method for correcting an image.
レンズを介して光学像を得ることで被写体を撮影する撮像装置では、撮影された被写体の画像において、その画像の中心部から画像周辺部に行くにしたがって光量が低下する所謂、周辺光量落ち現象が発生する。 In an imaging device that captures a subject by obtaining an optical image through a lens, a so-called peripheral light amount drop phenomenon occurs in the captured subject image in which the amount of light decreases from the center of the image to the periphery of the image. Occur.
また、周辺光量落ち現象は、撮像装置が備えるレンズの特性と、固体撮像素子の特性の関係で決まることが知られている。具体的には、有効像円(光が均一に当たる領域)に対する固体撮像素子の位置との関係で、周辺光量落ち量が一意的に決まる。但し、この場合は、固体撮像素子の有効画素中心と、レンズの光軸中心が一致していることが前提になる。また、周辺光量落ち量はレンズの絞り値にも依存し、開放側と小絞り側において光量の落ち具合が顕著である。開放側においては、一般的なレンズ特性として、レンズ中心における入射光は、円形の光束のまま入射するが、レンズの隅における入射光は、常に隅を通っていくために光がけられてしまい、入射光は楕円状の光束になってしまい光量が低下する。 Further, it is known that the peripheral light amount drop phenomenon is determined by the relationship between the characteristics of the lens provided in the imaging apparatus and the characteristics of the solid-state imaging device. Specifically, the peripheral light amount drop amount is uniquely determined by the relationship with the position of the solid-state imaging device with respect to the effective image circle (the region where the light hits uniformly). However, in this case, it is a premise that the effective pixel center of the solid-state imaging device and the optical axis center of the lens are coincident. The amount of decrease in the amount of peripheral light also depends on the aperture value of the lens, and the amount of decrease in the amount of light is significant on the open side and the small aperture side. On the open side, as a general lens characteristic, the incident light at the center of the lens is incident as a circular light beam, but the incident light at the corner of the lens always passes through the corner, so the light is scattered, Incident light becomes an elliptical light beam, and the amount of light decreases.
そのため、絞りが開放状態の時には、レンズの隅をより多くの入射光が通るため、光のけられ現象がより顕著になる。また、小絞り側においては、光学回折が発生することにより、周辺光量が減少する。このことから、絞り値が開放または小絞りの場合に、周辺光量落ち現象の影響を大きく受ける。 For this reason, when the aperture is in the open state, more incident light passes through the corners of the lens, so that the phenomenon of light scattering becomes more prominent. On the small aperture side, the amount of peripheral light decreases due to the occurrence of optical diffraction. For this reason, when the aperture value is wide or small, it is greatly affected by the peripheral light amount drop phenomenon.
この現象を回避するために、撮像装置が備えるレンズの有効像円が固体撮像素子の備える画素数に対して、充分大きくなるようなレンズを使用することが挙げられる。しかし、そのような条件を満たすレンズを使用すると、レンズ自体のサイズが大きくなり、撮像装置の小型化が困難となってしまう。また、撮像装置の小型化が求められ、大きなレンズを備えるのが困難になってきている中、撮像装置が備える固体撮像素子の画素数も急速に増えてきており、周辺光量落ち現象が顕著になってきている。 In order to avoid this phenomenon, it is possible to use a lens in which the effective image circle of the lens included in the imaging device is sufficiently larger than the number of pixels included in the solid-state imaging device. However, when a lens satisfying such conditions is used, the size of the lens itself becomes large, and it is difficult to reduce the size of the imaging device. In addition, as the downsizing of the image pickup device is required and it is difficult to provide a large lens, the number of pixels of the solid-state image pickup device provided in the image pickup device is rapidly increasing, and the peripheral light amount drop phenomenon is remarkable. It has become to.
このように、大きさが十分でないレンズを備えた撮像装置で、特にコントラストの小さな被写体を撮影する時は、周辺光量落ちが顕著になり、画質の低下の一因になっていた。そこで、絞り値に応じて像の画面中心から周辺にかけての光量低下特性を補償して平坦化することで周辺光量落ちの補正を行う技術が提案されている(特許文献1参照)。 As described above, when an imaging apparatus having a lens that is not sufficiently large is used to photograph a subject with a low contrast, a decrease in the amount of peripheral light becomes remarkable, which is a cause of a decrease in image quality. In view of this, there has been proposed a technique for correcting a peripheral light amount drop by compensating and flattening a light amount reduction characteristic from the center to the periphery of an image according to an aperture value (see Patent Document 1).
図9に特許文献1における画面位置と周辺光量と補正量の関係を示す。図9に示すように、特許文献1では、周辺光量落ち補正を行うことにより画面周辺部の照度の落ち分を、電気的に増幅させて中央部の明るさと同等の明るさになるようにゲイン補正をかけていた。 FIG. 9 shows the relationship among the screen position, peripheral light amount, and correction amount in Patent Document 1. As shown in FIG. 9, in Patent Document 1, by performing peripheral light amount drop correction, a gain that is equivalent to the brightness of the central portion is obtained by electrically amplifying the decrease in illuminance at the peripheral portion of the screen. The correction was applied.
特許文献1に開示されている手法では、画面周辺部の照度が画面中央部の照度に対して光学的に減少してしまったものを画面周辺部の信号を画面中央部の信号に対してより大きく電気的に増幅させている。そのため、画面周辺部の信号量とノイズの比率(これよりS/N比という)が画面中央部のS/N比に対して低下してしまう、つまり画質が劣化するという問題がある。 In the technique disclosed in Patent Document 1, the signal at the screen peripheral portion is compared with the signal at the screen central portion when the illuminance at the screen peripheral portion is optically decreased with respect to the illuminance at the screen central portion. It is greatly amplified electrically. Therefore, there is a problem in that the signal amount to noise ratio (hereinafter referred to as the S / N ratio) in the screen peripheral portion is lower than the S / N ratio in the central portion of the screen, that is, the image quality deteriorates.
本発明の撮像装置は、撮像レンズを介して入射した被写体光を、
1つ以上の画素から構成される領域を少なくとも2つ以上有し、前記領域単位で互いに独立して露光開始し、露光により取得された画像情報を全領域で一括して読み出す、もしくは全領域で一括して露光開始し、露光により取得された画像情報を前記領域単位で互いに独立して読み出す、もしくは前記領域単位で互いに独立して露光開始し、露光により取得された画像情報を前記領域単位で互いに独立して読み出す撮像手段と、
前記撮像手段に対し、露光開始及び画像情報の読み出しを行うよう制御する撮像制御手段と、
前記撮像手段の受光面の中央付近に位置する少なくとも1つ以上の前記領域における露出条件を決定する測光手段と、
前記撮像レンズのズーム位置と絞り状態の情報を取得するレンズ状態検出手段と、
前記レンズ状態検出手段による情報と前記測光手段による露出条件とに基づいて、前記領域単位の露光時間を決定する露光時間決定手段を有し、
前記撮像制御手段は、前記露光時間決定手段により決定された前記領域単位の露光時間で露光するように前記撮像手段を制御して撮影することを特徴としている。
The imaging apparatus according to the present invention, the subject light incident through the imaging lens,
It has at least two or more areas composed of one or more pixels, starts exposure independently from each other in units of the areas, and reads image information acquired by exposure all at once, or in all areas The exposure is started in a batch, and the image information acquired by exposure is read out independently from each other in the region unit, or the exposure is started independently from each other in the region unit, and the image information acquired by the exposure is read out in the region unit. Imaging means for reading out independently of each other;
Imaging control means for controlling the imaging means to start exposure and read out image information;
Photometric means for determining exposure conditions in at least one or more of the regions located near the center of the light receiving surface of the imaging means;
Lens state detection means for acquiring information on the zoom position and aperture state of the imaging lens;
An exposure time determination means for determining an exposure time for each region based on information by the lens state detection means and an exposure condition by the photometry means;
The imaging control means controls the imaging means so as to perform exposure with the exposure time of the area unit determined by the exposure time determination means, and shoots.
以上説明したように、本発明によれば、周辺光量落ちを考慮して、撮像素子の周辺部の画素を中央部の画素に対してより長く露光するよう制御し撮影することで、画像データの電気的な増幅による画質の劣化を抑えつつ、周辺光量落ちを補正した画像データを取得することができる。 As described above, according to the present invention, in consideration of a decrease in the amount of peripheral light, the peripheral pixel of the image sensor is controlled to be exposed to a longer exposure with respect to the central pixel. It is possible to acquire image data in which the peripheral light amount drop is corrected while suppressing deterioration in image quality due to electrical amplification.
<第1の実施形態>
以下、図面を参照して本発明の例示的かつ好適な実施形態について詳細に説明する。図1は、本発明の第1の実施形態に係る撮像装置の概略構成例を示すブロック図である。
<First Embodiment>
Hereinafter, exemplary and preferred embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating a schematic configuration example of an imaging apparatus according to the first embodiment of the present invention.
図1において、101は、ズームレンズや、フォーカスレンズ、絞り、シャッター、またそれらを駆動する機構(アクチュエータ等)で構成される鏡筒部である。102は、光学像を電気信号に変換するCCDセンサやCMOSセンサ等の撮像素子及び撮像素子からの画像データをデジタルデータに変換するA/D変換器から成る撮像部である。本発明において、撮像部102の撮像素子は、全画素を一括して露出制御、電荷の読み出し制御が可能であり、また画素ごとに露出制御、電荷の読み出し制御も可能である。103は、撮像部102の撮像素子の全画素一括、もしくは画素ごとに露出制御や、電荷の読み出し制御を行う撮像制御部である。 In FIG. 1, reference numeral 101 denotes a lens barrel that includes a zoom lens, a focus lens, a diaphragm, a shutter, and a mechanism (actuator or the like) that drives them. An imaging unit 102 includes an image sensor such as a CCD sensor or a CMOS sensor that converts an optical image into an electrical signal, and an A / D converter that converts image data from the image sensor into digital data. In the present invention, the image pickup device of the image pickup unit 102 can perform exposure control and charge readout control for all the pixels at once, and can also perform exposure control and charge readout control for each pixel. Reference numeral 103 denotes an imaging control unit that performs exposure control and charge readout control for all the pixels of the imaging device of the imaging unit 102 or for each pixel.
104は、撮像部102、撮像制御部103にクロック信号や制御信号を供給するタイミング発生部であり、システム制御部110により制御される。 A timing generation unit 104 supplies a clock signal and a control signal to the imaging unit 102 and the imaging control unit 103, and is controlled by the system control unit 110.
105は、撮像部102からの画像データに対して、所定の画素補間、縮小といったリサイズ処理や色変換処理を行う画像処理部である。また、画像処理部105では、生成した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部110が測距制御を行うことで、TTL(Through the Lens)方式のAF(Autofocus)処理が行われる。画像処理部105ではさらに、生成した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(Automatic White Balance)処理も行っている。 An image processing unit 105 performs resize processing such as predetermined pixel interpolation and reduction and color conversion processing on the image data from the imaging unit 102. Further, the image processing unit 105 performs predetermined calculation processing using the generated image data, and the system control unit 110 performs distance measurement control based on the obtained calculation result, whereby a TTL (Through the Lens) method. AF (Autofocus) processing is performed. The image processing unit 105 further performs predetermined calculation processing using the generated image data, and also performs TTL AWB (Automatic White Balance) processing based on the obtained calculation result.
106は、撮影した静止画像や動画像を格納するためのメモリである。撮像部102からの画像データは、画像処理部105を介して、メモリ106に書き込まれる。メモリ106は、所定枚数の静止画像や所定時間の動画像及び音声を格納するのに十分な記憶容量を備えている。これにより、複数枚の静止画像を連続して撮影する連続撮影の場合にも、高速かつ大量の画像書き込みをメモリ106に対して行うことが可能となる。また、メモリ106はシステム制御部110の作業領域としても使用することが可能である。メモリ106は、記録媒体109の書き込みバッファとしても使われる。さらに、メモリ106は画像表示用のメモリを兼ねており、メモリ106に書き込まれた表示用の画像データは、LCD等からなる表示部107により表示される。表示部107を用いて、撮像した画像データを逐次表示すれば、電子ファインダー機能(スルー表示)を実現することが可能である。 Reference numeral 106 denotes a memory for storing captured still images and moving images. Image data from the imaging unit 102 is written into the memory 106 via the image processing unit 105. The memory 106 has a storage capacity sufficient to store a predetermined number of still images, a moving image and sound for a predetermined time. Thereby, even in the case of continuous shooting in which a plurality of still images are continuously shot, a large amount of image writing can be performed on the memory 106 at high speed. The memory 106 can also be used as a work area for the system control unit 110. The memory 106 is also used as a write buffer for the recording medium 109. Further, the memory 106 also serves as an image display memory, and the display image data written in the memory 106 is displayed on a display unit 107 including an LCD or the like. If the captured image data is sequentially displayed using the display unit 107, an electronic finder function (through display) can be realized.
108は、メモリ106に書き込まれた画像データを読み出し、メモリカードやハードディスク等の記録媒体109に記録する記録制御部である。 A recording control unit 108 reads out image data written in the memory 106 and records the image data in a recording medium 109 such as a memory card or a hard disk.
110は、撮像装置100全体を制御するシステム制御部である。システム制御部110は、例えばマイクロプロセッサ、プログラムROM、RAMを内蔵し、プログラムROMに予め記憶された制御プログラムをRAMにロードして実行することにより撮像装置100全体の動作を制御する。ここでいう、制御プログラムとは、本実施形態における後述の各種フローチャートを実行するためのプログラムのことである。 Reference numeral 110 denotes a system control unit that controls the entire imaging apparatus 100. The system control unit 110 includes, for example, a microprocessor, a program ROM, and a RAM, and controls the overall operation of the imaging apparatus 100 by loading a control program stored in advance in the program ROM into the RAM and executing it. The control program referred to here is a program for executing various flowcharts described later in the present embodiment.
111は、システム制御部110からの制御に従い、鏡筒部101に含まれる各レンズなどを駆動する機構(アクチュエータ等)を制御する鏡筒制御部である。112は、鏡筒部101に含まれるズームレンズの位置、絞り状態の情報を検出する鏡筒状態検出部である。 A lens barrel control unit 111 controls a mechanism (actuator or the like) that drives each lens included in the lens barrel unit 101 in accordance with control from the system control unit 110. Reference numeral 112 denotes a lens barrel state detection unit that detects information on the position and aperture state of the zoom lens included in the lens barrel unit 101.
113は、操作部である。操作部113はスイッチ、ボタン、ダイヤルなど、ユーザが撮像装置100に対して各種の指示や設定を行うための入力デバイス群であり、電源スイッチ、モード切替スイッチ、シャッターボタン、メニューボタン、方向ボタン、実行ボタンなどが代表的に含まれる。 Reference numeral 113 denotes an operation unit. The operation unit 113 is an input device group for a user to perform various instructions and settings on the image capturing apparatus 100 such as a switch, a button, and a dial. The operation unit 113 includes a power switch, a mode switch, a shutter button, a menu button, a direction button, An execution button is typically included.
114は、DC−DCコンバータ、通電ブロックを切り替えるスイッチ回路などから構成される電源制御部である。電源制御部114は、システム制御部110の制御に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、各ブロックに供給する。 Reference numeral 114 denotes a power supply control unit including a DC-DC converter, a switch circuit for switching an energization block, and the like. The power control unit 114 controls the DC-DC converter based on the control of the system control unit 110 and supplies a necessary voltage to each block for a necessary period.
115は、アルカリ電池やリチウム電池などの一次電池、NiCd電池やNiMH電池、Li電池などの二次電池、ACアダプタなどからなる電源部である。 Reference numeral 115 denotes a power supply unit including a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, or an AC adapter.
以上の構成を有する撮像装置100の動作処理について、図2に示すフローチャートを参考に説明する。 The operation processing of the imaging apparatus 100 having the above configuration will be described with reference to the flowchart shown in FIG.
撮影者が操作部115に含まれるシャッターボタンを全押しするなどして、撮影指示を入力すると、システム制御部110がこれを検出する(S201)。 When the photographer inputs a photographing instruction by fully pressing a shutter button included in the operation unit 115, the system control unit 110 detects this (S201).
次に、システム制御部110は、鏡筒状態検出部112から鏡筒部101のズーム位置情報を取得し、内蔵のRAMに記録する(S202)。 Next, the system control unit 110 acquires the zoom position information of the lens barrel unit 101 from the lens barrel state detection unit 112 and records it in the built-in RAM (S202).
続いて、フォーカスが最適になるようにAF(Autofocus)処理を行う(S203)。尚、AF処理については本発明と直接関係せず、また公知の手法を適用可能であるため、詳細についての説明は省略する。 Subsequently, AF (Autofocus) processing is performed so as to optimize the focus (S203). The AF processing is not directly related to the present invention, and a known method can be applied, and thus detailed description thereof is omitted.
次に、ステップS204からステップS206にて、鏡筒部101の周辺光量落ちを考慮して撮影領域の輝度が最適になるよう画素ごとに露出条件を決定するAE(Auto Exposure)処理を行う。フローに従い、順に説明する。 Next, in steps S204 to S206, an AE (Auto Exposure) process is performed in which an exposure condition is determined for each pixel so that the luminance of the imaging region is optimized in consideration of a decrease in the amount of light around the lens barrel 101. It demonstrates in order according to a flow.
まず、システム制御部110の制御に基づき、撮像制御部103は撮像部102を制御して、測光処理を行い、撮像部102の撮像素子の測光領域における被写体輝度Bv_aを取得する(S204)。本実施形態において、測光領域は、周辺光量落ちの影響が少ない撮像部102の撮像素子の中央領域とする。次に、測光領域における撮影感度Sv_a、露光時間Tv_a、絞り値Av_aの露出条件を、取得された被写体輝度値Bv_aから適正な露出値Evが得られるよう、以下の式(式1)に従い決定する。 First, based on the control of the system control unit 110, the imaging control unit 103 controls the imaging unit 102 to perform photometry processing, and obtains the subject brightness Bv_a in the photometric region of the imaging element of the imaging unit 102 (S204). In the present embodiment, the photometric area is a central area of the image sensor of the image capturing unit 102 that is less affected by a decrease in peripheral light amount. Next, the exposure conditions of the photographing sensitivity Sv_a, the exposure time Tv_a, and the aperture value Av_a in the photometric area are determined according to the following formula (formula 1) so that an appropriate exposure value Ev can be obtained from the acquired subject luminance value Bv_a. .
Ev=Bv_a+Sv_a=Tv_a+Av_a (式1)
測光領域の被写体輝度値Bv_a、撮影感度Sv_a、露光時間Tv_a及び絞り値Av_aはAPEX表記された値である。
Ev = Bv_a + Sv_a = Tv_a + Av_a (Formula 1)
The subject luminance value Bv_a, the photographing sensitivity Sv_a, the exposure time Tv_a, and the aperture value Av_a in the photometric area are values expressed in APEX.
本実施形態において、システム制御部110の内蔵ROMは、図3に示すようなプログラム線図を記憶している。システム制御部110は、取得した測光領域の被写体輝度値Bv_aから、プログラム線図に従い、ストロボ発光撮影において適正露出が得られる撮影感度Sv_a、露光時間Tv_a、絞り値Av_aの露出条件を決定する(S205)。例えば、図3に示す例のように露出値EvがEv10である場合、図中の位置Aから、露光時間Tv_aをTv7、絞り値Av_aをAv3と決定する。 In the present embodiment, the built-in ROM of the system control unit 110 stores a program diagram as shown in FIG. The system control unit 110 determines the exposure conditions of the photographing sensitivity Sv_a, the exposure time Tv_a, and the aperture value Av_a at which appropriate exposure is obtained in the strobe flash photography according to the program diagram from the acquired subject luminance value Bv_a of the photometric area (S205). ). For example, when the exposure value Ev is Ev10 as in the example shown in FIG. 3, the exposure time Tv_a is determined as Tv7 and the aperture value Av_a is determined as Av3 from the position A in the figure.
モデルを簡略化して記載するのはよいですが、本来どのようになっているかは簡単でよいですので説明してください。周辺光量落ちは円状に現れますので、理想的にはその円に沿ってシャッタースピードを変える・・・など。 It is good to describe the model in a simplified form, but please explain how it should be as it is easy. The drop in ambient light appears in a circle, so ideally you can change the shutter speed along the circle.
次に、システム制御部110は、撮像部102の撮像素子の各画素の露出条件をそれぞれ決定する(S206)。本実施形態において、各画素の露出条件のうち、各画素の撮影感度Svは、測光領域で決定された撮影感度Sv_aと共通である。また、同様に、各画素の絞り値Avは、測光領域で決定された絞り値Av_aと共通である。各画素の露光時間Tvの決定方法については、以下の図4を用い述べる。システム制御部110の内蔵ROMは、図4(a)に示すようなステップS202で取得された鏡筒部101のズーム位置情報とステップS205で決定された絞り値Av_aに応じた各画素の露光時間Tvを示すテーブルを記憶している。図4(a)において、401は、ズーム位置情報を表す。ズーム位置が最も広角側の状態を「W」、最も望遠側の状態を「T」、その中間位置を広角側から「M1」,「M2」,・・・,「Mn」と示す。402は、測光領域の絞り値Av_aの値を示す。 Next, the system control unit 110 determines an exposure condition for each pixel of the image sensor of the imaging unit 102 (S206). In the present embodiment, among the exposure conditions of each pixel, the shooting sensitivity Sv of each pixel is the same as the shooting sensitivity Sv_a determined in the photometric area. Similarly, the aperture value Av of each pixel is the same as the aperture value Av_a determined in the photometric area. A method for determining the exposure time Tv of each pixel will be described with reference to FIG. The built-in ROM of the system control unit 110 stores the exposure time of each pixel according to the zoom position information of the lens barrel unit 101 acquired in step S202 as shown in FIG. 4A and the aperture value Av_a determined in step S205. A table indicating Tv is stored. In FIG. 4A, 401 represents zoom position information. The state where the zoom position is at the widest angle side is indicated as “W”, the state at the maximum telephoto side is indicated as “T”, and intermediate positions thereof are indicated as “M1”, “M2”,. Reference numeral 402 denotes the aperture value Av_a of the photometric area.
本実施形態において、図4(a)では、Av_a=1からAv_a=6まで示しているが、テーブルは必ずしもこの範囲に限らない。403は、ズーム位置情報と絞り値Av_aごとに記憶している各画素の露光時間を示すテーブルである。周辺光量落ちは、撮像素子の中心位置から周辺位置に向かって同心円状に光量が落ちるため、テーブル503の各画素の露光時間は、周辺光量落ちの光量変化に合わせて、撮像素子の中心位置の画素から周辺位置の画素に向かって、同心円状に画素ごとの露光時間が長くなる。図4(b)にテーブル403の一例として、撮像素子の画素サイズを横8画素、縦6画素で示す。404は、画素の露光時間[s]を示す。 In the present embodiment, FIG. 4A shows Av_a = 1 to Av_a = 6, but the table is not necessarily limited to this range. A table 403 indicates the exposure time of each pixel stored for each zoom position information and aperture value Av_a. In the peripheral light amount drop, the light amount falls concentrically from the center position of the image sensor toward the peripheral position. Therefore, the exposure time of each pixel of the table 503 corresponds to the change in the light amount of the peripheral light amount drop. The exposure time for each pixel increases concentrically from the pixel toward the peripheral pixel. As an example of the table 403, FIG. 4B shows the pixel size of the image sensor as horizontal 8 pixels and vertical 6 pixels. Reference numeral 404 denotes a pixel exposure time [s].
例えば、撮像部102の撮像素子における(1,2)座標の画素の露光時間は、T(1,2)で示す。各画素の露光時間404は、測光領域の露光時間Tv_a(APEX表記)を時間換算した値Ttv_a[s]をもとに、鏡筒部101による周辺光量落ちを考慮して、各画素が適正露光となるように決定される。つまり、撮像素子の周辺部の画素は中央部の画素に対してより長く露光するよう決定される。例えば、図4(b)では、撮像素子の周辺部の画素である(1,2)座標の画素の露光時間T(1,2)は、中央部の領域Aの画素の露光時間Ttv_a[s]の1.8倍の露光時間となるよう決定される。405、406、407は、それぞれ露光時間の同じ画素で構成される領域を示しており、405で囲まれる領域を領域A、406で囲まれる領域A以外の領域を領域B、407で囲まれる領域A及び領域B以外の領域を領域C、それ以外の領域を領域Dとする。ここで、本実施形態において、測光領域は領域Aである。 For example, the exposure time of the pixel at the (1,2) coordinate in the image sensor of the imaging unit 102 is indicated by T (1,2). As for the exposure time 404 of each pixel, each pixel is properly exposed in consideration of a decrease in peripheral light amount due to the lens barrel 101 based on a value Ttv_a [s] obtained by converting the exposure time Tv_a (APEX notation) of the photometric area. To be determined. That is, it is determined that the pixels in the peripheral part of the image sensor are exposed to the central pixel for a longer time. For example, in FIG. 4B, the exposure time T (1,2) of the pixel at the (1,2) coordinate, which is the peripheral pixel of the image sensor, is the exposure time Ttv_a [s of the pixel in the central area A. The exposure time is determined to be 1.8 times that of the above. Reference numerals 405, 406, and 407 denote areas composed of pixels having the same exposure time. The area surrounded by 405 is the area A and the area other than the area A surrounded by 406 is the area surrounded by areas B and 407. A region other than A and B is a region C, and the other region is a region D. Here, in the present embodiment, the photometric area is the area A.
次に、撮像制御部103は、ステップS206で設定された画素ごとの露出条件に基づいて、撮像部102の撮像素子の画素ごとに露光時間を制御して撮影を行う(S207)。 Next, the imaging control unit 103 performs imaging by controlling the exposure time for each pixel of the imaging element of the imaging unit 102 based on the exposure condition for each pixel set in step S206 (S207).
本実施形態における撮影処理について、図5の撮影処理タイミングチャートを参照して、動作を説明する。 The operation of the imaging process in this embodiment will be described with reference to the imaging process timing chart of FIG.
図5において、VDは垂直同期信号を表しており、タイミング発生部104から撮像部102と撮像制御部103に供給される。VD立ち下がりから次のVD立ち下がりまでが1フィールドであり、この期間に撮像部102から1枚の画像データが取得される。 In FIG. 5, VD represents a vertical synchronization signal, and is supplied from the timing generation unit 104 to the imaging unit 102 and the imaging control unit 103. There is one field from the VD fall to the next VD fall, and one piece of image data is acquired from the imaging unit 102 during this period.
VD期間に示す四角形は、撮像制御部103によって制御される撮像素子の画素ごとの露光タイミングを模式的に示したものである。四角形の各左辺は、画素の露光開始のタイミングを示し、各右辺は画素の露光を終了し、画素の電荷を読み出すタイミングを示す。また、四角形の横幅は、画素の露光時間を示す。501から504は、図4(b)の405から407で示される領域AからDの各領域内の画素が露光開始するタイミングをそれぞれ示す。本実施形態において、撮像制御部103は、図4(b)に示す各領域の画素ごとの露光時間に合わせて、各領域の画素ごとに異なるタイミングで露光開始し、すべての画素が同時に露光終了するよう撮像部102を制御する。すべての画素の露光終了後、撮像制御部103は、露光終了して読み出された画素の電荷をそれぞれA/D変換し、画像データを取得する。 A quadrangle shown in the VD period schematically shows the exposure timing for each pixel of the image sensor controlled by the imaging control unit 103. Each left side of the quadrangle indicates the timing for starting exposure of the pixel, and each right side indicates the timing for completing the exposure of the pixel and reading the charge of the pixel. The lateral width of the rectangle indicates the pixel exposure time. Reference numerals 501 to 504 denote timings at which exposure of pixels in the areas A to D indicated by 405 to 407 in FIG. In the present embodiment, the imaging control unit 103 starts exposure at different timing for each pixel in each area in accordance with the exposure time for each pixel in each area shown in FIG. The imaging unit 102 is controlled to do so. After the exposure of all the pixels is completed, the imaging control unit 103 performs A / D conversion on the charges of the pixels read after the exposure is completed, and acquires image data.
次に、システム制御部110は、ステップS207で取得された画像データをメモリ106に記録する。そして、記録制御部108は、メモリ106に記録された画像データを読み出し、画像ファイルとして記録媒体109に対し書き込みを行う記録処理を実行する(S208)。 Next, the system control unit 110 records the image data acquired in step S <b> 207 in the memory 106. Then, the recording control unit 108 reads out the image data recorded in the memory 106 and executes a recording process of writing the image data as an image file on the recording medium 109 (S208).
以上説明したように、本実施形態によれば、周辺光量落ちを考慮して、撮像素子の周辺部の画素を中央部の画素に対してより長く露光するよう制御し撮影することで、画像データの電気的な増幅による画質の劣化なく、周辺光量落ちを補正した画像データを取得することができる。 As described above, according to the present embodiment, image data can be obtained by controlling and photographing the peripheral pixels of the image sensor to be longer exposed to the central pixels in consideration of a decrease in peripheral light amount. Thus, it is possible to obtain image data in which the peripheral light amount drop is corrected without deterioration of image quality due to electrical amplification.
<第2の実施形態>
以下、本発明の第2の実施形態に係る撮像装置について説明する。
<Second Embodiment>
Hereinafter, an imaging apparatus according to the second embodiment of the present invention will be described.
本発明の第2の実施形態に係る撮像装置の構成は、図1の画像処理部105以外は、第1の実施形態の場合と同じである。本実施形態において、画像処理部105は、システム制御部110の制御に基づいて、周辺光量落ち補正処理を行う。第2の実施形態に係る撮像装置の構成について、第1の実施形態と同じ構成は説明を省略する。 The configuration of the imaging apparatus according to the second embodiment of the present invention is the same as that of the first embodiment except for the image processing unit 105 of FIG. In the present embodiment, the image processing unit 105 performs a peripheral light amount drop correction process based on the control of the system control unit 110. Regarding the configuration of the imaging apparatus according to the second embodiment, the description of the same configuration as that of the first embodiment is omitted.
本実施形態の撮影動作について、図6に示すフローチャートを参考に説明する。 The shooting operation of this embodiment will be described with reference to the flowchart shown in FIG.
図6において、第1の実施形態の図2のフローチャートに示す処理と同じ処理には、図2と同じ番号を付している。第1の実施形態と同じ処理については説明を省略する。 In FIG. 6, the same processes as those shown in the flowchart of FIG. 2 of the first embodiment are denoted by the same reference numerals as in FIG. The description of the same processing as in the first embodiment is omitted.
以下、第1の実施形態と異なる部分について説明する。 Hereinafter, a different part from 1st Embodiment is demonstrated.
本発明において、動画記録時には、フレームレートを満足するため、撮像部102の撮像素子のいずれの画素も、垂直同期信号VDで決められる1フィールド期間(以下、VD期間)を超えて露光することはできない。そこで、図6のステップS206の後、システム制御部110は、各画素の露光時間がいずれもVD期間内であるかどうか判定する(S601)。各画素の露光時間がいずれもVD期間内である場合(S601でYes)は、第1の実施形態と同様にAE処理を終了する。各画素の露光時間のうちいずれかがVD期間を超えている場合(S601でNo)は、VD期間を超えた画素の露光時間をVD期間内で露光可能な最大の露光時間Ttvm[s]に変更する(S602)。 In the present invention, at the time of moving image recording, in order to satisfy the frame rate, any pixel of the image sensor of the imaging unit 102 is exposed beyond one field period (hereinafter referred to as VD period) determined by the vertical synchronization signal VD. Can not. Therefore, after step S206 in FIG. 6, the system control unit 110 determines whether or not the exposure time of each pixel is within the VD period (S601). When the exposure time of each pixel is within the VD period (Yes in S601), the AE process is terminated as in the first embodiment. If any one of the exposure times of the pixels exceeds the VD period (No in S601), the exposure time of the pixels exceeding the VD period is set to the maximum exposure time Ttvm [s] that can be exposed within the VD period. Change (S602).
露光時間をTtvm[s]に変更された画素は、周辺光量落ちを補正するために必要な露光時間で露光できず、該画素から取得されるデータは周辺光量落ちの影響が残るため、周辺光量落ちを補正するよう該画素から取得されるデータに対してゲインをかける。そこで、次に、露光時間をTtvm[s]に変更された画素から取得されるデータを、画像処理部105にて周辺光量落ち補正するためのゲイン補正テーブルを作成して内蔵ROMへ記録した後、AE処理を終了する(S603)。ステップS603において作成されるゲイン補正テーブルの、露光時間をTtvm[s]に変更された画素のデータを補正するゲイン補正値Gは、以下の式(式2)に従い決定する。 A pixel whose exposure time has been changed to Ttvm [s] cannot be exposed with an exposure time necessary for correcting the peripheral light amount drop, and the data acquired from the pixel remains affected by the peripheral light amount drop. A gain is applied to the data acquired from the pixel so as to correct the drop. Therefore, after the data acquired from the pixel whose exposure time has been changed to Ttvm [s] is recorded in the built-in ROM by creating a gain correction table for correcting the peripheral light amount drop by the image processing unit 105. The AE process is terminated (S603). The gain correction value G for correcting the data of the pixel whose exposure time is changed to Ttvm [s] in the gain correction table created in step S603 is determined according to the following equation (Equation 2).
G(x,y)=T(x,y)/Ttvm (式2)
また、露光時間をTtvm[s]に変更されていない画素のデータに対してはゲイン補正を行わないようゲイン補正値Gを決定する。
G (x, y) = T (x, y) / Ttvm (Formula 2)
Further, the gain correction value G is determined so that the gain correction is not performed on the pixel data whose exposure time is not changed to Ttvm [s].
例えば、図4(b)において、被写体光の光量が低く、測光領域(領域A)の露光時間Ttv_a[s]がVD期間内で露光可能な最大の露光時間Ttvm[s]と一致するような場合、領域B及び領域C、領域Dの露光時間は、いずれもVD期間を超える。この場合、領域B及び領域C、領域Dの露光時間は、Ttvm[s]に変更され、例えば、図7のようなゲイン補正テーブルが生成される。図7において、701は、画像データのアドレスごとのゲイン補正値を示す。例えば、画像データのアドレス(1,2)のゲイン補正値は、G(1,2)で示され、式(式2)に従い、アドレス(1,2)のデータ値を1.8倍するよう決定される。露光時間をTtvm[s]に変更されていない画素である、図7における測光領域(領域A)内の画素のデータのゲイン補正値は、「1.0」と決定される。702,703,704はそれぞれ、図4(b)の405、406、407に対応した領域を示す。 For example, in FIG. 4B, the amount of subject light is low, and the exposure time Ttv_a [s] of the photometry area (area A) matches the maximum exposure time Ttvm [s] that can be exposed within the VD period. In this case, the exposure times of the regions B, C, and D all exceed the VD period. In this case, the exposure times of the region B, the region C, and the region D are changed to Ttvm [s], and for example, a gain correction table as shown in FIG. 7 is generated. In FIG. 7, reference numeral 701 denotes a gain correction value for each address of image data. For example, the gain correction value at the address (1, 2) of the image data is indicated by G (1, 2), and the data value at the address (1, 2) is multiplied by 1.8 according to the equation (Equation 2). It is determined. The gain correction value of the data of the pixel in the photometric area (area A) in FIG. 7 that is a pixel whose exposure time has not been changed to Ttvm [s] is determined to be “1.0”. Reference numerals 702, 703, and 704 denote areas corresponding to 405, 406, and 407 in FIG.
次に図6のステップS207で示す本実施形態における撮影処理について、図8の撮影処理タイミングチャートを参照して、動作を説明する。 Next, the operation of the shooting process in this embodiment shown in step S207 of FIG. 6 will be described with reference to the shooting process timing chart of FIG.
図8において、VDは垂直同期信号を表しており、タイミング発生部104から撮像部102と撮像制御部103に供給される。VD立ち下がりから次のVD立ち下がりまでが1フィールドであり、この期間に撮像部102から1枚の画像データが取得される。 In FIG. 8, VD represents a vertical synchronization signal, and is supplied from the timing generation unit 104 to the imaging unit 102 and the imaging control unit 103. There is one field from the VD fall to the next VD fall, and one piece of image data is acquired from the imaging unit 102 during this period.
VD期間に示す四角形は、撮像制御部103によって制御される撮像素子の画素ごとの露光タイミングを模式的に示したものである。801から804は、ステップ802の処理がされる前のステップS206におけるテーブル図5(b)に従って決定された露光時間で、図4(b)の405から407で示される領域AからDの各領域内の画素が露光開始するタイミングをそれぞれ示す。805は、各領域内の画素の露光終了のタイミングを示す。本実施形態では、撮像制御部103は、すべての領域の画素は同じタイミングで露光終了するよう撮像部102を制御する。 A quadrangle shown in the VD period schematically shows the exposure timing for each pixel of the image sensor controlled by the imaging control unit 103. Reference numerals 801 to 804 denote exposure times determined in accordance with the table in FIG. 5B in step S206 before the processing in step 802, and the areas A to D indicated by 405 to 407 in FIG. 4B. Each of the timings at which the pixels in the exposure start is shown. Reference numeral 805 denotes the timing of completion of exposure of pixels in each area. In the present embodiment, the imaging control unit 103 controls the imaging unit 102 so that the exposure of the pixels in all the regions ends at the same timing.
ここで、802から805までの幅で示す領域B内の画素の露光時間と、803から805までの幅で示す領域C内の画素の露光時間、804から805までの幅で示す領域D内の画素の露光時間はいずれも1フィールドの期間を超えている。そのため、図6のステップS602で説明したように、領域B、領域C、領域D内の画素の露光時間は、VD期間内で露光可能な最大の露光時間Ttvm[s]に変更される。よって、本実施形態の撮影処理において、撮像制御部103は、領域Bは806から805までの幅で示す露光時間、領域Cは807から805までの幅で示す露光時間、領域D内は808から805までの幅で示す露光時間となるように撮像部102を制御する。 Here, the exposure time of the pixel in the region B indicated by the width from 802 to 805, the exposure time of the pixel in the region C indicated by the width from 803 to 805, and the exposure time of the pixel in the region D indicated by the width from 804 to 805 All pixel exposure times exceed one field period. Therefore, as described in step S602 in FIG. 6, the exposure times of the pixels in the region B, the region C, and the region D are changed to the maximum exposure time Ttvm [s] that can be exposed within the VD period. Therefore, in the shooting processing of the present embodiment, the imaging control unit 103 determines that the exposure time indicated by the width from 806 to 805 for the region B, the exposure time indicated by the width from 807 to 805 for the region B, and from 808 for the region D. The imaging unit 102 is controlled so that the exposure time indicated by the width up to 805 is reached.
本実施形態では、領域A内の画素の露光時間Ttv_a[s]とVD期間内で露光可能な最大の露光時間 Ttvm[s]とが一致している場合を例として説明したが、必ずしも一致している必要は無い。 In this embodiment, the case where the exposure time Ttv_a [s] of the pixels in the region A matches the maximum exposure time Ttvm [s] that can be exposed within the VD period has been described as an example. There is no need to
次に、ステップS602の処理が行われたかどうか判定する(S604)。ステップS602の処理が行われていない場合(S604でNo)は、ステップS208の処理へ進む。ステップS602の処理が行われている場合(S604でYes)、画像処理部105は、システム制御部110の制御に基づいて、撮像部102から受け取った画像データに対して周辺光量落ち補正処理を行う(S605)。 Next, it is determined whether the process of step S602 has been performed (S604). When the process of step S602 is not performed (No in S604), the process proceeds to the process of step S208. When the process of step S602 is performed (Yes in S604), the image processing unit 105 performs the peripheral light amount drop correction process on the image data received from the imaging unit 102 based on the control of the system control unit 110. (S605).
周辺光量落ち補正処理は、画像処理部105において、ステップS603で作成したゲイン補正テーブル(本実施形態において、図7に示す)に基づくシステム制御部110の制御により、画像データのアドレスごとにゲイン補正することで行われる。 In the peripheral light amount drop correction process, the image processing unit 105 performs gain correction for each address of the image data under the control of the system control unit 110 based on the gain correction table created in step S603 (shown in FIG. 7 in the present embodiment). It is done by doing.
以上説明したように、本実施形態によれば、周辺光量落ちを考慮して、撮像素子の周辺部の画素を中央部の画素に対してより長く、ただし、VD期間より短くなるよう露光時間を制御して撮影する。各画素の露光時間をVD期間内に制御し、露光時間によって周辺光量落ちを補正しきれない場合は、取得された画像データの画面周辺部の信号に対して電気的に増幅することで周辺光量落ちを補正する。これにより、動画記録時など、1フレーム期間内に1枚の画像を取得する必要がある場合に、被写体光の光量が低い撮影環境下や、鏡筒部101による周辺光量の減少量が大きい撮影条件時にも、画像データの画面周辺部の信号に対して電気的に増幅することによる画質の劣化を低減しつつ、周辺光量落ちを補正した画像データを取得することができる。 As described above, according to the present embodiment, the exposure time is set so that the peripheral pixel of the image sensor is longer than the central pixel, but shorter than the VD period in consideration of a decrease in peripheral light amount. Control and shoot. When the exposure time of each pixel is controlled within the VD period and the drop in peripheral light amount cannot be corrected by the exposure time, the peripheral light amount is obtained by electrically amplifying the signal at the periphery of the screen of the acquired image data. Correct the drop. As a result, when it is necessary to acquire one image within one frame period, such as when recording a moving image, shooting in a shooting environment where the amount of subject light is low or when the amount of decrease in peripheral light amount by the lens barrel 101 is large. Even under conditions, it is possible to acquire image data in which peripheral light amount drop is corrected while reducing deterioration in image quality due to electrical amplification with respect to a signal at the periphery of the screen of image data.
第1及び第2の実施形態では、画素ごとに異なる露光時間で撮影を行う撮影処理において、各領域の画素ごとに異なるタイミングで露光開始し、すべての画素が同時に露光終了するよう撮像素子を制御するとして説明したが、これに限らない。例えば、すべての画素が同時に露光開始し、各領域の画素ごとに異なるタイミングで露光終了するよう撮像素子を制御しても、同様の効果が得られる。また、画素ごとに異なる露光時間で撮影を行う制御であれば、それ以外でも構わない。 In the first and second embodiments, in the photographing process for photographing at different exposure times for each pixel, the image sensor is controlled so that the exposure starts at different timing for each pixel in each region and the exposure ends for all the pixels at the same time. However, the present invention is not limited to this. For example, the same effect can be obtained by controlling the image sensor so that all pixels start exposure at the same time and the exposure ends at different timing for each pixel in each region. Any other control may be used as long as it performs control with different exposure times for each pixel.
第1及び第2の実施形態では、画素ごとに独立して露光開始と電荷の読み出しを行う撮像素子を用いて説明したが、必ずしも画素ごとに独立して制御するものでない。複数の画素から構成される領域ごとに独立して露光開始と電荷の読み出しを行う撮像素子であっても同様の効果が得られる。また、プレノプティックカメラに用いられるセンサ面上に複数の撮像素子を並べたカメラアレイについても、本発明と同様の動作によって同様の効果が得られる。 In the first and second embodiments, the description has been made using the image sensor that performs the exposure start and the charge readout independently for each pixel. However, the image sensor is not necessarily controlled independently for each pixel. The same effect can be obtained even with an image sensor that starts exposure and reads out charges independently for each region composed of a plurality of pixels. The same effect can be obtained with a camera array in which a plurality of image sensors are arranged on a sensor surface used in a plenoptic camera by the same operation as the present invention.
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。 Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.
上述した実施の形態の処理は、各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に提供してもよい。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現することができる。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フロッピィ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスクなどを用いることができる。或いは、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることもできる。 In the processing of the above-described embodiment, a storage medium in which a program code of software that embodies each function is recorded may be provided to the system or apparatus. The functions of the above-described embodiments can be realized by the computer (or CPU or MPU) of the system or apparatus reading out and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying such a program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, or the like can be used. Alternatively, a CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like can be used.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれている。 The functions of the above-described embodiments are not only realized by executing the program code read by the computer. Including the case where the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. It is.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含むものである。 Further, the program code read from the storage medium may be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Is also included.
100‥‥撮像装置
101‥‥鏡筒部
102‥‥撮像部
103‥‥撮像制御部
104‥‥タイミング発生部
105‥‥画像処理部
106‥‥メモリ
107‥‥表示部
108‥‥記録制御部
109‥‥記録媒体
110‥‥システム制御部
111‥‥鏡筒制御部
112‥‥鏡筒状態検出部
113‥‥操作部
114‥‥電源制御部
115‥‥電源部
DESCRIPTION OF SYMBOLS 100 ... Imaging device 101 ... Lens barrel part 102 ... Imaging part 103 ... Imaging control part 104 ... Timing generation part 105 ... Image processing part 106 ... Memory 107 ... Display part 108 ... Recording control part 109 Recording medium 110 System control unit 111 Lens barrel control unit 112 Lens barrel state detection unit 113 Operation unit 114 Power source control unit 115 Power source unit
Claims (6)
1つ以上の画素から構成される領域を少なくとも2つ以上有し、前記領域単位で互いに独立して露光開始し、露光により取得された画像情報を全領域で一括して読み出す、もしくは全領域で一括して露光開始し、露光により取得された画像情報を前記領域単位で互いに独立して読み出す、もしくは前記領域単位で互いに独立して露光開始し、露光により取得された画像情報を前記領域単位で互いに独立して読み出す撮像手段と、
前記撮像手段に対し、露光開始及び画像情報の読み出しを行うよう制御する撮像制御手段と、
前記撮像手段の受光面の中央付近に位置する少なくとも1つ以上の前記領域における露出条件を決定する測光手段と、
前記撮像レンズのズーム位置と絞り状態の情報を取得するレンズ状態検出手段と、
前記レンズ状態検出手段による情報と前記測光手段による露出条件とに基づいて、前記領域単位の露光時間を決定する露光時間決定手段を有し、
前記撮像制御手段は、前記露光時間決定手段により決定された前記領域単位の露光時間で露光するように前記撮像手段を制御して撮影することを特徴とする撮像装置。 Subject light incident through the imaging lens
It has at least two or more areas composed of one or more pixels, starts exposure independently from each other in units of the areas, and reads image information acquired by exposure all at once, or in all areas The exposure is started in a batch, and the image information acquired by exposure is read out independently from each other in the region unit, or the exposure is started independently from each other in the region unit, and the image information acquired by the exposure is read out in the region unit. Imaging means for reading out independently of each other;
Imaging control means for controlling the imaging means to start exposure and read out image information;
Photometric means for determining exposure conditions in at least one or more of the regions located near the center of the light receiving surface of the imaging means;
Lens state detection means for acquiring information on the zoom position and aperture state of the imaging lens;
An exposure time determination means for determining an exposure time for each region based on information by the lens state detection means and an exposure condition by the photometry means;
The imaging apparatus, wherein the imaging control unit controls the imaging unit so that exposure is performed with the exposure time of the area unit determined by the exposure time determination unit.
前記露光時間決定手段により決定された前記撮像手段の前記領域単位に決定された露光時間のうちいずれかの露光時間が、前記タイミング制御手段からの前記タイミング信号の1周期よりも長い時間か否かを判定する露光時間超過判定手段を有し、
露光時間超過判定手段により、該露光時間が前記タイミング信号の1周期よりも長いとみなされると、前記露光時間決定手段は該露光時間を所定の露光時間に変更することを特徴とする請求項1又は請求項2に記載の撮像装置。 Timing control means for transmitting a timing signal for timing control to the imaging means and the imaging control means;
Whether any one of the exposure times determined for each region of the imaging means determined by the exposure time determination means is longer than one cycle of the timing signal from the timing control means Having an exposure time excess determination means for determining
2. The exposure time determining means changes the exposure time to a predetermined exposure time when the exposure time excess judging means determines that the exposure time is longer than one cycle of the timing signal. Or the imaging device of Claim 2.
前記画像補正手段は、露光時間超過判定手段により前記撮像手段の前記領域単位に決定された露光時間が、前記タイミング制御手段からの前記タイミング信号の1周期よりも長いとみなされると、該露光時間の領域から取得される前記画像情報に対して、所定のゲインをかけて補正することを特徴とする請求項1乃至請求項4の何れか1項に記載の撮像装置。 Image correction means for performing correction by image processing on the image information acquired by the imaging means;
When the exposure time determined for the region unit of the imaging means by the image correction means is considered to be longer than one cycle of the timing signal from the timing control means, the exposure time The imaging apparatus according to claim 1, wherein the image information acquired from the region is corrected by applying a predetermined gain.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013187864A JP2015056709A (en) | 2013-09-11 | 2013-09-11 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013187864A JP2015056709A (en) | 2013-09-11 | 2013-09-11 | Imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015056709A true JP2015056709A (en) | 2015-03-23 |
Family
ID=52820803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013187864A Pending JP2015056709A (en) | 2013-09-11 | 2013-09-11 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015056709A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017041667A (en) * | 2015-08-17 | 2017-02-23 | コニカミノルタ株式会社 | Image recognition system |
JP2020096224A (en) * | 2018-12-10 | 2020-06-18 | キヤノン株式会社 | Imaging apparatus |
CN113301264A (en) * | 2021-07-26 | 2021-08-24 | 北京博清科技有限公司 | Image brightness adjusting method and device, electronic equipment and storage medium |
-
2013
- 2013-09-11 JP JP2013187864A patent/JP2015056709A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017041667A (en) * | 2015-08-17 | 2017-02-23 | コニカミノルタ株式会社 | Image recognition system |
JP2020096224A (en) * | 2018-12-10 | 2020-06-18 | キヤノン株式会社 | Imaging apparatus |
CN113301264A (en) * | 2021-07-26 | 2021-08-24 | 北京博清科技有限公司 | Image brightness adjusting method and device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101720776B1 (en) | Digital image photographing apparatus and method for controlling the same | |
US9215370B2 (en) | Digital photographing apparatus and method of controlling the same to increase continuous shooting speed for capturing panoramic photographs | |
JP4615458B2 (en) | Exposure control method and imaging apparatus | |
JP5759190B2 (en) | Imaging apparatus and control method thereof | |
JP2010074313A (en) | Imaging apparatus and method for controlling the same | |
US8896751B2 (en) | Digital photographing apparatus and method of controlling the same | |
JP2016096459A (en) | Imaging apparatus and imaging method | |
JP5800664B2 (en) | Imaging apparatus and control method thereof | |
JP2015056709A (en) | Imaging apparatus | |
CN116567432A (en) | Shooting method and electronic equipment | |
JP6231814B2 (en) | EXPOSURE DETERMINING DEVICE, IMAGING DEVICE, CONTROL METHOD, AND PROGRAM | |
JP2012090041A (en) | Image processing device, method, and program | |
JP2015050733A (en) | Exposure control apparatus, exposure control method, control program, and imaging apparatus | |
JP2006217249A (en) | Electronic camera, electronic camera system and program | |
JP4597887B2 (en) | Imaging device | |
JP2014230018A (en) | Photographing device, imaging system, control method of imaging device, program, and storage medium | |
JP6294607B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
US10298865B2 (en) | Image processing apparatus, image capturing apparatus, method for controlling image processing apparatus, and non-transitory computer-readable storage medium for correcting image corresponding to change in state of an optical member | |
JP2017009815A (en) | Focus detection device, focus detection method, and camera system | |
JP5448391B2 (en) | Imaging apparatus and red-eye correction method | |
JP2008124793A (en) | Imaging apparatus, and imaging method | |
JP2014053777A (en) | Imaging apparatus | |
JP2015041864A (en) | Imaging apparatus and control method of imaging apparatus | |
JP2017017440A (en) | Imaging device and control method for the same | |
JP2008227839A (en) | Image-taking device |