JP2005348301A - Digital camera - Google Patents
Digital camera Download PDFInfo
- Publication number
- JP2005348301A JP2005348301A JP2004168316A JP2004168316A JP2005348301A JP 2005348301 A JP2005348301 A JP 2005348301A JP 2004168316 A JP2004168316 A JP 2004168316A JP 2004168316 A JP2004168316 A JP 2004168316A JP 2005348301 A JP2005348301 A JP 2005348301A
- Authority
- JP
- Japan
- Prior art keywords
- image
- field
- exposure
- pixel
- field image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000002194 synthesizing effect Effects 0.000 claims abstract 3
- 238000003384 imaging method Methods 0.000 claims abstract 2
- 238000012546 transfer Methods 0.000 claims description 30
- 230000005484 gravity Effects 0.000 claims description 16
- 238000010606 normalization Methods 0.000 claims 1
- 238000009825 accumulation Methods 0.000 abstract description 9
- 238000012545 processing Methods 0.000 description 43
- 230000006870 function Effects 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 230000006835 compression Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 6
- 230000006837 decompression Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000006641 stabilisation Effects 0.000 description 5
- 238000011105 stabilization Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 201000005111 ocular hyperemia Diseases 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Transforming Light Signals Into Electric Signals (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、デジタルカメラに関する。 The present invention relates to a digital camera.
従来、露出量の異なる2枚の画像を合成して、ダイナミックレンジの拡大を行っている。その方法として、例えば、特公平6-83400、特公平8-17455、特開平4-168895等、いくつかの提案がされている。特公平6-83400は撮像素子の転送ライン上で、露出量の異なる2枚の画像を合成して、ダイナミックレンジの拡大を行っている。特公平8-17455はブランキング期間と通常フィールド期間で露出量の異なる2枚の画像を合成して、ダイナミックレンジの拡大を行っている。特開平4-168895は飽和電荷レベルを変えることで、撮像素子の電荷蓄積部上で、露出量の異なる2枚の画像を合成して、ダイナミックレンジの拡大を行っている。ただし、これらの方式では蓄積時間の自由度が少なかったり、電荷蓄積部上や転送ライン上で加算する場合には拡大できるダイナミックレンジに撮像素子のハード上の制限があり、それらを解決するには、図3の従来方式に示されるように、2回のメカシャッター動作による露光を行って、露出量の異なる2枚の画像を合成して、ダイナミックレンジの拡大を行っている。ここで、露出量はEXP信号のTa、Tb時間内の積分値になる。 Conventionally, two images with different exposure amounts are combined to expand the dynamic range. As a method therefor, for example, several proposals such as Japanese Patent Publication No. 6-83400, Japanese Patent Publication No. 8-17455, Japanese Patent Application Laid-Open No. 4-140895, and the like have been proposed. Japanese Patent Publication No. 6-83400 combines two images with different exposure amounts on the transfer line of the image sensor to expand the dynamic range. Japanese Patent Publication No. 8-17455 combines two images with different exposure amounts in the blanking period and the normal field period to expand the dynamic range. Japanese Patent Laid-Open No. 4-168895 changes the saturation charge level to synthesize two images with different exposure amounts on the charge accumulating portion of the image sensor to expand the dynamic range. However, in these methods, the degree of freedom of the accumulation time is small, and there is a limitation on the hardware of the image sensor in the dynamic range that can be expanded when adding on the charge accumulation unit or transfer line, and to solve them As shown in the conventional method of FIG. 3, exposure is performed by two mechanical shutter operations, and two images with different exposure amounts are combined to expand the dynamic range. Here, the exposure amount is an integral value within the Ta and Tb times of the EXP signal.
しかしながら、従来は図3の従来方式に示されるように、2回のメカシャッター動作による露光が必要なため、2回の露光の間は被写体が停止している必要が有り、それぞれのシャッタースピードが早い場合でも、動きの速い被写体は苦手であった。本発明は、このような不都合を解消し、動きの速い被写体にも強く、蓄積時間の自由度が大きく、拡大できるダイナミックレンジに制限の無いデジタルカメラを提示する事を目的とする。 However, conventionally, as shown in the conventional method of FIG. 3, since exposure by two mechanical shutter operations is required, the subject needs to be stopped between the two exposures, and each shutter speed is Even when it was early, subjects with fast movement were not good at it. An object of the present invention is to provide a digital camera that eliminates such inconvenience, is strong against a fast-moving subject, has a large degree of freedom in accumulation time, and has no restriction on the dynamic range that can be expanded.
そこで本提案では、特開2000-201355に示される撮像素子を用い、1回のメカシャッター動作による露光で、2種類の露光量の撮影画像を得る手段を設け、その露出量の異なる2枚の画像を合成して、ダイナミックレンジの拡大を行う。1回のメカシャッター動作による露光で、2種類の露光量の撮影画像を得るため、動きの速い被写体にも強く、それぞれの露出のシャッタースピードは各々自由な時間に設定できるので、蓄積時間の自由度が大きく、これら露出量の異なる2枚の画像を撮像素子から読み出し後に合成して、ダイナミックレンジの拡大を行うため、拡大できるダイナミックレンジに制限の無いデジタルカメラを提示できる。 Therefore, in this proposal, using the image sensor disclosed in Japanese Patent Laid-Open No. 2000-201355, there is provided means for obtaining a photographed image having two types of exposure amounts by one exposure by a mechanical shutter operation. Synthesize images and expand dynamic range. Since exposure is performed with a single mechanical shutter operation, two types of exposures are obtained, so it is strong against fast-moving subjects, and the shutter speed for each exposure can be set at any time, so the storage time is free. These two images with different degrees of exposure and read out from the image sensor are combined and expanded to expand the dynamic range, so that it is possible to present a digital camera with no limitation on the expandable dynamic range.
以上の説明から容易に理解できるように、本発明によれば、1回のメカシャッター動作による露光で、2種類の露光量の撮影画像を得る手段を設け、その露出量の異なる2枚の画像を合成して、ダイナミックレンジの拡大を行うことで、1回のメカシャッター動作による露光で、2種類の露光量の撮影画像を得るため、動きの速い被写体にも強く、それぞれの露出のシャッタースピードは各々自由な時間に設定できるので、蓄積時間の自由度が大きく、これら露出量の異なる2枚の画像を撮像素子から読み出し後に合成して、ダイナミックレンジの拡大を行うため、拡大できるダイナミックレンジに制限の無いデジタルカメラを提示する事が可能となる。 As can be easily understood from the above description, according to the present invention, there is provided means for obtaining a photographed image of two kinds of exposure amounts by exposure by one mechanical shutter operation, and two images having different exposure amounts are provided. By combining the images and expanding the dynamic range, a single mechanical shutter operation can be used to obtain two types of exposure images, so it is strong against fast-moving subjects and the shutter speed for each exposure. Since each can be set at any time, the degree of freedom of the accumulation time is large, and these two images with different exposure amounts are combined after being read out from the image sensor to expand the dynamic range. It is possible to present an unlimited digital camera.
(第1の実施例)
以下、図面を参照して本発明の実施例を説明する。
(First embodiment)
Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の実施例の構成を示す図である。 FIG. 1 is a diagram showing a configuration of an embodiment of the present invention.
図1において、100は画像処理装置である。
In FIG. 1,
10は撮影レンズ、12は絞り及びシャッター機能を備える露光制御装置、14は光学像を電気信号に変換する撮像素子で、システム制御回路50の制御で感度を変更できるようになっている。ここで、撮像素子14について、図2(a)を用いて説明する。撮像素子14は特開2000-201355に示される撮像素子で、垂直2繰り返しの原色ベイヤー配列のカラーフィルタを具備し3:1のインターレースを行うことによって、1フレームを第1、第2、第3フィールドの3フィールドで構成する。
16は撮像素子14のアナログ信号出力をディジタル信号に変換するA/D変換器である。
18は撮像素子14、A/D変換器16、D/A変換器26にクロック信号や制御信号を供給するタイミング発生回路であり、メモリ制御回路22及びシステム制御回路50により制御される。
A timing generation circuit 18 supplies a clock signal and a control signal to the
20は画像処理回路であり、A/D変換器16からのデータ或いはメモリ制御回路22からのデータに対して所定の画素補間処理や色変換処理を行う。
An
また、画像処理回路20においては、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御回路50が露光制御手段40、測距制御手段42に対して制御を行う、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を行っている。
Further, the
さらに、画像処理回路20においては、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
Further, the
22はメモリ制御回路であり、A/D変換器16、タイミング発生回路18、画像処理回路20、画像表示メモリ24、D/A変換器26、メモリ30、圧縮・伸長回路32を制御する。
A
A/D変換器16のデータが画像処理回路20、メモリ制御回路22を介して、或いはA/D変換器16のデータが直接メモリ制御回路22を介して、画像表示メモリ24或いはメモリ30に書き込まれる。
The data of the A /
24は画像表示メモリ、26はD/A変換器、28はTFT LCD等から成る画像表示部であり、画像表示メモリ24に書き込まれた表示用の画像データはD/A変換器26を介して画像表示部28により表示される。
画像表示部28を用いて撮像した画像データを逐次表示すれば、電子ファインダ機能を実現することが可能である。 If the image data captured using the image display unit 28 is sequentially displayed, the electronic viewfinder function can be realized.
また、画像表示部28は、システム制御回路50の指示により任意に表示をON/OFFすることが可能であり、表示をOFFにした場合には画像処理装置100の電力消費を大幅に低減することが出来る。
Further, the image display unit 28 can arbitrarily turn on / off the display according to an instruction from the
30は撮影した静止画像や動画像を格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備えている。
これにより、複数枚の静止画像を連続して撮影する連射撮影やパノラマ撮影の場合にも、高速かつ大量の画像書き込みをメモリ30に対して行うことが可能となる。
Thereby, even in the case of continuous shooting or panoramic shooting in which a plurality of still images are continuously shot, it is possible to write a large amount of images to the
また、メモリ30はシステム制御回路50の作業領域としても使用することが可能である。
The
32は適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する圧縮・伸長回路であり、メモリ30に格納された画像を読み込んで圧縮処理或いは伸長処理を行い、処理を終えたデータをメモリ30に書き込む。
40は絞り及びシャッター機能を備える露光制御装置12を制御する露光制御手段である。
42は撮影レンズ10のフォーカシングを制御する測距制御手段、44は撮影レンズ10のズーミングを制御するズーム制御手段、46は振れを補正する手段である光学防振手段102の動作を制御する防振制御手段である。防振制御手段には電力消費は大きいが追従特性の良い通常モードと、電力消費は少ないが追従特性がやや劣るエコノミーモードがある。
48はダミー負荷であり、電池の負荷試験を行う際に用いる。
露光制御手段40、測距制御手段42はTTL方式を用いて制御されており、撮像した画像データを画像処理回路20によって演算した演算結果に基づき、システム制御回路50が露光制御手段40、測距制御手段42に対して制御を行う。
Reference numeral 48 denotes a dummy load, which is used when performing a battery load test.
The exposure control means 40 and the distance measurement control means 42 are controlled using the TTL method, and based on the calculation result obtained by calculating the captured image data by the
50は画像処理装置100全体を制御するシステム制御回路、52はシステム制御回路50の動作用の定数、変数、プログラム等を記憶するメモリである。
54はシステム制御回路50でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージ等を表示する液晶表示装置、スピーカー等の表示部であり、画像処理装置100の操作部近辺の視認し易い位置に単数或いは複数個所設置され、例えばLCDやLED、発音素子等の組み合わせにより構成されている。
また、表示部54は、その一部の機能が光学ファインダ104内に設置されている。
The
表示部54の表示内容のうち、LCD等に表示するものとしては、シングルショット/連写撮影表示、セルフタイマー表示、圧縮率表示、記録画素数表示、記録枚数表示、残撮影可能枚数表示、シャッタースピード表示、絞り値表示、露出補正表示、フラッシュ表示、赤目緩和表示、マクロ撮影表示、ブザー設定表示、時計用電池残量表示、電池残量表示、エラー表示、複数桁の数字による情報表示、記録媒体200及び210の着脱状態表示、通信I/F動作表示、日付け・時刻表示、等がある。
Among the display contents of the
また、表示部54の表示内容のうち、光学ファインダ104内に表示するものとしては、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、露出補正表示、等がある。
Among the display contents of the
56は電気的に消去・記録可能な不揮発性メモリであり、例えばEEPROM等が用いられる。
60、62、64、66、68及び70は、システム制御回路50の各種の動作指示を入力するための操作手段であり、スイッチやダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。
ここで、これらの操作手段の具体的な説明を行う。 Here, a specific description of these operating means will be given.
60はモードダイアルスイッチで、電源オフ、自動撮影モード、撮影モード、パノラマ繋ぎ撮り撮影モード、再生モード、マルチ画面再生・消去モード、PC接続モード等の各機能モードを切り替え設定することが出来る。 Reference numeral 60 denotes a mode dial switch, which can be switched to set each function mode such as power-off, automatic shooting mode, shooting mode, panorama splicing shooting mode, playback mode, multi-screen playback / erase mode, and PC connection mode.
62はシャッタースイッチSW1で、不図示のシャッターボタンの操作途中でONとなり、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作開始を指示する。
64はシャッタースイッチSW2で、不図示のシャッターボタンの操作完了でONとなり、撮像素子12から読み出した信号をA/D変換器16、メモリ制御回路22を介してメモリ30に画像データを書き込む露光処理、画像処理回路20やメモリ制御回路22での演算を用いた現像処理、メモリ30から画像データを読み出し、圧縮・伸長回路32で圧縮を行い、記録媒体200或いは210に画像データを書き込む記録処理という一連の処理の動作開始を指示する。
Reference numeral 64 denotes a shutter switch SW2, which is turned on when the operation of a shutter button (not shown) is completed, and an exposure process for writing a signal read from the
66は画像表示ON/OFFスイッチで、画像表示部28のON/OFFを設定することが出来る。 Reference numeral 66 denotes an image display ON / OFF switch, which can set ON / OFF of the image display unit 28.
この機能により、光学ファインダ104を用いて撮影を行う際に、TFT LCD等から成る画像表示部への電流供給を遮断することにより、省電力を図ることが可能となる。 With this function, when photographing using the optical viewfinder 104, it is possible to save power by cutting off the current supply to the image display unit including a TFT LCD or the like.
68は画質モード設定手段で、記録画像の圧縮率やサイズ等、画質や記録容量にかかわる設定を行う。 Reference numeral 68 denotes image quality mode setting means for making settings relating to image quality and recording capacity, such as the compression rate and size of the recorded image.
70は各種ボタンやタッチパネル等からなる操作部で、メニューボタン、セットボタン、マクロボタン、マルチ画面再生改ページボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、メニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタン、再生画像移動+(プラス)ボタン、再生画像−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタン等がある。 70 is an operation unit composed of various buttons, a touch panel, etc., a menu button, a set button, a macro button, a multi-screen playback page break button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, menu movement + (plus) Button, menu shift- (minus) button, playback image shift + (plus) button, playback image- (minus) button, shooting image quality selection button, exposure correction button, date / time setting button, and the like.
80は電源制御手段で、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されており、電池の装着の有無、電池の種類、電池残量の検出を行い、検出結果及びシステム制御回路50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体を含む各部へ供給する。
80 is a power control means, which is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, etc., and detects the presence / absence of a battery, the type of battery, the remaining battery level, and the detection result In addition, the DC-DC converter is controlled based on an instruction from the
82はコネクタ、84はコネクタ、86はアルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる電源手段である。 Reference numeral 82 denotes a connector, 84 denotes a connector, and 86 denotes a power source means including a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, or an AC adapter.
90及び94はメモリカードやハードディスク等の記録媒体とのインタフェース、92及び96はメモリカードやハードディスク等の記録媒体と接続を行うコネクタ、98はコネクタ92及び或いは96に記録媒体200或いは210が装着されているか否かを検知する記録媒体着脱検知手段である。
90 and 94 are interfaces with a recording medium such as a memory card or a hard disk, 92 and 96 are connectors for connecting to a recording medium such as a memory card or a hard disk, and 98 is a
なお、本実施例では記録媒体を取り付けるインタフェース及びコネクタを2系統持つものとして説明している。もちろん、記録媒体を取り付けるインタフェース及びコネクタは、単数或いは複数、いずれの系統数を備える構成としても構わない。また、異なる規格のインタフェース及びコネクタを組み合わせて備える構成としても構わない。 In this embodiment, it is assumed that there are two interfaces and connectors for attaching the recording medium. Of course, the interface and the connector for attaching the recording medium may have a single or a plurality of systems, any number of systems. Moreover, it is good also as a structure provided with combining the interface and connector of a different standard.
インタフェース及びコネクタとしては、PCMCIAカードやCF(コンパクトフラッシュ(登録商標))カード等の規格に準拠したものを用いて構成して構わない。 The interface and the connector may be configured using a PCMCIA card, a CF (Compact Flash (registered trademark)) card, or the like that conforms to a standard.
さらに、インタフェース90及び94、そしてコネクタ92及び96をPCMCIAカードやCF(コンパクトフラッシュ(登録商標))カード等の規格に準拠したものを用いて構成した場合、LANカードやモデムカード、USBカード、IEEE1394カード、P1284カード、SCSIカード、PHS等の通信カード、等の各種通信カードを接続することにより、他のコンピュータやプリンタ等の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うことが出来る。 Further, when the interfaces 90 and 94, and the connectors 92 and 96 are configured using a PCMCIA card or a CF (Compact Flash (registered trademark)) card or the like, LAN cards, modem cards, USB cards, IEEE1394 Management data attached to image data and image data can be transferred to and from peripheral devices such as other computers and printers by connecting various communication cards such as cards, P1284 cards, SCSI cards, and PHS communication cards. I can meet each other.
102は、画像の振れを防止する光学防振手段であり、防振制御手段46によって制御される。
104は光学ファインダであり、画像表示部28による電子ファインダ機能を使用すること無しに、光学ファインダのみを用いて撮影を行うことが可能である。また、光学ファインダ104内には、表示部54の一部の機能、例えば、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、露出補正表示などが設置されている。
Reference numeral 104 denotes an optical viewfinder, which can take an image using only the optical viewfinder without using the electronic viewfinder function of the image display unit 28. In the optical viewfinder 104, some functions of the
110は通信手段で、RS232CやUSB、IEEE1394、P1284、SCSI、モデム、LAN、無線通信、等の各種通信機能を有する。
A
112は通信手段110により画像処理装置100を他の機器と接続するコネクタ或いは無線通信の場合はアンテナである。
200はメモリカードやハードディスク等の記録媒体である。
記録媒体200は、半導体メモリや磁気ディスク等から構成される記録部202、画像処理装置100とのインタフェース204、画像処理装置100と接続を行うコネクタ206を備えている。
The
210はメモリカードやハードディスク等の記録媒体である。 Reference numeral 210 denotes a recording medium such as a memory card or a hard disk.
記録媒体210は、半導体メモリや磁気ディスク等から構成される記録部212、画像処理装置100とのインタフェース214、画像処理装置100と接続を行うコネクタ216を備えている。
The recording medium 210 includes a
次に、本発明の実施例の説明を行う。 Next, examples of the present invention will be described.
まず、図2の説明をする。図2(a)は本実施例で使用する撮像素子14のカラーフィルタ配列で、垂直2繰り返しの原色ベイヤー配列のカラーフィルタを具備し3:1のインターレースを行うことによって、1フレームを第1、第2、第3フィールドの3フィールドで構成されている。例えば、第1フィールドだけを読み出すと図2(b)のようになるが、通常の撮影の際には、第1、第2、第3フィールドと順に読み出したものを、図2(a)の撮像素子配列と同じ配列に並べてから画像処理を行って撮影画像を得る。
First, FIG. 2 will be described. FIG. 2A shows the color filter array of the
次に、図3の説明をする。まず、信号を上から説明する。HDはタイミング発生回路18から撮像素子14等に供給される垂平同期用信号。VDはタイミング発生回路18から撮像素子14等に供給される垂直同期用信号。SGはタイミング発生回路18から撮像素子14等に供給される垂直転送用信号で、撮像素子14の電荷蓄積部に蓄積された電荷を垂直転送路に移す動作と、垂直転送路に移された電荷を垂直転送する動作を行う。SUBはタイミング発生回路18から撮像素子14等に供給される、撮像素子14の電荷蓄積部に蓄積された電荷を除去する信号。SHOPNは露光制御手段40から絞り及びシャッター機能を備える露光制御装置12に供給されるシャッターを開くための信号で、実際には信号を入れてからしばらくしてシャッターが動き出し、しばらくして完全に開く。SHCLSは露光制御手段40から絞り及びシャッター機能を備える露光制御装置12に供給されるシャッターを閉じるための信号で、実際には信号を入れてからしばらくしてシャッターが動き出し、しばらくして完全に閉じる。EXPは露光の状態を模式的にあらわし、Ta、Tb、Tc、Td時間内での、開口径とその開口径での露光時間の積分量がそれぞれの露出量になる。
Next, FIG. 3 will be described. First, the signal will be described from above. HD is a vertical synchronization signal supplied from the timing generation circuit 18 to the
次に、時間を追って従来例の方式の動作を説明する。T1でSG信号を出力して、撮像素子14の電荷蓄積部に蓄積された電荷を垂直転送路に移し、垂直転送路に移された電荷を垂直転送する。その後、SUB信号とSHCLS信号をコーディネイトしてTa時間露光する。そして、T2でTa時間露光した蓄積電荷を垂直転送路に移し、垂直転送路に移された電荷を垂直転送する。この際、垂直転送されたライン信号を、不図示の水平転送パルスによって、A/D変換器16を通して、画像処理回路20、メモリ制御回路22等に送られる。この間にシャッターを開けるとスミアを発生するので閉じておく。そして、T3でSG信号を出力して、撮像素子14の電荷蓄積部に蓄積された電荷を垂直転送路に移し、垂直転送路に移された電荷を垂直転送する。そして、SUB信号とSHCLS信号をコーディネイトしてTb時間露光する。そして、T4でTb時間露光した蓄積電荷を垂直転送路に移し、垂直転送路に移された電荷を垂直転送する。この際、垂直転送されたライン信号を、不図示の水平転送パルスによって、A/D変換器16を通して、画像処理回路20、メモリ制御回路22等に送られる。この間にシャッターを開けるとスミアを発生するので閉じておく。以上の動作によって、Taおよび、Tb時間露光された画像を得る。
Next, the operation of the conventional method will be described over time. The SG signal is output at T1, the charge stored in the charge storage section of the
次に、時間を追って本実施例の方式の動作を説明する。T1でSG信号を出力して、撮像素子14の電荷蓄積部に蓄積された電荷を垂直転送路に移し、垂直転送路に移された電荷を垂直転送する。そして、T2までにTc時間経過するように、SUB信号をコーディネイトしてTc時間露光する。ここで、Tc期間での露光量は、上記、Ta期間での露光量と等しくする。そして、T2でSG信号の、電荷蓄積部に蓄積された電荷を垂直転送路に移す信号を出力して、撮像素子14の電荷蓄積部に蓄積された第1フィールドの電荷を垂直転送路に移す。ただし、ここでは従来例のように、垂直転送路に移された電荷を垂直転送しない。そして、SUB信号とSHCLS信号をコーディネイトしてTd時間露光する。ここで、Td期間での露光量は、上記、Tb期間での露光量と等しくする。そして、T3において、T2ですでに垂直転送路に移された電荷を垂直転送する。この際、垂直転送されたライン信号を、不図示の水平転送パルスによって、A/D変換器16を通して、画像処理回路20、メモリ制御回路22等に送られる。この間にシャッターを開けるとスミアを発生するので閉じておく。そして、T4でTd時間露光した第2フィールドの蓄積電荷を垂直転送路に移し、垂直転送路に移された電荷を垂直転送する。この際、垂直転送されたライン信号を、不図示の水平転送パルスによって、A/D変換器16を通して、画像処理回路20、メモリ制御回路22等に送られる。この間にシャッターを開けるとスミアを発生するので閉じておく。そして、T5でTd時間露光した第3フィールドの蓄積電荷を垂直転送路に移し、垂直転送路に移された電荷を垂直転送する。この際、垂直転送されたライン信号を、不図示の水平転送パルスによって、A/D変換器16を通して、画像処理回路20、メモリ制御回路22等に送られる。この間にシャッターを開けるとスミアを発生するので閉じておく。以上の動作によって、Tcおよび、Td時間露光された画像を得る。以上のように、本方式ではTcおよび、Tdの開始が同時で、メカシャッターの動作は1回のため、2度の露光に露光時間以外の差がないので動きの速い被写体にも強い。
Next, the operation of the method of this embodiment will be described with time. The SG signal is output at T1, the charge stored in the charge storage section of the
次に、図2を使用して、上記露光画像の第一の処理動作を説明する。まず、Tc期間での露光画像は図2(b)のように第1フィールドからなり、この画像を第1露光画像とする。ここで、最終的な画像では各画素でRGB三色のデータが必要で、例えば、第1露光画像の(4)のGの画素の場合、Gはその画素のデータがあるので、それを使用し、Rは左右、Bは上下の平均値とする。また、第1露光画像の(7)のBの画素の場合、Bはその画素のデータがあるので、それを使用し、Gは左右、Rは斜め右上、左上の平均と斜め右下、左下の平均の平均値とする。また、第1露光画像の(10)のRの画素の場合、Rはその画素のデータがあるので、それを使用し、Gは左右、Bは斜め右上、左上の平均と斜め右下、左下の平均の平均値とする。そして、Td期間の露光画像は図2(c)のように第2フィールドと第3フィールドからなり、この画像を第2露光画像とする。ここで、第1露光画像と合わせてダイナミックレンジ拡大画像を作成するには、露光時間の異なる重心のそろった2枚の画像が必要で、例えば、第1露光画像の(4)のGの画素と同じ重心の画素を作るには、第2露光画像の(3)のBと(5)のBの中間位置にRGB三色のデータが必要で、Bはその画素のデータがあるので、それを使用して(3)と(5)の平均値とし、Gは(3)と(5)の左右平均の平均値、Rは(3)の斜め右上、左上の平均と、(5)の斜め右下、左下の平均の平均値とする。また、第1露光画像の(7)のBの画素と同じ重心の画素を作るには、第2露光画像の(6)のGと(8)のGの中間位置にRGB三色のデータが必要で、Gはその画素のデータがあるので、それを使用して(6)と(8)の平均値とし、Rは(6)と(8)の左右平均の平均値、Bは上と下の平均値とする。また、第1露光画像の(10)のRの画素と同じ重心の画素を作るには、第2露光画像の(9)のGと(11)のGの中間位置にRGB三色のデータが必要で、Gはその画素のデータがあるので、それを使用して(9)と(11)の平均値とし、Bは(9)と(11)の左右平均の平均値、Rは上と下の平均値とする。以上のようにして、全画素にRGB三色のデータを得る。 Next, the first processing operation of the exposure image will be described with reference to FIG. First, the exposure image in the Tc period is composed of the first field as shown in FIG. 2B, and this image is set as the first exposure image. Here, in the final image, RGB three-color data is required for each pixel. For example, in the case of G pixel of (4) in the first exposure image, G has data for that pixel. R is the left and right, and B is the average of the top and bottom. In addition, in the case of B pixel of (7) in the first exposure image, B has the data of that pixel, use that, G is left and right, R is diagonal upper right, upper left average and diagonal lower right, lower left The average value of. Also, in the case of the R pixel of (10) in the first exposure image, since R has the data of that pixel, use that, G is left and right, B is diagonally upper right, upper left average and diagonally lower right, lower left The average value of. The exposure image in the Td period is composed of the second field and the third field as shown in FIG. 2C, and this image is used as the second exposure image. Here, in order to create a dynamic range expanded image together with the first exposure image, two images having different centers of gravity with different exposure times are required. For example, the G pixel of (4) of the first exposure image In order to create a pixel with the same center of gravity, RGB three-color data is required in the middle position between B in (3) and B in (5) in the second exposure image, and B has data for that pixel. Is used as the average value of (3) and (5), G is the average value of the left and right averages of (3) and (5), R is the average of diagonally upper right and upper left of (3), and (5) The average value of the lower right and lower left averages. Also, to create a pixel with the same center of gravity as the B pixel in (7) of the first exposure image, RGB three-color data is placed between the G of (6) and G of (8) in the second exposure image. Necessary, because G has the data of that pixel, use it as the average value of (6) and (8), R is the average value of the left and right average of (6) and (8), B is the top and bottom Average value. Also, in order to create a pixel with the same center of gravity as the R pixel in (10) of the first exposure image, RGB three-color data is placed in the middle position between (9) G and (11) G in the second exposure image. Necessary, because G has the data of that pixel, use it as the average value of (9) and (11), B is the average value of the left and right average of (9) and (11), R is the upper and lower Average value. As described above, RGB three-color data is obtained for all pixels.
なお、上記実施例ではRGBフィルターのCCD撮像センサの例を説明したが、補色フィルターのCCD撮像センサを使用した場合の第二の処理動作も同様に説明する。まず、Tc期間での露光画像は図4(b)のように第1フィールドからなり、この画像を第1露光画像とする。ここで、最終的な画像では各画素でRGB三色のデータが必要で、それを算出するため各画素でCMYG四色データを用意する必要がある。例えば、第1露光画像の(4)のCの画素の場合、Cはその画素のデータがあるので、それを使用し、Yは左右、Mは上下、Gは斜め右上、左上の平均と斜め右下、左下の平均の平均値とする。また、第1露光画像の(7)のMの画素の場合、Mはその画素のデータがあるので、それを使用し、Gは左右、Cは上下、Yは斜め右上、左上の平均と斜め右下、左下の平均の平均値とする。また、第1露光画像の(10)のYの画素の場合、Yはその画素のデータがあるので、それを使用し、Cは左右、Gは上下、Mは斜め右上、左上の平均と斜め右下、左下の平均の平均値とする。そして、Td期間の露光画像は図4(c)のように第2フィールドと第3フィールドからなり、この画像を第2露光画像とする。ここで、第1露光画像と合わせてダイナミックレンジ拡大画像を作成するには、露光時間の異なる重心のそろった2枚の画像が必要で、例えば、第1露光画像の(4)のCの画素と同じ重心の画素を作るには、第2露光画像の(3)のMと(5)のMの中間位置にCMYG四色のデータが必要で、Mはその画素のデータがあるので、それを使用して(3)と(5)の平均値とし、Gは(3)と(5)の左右平均の平均値、Cは上と下の平均値、Yは(3)の斜め右上、左上の平均と、(5)の斜め右下、左下の平均の平均値とする。また、第1露光画像の(7)のMの画素と同じ重心の画素を作るには、第2露光画像の(6)のCと(8)のCの中間位置にCMYG四色データが必要で、Cはその画素のデータがあるので、それを使用して(6)と(8)の平均値とし、Yは(6)と(8)の左右平均の平均値、Mは上と下の平均値、Gは(6)の斜め右上、左上の平均と、(8)の斜め右下、左下の平均の平均値とする。また、第1露光画像の(10)のYの画素と同じ重心の画素を作るには、第2露光画像の(9)のGと(11)のGの中間位置にCMYG四色データが必要で、Gはその画素のデータがあるので、それを使用して(9)と(11)の平均値とし、Mは(9)と(11)の左右平均の平均値、Yは上と下の平均値、Cは(9)の斜め右上、左上の平均と、(11)の斜め右下、左下の平均の平均値とする。そして、全画素で得られたCMYG四色データからRGB三色のデータを算出する。 In the above embodiment, an example of a CCD image sensor with an RGB filter has been described, but the second processing operation when a CCD image sensor with a complementary color filter is used is also described. First, the exposure image in the Tc period consists of the first field as shown in FIG. 4B, and this image is the first exposure image. Here, in the final image, RGB three-color data is required for each pixel, and CMYG four-color data must be prepared for each pixel in order to calculate it. For example, in the case of the C pixel of (4) in the first exposure image, since there is data for C, use that, Y is left and right, M is up and down, G is diagonally upper right, and upper left average and diagonal The average value of the lower right and lower left averages. Also, in the case of M pixel of (7) in the first exposure image, there is data of M, so use that, G is left and right, C is up and down, Y is diagonally upper right, upper left average and diagonal The average value of the lower right and lower left averages. Also, in the case of Y pixel of (10) in the first exposure image, Y has data of that pixel, so use that, C is left and right, G is up and down, M is diagonally upper right, upper left average and diagonal The average value of the lower right and lower left averages. The exposure image in the Td period is composed of the second field and the third field as shown in FIG. 4C, and this image is used as the second exposure image. Here, in order to create a dynamic range enlarged image together with the first exposure image, two images having different centroids with different exposure times are required. For example, the pixel C in (4) of the first exposure image. In order to make a pixel with the same center of gravity, CMYG four-color data is required in the middle position between M in (2) and M in (5) in the second exposure image. Is the average value of (3) and (5), G is the average value of the left and right averages of (3) and (5), C is the average value of the top and bottom, Y is the diagonally upper right and upper left of (3) The average value of the average and the average of (5) diagonally lower right and lower left. Also, in order to create a pixel with the same center of gravity as the M pixel in (7) of the first exposure image, CMYG four-color data is required at the intermediate position between C in (6) and C in (8) of the second exposure image. Since C has the data of that pixel, use it as the average value of (6) and (8), Y is the average value of the left and right average of (6) and (8), M is the average of the top and bottom The value, G, is the average value of (6) diagonal upper right and upper left averages and (8) diagonal lower right and lower left averages. Also, to create a pixel with the same center of gravity as the Y pixel in (10) of the first exposure image, CMYG four-color data is required in the middle position between G in (9) and G in (11) of the second exposure image. Since G has the data for that pixel, use it as the average of (9) and (11), M is the average of the left and right averages of (9) and (11), and Y is the average of the top and bottom The value C is the average of (9) diagonal upper right and upper left averages and (11) diagonal lower right and lower left averages. Then, RGB three-color data is calculated from the CMYG four-color data obtained for all pixels.
また、補色フィルターのCCD撮像センサを使用した第三の処理動作を、図5を使用して以下に説明する。まず、Tc期間での露光画像は図5(b)のように第1フィールドからなり、この画像を第1露光画像とする。ここで、最終的な画像では各画素でRGB三色のデータが必要で、例えば、第1露光画像の(1)のG、Mと、(2)のY、Cの画素の重心位置に仮想の画素を想定する場合、これら4色の値からRGB三色のデータを算出する事で、上記重心位置のデータが得られる。そして、Td期間の露光画像は図5(c)のように第2フィールドと第3フィールドからなり、この画像を第2露光画像とする。ここで、第1露光画像と合わせてダイナミックレンジ拡大画像を作成するには、露光時間の異なる重心のそろった2枚の画像が必要で、例えば、第1露光画像の(1)のG、Mと、(4)のY、Cの画素の重心と同じ重心の画素を作るには、第2露光画像の(2)のY、Cと(3)のG、Mの4色の値からRGB三色のデータを算出する。また、第1露光画像の(4)のY、Cと、(7)のG、Mの画素の重心と同じ重心の画素を作るには、第2露光画像の(5)のG、Mと(6)のY、Cの4色の値からRGB三色のデータを算出する。また、第1露光画像の(7)のM、Gと、(10)のC、Yの画素の重心と同じ重心の画素を作るには、第2露光画像の(8)のC、Yと(9)のM、Gの4色の値からRGB三色のデータを算出する。そして、全画素で得られたCMYG四色データからRGB三色のデータを算出する。 A third processing operation using the CCD image sensor of the complementary color filter will be described below with reference to FIG. First, the exposure image in the Tc period consists of the first field as shown in FIG. 5B, and this image is set as the first exposure image. Here, in the final image, RGB data for each pixel is required for each pixel. For example, the virtual image is located at the center of gravity of the G and M pixels in (1) and the Y and C pixels in (2) in the first exposure image. Assuming this pixel, the data of the centroid position can be obtained by calculating RGB three-color data from these four color values. The exposure image in the Td period is composed of the second field and the third field as shown in FIG. 5C, and this image is used as the second exposure image. Here, in order to create a dynamic range enlarged image together with the first exposure image, two images having different centroids with different exposure times are required. For example, (1) G, M of the first exposure image In order to create a pixel with the same center of gravity as the center of gravity of the Y and C pixels in (4), RGB from the four color values of Y and C in (2) and G and M in (3) of the second exposure image Calculate three-color data. Also, in order to create a pixel with the same center of gravity as the center of gravity of the pixels of (4) Y and C in the first exposure image and G and M of (7), G and M in (5) of the second exposure image The RGB three-color data is calculated from the values of the four colors Y and C in (6). In addition, in order to create a pixel having the same centroid as the centroid of the (7) M and G of the first exposure image and the (10) C and Y pixels, the C, Y and (8) of the second exposure image The RGB three-color data is calculated from the four color values of M and G in (9). Then, RGB three-color data is calculated from the CMYG four-color data obtained for all pixels.
ここで、上記第二、第三の処理動作を両方行うことで、2倍の画素データを得ることができ、単独動作時には撮像素子の画素数の1/3の画素数の画像しか得られなかったが、両方行うことで2/3の画素数の画像を得ることが可能となる。 Here, by performing both of the second and third processing operations, it is possible to obtain twice as many pixel data, and only one-third of the number of pixels of the image sensor can be obtained in the single operation. However, by performing both, it is possible to obtain an image with 2/3 the number of pixels.
上記のようにして、露出時間の異なる2枚の画像を得て、それらを合成することで、ダイナミックレンジ拡大画像を作成する。合成の方法は、まず、2枚の露出時間の比に応じて、露出時間の少ない画像の画素データを正規化する。例えば、2枚の露出時間が、1/60秒と1/30秒だった場合には、露出時間が1/60秒の画像の画素データを全て2倍にする事で、露出時間が1/30秒のデータに正規化される。そして、正規化された2枚の画像の全画素について輝度差を求め、この輝度差が最も小さくなる輝度値の最大値を求める。そして、実際に1/30秒で露光した画像の画素の内で、輝度値が上記最大値より大きくなる画素のデータを、1/30秒に正規化したデータと置き換えることで、ダイナミックレンジ拡大画像を得る。 As described above, two images with different exposure times are obtained and combined to create a dynamic range expanded image. In the synthesis method, first, pixel data of an image with a short exposure time is normalized according to the ratio of the exposure times of the two sheets. For example, if the exposure time for two images is 1/60 seconds and 1/30 seconds, the exposure time is 1/60 seconds by doubling the pixel data of the image with an exposure time of 1/60 seconds. Normalized to 30 seconds of data. Then, the luminance difference is obtained for all the pixels of the two normalized images, and the maximum luminance value that minimizes the luminance difference is obtained. Then, by replacing the pixel data whose luminance value is larger than the maximum value among the pixels of the image actually exposed in 1/30 seconds with the data normalized to 1/30 seconds, the dynamic range expanded image Get.
10 撮影レンズ
12 シャッター
14 撮像素子
16 A/D変換器
18 タイミング発生回路
20 画像処理回路
22 メモリ制御回路
24 画像表示メモリ
26 D/A変換器
28 画像表示部
30 メモリ
32 画像圧縮・伸長回路
40 露光制御手段
42 測距制御手段
44 ズーム制御手段
46 防振制御手段
48 ダミー負荷
50 システム制御回路
52 メモリ
54 表示部
56 不揮発性メモリ
60 モードダイアルスイッチ
62 シャッタースイッチSW1
64 シャッタースイッチSW2
66 画像表示ON/OFFスイッチ
68 画質モードスイッチ
70 操作部
80 電源制御手段
82 コネクタ
84 コネクタ
86 電源手段
90 インタフェース
92 コネクタ
94 インタフェース
96 コネクタ
98 記録媒体着脱検知手段
100 画像処理装置
102 光学防振手段
104 光学ファインダ
110 通信手段
112 コネクタ(またはアンテナ)
200 記録媒体
202 記録部
204 インタフェース
206 コネクタ
210 記録媒体
212 記録部
214 インタフェース
216 コネクタ
DESCRIPTION OF
64 Shutter switch SW2
66 Image display ON / OFF switch 68 Image quality mode switch 70
200
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004168316A JP2005348301A (en) | 2004-06-07 | 2004-06-07 | Digital camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004168316A JP2005348301A (en) | 2004-06-07 | 2004-06-07 | Digital camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005348301A true JP2005348301A (en) | 2005-12-15 |
Family
ID=35500218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004168316A Withdrawn JP2005348301A (en) | 2004-06-07 | 2004-06-07 | Digital camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005348301A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7911502B2 (en) | 2006-10-02 | 2011-03-22 | Hoya Corporation | Digital camera using a focal-plane shutter |
-
2004
- 2004-06-07 JP JP2004168316A patent/JP2005348301A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7911502B2 (en) | 2006-10-02 | 2011-03-22 | Hoya Corporation | Digital camera using a focal-plane shutter |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6510283B1 (en) | Photo-taking apparatus, control method adapted for the photo-taking apparatus, and computer program product supplying control program adapted for the photo-taking apparatus | |
JP5276308B2 (en) | Imaging apparatus and control method thereof | |
JP5173453B2 (en) | Imaging device and display control method of imaging device | |
US8670064B2 (en) | Image capturing apparatus and control method therefor | |
JP5460180B2 (en) | Imaging apparatus and control method thereof | |
JP5063372B2 (en) | Image processing apparatus, control method, and program | |
JP2006054698A (en) | Imaging apparatus having camera shake correction function | |
JP4810485B2 (en) | Image processing apparatus, image processing method, and computer program | |
CN109218607B (en) | Image pickup apparatus, control method, and storage medium | |
JP2005051340A (en) | Camera for remotely controlling cameras | |
JP4948011B2 (en) | Imaging apparatus, control method therefor, computer program, and storage medium | |
JP2005348301A (en) | Digital camera | |
JP2006039203A (en) | Imaging apparatus, and its control method | |
JP5448498B2 (en) | Imaging apparatus, control method thereof, and program | |
JP4307277B2 (en) | Image processing apparatus and image processing method | |
JP4993683B2 (en) | Imaging apparatus and control method thereof | |
JP4667251B2 (en) | Imaging apparatus and white balance control method | |
JP2005110128A (en) | Imaging apparatus and imaging control method | |
JP2006217313A (en) | Image processing apparatus, its control method and storage medium | |
JP2006203665A (en) | Imaging device and method therefor, and recording medium and program | |
JPH11261939A (en) | Image processing method, its unit and storage medium | |
JP2007215107A (en) | Imaging apparatus | |
JP5288962B2 (en) | Imaging apparatus and control method thereof | |
JP2024061309A (en) | Image processing apparatus, imaging apparatus, image processing method, imaging method, program, and recording medium | |
JP5686869B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070807 |