JPH06121222A - Camera - Google Patents
CameraInfo
- Publication number
- JPH06121222A JPH06121222A JP4266238A JP26623892A JPH06121222A JP H06121222 A JPH06121222 A JP H06121222A JP 4266238 A JP4266238 A JP 4266238A JP 26623892 A JP26623892 A JP 26623892A JP H06121222 A JPH06121222 A JP H06121222A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- ccd
- time
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は電子ビューファインダー
を具備したカメラに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera equipped with an electronic viewfinder.
【0002】[0002]
【従来の技術】従来、銀塩フィルムを使用するカメラの
撮影レンズを透過してきた光束を撮像素子上に導き、こ
の撮像素子の出力信号を使って表示装置に被写体像を表
示するファインダー装置が提案されている。また、特開
平1−133037号公報では、図9に示すように、撮
影レンズ101を透過した光束は、ミラー108を介し
て撮像素子109上に被写体像を結び、撮像素子109
の電気信号をカメラコントロールユニット120を経
て、メモリ装置121に蓄えられ、これをモニター12
2あるいは、プリンタ123に出力することによって、
フィルム露光時、あるいは、フィルム露光直前の被写体
像を確認することができる。2. Description of the Related Art Conventionally, a finder device has been proposed which guides a light flux, which has passed through a taking lens of a camera using a silver salt film, onto an image sensor and displays an image of a subject on a display device by using an output signal of the image sensor. Has been done. Further, in Japanese Patent Application Laid-Open No. 1-133037, as shown in FIG. 9, the light flux transmitted through the taking lens 101 forms a subject image on the image sensor 109 via the mirror 108, and the image sensor 109
The electric signal of is stored in the memory device 121 via the camera control unit 120, and is stored in the monitor 12
2 or by outputting to the printer 123,
It is possible to confirm a subject image at the time of film exposure or immediately before film exposure.
【0003】これによって撮影が成功したか否かを撮影
後すぐに確認できるものが考案されている。As a result, a device has been devised in which it is possible to confirm whether or not the photographing has been successful immediately after the photographing.
【0004】[0004]
【発明が解決しようとする課題】前述した従来のカメラ
には次のような問題点があった。The conventional camera described above has the following problems.
【0005】上記従来例では、多重露光を行なったと
きに多重露光の1回分の露光結果しか確認ができず、1
フレームの多重露光状態の確認ができなかったので、多
重露光時の撮影が成功したか否かの確認ができない。In the above conventional example, when multiple exposure is performed, only one exposure result of multiple exposure can be confirmed.
Since it was not possible to confirm the multiple exposure state of the frame, it is not possible to confirm whether or not the image capturing at the time of multiple exposure was successful.
【0006】上記従来例では、長秒時露光のような特
殊な撮影では、撮像素子の出力が飽和し正常な映像信号
が得られず、また、汎用の撮像素子及びコントローラー
が使用できない。In the above-mentioned conventional example, in special photographing such as long-time exposure, the output of the image pickup device is saturated and a normal video signal cannot be obtained, and a general-purpose image pickup device and controller cannot be used.
【0007】撮影前に、シャッタースピードによる効
果、例えば、低速のシャッタースピードによる流し撮り
効果、高速のシャッタースピードによる、動きを止める
効果、などがわからないので、適確な効果が得られるシ
ャッタースピードの設定をする上で失敗撮影を防止する
ことができない。Before shooting, the effect of the shutter speed, for example, the panning effect of the low shutter speed, the effect of stopping the motion by the high shutter speed, etc. are not known, so that the shutter speed is set to obtain an accurate effect. It is not possible to prevent unsuccessful shooting when doing.
【0008】本発明の目的は、前述の問題点を解決し、
多重露光や長秒時露光による撮影時においてカメラ使用
者がファインダー画面上で撮影結果を確認できるように
したカメラを提供することである。The object of the present invention is to solve the aforementioned problems,
It is an object of the present invention to provide a camera that allows a camera user to confirm the shooting result on a finder screen when shooting by multiple exposure or long exposure.
【0009】[0009]
【課題を解決するための手段】本発明によるカメラはす
でに露光されている多重露光映像を各露光前に取り込ん
だ映像の合成によって作成し、電子ファインダー上で確
認できるとともに、すでに露光されている多重露光写真
と等価な合成映像と今回露光を行おうとしている被体を
合成してファインダー上に表示することができるので、
多重露光を行う前に、撮影後の写真を予想し、確認する
ことができるので、撮影の失敗(フレーミング、露出
等)を事前に防止することができるようにしたことを特
徴とする。The camera according to the present invention creates a multiple-exposure image that has already been exposed by combining the images that have been captured before each exposure, and can confirm it on the electronic viewfinder, and the already-exposed multiplex image. Since it is possible to combine the composite image equivalent to the exposure photograph and the subject to be exposed this time and display it on the viewfinder,
The feature of the present invention is that it is possible to prevent shooting failures (framing, exposure, etc.) in advance because it is possible to anticipate and confirm a photograph after shooting before performing multiple exposure.
【0010】また、本発明のカメラでは、撮影前に設定
されている長秒時露光に相当する時間の間に複数回取り
込んだ画像を合成することによって、長秒時露光を行な
ったときに得られる写真とほぼ等価な画像を作成し、電
子ファインダーで表示することによって、長秒時露光を
行なったときの効果を撮影前に確認することができ、失
敗写真の撮影を未然に防ぐことができるようにしたこと
を特徴とする。Further, in the camera of the present invention, by combining the images captured a plurality of times during the time corresponding to the long exposure time set before photographing, the image obtained when the long exposure time is obtained. By creating an image that is almost equivalent to the photo taken and displaying it in the electronic viewfinder, you can check the effect of long-time exposure before shooting, and you can prevent shooting of failed photos. It is characterized by doing so.
【0011】[0011]
【実施例】以下に図を参照しつつ本発明の実施例につい
て説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0012】図2は、本発明の第1実施例のカメラの光
学レイアウト図であり、電子ファインダーを備えた一眼
レフカメラの断面図である。図2の状態は撮影前の被写
体観察状態であり、撮影レンズ1を透過した光束はハー
フミラー2によって、ファインダー系へ進む光束と焦点
検出装置3へ進む光束に分けられる。ファインダー系へ
進む光束は、まずコンデンサーレンズ5a,5bによっ
て集光され、このコンデンサーレンズ5a,5bは、撮
像素子(CCD)10へ入射する光量を増やすためのも
のであり、特に画面の周辺部の光量低下を防止するため
のもので撮影レンズ1の結像面近傍に配置してある。そ
して、光束はコンデンサーレンズ5bからプリズム6へ
入射し、その後ミラー7によって再結像光学系へと進
む。再結像光学系は、再結像レンズ8と絞り13からな
り、絞り13は撮像素子10に入射する光量を規制する
ためのもの、再結像レンズ8は,撮影レンズ1の結像面
(ピント面)上の空中像を撮像素子10の受光面上に再
結像させるものである。ここで、コンデンサーレンズ5
a,5bによって逆投影された絞り13の瞳位置は、撮
影レンズ1の瞳位置の近傍にあることが望ましく、この
両者の瞳位置が大きく違っている場合、撮像素子10の
受光部での周辺光量低下という問題が発生する。そこ
で、一眼レフカメラのように、異なった瞳位置の撮影レ
ンズが装着された場合、コンデンサーレンズのパワーを
調節することによって撮影レンズの瞳の近傍に、絞り1
3の逆投影を行なった仮想の瞳の位置を移動させること
ができる。例えば、瞳位置の近い広角系の撮影レンズと
瞳位置の遠い望遠レンズで、コンデンサーレンズ5a,
5bの両方あるいは、一方を交換することによって、コ
ンデンサーレンズのパワーを変化させることにより、前
記問題に対処することができる。プリズム6及びミラー
7は、空間を効率良く使い、更にハーフミラー2によっ
て反転した被写体像を元の状態に戻すために、奇数回、
反射させるように構成している。但し、撮像素子10の
信号読み出し方向が、通常の撮像素子と逆方向に行なえ
る、あるいは、読み出した信号をデジタルデータに変換
し、読み出した信号(データ)の順番をならべ変えるこ
とが可能な場合には、上記反射回数の制限は必要ない。FIG. 2 is an optical layout diagram of the camera of the first embodiment of the present invention, which is a sectional view of a single-lens reflex camera equipped with an electronic viewfinder. The state of FIG. 2 is a subject observation state before shooting, and the light flux that has passed through the shooting lens 1 is divided by the half mirror 2 into a light flux that proceeds to the finder system and a light flux that proceeds to the focus detection device 3. The light flux that travels to the finder system is first condensed by the condenser lenses 5a and 5b. The condenser lenses 5a and 5b are for increasing the amount of light incident on the image pickup device (CCD) 10, and particularly in the peripheral portion of the screen. It is provided to prevent a decrease in the amount of light and is arranged near the image forming surface of the taking lens 1. Then, the light flux enters the prism 6 from the condenser lens 5b, and then advances to the re-imaging optical system by the mirror 7. The re-imaging optical system includes a re-imaging lens 8 and a diaphragm 13. The diaphragm 13 is for regulating the amount of light incident on the image sensor 10, and the re-imaging lens 8 is an imaging plane ( The aerial image on the focusing surface is re-imaged on the light receiving surface of the image sensor 10. Here, condenser lens 5
The pupil position of the diaphragm 13 back-projected by a and 5b is preferably in the vicinity of the pupil position of the taking lens 1, and when the pupil positions of both are significantly different, the periphery of the light receiving portion of the image sensor 10 There is a problem that the amount of light decreases. Therefore, when a taking lens with different pupil positions is attached like a single-lens reflex camera, by adjusting the power of the condenser lens, a diaphragm 1 is provided near the pupil of the taking lens.
It is possible to move the position of the virtual pupil on which back projection of 3 is performed. For example, with a wide-angle shooting lens with a close pupil position and a telephoto lens with a far pupil position, the condenser lens 5a,
The above problem can be dealt with by changing the power of the condenser lens by replacing both or one of 5b. The prism 6 and the mirror 7 use the space efficiently, and in order to return the subject image inverted by the half mirror 2 to the original state, an odd number of times,
It is configured to reflect. However, in the case where the signal reading direction of the image pickup device 10 can be reversed to that of a normal image pickup device, or the read signals can be converted into digital data and the order of the read signals (data) can be changed in order. Does not need to limit the number of reflections.
【0013】また、フィルター9は、入射光の中の赤外
成分を取り除くとともに、光学的なローパスフィルター
になっている。これは、カラー画像を得るために2次元
的に配列されたR,G,Bのフィルターの付いた1組の
受光部に、同じ被写体からの光が均等に入射するように
するとともに、赤外光にも反応する撮像素子に赤外線が
入射しないようにするためのものである。このため、例
えば、赤外線用フィルムを使用する場合には、赤外線除
去機能ではなく、可視光除去機能を持たせたり、光学的
なローパスフィルターやR,G,Bのフィルターを付け
る必要はない。Further, the filter 9 is an optical low-pass filter while removing the infrared component in the incident light. This is to ensure that light from the same subject is evenly incident on a set of light-receiving parts with two-dimensionally arranged R, G, and B filters in order to obtain a color image. This is to prevent infrared rays from entering the image pickup element which also reacts to light. Therefore, for example, when an infrared film is used, it is not necessary to have a visible light removing function instead of an infrared removing function, or to attach an optical low-pass filter or R, G, B filters.
【0014】撮像素子10の受光部に結像した画像は、
撮像素子10によって電気信号に変換され信号処理回路
11へと出力される。信号処理回路11では、撮像素子
や再結像光学系の特性、フィルムの感度や特性、露出情
報、表示素子、撮影レンズ情報に基づいて、表示装置2
0,30に表示される映像を実際に撮影されたときにフ
ィルムによって得られる映像に近いものになるように、
信号処理を行い、出力端子12からファインダーユニッ
ト20あるいはリモコンユニット30へと映像信号を出
力する。The image formed on the light receiving portion of the image pickup device 10 is
It is converted into an electric signal by the image sensor 10 and output to the signal processing circuit 11. In the signal processing circuit 11, the display device 2 is based on the characteristics of the image sensor and the re-imaging optical system, the sensitivity and characteristics of the film, the exposure information, the display element, and the photographing lens information.
So that the images displayed at 0 and 30 are close to the images obtained by film when actually shot,
Signal processing is performed and a video signal is output from the output terminal 12 to the finder unit 20 or the remote control unit 30.
【0015】ファインダーユニット20は、バックライ
ト照明24によって照明された液晶表示素子22によっ
て、カメラの信号処理回路11からの出力信号を被写体
像として表示する。撮影者は、接眼レンズ21を介し
て、液晶表示素子に表示された被写体像を観察する。The finder unit 20 displays the output signal from the signal processing circuit 11 of the camera as a subject image by the liquid crystal display element 22 illuminated by the backlight illumination 24. The photographer observes the subject image displayed on the liquid crystal display element through the eyepiece lens 21.
【0016】リモコンユニット30は、カメラの信号処
理回路11からの出力信号を被写体像として表示する表
示部31を有し、操作部のダイヤル32やスイッチ33
〜36を操作することによって、カメラの露出制御やフ
ォーカス制御、撮影動作などを行うことができる。The remote control unit 30 has a display section 31 for displaying an output signal from the signal processing circuit 11 of the camera as a subject image, and a dial 32 and a switch 33 of the operation section.
By operating ~ 36, it is possible to perform exposure control, focus control, photographing operation, etc. of the camera.
【0017】次に本発明の実施例を説明するための回路
図を図3及び図4に示す。図3は、カメラシステム全体
の電気回路図、図4はファインダー系の詳細な電気回路
図である。Next, circuit diagrams for explaining an embodiment of the present invention are shown in FIGS. 3 is an electric circuit diagram of the entire camera system, and FIG. 4 is a detailed electric circuit diagram of the finder system.
【0018】図3において、MPRSは、カメラの制御
装置で、例えば、内部にCPU(中央処理装置)、RO
M,RAM,A/D変換機能を有する1チップマイクロ
コンピュータである。コンピュータMPRSはROMに
格納されたカメラのシーケンスプログラムに従って、自
動露出制御機能、自動焦点検出機能、ファインダー表示
機能、フィルムの巻き上げ等のカメラの一連の動作を行
う。そのために、MPRSは同期式通信用信号、通信選
択信号を用いて、カメラ本体内の周辺回路および、レン
ズ、ファインダー用回路と通信して、各々の回路やレン
ズの動作を制御する。LCMはカメラとレンズ間通信バ
ッファVCMはカメラと電子ファインダー間通信バッフ
ァであり、これらのバッファを介して、レンズ制御用マ
イクロコンピュータLPRS、電子ファインダー制御用
マイクロコンピュータEVF_SYS−CONと通信を
行う。In FIG. 3, MPRS is a camera control device, for example, a CPU (Central Processing Unit), RO
It is a one-chip microcomputer having M, RAM, and A / D conversion functions. The computer MPRS performs a series of camera operations such as an automatic exposure control function, an automatic focus detection function, a viewfinder display function, and film winding according to the camera sequence program stored in the ROM. Therefore, the MPRS uses the synchronous communication signal and the communication selection signal to communicate with the peripheral circuit in the camera body, the lens, and the finder circuit to control the operation of each circuit and lens. The LCM is a communication buffer between the camera and the lens, and the VCM is a communication buffer between the camera and the electronic viewfinder, and the lens control microcomputer LPRS and the electronic viewfinder control microcomputer EVF_SYS-CON are communicated via these buffers.
【0019】SDRは、焦点検出用のラインセンサー装
置SNSの駆動回路でありマイクロコンピュータMPR
Sによって制御される。The SDR is a drive circuit for the line sensor device SNS for focus detection and is a microcomputer MPR.
Controlled by S.
【0020】DDRはスイッチ検知および表示用回路で
あり、マイクロコンピュータMPRSから送られてくる
データに基づいて、カメラの制御状態を表示する表示部
材OLCの表示を切り替える。DDR is a switch detection and display circuit, which switches the display of the display member OLC for displaying the control state of the camera based on the data sent from the microcomputer MPRS.
【0021】マイクロコンピュータEVF_SYS−C
ONは電子ファインダーEVFの制御を行うものであ
り、カメラのマイクロコンピュータMPRSと通信する
ことによって、被写体の輝度情報をMPRSへ送った
り、露出やフィルムのデータ及びレンズデータ、カメラ
の制御状態等の情報をMPRSから受け取り、これらの
データをもとにして、撮像素子CCDの制御及び信号処
理を行うDSPを制御する。ここで、CCD_DRIV
Eは撮像素子CCDの駆動回路であり、EVF_SYS
−CONの指令によってCCDの制御を行うものであ
る。また、DSPはCCDから出力された映像信号を処
理するためのデジタルシグナルプロセッサーであり、必
要な制御データや映像データは記憶装置MEMORYに
記憶(格納)される。そして、処理された映像信号は、
RGB信号あるいは、VIDEO信号として出力され、
この信号を表示素子LCDを駆動するLCD_DRIV
Eに入力し、LCD_DRIVEによって表示素子LC
Dに被写体像を表示する。Microcomputer EVF_SYS-C
ON controls the electronic viewfinder EVF. By communicating with the microcomputer MPRS of the camera, the brightness information of the subject is sent to the MPRS, and information such as exposure and film data and lens data, camera control status, etc. From the MPRS, and based on these data, controls the DSP of the image sensor CCD and the signal processing. Where CCD_DRIV
E is a drive circuit of the image sensor CCD, EVF_SYS
-The CCD is controlled by the command of CON. Further, the DSP is a digital signal processor for processing a video signal output from the CCD, and necessary control data and video data are stored (stored) in the storage device MEMORY. Then, the processed video signal is
Output as RGB signal or VIDEO signal,
LCD_DRIV which drives this signal
Input to E and display element LC by LCD_DRIVE
The subject image is displayed on D.
【0022】図4はファインダー系の電気回路ブロック
図である。ここでは表示素子及び表示素子の駆動回路は
省略してある。FIG. 4 is a block diagram of an electric circuit of the finder system. Here, the display element and the drive circuit for the display element are omitted.
【0023】同図において、201は撮像素子であるC
CD、202はCCD201を駆動するためのCCDド
ライバー、203A〜CはCCD201の出力信号から
RGB信号成分を取り出すためのサンプルホールド回路
(以下SH回路と称する)、204A〜CはCCD20
1の持つ固体差バラつきを調整するための調整アンプ、
205A〜Cはオートゲインコントロールアンプ(以下
AGCアンプと称する)、206A〜Cはホワイトバラ
ンスアンプ(以下WBアンプと称する)、207A〜C
はWBアンプ206の出力をデジタルデータへ変換する
ためのAD変換器、208はAD変換器207から出力
されるデジタルデータの処理を行うデジタルシグナルプ
ロセッサー(以下DSPと称する)、209A〜Cはフ
ィルムの感光特性に対応するガンマ補正を行うγ1回
路、201A〜Cは表示素子の発光特性に対応したガン
マ補正を行うγ2回路、211は後述のメモリー216
とのデータの相互通信を行うメモリーコントローラ、2
12はメモリーコントローラを介して得られるデータか
ら出力として必要とされているデータを作り出すための
マトリクス回路、213はマトリクス回路212から得
られる色差信号データR−Y、B−Yから変調色信号デ
ーターCを作り出すための変調回路、214はDSP2
08内部で文字合成、映像演算、シェーディング補正、
フィードバック・AE及びAFの為の演算などを行う演
算処理ブロック、215はDSP208と後述のEVF
_クロック222やEVF_シスコン223とのデータ
またはパルスの通信を行うDSP_IFブロック、21
6はメモリー、217A〜EはDSP208から出力さ
れるデジタルデータをアナログ信号に変換するDA変換
器、218A〜EはDA変換器217から出力されるア
ナログ信号の帯域制限を行うためのフィルター、219
A〜Eは出力信号のレベルを設定するための出力レベル
調整アンプ、220は加算器、221A〜Dは出力バッ
ファ、222はシステム全体のタイミング制御を行うE
VF_クロック、223はシステム全体の制御を行うE
VF_シスコン、224はEVF_シスコン223に制
御され、調整アンプ204、AGCアンプ205、WB
アンプ206、出力レベル調整アンプ219を適応的に
制御するための電子ボリューム、225はカメラ側のマ
イクロコンピュータMPRSと通信を行うためのコネク
タである。In the figure, 201 is an image pickup element C
CDs, 202 are CCD drivers for driving the CCD 201, 203A-C are sample hold circuits (hereinafter referred to as SH circuits) for extracting RGB signal components from the output signals of the CCD 201, and 204A-C are CCDs 20.
An adjustment amplifier for adjusting the individual difference variation of 1.
205A to C are automatic gain control amplifiers (hereinafter referred to as AGC amplifiers), 206A to C are white balance amplifiers (hereinafter referred to as WB amplifiers), and 207A to C.
Is an AD converter for converting the output of the WB amplifier 206 into digital data, 208 is a digital signal processor (hereinafter referred to as DSP) that processes the digital data output from the AD converter 207, and 209A to C are films. A γ1 circuit that performs gamma correction corresponding to the photosensitivity characteristic, 201A to 201C are γ2 circuits that perform gamma correction corresponding to the light emission characteristic of the display element, and 211 is a memory 216 described below.
Memory controller for mutual communication of data with 2
Reference numeral 12 is a matrix circuit for producing data required as an output from data obtained through the memory controller, and 213 is color difference signal data RY and BY obtained from the matrix circuit 212 and modulated color signal data C Modulation circuit 214 for producing
08, character composition, video calculation, shading correction,
An arithmetic processing block 215 for performing arithmetic operations such as feedback and AE and AF, and a DSP 208 and an EVF described later.
A DSP_IF block 21 for performing data or pulse communication with the clock 222 and the EVF system controller 223, 21
Reference numeral 6 is a memory, 217A to E are DA converters for converting digital data output from the DSP 208 into analog signals, and 218A to E are filters for limiting the band of analog signals output from the DA converter 217, 219.
A to E are output level adjusting amplifiers for setting the level of the output signal, 220 is an adder, 221A to D are output buffers, 222 is a timing control for the entire system E
VF_clock, 223 E for controlling the entire system
The VF_system controller 224 is controlled by the EVF system controller 223, and the adjustment amplifier 204, the AGC amplifier 205, and the WB.
An electronic potentiometer 225 for adaptively controlling the amplifier 206 and the output level adjusting amplifier 219 is a connector for communicating with the microcomputer MPRS on the camera side.
【0024】上記構成において以下動作を説明する。カ
メラ側のマイクロコンピュータMPRSからコネクタ2
25を介して送られてくるデータに基づいて、EVF_
シスコン223はEVF_クロック222、電子ボリュ
ーム224、DSP208を制御する。The operation of the above configuration will be described below. Connector 2 from the microcomputer MPRS on the camera side
Based on the data sent via 25, EVF_
The syscon 223 controls the EVF_clock 222, the electronic volume 224, and the DSP 208.
【0025】先ずEVF_クロック222、CCDドラ
イバー202によってCCD201は蓄積、読みだし動
作が行われ、出力信号はSH回路203でRGB信号成
分が取り出され、調整アンプ204でCCD201の固
体差バラつきの補正を行った後、MPRSデータに基づ
いてEVF_シスコン223、電子ボリューム224に
よって制御されるAGCアンプ205、WBアンプ20
6で処理されAD変換器207でデジタルデータへ変換
されDSP208へ供給される。First, the EVF_clock 222 and the CCD driver 202 store and read the CCD 201. The SH circuit 203 extracts RGB signal components from the output signal, and the adjustment amplifier 204 corrects the individual difference variation of the CCD 201. Then, based on the MPRS data, EVF_system controller 223, AGC amplifier 205 controlled by electronic volume 224, WB amplifier 20
6 is processed by the AD converter 207, converted into digital data by the AD converter 207, and supplied to the DSP 208.
【0026】以下にDSP208内部での処理を説明す
る。DSP208内部ではγ1回路209でフィルムの
感光特性に対応するガンマ補正と、γ2回路210で表
示素子の発光特性に対応するガンマ補正を行なわれる。
次に、メモリーコントローラ211とメモリーコントロ
ーラ211によって制御されるメモリー216と演算処
理ブロック214において、文字合成、映像加算、シェ
ーディング補正、AE及びAF等のフィードバック制御
のための各種演算処理等を行う。The processing inside the DSP 208 will be described below. Inside the DSP 208, a γ1 circuit 209 performs gamma correction corresponding to the photosensitivity of the film, and a γ2 circuit 210 performs gamma correction corresponding to the light emission property of the display element.
Next, the memory controller 211, the memory 216 controlled by the memory controller 211, and the arithmetic processing block 214 perform various arithmetic processing for character synthesis, image addition, shading correction, feedback control such as AE and AF.
【0027】ここで、文字合成処理は写し込みを行うと
きの日付や文字、あるいは焦点検出エリア表示、シャッ
タースピード、絞り値、露出補正値、合焦、非合焦の表
示等の撮影情報の表示を行うものである。Here, in the character synthesizing process, the date and characters at the time of imprinting or display of shooting information such as focus detection area display, shutter speed, aperture value, exposure correction value, in-focus and out-of-focus display are displayed. Is to do.
【0028】また、映像加算処理は多重露光撮影時、あ
らかじめ加算映像の確認を行うために用いられる。The image addition process is used to confirm the added image in advance during multiple exposure shooting.
【0029】また、シェーディング補正は再結像光学系
や、カメラの主ミラーによって発生する画面周辺部の光
量落ち、CCD201の持つシェーディングの補正を行
うものである。The shading correction is to correct the shading of the CCD 201, which is caused by the re-imaging optical system and the light amount drop in the peripheral portion of the screen caused by the main mirror of the camera.
【0030】各種演算及び補正が行われたデータはメモ
リコントローラ211を介してマトリクス212に送ら
れ、出力として必要とされるデータに変換される。本実
施例においては輝度信号データY、色差信号データR−
Y、B−Y、原色信号データR、G、Bである。このう
ち色差信号データR−Y、B−Yは変調回路213でさ
らに変調色信号データCに変換される。The data on which various calculations and corrections have been performed are sent to the matrix 212 via the memory controller 211 and converted into data required as an output. In this embodiment, the luminance signal data Y and the color difference signal data R-
Y, BY, and primary color signal data R, G, B. Of these, the color difference signal data R-Y and B-Y are further converted into modulated color signal data C by the modulation circuit 213.
【0031】ここでγ1回路209、γ2回路210、
メモリーコントローラ211、演算処理ブロック21
4、マトリクス212、変調回路213はDSP_IF
ブロック215を介してEVF_シスコン223、EV
F_クロック222によって制御されるものであり、そ
の制御はコネクタ225を介して得られるカメラ側のマ
イクロコンピュータMPRSのデータに基づく。Here, the γ1 circuit 209, the γ2 circuit 210,
Memory controller 211, arithmetic processing block 21
4, the matrix 212 and the modulation circuit 213 are DSP_IF
EVF_SYSCON 223, EV via block 215
It is controlled by the F_clock 222, and its control is based on the data of the microcomputer MPRS on the camera side obtained via the connector 225.
【0032】以上の動作をもって、DSP208からは
輝度信号Y、変調色信号C、原色信号R、G、Bデータ
が出力される。With the above operation, the DSP 208 outputs the luminance signal Y, the modulated color signal C, and the primary color signals R, G, B data.
【0033】DSP208から得られた各種データはD
A変換器217でアナログ信号に変換され、フィルター
218で帯域制限された後、電子ボリューム224で制
御される出力レベル調整アンプ219に供給される。Various data obtained from the DSP 208 is D
The signal is converted into an analog signal by the A converter 217, band-limited by the filter 218, and then supplied to the output level adjusting amplifier 219 controlled by the electronic volume 224.
【0034】ここで輝度信号Yと変調色信号Cは出力レ
ベル調整アンプ219A、219Bでレベル調整された
後、加算器220で加算されバッファ221Aを介して
ビデオ信号として出力される。Here, the luminance signal Y and the modulated color signal C are level-adjusted by the output level adjusting amplifiers 219A and 219B, then added by the adder 220 and output as a video signal via the buffer 221A.
【0035】また、原色信号R、G、B、はそれぞれ出
力レベル調整アンプ219C、219D、219Eでレ
ベル調整された後、バッファ221B、221C、22
1Dを介してR、G、B信号として出力される。The primary color signals R, G and B are level-adjusted by output level adjusting amplifiers 219C, 219D and 219E, respectively, and then buffers 221B, 221C and 22.
It is output as R, G, and B signals via 1D.
【0036】図5は、カメラの制御プログラム全体の流
れを表わすフローチャートである。不図示の電源スイッ
チがオンとなると、マイクロコンピュータMPRSへの
給電が開始され、コンピュータMPRSはROMに格納
されたシーケンスプログラムの実行を開始する。FIG. 5 is a flow chart showing the flow of the entire camera control program. When a power switch (not shown) is turned on, power supply to the microcomputer MPRS is started, and the computer MPRS starts executing the sequence program stored in the ROM.
【0037】上記操作にて、プログラムの実行が開始さ
れると、ステップ(300)を経て、ステップ(30
1)において、レリーズボタンの第1段階押下により、
オンとなるスイッチSW1の状態検知がなされ、SW1
オフのときには、ステップ(302)に進み、ステップ
(302)では、カメラの測光タイマーが作動中であ
り、タイマーの値が所定値(5秒)より小さければステ
ップ(310)へ進み、そうでなければステップ(30
3)で制御用のフラグ変数を全てクリアし初期化する。When the execution of the program is started by the above operation, the process proceeds to step (300) and then step (30
In 1), by pressing the release button in the first step,
The state of the switch SW1 which is turned on is detected, and SW1
When it is off, the process proceeds to step (302). In step (302), the photometric timer of the camera is operating, and if the timer value is smaller than the predetermined value (5 seconds), the process proceeds to step (310), otherwise. Step (30
In 3), all flag variables for control are cleared and initialized.
【0038】上記ステップ(301)、(302)、
(303)はスイッチSW1がオンとなるか、あるいは
電源スイッチがオフされるまでくり返し実行される。S
W1がオンすることにより、ステップ(301)からス
テップ(304)へ移行する。ステップ(304)で
は、撮像素子CCDを使って被写体輝度を測定する。測
光動作を行う。測光動作が終了するとステップ(30
5)へ進み、フィルムの露光を行うための露出値(シャ
ッタースピード、絞り値)をフィルム感度と測光デー
タ、露出補正値から演算する。ステップ(305)を終
了すると、ステップ(306)へ進み、ファインダー用
の表示装置に被写体像の映像信号を出力する。ステップ
(307)、(308)は焦点調節動作を行うものであ
り、ステップ(307)では、被写体に対する焦点検出
を行い、ステップ(308)にて、ステップ(307)
で得られた焦点検出結果に基づいて、撮影レンズのレン
ズを駆動し、被写体に対する焦点調節を行う。Steps (301), (302),
(303) is repeatedly executed until the switch SW1 is turned on or the power switch is turned off. S
When W1 is turned on, the process proceeds from step (301) to step (304). In step (304), the subject brightness is measured using the image sensor CCD. Perform photometric operation. When the photometry operation is completed, step (30
In step 5), the exposure value (shutter speed, aperture value) for exposing the film is calculated from the film sensitivity, the photometric data, and the exposure correction value. When step (305) is completed, the process proceeds to step (306), and the image signal of the subject image is output to the display device for the finder. In steps (307) and (308), focus adjustment operation is performed. In step (307), focus detection is performed on the subject, and in step (308), step (307) is performed.
Based on the focus detection result obtained in step 1, the lens of the taking lens is driven to adjust the focus of the subject.
【0039】次のステップ(309)では、SW1のオ
ン動作によって起動した、測光タイマーのカウント値を
リセットし、SW1がオンされている間は常に測光タイ
マーのカウント値がリセットされ続け、カウントが進ま
ないようになっている。In the next step (309), the count value of the photometric timer started by the ON operation of SW1 is reset, and while the SW1 is on, the count value of the photometric timer is continuously reset and the count advances. There is no such thing.
【0040】SW1がオン状態からオフ状態になると、
ステップ(310)へと移行する。ここでは、前記ステ
ップ(304)(305)(306)の測光、露出演
算、ファインダー表示動作を行いステップ(301)へ
戻る。このため、測光タイマーはリセットされることな
く、カウントが進み、カウント値が所定値(5秒)に達
するか、あるいは、再度、SW1がオン状態になるま
で、ステップ(310)、(311)(312)をくり
返し実行する。When SW1 changes from the ON state to the OFF state,
Transition to step (310). Here, the photometry, the exposure calculation, and the finder display operation in steps (304) (305) (306) are performed, and the process returns to step (301). Therefore, the photometric timer is not reset, and the count advances, and the count value reaches a predetermined value (5 seconds) or until SW1 is turned on again, steps (310), (311) ( 312) is repeatedly executed.
【0041】このように、SW1がオフ状態からオン状
態に切換わることによって、ファインダーの機能が動作
するようにしたのは、撮像素子や各種マイクロコンピュ
ータや電気回路、表示装置を動作させるために、多くの
電力を消費するため、撮影時以外で不必要に電力を消費
することを防止するためである。また、SW1がオン状
態からオフ状態に切換わっても、直ちにファインダー機
能を停止させずに、所定時間、ファインダー機能を動作
させるのは、撮影作業中に不図示のレリーズボタンを押
す指の力がゆるんだり、他の操作部材を操作中に、一瞬
SW1がオフになったときに、それまで設定した、設定
値がリセットされたり、ファインダーが見えなくなるな
どの悪影響をなくすためのものである。このため、安定
した大きな電源、例えば家庭用交流電源(AC100
V)等を使用しているときには、測光タイマーの時間を
長くする、あるいは、不図示の電源スイッチをオン状態
にすると、常時、ファインダー機能を動作させるように
しても良い。As described above, the function of the finder is made to operate by switching the SW1 from the off state to the on state in order to operate the image pickup device, various microcomputers, electric circuits, and display devices. This is because a large amount of power is consumed, so that it is possible to prevent unnecessary consumption of power except when photographing. Further, even if the SW1 is switched from the ON state to the OFF state, the finder function is operated for a predetermined time without immediately stopping the finder function because the force of the finger pressing the release button (not shown) during the photographing operation is used. This is for eliminating adverse effects such as loosening or when the SW1 is momentarily turned off during operation of other operating members, the previously set value, the set value is reset, and the viewfinder becomes invisible. Therefore, a stable and large power source, for example, a household AC power source (AC100
When using V) or the like, the finder function may be operated at all times by lengthening the time of the photometric timer or turning on a power switch (not shown).
【0042】そして、SW1オン状態からレリーズボタ
ンがさらに押し込まれて、スイッチSW2がオン状態に
なると、割込み機能によって、いずれのステップにあっ
ても直ちにステップ(320)へ移行してレリーズ動作
を開始する。Then, when the release button is pushed further from the SW1 on state and the switch SW2 is turned on, the interrupt function immediately shifts to step (320) to start the release operation in any step. .
【0043】ステップ(321)では、レンズ駆動を実
行中かどうかを判別し、停止していれば直ちにステップ
(322)へ進み、駆動中であれば停止するのを待って
ステップ(322)へ進む、ステップ(322)では、
露光動作直前の被写体像を撮像素子によって取り込む。
このステップの動作については後述するため、ここで
は、詳細な説明を省略する。被写体像の映像信号の取り
込みが終了すると、ステップ(323)へと進む。In step (321), it is determined whether or not the lens drive is being executed. If the lens drive is stopped, the process immediately proceeds to step (322), and if the lens drive is in progress, the process waits for the stop and the process proceeds to step (322). , In step (322),
The image of the subject immediately before the exposure operation is captured by the image sensor.
Since the operation of this step will be described later, detailed description thereof will be omitted here. When the capturing of the video signal of the subject image is completed, the process proceeds to step (323).
【0044】ステップ(323)では、カメラのクイッ
クリターンミラー(図2のハーフミラー2及びサブミラ
ー4)のアップ動作を行う。これは、図3に示したモー
タ制御用信号M2F、M2Rを制御することで実行され
る。次のステップ(324)では、先のステップ(30
5)で既に演算されている絞り制御値を回路LCMを介
してレンズ内制御回路LPRSへ送出して、絞り制御を
行わせる。In step (323), the quick return mirror (half mirror 2 and sub mirror 4 in FIG. 2) of the camera is moved up. This is executed by controlling the motor control signals M2F and M2R shown in FIG. In the next step (324), the previous step (30
The aperture control value already calculated in 5) is sent to the in-lens control circuit LPRS via the circuit LCM to perform aperture control.
【0045】ステップ(323)、(324)のミラー
アップと絞り制御が完了したか否かは、ステップ(32
5)で検知するわけであるが、ミラーアップはミラーに
付随した不図示の検知スイッチにて、確認することが出
来、絞り制御は、レンズに対して、所定の絞り値まで駆
動したか否かを通信によって確認する。いずれかが未完
了の場合には、このステップで待機し、引き続き、状態
検知を行う。両者の制御終了が確認されると、ステップ
(326)へ移行する。Whether or not the mirror raising and diaphragm control in steps (323) and (324) are completed is determined in step (32).
Although it is detected in 5), the mirror up can be confirmed by a detection switch (not shown) attached to the mirror, and the diaphragm control is performed on whether or not the lens is driven up to a predetermined diaphragm value. Confirm by communication. If any of them is not completed, the process waits at this step and the state detection is continued. When both control ends are confirmed, the process proceeds to step (326).
【0046】ステップ(326)では、先のステップ
(305)で演算された、シャッタースピードにて、シ
ャッターの制御を行い、フィルムを露光する。In step (326), the shutter is controlled at the shutter speed calculated in step (305) to expose the film.
【0047】シャッターの制御が終了すると、次のステ
ップ(327)では、レンズに対して絞りを開放状態に
するように命令を前述の通信動作にて送出し、引き続い
てステップ(328)にて、ミラーダウンを行う。ミラ
ーダウンはミラーアップと同様にモータ制御用信号M2
F、M2Rを用いてモータMTR2を制御することで実
行される。When the shutter control is completed, in the next step (327), a command is sent to the lens to open the diaphragm by the above-mentioned communication operation, and subsequently in step (328), Mirror down. Like the mirror up, the mirror down is the motor control signal M2.
This is executed by controlling the motor MTR2 using F and M2R.
【0048】次のステップ(329)では、ステップ
(325)と同様に、ミラーダウンと絞り開放が完了す
るのを待つ、ミラーダウンと絞り開放が完了すると、ス
テップ(330)へ移行する。At the next step (329), similarly to step (325), the process waits until the mirror down and the aperture opening are completed. When the mirror down and the aperture opening are completed, the process proceeds to step (330).
【0049】ステップ(330)では、多重撮影中であ
るかどうか判別し、多重撮影中であれば、ステップ(3
33)へ移行し、そうでなければ、ステップ(331)
へ進む。多重撮影中であれば、ステップ(322)で取
り込んだ画像と、MEMORY内に記憶されている。多
重撮影されている画像を合成し、MEMORY内の所定
のアドレスに記憶する。これは、多重撮影によって、1
つのフィルム面に複数回被写体像を露光したときに、得
られる写真と同じ映像を作り出すために、多重撮影を始
めてから、現在まで、多重露光された露光直前の被写体
像を合成した映像を作成し、記憶しているのである。こ
のため多重撮影の1回目の露光時には、この露光直前の
被写体像のみが、記憶され、他の画像と合成されること
はない。At the step (330), it is judged whether or not the multiple photographing is being carried out. If the multiple photographing is being carried out, the step (3
33), if not, step (331)
Go to. If multiple shooting is in progress, the image captured in step (322) and the memory are stored in MEMORY. The multiple shot images are combined and stored at a predetermined address in MEMORY. This is 1 by multiple shooting
In order to create the same image as the obtained photograph when the subject image is exposed multiple times on one film surface, from the beginning of multiple shooting to the present, we have created a composite image of the subject images just before the multiple exposure. I remember it. Therefore, at the time of the first exposure of multiple shooting, only the subject image immediately before this exposure is stored and is not combined with other images.
【0050】ステップ(333)にて、画像合成及び記
憶動作が終了すると、次の多重撮影を行うために、ステ
ップ(301)に戻り、フィルムの巻上げは行なわな
い。When the image synthesizing and storing operations are completed in step (333), the process returns to step (301) to carry out the next multiple photographing, and the film is not wound.
【0051】多重撮影中でなければ、ステップ(33
1)へと移行し、多重撮影を記憶するアドレスのメモリ
ーをクリアーする。これによって、多重撮影を開始した
1回目の露光時に、このときの画像が他の画像と合成さ
れることを防止することができる。次のステップ(33
2)では、図3に示したモータ制御用信号M1F、M1
Rを制御することで、フィルム1駒分が巻き上げられ
る。If multiple photographing is not being performed, step (33)
Move to 1) and clear the memory of the address that stores multiplex shooting. As a result, it is possible to prevent the image at this time from being combined with another image at the time of the first exposure when the multiple shooting is started. Next step (33
2), the motor control signals M1F and M1 shown in FIG.
By controlling R, one frame of film is wound up.
【0052】以上がカメラ全体のシーケンスである。図
6は、第5のステップ(304)(310)の測光サブ
ルーチンのフローチャートであり、撮影素子CCDの出
力信号を積分して、被写体の輝度を測定するものであ
る。The above is the sequence of the entire camera. FIG. 6 is a flowchart of the photometric subroutine of the fifth step (304) (310), in which the output signal of the image pickup device CCD is integrated to measure the brightness of the subject.
【0053】測光サブルーチンがコールされると、カメ
ラ側のマイクロコンピュータMPRSからEVF_シス
コン223へ測光動作を行うように、コネクター225
を介して、通信がなされる。EVF_シスコンが測光動
作をスタートすると、図6のステップ(401)へ進
み、撮像素子CCDの駆動を開始する。これは、図4の
EVF_クロック222及びCCDドライバー202に
よって、CCD201が蓄積、読み出し動作が可能な状
態にする。次のステップ(402)では、CCDドライ
バー202によって制御される。光電変換された電価の
蓄積時間の設定を行う。ここで、第1回目の蓄積動作で
あれば、所定の値に設定し、過去にCCDの蓄積動作が
行なわれていれば、その結果をフィードバックして蓄積
制御を行う、このため、過去に蓄積動作がなされている
場合には、記憶装置MEMORYの所定のアドレスに記
憶されている蓄積制御データに基づいて蓄積時間の設定
を行う。When the photometry subroutine is called, the connector 225 causes the microcomputer MPRS on the camera side to perform the photometry operation to the EVF_system controller 223.
Communication is performed via. When the EVF_system controller starts the photometric operation, the process proceeds to step (401) in FIG. 6 to start driving the image sensor CCD. This makes the CCD 201 ready for the accumulation and reading operations by the EVF_clock 222 and the CCD driver 202 of FIG. In the next step (402), it is controlled by the CCD driver 202. Set the accumulation time of photoelectrically converted electric value. Here, if it is the first accumulation operation, it is set to a predetermined value, and if the CCD accumulation operation has been performed in the past, the result is fed back to perform accumulation control. When the operation is performed, the accumulation time is set based on the accumulation control data stored at the predetermined address of the storage device MEMORY.
【0054】ステップ(403)では、ステップ(40
2)で設定された時間、撮像素子CCDによって光電変
換された電価の蓄積動作を行う。蓄積動作が終了する
と、ステップ(404)へ進み、蓄積した電価をEVF
_クロック222に同期して転送し、信号の読み出し動
作を行う。読み出された信号は、ステップ(405)に
てSH回路203A〜Cを経てR、G、Bの各信号成分
が取り出される。次のステップ(406)では、EVF
_シスコン223によって、制御される電子ボリューム
224によってゲインを制御されたAGCアンプ205
A〜Cで各R、G、B信号を増幅する。このときのAG
Cアンプのゲインも蓄積時間制御と同様に、1回目の信
号読み出しであれば、所定のゲインを設定し、過去に、
信号の読み出しを行なっていれば、その結果をフィード
バックして、制御を行うために、記憶装置MEMORY
の所定のアドレスに記憶されているAGCデータに基づ
いて、AGCアンプのゲインを制御する。In step (403), step (40
During the time set in 2), the operation of accumulating the electric value photoelectrically converted by the image sensor CCD is performed. When the accumulation operation is completed, the process proceeds to step (404), and the accumulated electric value is EVF.
The data is transferred in synchronization with the _clock 222 and a signal read operation is performed. The read signal is passed through the SH circuits 203A to 203C in step (405) to extract R, G, and B signal components. In the next step (406), the EVF
The AGC amplifier 205 whose gain is controlled by the electronic volume 224 controlled by the system controller 223
A to C amplify each R, G, B signal. AG at this time
Similarly to the accumulation time control, the gain of the C amplifier is set to a predetermined gain if the signal is read for the first time, and in the past,
If the signal is being read, the result is fed back and the memory MEMORY is used to perform control.
The gain of the AGC amplifier is controlled on the basis of the AGC data stored at the predetermined address.
【0055】次のステップ(407)では、ホワイトバ
ランス調整を行うべくEVF_シスコン223によって
制御される電子ボリューム224によって、各WBアン
プ206A〜Cのゲインが制御される。このときのR、
G、Bの各信号のゲインは、撮影に使用するフィルムの
特性に基づいて制御され、撮影光の色温度によって変化
することはない。In the next step (407), the gain of each WB amplifier 206A-C is controlled by the electronic volume control 224 controlled by the EVF_system controller 223 for white balance adjustment. R at this time,
The gains of the G and B signals are controlled based on the characteristics of the film used for shooting, and do not change depending on the color temperature of the shooting light.
【0056】このため、デイライト用フィルムとタング
ステン光用フィルムで、WBアンプの各ゲインの設定を
変える必要があり、場合によっては、フィルムの種類や
ロットによって設定を変更するようにしても良い。そし
て、同一フィルムであれば、WBアンプの各ゲインの設
定は変更しない。Therefore, it is necessary to change the setting of each gain of the WB amplifier between the daylight film and the tungsten light film. Depending on the case, the setting may be changed depending on the type and lot of film. If the films are the same, the gain settings of the WB amplifier are not changed.
【0057】ステップ(407)を終了すると、次のス
テップ(408)にて、アナログの映像信号をA/D変
換器によって、デジタルデータに変化される。そして、
次のステップ(409)からは、デジタル、シグナル、
プロセッサーDSP208にて、処理される。When step (407) is completed, the analog video signal is converted into digital data by the A / D converter in the next step (408). And
From the next step (409), digital, signal,
It is processed by the processor DSP208.
【0058】ステップ(409)では、フィルムの感
光、発色特性に対応した、ガンマ補正を行う、このた
め、異なる特性のフィルムを使用する場合には、ガンマ
補正の特性を変更しなければならず、このときは、DS
P208内のデータを変更すれば良い。In step (409), gamma correction is performed corresponding to the photosensitivity and color development characteristics of the film. Therefore, when using films having different characteristics, the gamma correction characteristics must be changed. At this time, DS
The data in P208 may be changed.
【0059】ステップ(410)では、デジタルデータ
として得られた、R、G、B各信号の積分演算を行う。
この積分演算処理によって得られる積分値は、撮影画像
全体の明るさ(輝度)を表わす値であり、高輝度の被写
体であれば大きく、低輝度の被写体であれば小さくな
る。In step (410), integration calculation is performed on each of the R, G, and B signals obtained as digital data.
The integrated value obtained by this integration calculation process is a value that represents the brightness (luminance) of the entire captured image, and is large for a high-luminance subject and small for a low-luminance subject.
【0060】次のステップ(411)では、ステップ
(410)で得られた積分値が所定値EAより小さいか
どうかが判断され、積分値が所定値EAより小さければ
ステップ(412)へ進み、そうでなければステップ
(413)へ進む。積分値がEAより小さい場合には、
A/D変換器によって得られたデジタルデータの値が小
さく、デジタルデータの中で、A/D変換時に生じる量
子化誤差の占める割合が大きくなり、被写体の輝度情報
である積分値の信頼性が低いため、信頼性の高いデータ
を得るべく、ステップ(412)へ移行する。In the next step (411), it is judged whether or not the integrated value obtained in step (410) is smaller than a predetermined value EA. If the integrated value is smaller than the predetermined value EA, the process proceeds to step (412). If not, the process proceeds to step (413). If the integrated value is smaller than EA,
The value of the digital data obtained by the A / D converter is small, and the ratio of the quantization error occurring during the A / D conversion is large in the digital data, so that the reliability of the integrated value, which is the brightness information of the subject, becomes high. Since it is low, the process proceeds to step (412) to obtain highly reliable data.
【0061】ステップ(412)では、MEMORYの
所定のアドレスに記憶されている蓄積制御データ及びA
GCデータの変更を行う。ここでは、A/D変換器に入
力される信号レベルを高くするために、蓄積時間の延
長、AGCのゲインを大きくするように、各データの変
更を行う。そして、前回よりもCCDからの出力信号を
大きくする設定が終ればステップ(402)へ戻り、前
回と同様の処理(動作)を行う。In step (412), the accumulation control data and A stored in the predetermined address of MEMORY are stored.
Change the GC data. Here, in order to increase the signal level input to the A / D converter, each data is changed so as to extend the accumulation time and increase the AGC gain. Then, when the setting for increasing the output signal from the CCD as compared with the previous time is completed, the process returns to step (402) and the same processing (operation) as the previous time is performed.
【0062】ステップ(411)で、積分値が小さすぎ
ない場合には、ステップ(413)へ進み、積分値が大
きすぎないかどうかの判定を行う。ステップ(413)
では、積分値が所定値EBより大きいかどうか判定し、
積分値がEBより大きければステップ(414)へ移行
し、そうでなければ、ステップ(415)へ進む。積分
値がEBより大きいときには、A/D変換器に入力され
る信号レベルが、A/D変換器の使用レンジより高く、
A/D変換されたデジタルデータが飽和した状態である
可能性が高い。このように、飽和した状態で得られた積
分値は、実際の被写体輝度より小さな値となってしま
い、正確な被写体輝度情報ではなくなってしまう。そこ
で、ステップ(414)では、MEMORYの所定のア
ドレスに記憶された蓄積制御データAGCデータを変更
し、次回の動作では、蓄積時間短縮、AGCアンプのゲ
インを小さくするように設定する。これによって、次回
の動作ではA/D変換器に入力される信号レベルは小さ
くなる。このように、CCDからの出力信号のレベル低
下を行う設定処理が終了するとステップ(402)へ戻
し、再度データの取り込みを行う。If the integrated value is not too small in step (411), the process proceeds to step (413) to determine whether the integrated value is too large. Step (413)
Then, it is determined whether the integrated value is larger than the predetermined value EB,
If the integrated value is larger than EB, the process proceeds to step (414), and if not, the process proceeds to step (415). When the integrated value is larger than EB, the signal level input to the A / D converter is higher than the operating range of the A / D converter,
It is highly possible that the A / D converted digital data is in a saturated state. In this way, the integrated value obtained in the saturated state becomes a value smaller than the actual subject luminance, and the subject luminance information is not accurate. Therefore, in step (414), the accumulation control data AGC data stored at the predetermined address of MEMORY is changed, and in the next operation, the accumulation time is shortened and the gain of the AGC amplifier is reduced. This reduces the signal level input to the A / D converter in the next operation. In this way, when the setting process for lowering the level of the output signal from the CCD is completed, the process returns to step (402) and the data is fetched again.
【0063】積分値が適正な範囲EA≦積分値≦EBと
なるまで上記動作をくり返す。そして、積分値が適正な
範囲になれば、ステップ(415)へ進む。The above operation is repeated until the integral value is within the proper range EA≤integral value≤EB. Then, when the integrated value is within the proper range, the process proceeds to step (415).
【0064】ステップ(415)では、適正な積分値が
得られたCCDの蓄積時間及びAGCアンプのゲインの
値をMEMORYの所定のアドレスに記憶し、更に、C
CDの蓄積時間、AGCアンプのゲイン、及び積分値等
の被写体輝度に関するデータをカメラ側のマイクロコン
ピュータMPRSへ出力し、このサブルーチンをリター
ンする。In step (415), the accumulation time of the CCD and the gain value of the AGC amplifier for which an appropriate integrated value is obtained are stored in a predetermined address of MEMORY, and C
Data relating to the subject brightness such as the accumulation time of the CD, the gain of the AGC amplifier, and the integrated value is output to the microcomputer MPRS on the camera side, and this subroutine is returned.
【0065】また、前記、積分値の適正範囲を示すEA
及びEBの値は、カメラの測光モード、例えば、スポッ
ト測光モード、平均測光モード、部分測光モード等によ
って変更すると、より良い結果が得られる。EA indicating the appropriate range of the integrated value
Better results can be obtained by changing the values of EB and EB according to the photometry mode of the camera, for example, the spot photometry mode, the average photometry mode, the partial photometry mode, and the like.
【0066】図7は、図5のステップ(305)(31
1)の露出演算サブルーチンのフローチャートである。FIG. 7 shows steps (305) and (31) of FIG.
It is a flowchart of the exposure calculation subroutine of 1).
【0067】露出演算サブルーチンがコールされると、
カメラ側のマイクロコンピュータMPRSは、前述した
測光サブルーチンで得られた、被写体輝度に関するデー
タ、すなわち、CCDの蓄積時間、AGCアンプのゲイ
ン、CCD出力の積分値を入力し、記憶装置の所定のア
ドレスに記憶する。When the exposure calculation subroutine is called,
The microcomputer MPRS on the camera side inputs the data relating to the subject brightness, that is, the accumulation time of the CCD, the gain of the AGC amplifier, and the integrated value of the CCD output, which are obtained by the photometry subroutine described above, and inputs them to a predetermined address of the storage device. Remember.
【0068】次のステップ(502)では、不図示の露
出補正用操作部材の操作に連動して、オン、オフするス
イッチSWA、SWBの状態検知によって、露出補正量
を検知する。In the next step (502), the exposure correction amount is detected by detecting the states of the switches SWA and SWB which are turned on and off in synchronization with the operation of the exposure correction operation member (not shown).
【0069】次のステップ(503)では、撮影レンズ
の開放Fナンバー、実効Fナンバー等の瞳情報、撮影レ
ンズの焦点距離、被写体までの距離(レンズのくり出し
位置)をレンズ側マイクロコンピュータLPRSと通信
することによって取り込む、そして、ステップ(50
4)では図3のスイッチ部材SWSの状態を検知するこ
とによって、装てんされたフィルムの感度、ラチチュー
ド、撮影可能枚数などのデータを取り込む。これは、フ
ィルムパトローネの外周に設けられた、導通部及び非導
通部からなる、信号パターンと接触しているカメラのパ
トローネ室に設けられた接触端子によってスイッチ部材
SWSが形成され、この信号パターンによって、前記フ
ィルム情報が表示されている。In the next step (503), the pupil information such as the open F number of the taking lens, the effective F number, the focal length of the taking lens, and the distance to the subject (lens extension position) are communicated with the lens side microcomputer LPRS. And then step (50
In 4), by detecting the state of the switch member SWS shown in FIG. 3, data such as the sensitivity of the loaded film, the latitude, and the number of shootable images are fetched. This is because the switch member SWS is formed by the contact terminal provided in the outer periphery of the film cartridge and including the conducting portion and the non-conducting portion, which is provided in the cartridge chamber of the camera that is in contact with the signal pattern. , The film information is displayed.
【0070】ステップ(505)では、ステップ(50
1)〜(504)で得られたデータをもとに、フィルム
の露光を行う、シャッタースピード、絞り値を演算す
る。そして、シャッタースピードと絞り値が求まれば、
ステップ(506)にて、このサブルーチンをリターン
する。In step (505), step (50
Based on the data obtained in 1) to (504), the shutter speed and aperture value for exposing the film are calculated. Then, if the shutter speed and aperture value are obtained,
This subroutine is returned at step (506).
【0071】図1は、図5のステップ(306)(31
2)のファインダー表示サブルーチンのフローチャート
である。FIG. 1 shows steps (306) and (31) of FIG.
It is a flowchart of the finder display subroutine of 2).
【0072】このサブルーチンでは、先の露出演算サブ
ルーチンで得られた、露出で撮影したときに得られる写
真とほぼ等価な映像をファインダーあるいは表示装置に
表示するものである。In this subroutine, the image obtained by the above exposure calculation subroutine is displayed on the finder or the display device, which is almost equivalent to the photograph obtained when the exposure is taken.
【0073】ステップ(601)では、カメラ側のマイ
クロコンピュータMPRSとEVF_シスコンとの通信
によって、先の露出演算サブルーチンで得られたシャッ
タースピード、絞り値、及びフィルムの感度情報をEV
F_シスコンへ入力する。そうすると、EVF_シスコ
ンでは、ステップ(601)のデータをもとにステップ
(602)のCCD蓄積時間、AGCアンプのゲインを
演算する。このとき、CCD蓄積時間は、可能な限り、
シャッタースピード、と同じ露光時間となるように設定
する。これは、動いている被写体を撮影しようとしてい
るときに、高速のシャッタースピードで動きを止める。
あるいは、低速のシャッタースピードで流し取りを行う
際の効果を確認できるようにするためである。但し、C
CDの蓄積時間をシャッター秒時と同じにした場合に、
AGCアンプの制御範囲内では、撮影される写真とファ
インダー表示の画面の明るさの差が、所定範囲内に収ま
らなくなり、写真とファインダー表示画像との相関性が
失われるときには、両者の明るさを同じにすることを優
先し、写真とファインダー表示画像の明るさが同じにな
るように、CCDの蓄積時間を制御する。このとき、A
GCアンプのゲインは、CCDの蓄積時間とシャッター
秒時が最も近くなるように、制御範囲の上限あるいは下
限で制御する。In step (601), the communication between the microcomputer MPRS on the camera side and the EVF_system controller is used to obtain the shutter speed, aperture value, and film sensitivity information obtained in the previous exposure calculation subroutine from the EV.
Input to F_SYSCON. Then, the EVF_syscon calculates the CCD accumulation time and the gain of the AGC amplifier in step (602) based on the data in step (601). At this time, the CCD accumulation time should be as long as possible.
Set so that the exposure time is the same as the shutter speed. It stops with a fast shutter speed when trying to shoot a moving subject.
Alternatively, it is for making it possible to confirm the effect of performing the panning at a low shutter speed. However, C
If the CD accumulation time is the same as the shutter speed,
Within the control range of the AGC amplifier, when the difference between the brightness of the photographed image and the screen of the viewfinder display does not fall within the specified range, and the correlation between the photo and the viewfinder display image is lost, the brightness of both is reduced. Prioritizing the same, the storage time of the CCD is controlled so that the brightness of the photograph and the image displayed on the finder are the same. At this time, A
The gain of the GC amplifier is controlled by the upper limit or the lower limit of the control range so that the CCD accumulation time and the shutter time are closest to each other.
【0074】次のステップ(603)では、ステップ
(602)で得られた蓄積時間、CCDで光電変換した
電価の蓄積を行うようにCCDドライバーでCCDを制
御する。そして、蓄積動作が終了するとステップ(60
4)で蓄積した電価を転送し、信号の読み出しを行う。
読み出された信号は、ステップ(605)にてサンプル
ホールドされて、R、G、B信号が取り出される。ステ
ップ(606)では、ステップ(602)で演算された
ゲインに制御された、AGCアンプによって、R、G、
B信号を増幅し、ステップ(607)でWBアンプによ
ってホワイトバランス調整される。このホワイトバラン
ス調整はフィルムの発色(カラー)特性に対応して設定
され、撮影光の色温度には依存しない。このため、デイ
ライトフィルムとタングステン光用フィルムでホワイト
バランスの設定を大きく変えないといけない。また、フ
ィルムの種類あるいはロットによる差がある場合に、そ
のフィルムに適したホワイトバランスに設定すると、更
に写真とファインダー画像の相関性を高くすることがで
きる。In the next step (603), the CCD driver controls the CCD so that the charge time photoelectrically converted by the CCD is stored for the storage time obtained in step (602). Then, when the accumulation operation ends, step (60
The electric value stored in 4) is transferred and the signal is read.
The read signal is sampled and held in step (605), and R, G, B signals are extracted. In step (606), R, G, and G are controlled by the AGC amplifier controlled to the gain calculated in step (602).
The B signal is amplified, and the white balance is adjusted by the WB amplifier in step (607). This white balance adjustment is set according to the color development characteristics of the film and does not depend on the color temperature of the photographing light. For this reason, the white balance setting must be greatly changed between the daylight film and the tungsten light film. Further, when there is a difference depending on the type or lot of film, setting the white balance suitable for the film can further increase the correlation between the photograph and the finder image.
【0075】次のステップ(608)では、ホワイトバ
ランス調整の終ったアナログ信号をA/D変換器によっ
て、デジタルデータに変換し、DSPへ入力する。DS
P内部では、ステップ(609)のフィルムの感光特性
に対応した、ガンマ補正を行い、次に、ステップ(61
0)の表示素子の発光特性に対応したガンマ補正を行
う。In the next step (608), the analog signal for which the white balance adjustment has been completed is converted into digital data by the A / D converter and input to the DSP. DS
Inside P, gamma correction corresponding to the photosensitive characteristics of the film in step (609) is performed, and then in step (61)
The gamma correction corresponding to the emission characteristics of the display element of 0) is performed.
【0076】ステップ(611)では、主ミラー、再結
像光学系、撮影レンズの相互作用によって発生する光学
的な周辺光量落ち、あるいは、CCDの持つ各画素出力
のバラツキを補正するためのシェーディング補正を行
う。ここで、光学的な周辺光量落ち、として図2の再結
像レンズの瞳13をコンデンサーレンズ5a,5bによ
って撮影レンズ側へ投影した仮想の瞳の位置と撮影レン
ズの射出瞳の位置に差があるとき、この瞳位置のズレに
よって、画面周辺部(光軸からはなれたところ)では、
相互の瞳によるケラレが発生し、光量が低下する。この
とき、瞳の位置ズレ量が大きいほど、前記周辺の光量低
下は大きくなる。このような周辺光量低下を補うため
に、再結像光学系の入射瞳の位置、大きさ、コンデンサ
ーレンズのパワー、撮影レンズの瞳情報から、周辺光量
落ちの量を演算し、第1のシェーディング補正データを
作成し、第1のシェーディング補正を行う。次に、主ミ
ラー2によってCCD10へと反射する光束は、撮影レ
ンズの光束全てを反射することはできないので、画面の
一部(特に画面上部)の光量が低下する。そこで、これ
を補うために、主ミラーの位置情報及び各瞳位置情報か
ら、主ミラーによる周辺光量低下量を演算し、第2のシ
ェーディング補正データを作成し、第2のシェーディン
グ補正を行う。In step (611), shading correction is performed to correct optical peripheral light amount drop caused by the interaction of the main mirror, the re-imaging optical system, and the taking lens, or the variation of each pixel output of the CCD. I do. Here, there is a difference between the position of the virtual pupil where the pupil 13 of the re-imaging lens of FIG. 2 is projected to the photographing lens side by the condenser lenses 5a and 5b and the position of the exit pupil of the photographing lens as optical peripheral light amount drop. At one point, due to this deviation of the pupil position, in the peripheral part of the screen (a part away from the optical axis),
Vignetting occurs due to mutual pupils, and the amount of light decreases. At this time, the greater the positional deviation of the pupil, the greater the decrease in the amount of light in the periphery. In order to compensate for such a decrease in peripheral light amount, the amount of peripheral light amount drop is calculated from the position and size of the entrance pupil of the re-imaging optical system, the power of the condenser lens, and the pupil information of the photographing lens to calculate the first shading. Correction data is created and the first shading correction is performed. Next, since the light flux reflected by the main mirror 2 to the CCD 10 cannot reflect all the light flux of the taking lens, the light quantity of a part of the screen (especially the upper part of the screen) is reduced. Therefore, in order to compensate for this, the peripheral light amount reduction amount by the main mirror is calculated from the position information of the main mirror and each pupil position information, the second shading correction data is created, and the second shading correction is performed.
【0077】次のステップ(612)では、不図示の多
重確認ボタンの操作に連動してオン、オフするスイッチ
PVSWの状態検知を行い、PVSWがオン状態であれ
ばステップ(613)へ移行し、そうでなければステッ
プ(614)へ進む。ここで、多重確認ボタンが押され
ていればPVSWがオンしステップ(613)へ移行
し、画像の合成を行う。この画像合成に用いる画像は、
図5のステップ(333)で記録された画像とステップ
(603)で得られた画像であり、2つの画像信号を重
ね合わせて、ステップ(614)へ移行する。このため
多重露光1回目であれば、ステップ(613)で合成さ
れる画像はないので、ステップ(613)での処理前
と、後の画像データは同じものとなる。At the next step (612), the state of the switch PVSW which is turned on and off in synchronization with the operation of the multiple confirmation button (not shown) is detected. If PVSW is on, the process proceeds to step (613). Otherwise, proceed to step (614). If the multiplex confirmation button is pressed, the PVSW is turned on and the process proceeds to step (613) to combine the images. The image used for this image composition is
It is the image recorded in step (333) and the image obtained in step (603) in FIG. 5, and the two image signals are superimposed, and the process proceeds to step (614). Therefore, in the case of the first multiple exposure, since there is no image to be combined in step (613), the image data before and after the processing in step (613) are the same.
【0078】ステップ(614)ではD/A変換によっ
て、デジタルの画像データをアナログの映像信号として
出力し、ステップ(615)にて、フィルターによる帯
域制限を行い、ステップ(616)にて、適正な出力レ
ベルで表示装置に映像信号を出力する。そして、ステッ
プ(615)にて図2の表示装置20、あるいは、30
によって被写体像を表示し、多重確認ボタンが操作され
ていれば、多重露光を行なったときに得られるものと同
じ画像がファインダーで確認できる。In step (614), the digital image data is output as an analog video signal by D / A conversion, in step (615) the band is limited by the filter, and in step (616) an appropriate signal is output. The video signal is output to the display device at the output level. Then, in step (615), the display device 20 or 30 of FIG.
If the subject image is displayed by and the multiple confirmation button is operated, the same image as that obtained when multiple exposure is performed can be confirmed in the viewfinder.
【0079】図8は、図5のステップ(322)の画像
取り込みサブルーチンのフローチャートであり、フィル
ム露光直前の被写体像を取り込む、サブルーチンであ
る。FIG. 8 is a flowchart of the image capturing subroutine of step (322) in FIG. 5, which is a subroutine for capturing the subject image immediately before film exposure.
【0080】ステップ(701)〜(711)までのC
CDの制御及び信号処理は、図1のステップ(601)
〜(611)までの動作と同じであり、ここでは詳細な
説明は省略する。C in steps (701) to (711)
CD control and signal processing are performed in step (601) of FIG.
To (611), the detailed description will be omitted here.
【0081】ステップ(712)では、ステップ(70
3)で得られた画像情報を露光されたフィルムによって
得られる写真と等価な画像に変換(処理)した画像デー
タをMEMORYの所定にアドレスに格納し、本サブル
ーチンをリターンする。In step (712), step (70
The image information obtained by converting (processing) the image information obtained in 3) into an image equivalent to a photograph obtained by the exposed film is stored in a predetermined address of MEMORY, and this subroutine is returned.
【0082】このサブルーチンで格納された画像データ
は、図5のステップ(333)で画像合成を行うときに
使用されるものであり、通常の撮影時には、ステップ
(311)にてクリアされる。The image data stored in this subroutine is used when performing image composition in step (333) in FIG. 5, and is cleared in step (311) during normal shooting.
【0083】次に、図10及び図11を参照して本発明
の第2の実施例を説明する。なお、本実施例に示すカメ
ラのハードウェアの構成は第1実施例のものとほぼ同じ
であるため、カメラのハードウェアについては図2乃至
図4を本実施例の説明に準用する。また、第1実施例で
説明した構成及び機能と同じものについては説明を省略
する。Next, a second embodiment of the present invention will be described with reference to FIGS. Since the hardware configuration of the camera according to the present embodiment is almost the same as that of the first embodiment, FIGS. 2 to 4 will be applied to the description of the present embodiment regarding the hardware of the camera. The description of the same components and functions as those described in the first embodiment will be omitted.
【0084】図11は本実施例のカメラの制御プログラ
ムの全体を表わすメインフローチャートであり、以下の
説明では図5に示した第1実施例のメインフローチャー
トと異る部分についてのみ説明する。FIG. 11 is a main flow chart showing the whole control program of the camera of this embodiment. In the following explanation, only the parts different from the main flow chart of the first embodiment shown in FIG. 5 will be explained.
【0085】図11において、ステップ320までの動
作シーケンスは図5の第1実施例のカメラのそれと同じ
であるから説明を省略する。In FIG. 11, the operation sequence up to step 320 is the same as that of the camera of the first embodiment of FIG. 5, and therefore its explanation is omitted.
【0086】図11において、ステップ(321)で
は、レンズ駆動中かどうかを判別し、停止していれば直
ちにステップ(322)へ進み、駆動中であれば停止す
るのを待ってステップ(322)へ進む、ステップ(3
22)では、カメラのクイックリターンミラー(図2の
ハーフミラー2及びサブミラー4)のアップ動作を行
う。これは、図3に示したモータ制御用信号M2F、M
2Rを制御することで実行される。次のステップ(32
3)では、先のステップ(305)で既に演算されてい
る絞り制御値を回路LCMを介してレンズ内制御回路L
PRSへ送出して、絞り制御を行わせる。In FIG. 11, in step (321), it is determined whether or not the lens is being driven. If the lens is stopped, the process immediately proceeds to step (322). If the lens is being driven, the process waits until the lens is stopped in step (322). Go to step (3
In 22), the quick return mirror (half mirror 2 and sub mirror 4 in FIG. 2) of the camera is moved up. This is the motor control signal M2F, M shown in FIG.
It is executed by controlling 2R. Next step (32
In 3), the aperture control value that has already been calculated in the previous step (305) is passed through the circuit LCM to the in-lens control circuit L.
It is sent to the PRS to control the aperture.
【0087】ステップ(322)(323)のミラーア
ップと絞り制御が完了したか否かは、ステップ(32
4)で検知するわけであるが、ミラーアップはミラーに
付随した不図示の検知スイッチにて、確認することが出
来、絞り制御はレンズに対して、所定の絞り値まで駆動
したか否かを通信によって確認する。いずれかが未完了
の場合には、このステップで待期し、引き続き、状態検
知を行う。両者の制御終了が確認されると、ステップ
(325)へ移行する。Whether or not the mirror up and diaphragm control in steps (322) and (323) are completed is determined in step (32).
Although it is detected in 4), mirror up can be confirmed by a detection switch (not shown) attached to the mirror, and the aperture control determines whether or not the lens has been driven to a predetermined aperture value. Confirm by communication. If any of them is not completed, the process waits at this step and the state detection is continued. When both control ends are confirmed, the process proceeds to step (325).
【0088】ステップ(325)では、先のステップ
(305)で演算された、シャッタースピードにて、シ
ャッターの制御を行い、フィルムを露光する。In step (325), the shutter is controlled at the shutter speed calculated in step (305) to expose the film.
【0089】シャッターの制御が終了すると、次のステ
ップ(326)では、レンズに対して絞りを開放状態に
するように命令を前述の通信動作にて送出し、引き続い
てステップ(327)にて、ミラーダウンを行う。ミラ
ーダウンはミラーアップと同様にモータ制御用信号M2
F、M2Rを用いてモータMTR2を制御することで実
行される。When the shutter control is completed, in the next step (326), a command is sent to the lens to open the diaphragm by the above-mentioned communication operation, and subsequently in step (327), Mirror down. Like the mirror up, the mirror down is the motor control signal M2.
This is executed by controlling the motor MTR2 using F and M2R.
【0090】次のステップ(328)では、ステップ
(324)と同様に、ミラーダウンと絞り開放が完了す
るのを待つ、ミラーダウンと絞り開放が完了すると、ス
テップ(329)へ進む。At the next step (328), similarly to step (324), the process waits until the mirror down and the aperture opening are completed. When the mirror down and the aperture opening are completed, the process proceeds to step (329).
【0091】ステップ(329)では、図3に示したモ
ータ制御用信号M1F、M1Rを制御することで、フィ
ルム1駒分が巻き上げられる。以上がカメラ全体のシー
ケンスである。In step (329), one frame of film is wound by controlling the motor control signals M1F and M1R shown in FIG. The above is the sequence of the entire camera.
【0092】図10は、図11のステップ(306)
(312)のファインダー表示サブルーチンのフローチ
ャートである。FIG. 10 shows the step (306) in FIG.
It is a flowchart of the finder display subroutine of (312).
【0093】このブルーチンでは、先の露出演算サブル
ーチンで得られた、露出で撮影したときに得られる写真
とほぼ等価な映像をファインダーあるいは表示装置に表
示するものである。This broutine displays on the viewfinder or the display device an image obtained by the exposure calculation sub-routine, which is almost equivalent to a photograph obtained when the exposure is taken.
【0094】ステップ(601)では、カメラ側のマイ
クロコンピュータMPRSとEVF_シスコンとの通信
によって、先の露出演算サブルーチンで得られた、シャ
ッタースピード、絞り値、及びフィルム感度情報をEV
F_シスコンへ入力する。In step (601), the shutter speed, aperture value, and film sensitivity information obtained in the previous exposure calculation subroutine are transferred to the EV through communication between the microcomputer MPRS on the camera side and the EVF system controller.
Input to F_SYSCON.
【0095】次のステップ(602)では不図示のプレ
ビュースイッチPVSWの状態検知を行い、PVSWが
オン状態であればステップ(603)に移行し、オフ状
態であればステップ(604)へ進む、ここで、プレビ
ュースイッチPVSWは、現在設定されている露出で撮
影を行なったときに得られる写真画像と等価な映像を表
示する動作を行うか否かを設定するものであり、オン状
態のときには、プレビュー動作を行ない、オフのときに
は、プレビュー動作を行なわない。In the next step (602), the state of the preview switch PVSW (not shown) is detected. If the PVSW is in the on state, the process proceeds to step (603), and if it is in the off state, the process proceeds to step (604). The preview switch PVSW sets whether or not to perform an operation of displaying a video image equivalent to a photographic image obtained when shooting is performed with the currently set exposure. When the preview switch PVSW is in the on state, the preview switch PVSW is set. When it is off, the preview operation is not performed.
【0096】プレビュースイッチPVSWがオン状態で
あればステップ(603)にて設定されているシャッタ
ースピードTvが1/60より大きいかどうかの判別を
行ない、シャッタースピードTvが1/60より大きけ
ればステップ(614)へ移行し、そうでなければステ
ップ(604)に移行する。これは、撮像素子CCDの
制御を行うクロック信号や表示装置として、テレビ放送
やビデオカメラ等の信号形態、NTSC、PALなどと
同じにすることによって、他の機器とのシステム展開が
容易になるなどのメリットを生かすため、NTSC60
HzあるいはPAL(50Hz)と同じ同期信号で行う
ように設定している。このため1/60秒あるいは1/
50秒より遅いシャッタースピードでの露光画像を得よ
うとすると、特殊な制御、処理が必要であり、そうでな
ければ通常のNTSC60Hzの制御範囲内で対応でき
る。そこで、シャッタースピードが1/60秒より遅い
ときには、特殊な処理を行うためにステップ(614)
へ移行し、そうでなければステップ(604)に進み通
常の制御を行う。If the preview switch PVSW is in the on state, it is judged whether or not the shutter speed Tv set in step (603) is larger than 1/60. If the shutter speed Tv is larger than 1/60, the step ( If not, go to step (604). This is because the clock signal for controlling the image pickup device CCD and the display device have the same signal form as that of a television broadcast, a video camera, etc., NTSC, PAL, etc., so that the system deployment with other devices becomes easy. NTSC60 to take advantage of
Hz and PAL (50 Hz) are set to be performed with the same synchronization signal. Therefore, 1/60 seconds or 1 /
To obtain an exposure image with a shutter speed slower than 50 seconds, special control and processing are required, and otherwise it can be handled within the normal NTSC 60 Hz control range. Therefore, when the shutter speed is slower than 1/60 second, a step (614) is performed to perform special processing.
If not, otherwise go to step (604) to perform normal control.
【0097】ステップ(604)ではステップ(60
1)のデータをもとにCCDの蓄積時間、AGCアンプ
のゲインを演算する。このとき、CCD蓄積時間はシャ
ッタースピードと同じ露光時間となるように設定し、こ
のときのフィルム感度と露出から写真と同じ明るさの映
像が得られるようにAGCアンプのゲインを設定する。
これは、動いている被写体を撮影しようとしているとき
に、高速のシャッタースピードで動きを止める。あるい
は、低速のシャッタースピードで流し撮りを行う際の効
果を確認できるようにするためである。In step (604), step (60
The accumulation time of the CCD and the gain of the AGC amplifier are calculated based on the data of 1). At this time, the CCD accumulation time is set to be the same exposure time as the shutter speed, and the gain of the AGC amplifier is set so that an image having the same brightness as a photograph can be obtained from the film sensitivity and exposure at this time.
It stops with a fast shutter speed when trying to shoot a moving subject. Alternatively, it is for making it possible to confirm the effect of performing the follow shot at a low shutter speed.
【0098】次のステップ(605)では、撮像素子C
CDを制御し、画像信号の取り込みを行う、これは、ま
ず、ステップ(604)で得られた蓄積時間、CCDで
光電変換した電価の蓄積を行うようにCCDドライバー
でCCDを制御し、蓄積動作が終了すると、クロックの
同期信号に同期して、蓄積された電価を転送しR、G、
Bの各信号を取り出す。そして、各信号はAGCアンプ
にて増幅し、その後WBアンプによってホワイトバラン
ス調整を行なうと、ステップ(605)を終了する。こ
こで、AGCアンプのゲインはステップ(604)で演
算されたものであり、WBアンプのゲインは、フィルム
の発色特性に対応して設定され、撮影光の色温度には依
存しないものである。In the next step (605), the image sensor C
The CD is controlled and the image signal is taken in. First, the CCD is controlled by the CCD driver so that the charge time photoelectrically converted by the CCD is accumulated for the accumulation time obtained in step (604), and the accumulation is performed. When the operation is completed, the accumulated electric value is transferred to R, G, in synchronization with the synchronization signal of the clock.
Each signal of B is taken out. Then, each signal is amplified by the AGC amplifier, and then the white balance is adjusted by the WB amplifier. Then, step (605) is completed. Here, the gain of the AGC amplifier is calculated in step (604), and the gain of the WB amplifier is set according to the color development characteristics of the film and does not depend on the color temperature of the photographing light.
【0099】ステップ(605)にて、画像信号の取り
込みが終了すると、ステップ(606)にて、このアナ
ログ画像信号をA/D変換器によって、デジタルデータ
に変換し、DSPへ入力する。When the capturing of the image signal is completed in step (605), this analog image signal is converted into digital data by the A / D converter in step (606) and input to the DSP.
【0100】次のステップ(607)では、フィルムの
感光特性に対応したガンマ補正を行い、次のステップ
(608)では表示素子の発光特性に対応したガンマ補
正を行う。In the next step (607), gamma correction corresponding to the photosensitive characteristics of the film is performed, and in the next step (608), gamma correction corresponding to the light emitting characteristics of the display element is performed.
【0101】ステップ(609)では、主ミラー、再結
像光学系、撮影レンズの相互作用によって発生する光学
的な周辺光量落ち、あるいはCCDの持つ各画素出力の
バラツキを補正するためのシェーディング補正を行う。
ここで、光学的な周辺光量落ちとして、図2の再結像レ
ンズの瞳13をコンデンサーレンズ5a,5bによって
撮影レンズ側へ投影した仮想の瞳の位置と撮影レンズの
射出瞳の位置に差があるとき、この瞳位置のズレによっ
て画面の周辺部(光軸中心からはなれたところ)では、
相互の瞳によるケラレが発生し、光量が低下する。この
とき、瞳の位置ズレ量が大きいほど、前記周辺の光量低
下は大きくなる。このような周辺光量低下を補うため
に、再結像光学系の入射瞳の位置、大きさ、コンデンサ
ーレンズのパワー撮影レンズの瞳情報から周辺光量落ち
の量を演算し、第1のシェーディング補正データを作成
し、第1のシェーディング補正を行う。次に主ミラー2
によってCCD10へと反射する光束は、撮影レンズの
全光束を反射することはできないので、画面の一部(特
に画面上部)の光量が低下する。そこで、これを補うた
めに、主ミラーの位置情報及び各瞳情報から主ミラーに
よる周辺光量落ちを演算し、第2のシェーディング補正
を行う。In step (609), shading correction is performed to correct optical peripheral light amount drop caused by the interaction of the main mirror, the re-imaging optical system, and the taking lens, or the variation of each pixel output of the CCD. To do.
Here, as an optical peripheral light amount drop, there is a difference between the position of the virtual pupil where the pupil 13 of the re-imaging lens of FIG. 2 is projected to the photographing lens side by the condenser lenses 5a and 5b and the position of the exit pupil of the photographing lens. At some point, due to this pupil position shift, in the peripheral part of the screen (where it is far from the optical axis center),
Vignetting occurs due to mutual pupils, and the amount of light decreases. At this time, the greater the positional deviation of the pupil, the greater the decrease in the amount of light in the periphery. In order to compensate for such a decrease in peripheral light amount, the amount of peripheral light amount drop is calculated from the position and size of the entrance pupil of the re-imaging optical system and the pupil information of the power photographing lens of the condenser lens, and the first shading correction data is calculated. Is created and the first shading correction is performed. Then the main mirror 2
Since the light flux reflected by the CCD 10 cannot reflect the entire light flux of the taking lens, the light amount of a part of the screen (especially the upper part of the screen) is reduced. Therefore, in order to compensate for this, the peripheral light amount drop due to the main mirror is calculated from the position information of the main mirror and each pupil information, and the second shading correction is performed.
【0102】次のステップ(610)ではD/A変換に
よって、ディジタルの画像データをアナログの映像信号
として出力し、ステップ(611)にてフィルターによ
る、帯域制限を行い、ステップ(612)にて適正な出
力レベルで表示装置に映像信号を出力する。そして、ス
テップ(613)にて、図2の表示装置20、あるいは
30によって被写体像を表示する。In the next step (610), the digital image data is output as an analog video signal by D / A conversion, the band is limited by the filter in step (611), and the value is adjusted in step (612). The video signal is output to the display device at various output levels. Then, in step (613), the subject image is displayed by the display device 20 or 30 of FIG.
【0103】プレビュースイッチがオン状態でかつ、シ
ャッタースピードが1/60秒より遅いときには、ステ
ップ(614)に移行する。If the preview switch is on and the shutter speed is slower than 1/60 second, the process proceeds to step (614).
【0104】ステップ(614)では、長秒時露光に相
当する画像の取り込み回数Nを演算する。これは、60
Hzで画像を取込むときに、露光時間(シャッタースピ
ード)と同じ効果を得ることのできるように複数の画像
を合成するのに必要な画像の数であり、例えば、 のようにN=Tv×60によって求めることができる。
但し、PALのような50HzのものはN=Tv×50
となる。At step (614), the number N of times of image capture corresponding to long-time exposure is calculated. This is 60
The number of images required to combine multiple images so that the same effect as the exposure time (shutter speed) can be obtained when capturing images in Hz, for example, Can be obtained by N = Tv × 60.
However, N = Tv × 50 for 50Hz such as PAL
Becomes
【0105】次のステップ(615)では、シャッター
スピード、絞り値、フィルム感度から、写真と等価な明
るさを得るのに必要なCCD蓄積時間、AGCアンプの
ゲインを求める、このとき、1度に取り込む光量は1/
Nとなるように設定される、ここで、長秒時露光のCC
D蓄積時間、AGCアンプのゲインを求める際に、フィ
ルムの相反則不軌による露光低下を考慮した演算を行う
と、更に、ファインダー像と写真との相関性を良くする
ことができる。In the next step (615), the CCD storage time and the gain of the AGC amplifier required to obtain the brightness equivalent to that of the photograph are obtained from the shutter speed, aperture value, and film sensitivity. The amount of light taken in is 1 /
Set to N, where CC for long exposure
When the D accumulation time and the gain of the AGC amplifier are calculated, if the calculation is performed in consideration of the exposure decrease due to the reciprocity law failure of the film, the correlation between the finder image and the photograph can be further improved.
【0106】ステップ(616)では画像データを記憶
するメモリをクリアし、それ以前に記憶されていたデー
タの消去を行う。そして、次のステップ(617)では
カウンター1のカウント値をリセットし「0」にする。At step (616), the memory for storing the image data is cleared and the data stored before that is erased. Then, in the next step (617), the count value of the counter 1 is reset to "0".
【0107】ステップ(618)では、カウンター1の
カウント値を1だけくり上げ、ステップ(619)へと
進む、ステップ(619)では、ステップ(605)と
同様に、ステップ(615)で得られた、蓄積時間、A
GCアンプのゲインにもとづいて、画像信号をCCDか
ら取り出す。At step (618), the count value of the counter 1 is incremented by 1, and the process proceeds to step (619). At step (619), the value obtained at step (615) is obtained in the same manner as at step (605). , Accumulation time, A
The image signal is taken out from the CCD based on the gain of the GC amplifier.
【0108】次のステップ(620)では、A/D変換
器によってアナログの画像信号をデジタルの画像データ
に変換し、DSPへと入力する。DSP内部では、ステ
ップ(621)のフィルムの感光特性に対応したガンマ
補正を行い、次のステップ(622)の表示素子の発光
特性に対応したガンマ補正を行う。In the next step (620), the analog image signal is converted into digital image data by the A / D converter and input to the DSP. Inside the DSP, a gamma correction corresponding to the photosensitive characteristic of the film is performed in step (621), and a gamma correction corresponding to the light emitting characteristic of the display element is performed in the next step (622).
【0109】ステップ(623)ではステップ(60
9)と同様に、主ミラー、再結像光学系、撮影レンズの
相互作用によって発生する光学的な周辺光量落ち、及び
CCD固有の各画素の出力のバラツキを補正するための
シェーディング補正を行う。In step (623), step (60
As in 9), shading correction is performed to correct optical peripheral light amount drop caused by the interaction of the main mirror, the re-imaging optical system, and the taking lens, and the variation in the output of each pixel peculiar to the CCD.
【0110】次のステップ(624)では、メモリーに
記憶された画像と、今回取り込んだ画像の合成を行う、
このため、1回目の画像の取り込み時には、メモリーは
クリアされているので、合成を行った後の画像は、ステ
ップ(623)を終了したときの画像と同じものであ
り、カウンター1が2以上であれば、複数の画像を重ね
合せたものになる。そして、ステップ(624)にて、
合成処理が行なわれた画像は、一度ステップ(625)
にて、画像を記憶するメモリーに記憶する。ここで画像
を記憶するメモリー領域は、画像合成を行う際に使用す
る画像を記憶してあるところで、画像を取り込み処理を
行うたびに、このメモリーの所定の領域の内容を書きか
えてゆき、同じメモリーを使うのでメモリー容量の有効
利用ができる。In the next step (624), the image stored in the memory and the image captured this time are combined.
For this reason, since the memory is cleared when the first image is captured, the image after combining is the same as the image when step (623) is completed, and the counter 1 is 2 or more. If so, it will be a superposition of multiple images. Then, in step (624),
For the image that has been subjected to the combining process, once step (625)
At, the image is stored in the memory. In the memory area for storing images, the image used for image composition is stored.Each time an image is captured, the contents of a predetermined area of this memory are rewritten to the same content. Since the memory is used, the memory capacity can be effectively used.
【0111】そして、ステップ(625)を終了する
と、ステップ(626)に進み、ここでは、ステップ
(625)で記憶した画像データをD/A変換器にて、
アナログの画像信号に変換して出力する。そして、この
信号をステップ(627)にて、フィルターによる帯域
制限を行い、ステップ(628)にて、適正な出力レベ
ルで表示装置に映像信号を出力する。そして、ステップ
(629)にて、図2の表示装置20あるいは30によ
って合成処理を行なった被写体像を表示する。When step (625) is completed, the process proceeds to step (626), where the image data stored in step (625) is transferred to the D / A converter.
It is converted into an analog image signal and output. Then, in step (627), this signal is subjected to band limitation by a filter, and in step (628), a video signal is output to the display device at an appropriate output level. Then, in step (629), the subject image subjected to the combining process is displayed by the display device 20 or 30 of FIG.
【0112】ステップ(630)では、所定回数N回の
画像の取り込み、合成、表示を行なったかどうかをカウ
ンター1のカウント値とNを比較し、カウント値がNに
なるまで、ステップ(618)〜ステップ(629)の
動作をくり返し、カウント値がNになればステップ(6
31)へ進み、本サブルーチンをリターンする。At the step (630), the count value of the counter 1 is compared with N to determine whether or not the images have been captured, combined and displayed a predetermined number of times N, and the steps (618)- The operation of step (629) is repeated until the count value reaches N.
Go to 31) and return from this subroutine.
【0113】図10の実施例では、長秒時露光時中に被
写体像がどのように変化していくかを見ることができる
ので、撮影者の希望する写真を得るためには、もっと露
光時間を短くする、あるいは長くすれば良いのかがわか
りやすくなり、撮影前に失敗を予想し、防止できるだけ
でなく、どのようすれば希望する写真を得ることができ
るのかが、容易にわかるという効果がある。In the embodiment shown in FIG. 10, it is possible to see how the subject image changes during the long exposure time. Therefore, in order to obtain the photograph desired by the photographer, the exposure time should be longer. This makes it easier to see if you want to shorten or lengthen the shot, and not only can you predict and prevent failures before shooting, but you can also easily see how you can get the photo you want. .
【0114】図12に第3実施例を示す。図12はファ
インダー表示サブルーチンで、他のフローチャート(メ
インルーチン、サブルーチン)とカメラの構成は第2実
施例と同じであり、第3実施例の特徴は、プレビュース
イッチがオン状態になると、オン状態になってから、画
像を取り込み合成処理を行なった画像を表示するがプレ
ビュースイッチがオン状態の間、同じ画像(静止画)を
表示し続け撮影者が予想される写真映像を十分に検討す
ることができるようにしたものである。FIG. 12 shows the third embodiment. FIG. 12 shows a finder display subroutine. The other flow charts (main routine, subroutine) and the configuration of the camera are the same as those of the second embodiment. The feature of the third embodiment is that when the preview switch is turned on, it is turned on. However, while the preview switch is on, the same image (still image) will continue to be displayed while the preview switch is on, so the photographer can fully consider the expected photographic image. It was made possible.
【0115】ファインダー表示サブルーチンがコールさ
れると、ステップ(701)にて、カメラ側のマイクロ
コンピュータMPRSとEVF_シスコンとの通信によ
って、先の露出演算サブルーチンで得られた、シャッタ
ースピード、絞り値、フィルム感度情報をEVF_シス
コンに入力する。When the finder display subroutine is called, at step (701), the shutter speed, aperture value, film and film obtained by the previous exposure calculation subroutine are communicated by communication between the microcomputer MPRS on the camera side and the EVF system controller. Enter sensitivity information into EVF_SYSCON.
【0116】次のステップ(702)では、不図示のプ
レビュースイッチPVSWの状態検知を行い、PVSW
がオン状態であれば、ステップ(713)へ移行し、オ
フ状態であればステップ(703)へ進む、ここでプレ
ビュースイッチPVSWは、第2実施例と同様に、写真
画像と等価な映像を表示するか否かを設定するためのも
のである。In the next step (702), the state of the preview switch PVSW (not shown) is detected, and PVSW is detected.
Is on, the process proceeds to step (713), and if it is off, the process proceeds to step (703). Here, the preview switch PVSW displays an image equivalent to a photographic image as in the second embodiment. This is for setting whether or not to do.
【0117】プレビュースイッチがオフ状態であれば、
ステップ(703)へ進み、ステップ(701)のデー
タをもとに、CCDの蓄積時間、AGCアンプのゲイン
を演算する。このとき、フィルム感度と露出から写真と
ほぼ同じ明るさの映像が得られるように、AGCアンプ
のゲインとCCDの蓄積時間を演算する。If the preview switch is off,
Proceeding to step (703), the accumulation time of the CCD and the gain of the AGC amplifier are calculated based on the data of step (701). At this time, the gain of the AGC amplifier and the accumulation time of the CCD are calculated from the film sensitivity and the exposure so that an image having almost the same brightness as the photograph can be obtained.
【0118】次のステップ(704)では、撮像素子C
CDを制御し、画像信号の取り込みを行う、これは、ス
テップ(703)で得られた蓄積時間、CCDの電価を
蓄積し、蓄積動作が終了すると、クロックの同期信号に
同期して、蓄積した電価を転送し、R、G、Bの各信号
を取り出す、そして、各信号は、ステップ(703)で
得られたゲインに設定されたAGCアンプによって増幅
され、WBアンプによってホワイトバランス調整を行な
うと、このステップを終了する。ここでWBアンプによ
る、ホワイトバランス調整の各値は、使用するフィルム
の発色特性に対応したものであり、撮影光の色温度には
依存しないものである。In the next step (704), the image sensor C
The CD is controlled and the image signal is taken in. The accumulation time obtained in step (703), the electric charge of the CCD is accumulated, and when the accumulation operation is completed, the accumulation is performed in synchronization with the clock synchronization signal. Then, the R, G, and B signals are extracted, and each signal is amplified by the AGC amplifier set to the gain obtained in step (703), and the white balance adjustment is performed by the WB amplifier. If done, this step is completed. Here, each value of the white balance adjustment by the WB amplifier corresponds to the coloring characteristic of the film used and does not depend on the color temperature of the photographing light.
【0119】画像信号の取り込みが終了すると、ステッ
プ(705)にて、アナログ画像信号をA/D変換器に
よって、デジタルデータに変換し、DSPへ入力する。
DSP内部に取り込まれた画像データは、演算回路、メ
モリーによって様々な処理をほどこされる。When the capturing of the image signal is completed, in step (705), the analog image signal is converted into digital data by the A / D converter and input to the DSP.
The image data taken in the DSP is subjected to various processes by the arithmetic circuit and the memory.
【0120】DSP内部に取り込まれた画像データは、
まず、ステップ(706)のフィルムの感光特性に対応
したガンマ補正を行い、次のステップ(707)では、
表示素子の発光特性に対応したガンマ補正を行う。The image data taken in the DSP is
First, gamma correction corresponding to the photosensitivity of the film in step (706) is performed, and in the next step (707),
Gamma correction corresponding to the light emission characteristics of the display element is performed.
【0121】ステップ(708)では、主ミラー、再結
像光学系、撮影レンズの相互作用によって発生する光学
的な周辺光量落ち、及びCCDの各画素出力のバラツキ
を補正するためのシェーディング補正を行う。In step (708), shading correction is performed to correct the optical peripheral light amount drop caused by the interaction of the main mirror, the re-imaging optical system, and the taking lens, and the variation in the output of each pixel of the CCD. .
【0122】各種処理の終った、画像データは、ステッ
プ(709)にてD/A変換器によってアナログの画像
信号に変換され、ステップ(710)のフィルターに
て、帯域制限を行い、ステップ(711)にて適正な出
力レベルで表示装置に映像信号を出力する、そしてステ
ップ(712)にて、図2の表示装置20あるいは30
によって被写体像を表示しステップ(731)へ進む。After various processing, the image data is converted into an analog image signal by the D / A converter in step (709), and the band is limited by the filter in step (710). ) Output the video signal to the display device at an appropriate output level, and at step (712), the display device 20 or 30 of FIG.
The subject image is displayed by and the process proceeds to step (731).
【0123】プレビュースイッチPVSWがオフ状態か
らオン状態になると、ステップ(713)へ移行する。When the preview switch PVSW changes from the off state to the on state, the process proceeds to step (713).
【0124】ステップ(713)では、画像の取り込み
回数Nを演算する。このとき、シャッタースピードが1
/60秒以下であれば、N=1であり、1/60秒より
遅いシャッタースピードのときには、N=Tv×60、
ここでTvはシャッタースピードである。また、Nの値
は整数であり、小数点以下は切り捨てる。At step (713), the number N of times of image capturing is calculated. At this time, the shutter speed is 1
/ 60 seconds or less, N = 1, and when the shutter speed is slower than 1/60 seconds, N = Tv × 60,
Here, Tv is the shutter speed. The value of N is an integer, and the part after the decimal point is truncated.
【0125】次のステップ(714)では、N回画像を
取り込み、合成、重ね合わせ処理を行なって得られる画
像と写真の明るさがほぼ同じになるように、シャッター
スピード、絞り、フィルム感度から、CCDの蓄積時
間、AGCアンプのゲインを演算する。ここで、Nが2
以上の場合には、絞り値とフィルム感度から、CCDの
蓄積時間、AGCアンプのゲインを求めても良い。In the next step (714), the shutter speed, aperture, and film sensitivity are set so that the brightness of the image and the image obtained by combining the images N times, combining and superimposing them are almost the same. The accumulation time of the CCD and the gain of the AGC amplifier are calculated. Where N is 2
In the above case, the accumulation time of the CCD and the gain of the AGC amplifier may be obtained from the aperture value and the film sensitivity.
【0126】また、N=1の場合には、蓄積時間をシャ
ッタースピードと同じにし、そして、写真とファインダ
ーの明るさが同じになるようにAGCアンプのゲインを
決定する。When N = 1, the accumulation time is set to be the same as the shutter speed, and the gain of the AGC amplifier is determined so that the brightness of the photograph and that of the finder are the same.
【0127】ステップ(715)では画像データを記憶
するメモリーをクリアし、それ以前に記憶されていた画
像データの消去を行う。そして、次のステップ(71
6)ではカウンター1のカウント値をリセットし「0」
にする。At step (715), the memory for storing the image data is cleared and the image data stored before that is erased. Then, the next step (71
In 6), reset the count value of counter 1 to "0".
To
【0128】次のステップ(717)では、カウンター
1のカウント値を1だけカウントアップし、ステップ
(718)へと進む。At the next step (717), the count value of the counter 1 is incremented by 1, and the process proceeds to step (718).
【0129】ステップ(718)では、ステップ(71
4)で得られたCCD蓄積時間で、CCDの蓄積動作を
行い、CCDの出力信号をステップ(714)で得られ
たAGCアンプのゲインで増幅し、ホワイトバランス調
整を行なう。In step (718), in step (71
The CCD accumulation operation is performed for the CCD accumulation time obtained in 4), the output signal of the CCD is amplified by the gain of the AGC amplifier obtained in step (714), and the white balance is adjusted.
【0130】次のステップ(719)では、ステップ
(718)で取り出したアナログの画像信号を、A/D
変換器によってデジタル画像データに変換され、DSP
内に取り込まれる。DSPでは、まず、ステップ(72
0)のフィルムの感光特性を補正するガンマ補正を行
い、次にステップ(721)の表示素子の発光特性を補
正するためのガンマ補正を行う。At the next step (719), the analog image signal extracted at step (718) is converted into an A / D signal.
Converted to digital image data by the converter, DSP
Taken in. In the DSP, first, step (72
Gamma correction for correcting the photosensitivity characteristic of the film of 0) is performed, and then gamma correction for correcting the light emission characteristic of the display element of step (721) is performed.
【0131】次のステップ(722)では、ステップ
(708)と同様に、主ミラー光学系、再結像光学系、
撮影レンズの相互作用によって発生する光学的な周辺光
量低下及びCCDの各画素出力のバラツキを補正するた
めのシェーディング補正を行う。In the next step (722), as in step (708), the main mirror optical system, the re-imaging optical system,
Shading correction is performed to correct an optical peripheral light amount decrease caused by the interaction of the photographing lenses and a variation in each pixel output of the CCD.
【0132】次のステップ(723)では、メモリーに
記憶された画像と、今回取り込んだ画像を重ね合せて、
合成する。このため、1回目の画像の取り込みを行なっ
たときには、メモリーはクリアされているので、合成を
行う前後の画像は、変らない、そこで、1回目の画像取
り込みであれば合成処理は行なわなくても良い。そして
カウンター1のカウント値が2以上であれば、取り込ん
だ複数の画像を重ね合わせた画像が得られる。画像の合
成処理が終了すると、ステップ(724)にて、画像を
所定のメモリーに記憶する。ここで画像を記憶するメモ
リー領域は、ステップ(723)の画像合成のときに使
用する画像を記憶しているメモリーと同じ領域を使用
し、画像の合成処理を行うたびに、記憶内容を書き変え
るようにして、メモリーの節約をすることができる。In the next step (723), the image stored in the memory and the image captured this time are overlaid,
To synthesize. For this reason, since the memory is cleared when the first image capture is performed, the images before and after the synthesis are not changed. Therefore, if the first image capture is performed, the synthesis process may not be performed. good. If the count value of the counter 1 is 2 or more, an image obtained by superposing a plurality of captured images can be obtained. When the image combining process is completed, the image is stored in a predetermined memory in step (724). Here, the memory area for storing the image uses the same area as the memory for storing the image used in the image composition in step (723), and rewrites the stored content each time the image composition processing is performed. In this way, you can save memory.
【0133】次のステップ(725)では、ステップ
(724)で記憶した画像データをD/A変換器にてア
ナログの画像信号に変換して出力する。そして、この画
像信号をステップ(726)にてフィルターによる帯域
制限を行い、ステップ(727)にて適正な出力レベル
で表示装置に映像信号を出力する。In the next step (725), the image data stored in step (724) is converted into an analog image signal by the D / A converter and output. Then, this image signal is subjected to band limitation by a filter in step (726), and a video signal is output to the display device at an appropriate output level in step (727).
【0134】ステップ(728)では、図2の表示装置
20あるいは30によって出力された画像信号を被写体
像として表示する。In step (728), the image signal output by the display device 20 or 30 of FIG. 2 is displayed as a subject image.
【0135】ステップ(729)では所定回数N回の画
像の取り込み、合成が完了したか否かを判別し、カウン
ター1のカウント値とNが等しければステップ(73
0)へ進み、カウント値がNに達していなければステッ
プ(717)に戻り、カウント値がNに達するまでステ
ップ(717)〜ステップ(728)をくり返し実行す
る。At step (729), it is judged whether or not the images have been captured and combined a predetermined number of times N times, and if the count value of the counter 1 and N are equal, step (73)
0), if the count value has not reached N, the process returns to step (717), and steps (717) to (728) are repeatedly executed until the count value reaches N.
【0136】カウント値がNになるとステップ(73
0)へ進み、ステップ(730)にて、プレビュースイ
ッチPVSWの状態検知を行いプレビュースイッチがオ
ン状態であれば、ステップ(725)に戻り、オフ状態
であればステップ(731)へ進みこのサブルーチンを
リターンする。ここで、プレビュースイッチがオン状態
であれば、ステップ(725)〜(728)をくり返し
実行し、これによって、メモリーに記憶した画像を表示
装置に静止画として、表示しつづける。When the count value becomes N, step (73
0), in step (730), the state of the preview switch PVSW is detected. If the preview switch is in the on state, the process returns to step (725), and if it is in the off state, the process proceeds to step (731) to execute this subroutine. To return. Here, if the preview switch is in the ON state, steps (725) to (728) are repeatedly executed, whereby the image stored in the memory is continuously displayed as a still image on the display device.
【0137】このように、第3実施例では、プレビュー
動作を行なったときに得られた画像を表示しつづけるよ
うにしたので、撮影者が、意図した写真が撮影できるか
どうか、十分に検討することができるようになった。As described above, in the third embodiment, the image obtained when the preview operation is performed is kept displayed. Therefore, the photographer should sufficiently consider whether or not the intended photograph can be taken. I was able to do it.
【0138】[0138]
【発明の効果】以上に説明したように、本発明によれば
次のような効果が得られる。As described above, according to the present invention, the following effects can be obtained.
【0139】多重露光時にファインダー上ですでに露
光された画像と今回露光しようとしている画像を合成し
て見ることができるので、多重露光時のレイアウトや露
出の設定が容易に行うことができ、失敗を防止すること
ができる。Since the image already exposed on the viewfinder at the time of multiple exposure and the image to be exposed this time can be combined and viewed, the layout and the exposure can be easily set at the time of multiple exposure, which is a failure. Can be prevented.
【0140】撮影前に設定されている露光時間に相当
する画像を合成し、表示する手段を設けることにより長
秒時露光や高速シャッターなどの露光時間による効果
を、撮影前に容易に確認することができ、失敗写真の撮
影を未然に防ぐことができる。By providing means for synthesizing and displaying images corresponding to the exposure time set before photographing, it is possible to easily confirm the effect of the exposure time such as long-time exposure and high-speed shutter before photographing. It is possible to prevent the shooting of failed photographs.
【図1】本発明の第1実施例に関わるファインダー表示
サブルーチンのフローチャート。FIG. 1 is a flowchart of a finder display subroutine according to the first embodiment of the present invention.
【図2】本発明の第1実施例に関わる電子ファインダー
を備えたカメラの構成図及びファインダー像表示装置の
説明図。FIG. 2 is a configuration diagram of a camera having an electronic finder according to the first embodiment of the present invention and an explanatory diagram of a finder image display device.
【図3】本発明の第1実施例に関わるカメラシステム全
体の電気回路図。FIG. 3 is an electric circuit diagram of the entire camera system according to the first embodiment of the present invention.
【図4】本発明の第1実施例に関わる、電子ファインダ
ー部の詳細な電気回路図。FIG. 4 is a detailed electric circuit diagram of the electronic finder section according to the first embodiment of the present invention.
【図5】本発明の第1実施例に関わるメインルーチンの
フローチャート。FIG. 5 is a flowchart of a main routine according to the first embodiment of the present invention.
【図6】本発明の第1実施例に関わる測光サブルーチン
のフローチャート。FIG. 6 is a flowchart of a photometric subroutine according to the first embodiment of the present invention.
【図7】本発明の第1実施例に関わる露出演算サブルー
チンのフローチャート。FIG. 7 is a flowchart of an exposure calculation subroutine according to the first embodiment of the present invention.
【図8】本発明の第1実施例に関わる画像取り込みサブ
ルーチンのフローチャー。FIG. 8 is a flowchart of an image capturing subroutine according to the first embodiment of the present invention.
【図9】従来の電子ファインダーを備えたカメラの構成
図。FIG. 9 is a configuration diagram of a camera including a conventional electronic viewfinder.
【図10】本発明の第2実施例のカメラのファインダー
表示サブルーチンのフローチャー。FIG. 10 is a flowchart of a finder display subroutine of the camera of the second embodiment of the present invention.
【図11】本発明の第2実施例のカメラのメインルーチ
ンのフローチャト。FIG. 11 is a flowchart of a main routine of the camera of the second embodiment of the present invention.
【図12】本発明の第3実施例のカメラのファインダー
表示サブルーチンのフローチャト。FIG. 12 is a flow chart of a finder display subroutine of the camera of the third embodiment of the present invention.
1…撮影レンズ 2…ハーフミラー 3…焦点検出装置 5a,5b…コン
デンサーレンズ 6…プリズム 7…ミラー 8…再結像レンズ 9…フィルター 10…撮像素子 13…絞り 11…信号処理回路 12…出力端子 20…ファインダーユニット 21…接眼レンズ 22…液晶表示素子 30…リモコンユ
ニット 31…表示部 32…ダイヤル 33〜36…スイッチ 201…CCD 202…CCDドライバー 203A〜203C…サンプルホールド回路 204A〜204C…調整アンプ 205A〜205
C…AGCアンプ 206A〜206C…ホワイトバランスアンプ 207A〜207C…AD変換器 208…デジタルシグナルプロセッサー 209A〜209C…γ1回路 210A〜210
C…γ2回路 211…メモリーコントローラ 212…マトリク
ス回路 213…変調回路 214…演算処理
ブロック 215…DSP−IFブロック 216…メモリー 217A〜217E…DA変換器 218A〜218
E…フィルター 219A〜219E…出力レベル調整アンプ 220…加算器1 ... Shooting lens 2 ... Half mirror 3 ... Focus detection device 5a, 5b ... Condenser lens 6 ... Prism 7 ... Mirror 8 ... Re-imaging lens 9 ... Filter 10 ... Image sensor 13 ... Aperture 11 ... Signal processing circuit 12 ... Output terminal 20 ... Finder unit 21 ... Eyepiece lens 22 ... Liquid crystal display element 30 ... Remote control unit 31 ... Display unit 32 ... Dial 33-36 ... Switch 201 ... CCD 202 ... CCD driver 203A-203C ... Sample hold circuit 204A-204C ... Adjustment amplifier 205A ~ 205
C ... AGC amplifier 206A-206C ... White balance amplifier 207A-207C ... AD converter 208 ... Digital signal processor 209A-209C ... γ1 circuit 210A-210
C ... γ2 circuit 211 ... Memory controller 212 ... Matrix circuit 213 ... Modulation circuit 214 ... Arithmetic processing block 215 ... DSP-IF block 216 ... Memory 217A to 217E ... DA converters 218A to 218.
E ... Filter 219A to 219E ... Output level adjusting amplifier 220 ... Adder
Claims (7)
れる撮像素子と、該撮像素子の出力を記憶する記憶手段
と、該記憶手段に記憶された複数の画像を合成する画像
合成手段と、該画像合成手段によって合成された合成画
像を表示する表示手段と、を有し、多重露光撮影時には
多重露光時の被写体像を該記憶手段に記憶させ、該記憶
手段により記憶された画像と該撮像素子の出力画像とを
該合成手段によって合成し、合成された画像を該表示手
段に表示させるように構成したことを特徴とするカメ
ラ。1. An image pickup device on which a subject image is formed during finder observation, a storage device for storing an output of the image pickup device, an image synthesizing device for synthesizing a plurality of images stored in the storage device, Display means for displaying a combined image combined by the image combining means, and when multiple-exposure shooting is performed, the subject image at the time of multiple-exposure is stored in the storage means, and the image stored by the storage means and the imaging element A camera characterized in that it is configured to synthesize the output image of 1. by the synthesizing means and display the synthesized image on the display means.
部材を具備していることを特徴とする請求項1のカメ
ラ。2. The camera according to claim 1, further comprising an operation member for operating the image synthesizing means.
れる撮像素子と、該撮像素子に結像された像を表示する
表示装置と、を有するカメラにおいて、 設定された露光時間と等価な蓄積時間となるように該撮
像素子の制御及び出力信号の処理を行なう制御手段が設
けられていることを特徴とするカメラ。3. A storage time equivalent to a set exposure time, in a camera having an image pickup device on which a subject image is formed during finder observation, and a display device for displaying the image formed on the image pickup device. The camera is provided with a control means for controlling the image sensor and processing the output signal.
定値より高速の時には該撮像素子の蓄積時間と設定され
た露光時間(シャッタースピード)とが等しくなるよう
に制御する機能を有していることを特徴とする請求項3
のカメラ。4. The control means has a function of controlling so that the accumulation time of the image sensor and the set exposure time (shutter speed) become equal when the shutter speed is higher than a predetermined value. 4. The method according to claim 3,
Camera.
定値より低速の場合には該撮像素子の複数回の出力信号
を合成することにより、設定された露光時間と等価な効
果を有する画像を該表示装置に表示させる機能を有して
いることを特徴とする請求項3のカメラ。5. The control means synthesizes an image having an effect equivalent to a set exposure time by combining output signals of a plurality of times of the image pickup device when the shutter speed is lower than a predetermined value. 4. The camera according to claim 3, which has a function of displaying on a display device.
れる撮像素子と、該撮像素子の出力信号を表示する表示
装置と、設定された露光時間と等価な蓄積時間となるよ
うに該撮像素子の制御及び出力信号の処理を行なう制御
手段と、該制御手段に所定の動作をさせるために設けら
れている操作部材と、を有し、該操作部材が操作された
時にのみ、設定された露光時間と等価な時間的効果が得
られるように該撮像素子の制御及び出力信号の処理を行
なうことを特徴とするカメラ。6. An image pickup device on which a subject image is formed during finder observation, a display device for displaying an output signal of the image pickup device, and an image pickup device of the image pickup device so as to have a storage time equivalent to a set exposure time. An exposure time that is set only when the operating member is operated, has a control means for controlling and processing the output signal, and an operating member provided for causing the controlling means to perform a predetermined operation. A camera which controls the image pickup device and processes an output signal so as to obtain a time effect equivalent to.
として同一の映像を該表示装置に表示することを特徴と
する請求項6のカメラ。7. The camera according to claim 6, wherein the same image is displayed as a still image on the display device while the operation member is being operated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4266238A JPH06121222A (en) | 1992-10-05 | 1992-10-05 | Camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4266238A JPH06121222A (en) | 1992-10-05 | 1992-10-05 | Camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06121222A true JPH06121222A (en) | 1994-04-28 |
Family
ID=17428194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4266238A Pending JPH06121222A (en) | 1992-10-05 | 1992-10-05 | Camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06121222A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009071452A (en) * | 2007-09-11 | 2009-04-02 | Canon Inc | Imaging apparatus, its control method, program, and storage medium |
JP2010278552A (en) * | 2009-05-26 | 2010-12-09 | Honda Motor Co Ltd | Imager and imaging method |
WO2013146019A1 (en) * | 2012-03-28 | 2013-10-03 | 富士フイルム株式会社 | Imaging device |
US9204055B2 (en) | 2010-07-05 | 2015-12-01 | Canon Kabushiki Kaisha | Image capture apparatus, control method thereof, and recording medium |
JP2016201689A (en) * | 2015-04-10 | 2016-12-01 | キヤノン株式会社 | Imaging apparatus and control method of the same |
JP2018057043A (en) * | 2017-12-27 | 2018-04-05 | 株式会社ニコン | Imaging apparatus |
JP2020010140A (en) * | 2018-07-05 | 2020-01-16 | オリンパス株式会社 | Imaging apparatus and display method |
-
1992
- 1992-10-05 JP JP4266238A patent/JPH06121222A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009071452A (en) * | 2007-09-11 | 2009-04-02 | Canon Inc | Imaging apparatus, its control method, program, and storage medium |
JP2010278552A (en) * | 2009-05-26 | 2010-12-09 | Honda Motor Co Ltd | Imager and imaging method |
US9204055B2 (en) | 2010-07-05 | 2015-12-01 | Canon Kabushiki Kaisha | Image capture apparatus, control method thereof, and recording medium |
WO2013146019A1 (en) * | 2012-03-28 | 2013-10-03 | 富士フイルム株式会社 | Imaging device |
JP5635211B2 (en) * | 2012-03-28 | 2014-12-03 | 富士フイルム株式会社 | Imaging device |
US8988579B2 (en) | 2012-03-28 | 2015-03-24 | Fujifilm Corporation | Imaging apparatus |
JP2016201689A (en) * | 2015-04-10 | 2016-12-01 | キヤノン株式会社 | Imaging apparatus and control method of the same |
JP2018057043A (en) * | 2017-12-27 | 2018-04-05 | 株式会社ニコン | Imaging apparatus |
JP2020010140A (en) * | 2018-07-05 | 2020-01-16 | オリンパス株式会社 | Imaging apparatus and display method |
JP2022125117A (en) * | 2018-07-05 | 2022-08-26 | Omデジタルソリューションズ株式会社 | Imaging device and method for controlling imaging device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4378272B2 (en) | Imaging device | |
JP2008187615A (en) | Imaging device, imaging apparatus, control method, and program | |
JP2001186401A (en) | Digital camera | |
JP2008275732A (en) | Imaging apparatus | |
CN111868597B (en) | Image pickup apparatus, focusing assist method thereof, and recording medium | |
JP3546854B2 (en) | Camera body and exposure control method | |
JP2004221992A (en) | Imaging device and program | |
JPH06121222A (en) | Camera | |
JP2010068046A (en) | Imaging apparatus | |
JP4323781B2 (en) | Imaging apparatus and control method thereof | |
JP4763941B2 (en) | Display control device, control method, program, and recording medium | |
JP2005184246A (en) | Imaging unit | |
JP3546855B2 (en) | Digital camera | |
JP2006050139A (en) | Optical apparatus | |
JP2002090814A (en) | Camera | |
JP2003244537A (en) | Digital camera | |
JP4780877B2 (en) | Electronic camera and control method | |
JP2000231055A (en) | Automatic focusing camera | |
JP2009135669A (en) | Imaging apparatus and its control method | |
JPH06125485A (en) | Finder for camera | |
JP2005136654A (en) | Camera | |
JP2007049363A (en) | Camera | |
JP2007036983A (en) | Digital camera with exchangeable lens | |
JP2005303407A (en) | Display of electronic camera | |
JP2003092703A (en) | Electronic camera and its control method |