JP2003319246A - Digital camera - Google Patents

Digital camera

Info

Publication number
JP2003319246A
JP2003319246A JP2002123602A JP2002123602A JP2003319246A JP 2003319246 A JP2003319246 A JP 2003319246A JP 2002123602 A JP2002123602 A JP 2002123602A JP 2002123602 A JP2002123602 A JP 2002123602A JP 2003319246 A JP2003319246 A JP 2003319246A
Authority
JP
Japan
Prior art keywords
depth
field
image
subject
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002123602A
Other languages
Japanese (ja)
Inventor
Takashi Soga
孝 曽我
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002123602A priority Critical patent/JP2003319246A/en
Publication of JP2003319246A publication Critical patent/JP2003319246A/en
Pending legal-status Critical Current

Links

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital camera in which depth of field is easily confirmed. <P>SOLUTION: The digital camera finds depth (d) of field based upon a focal distance (f) of a photographing lens, a diaphragm value (F number) FNO of a diaphragm set by AF control and a distance (u) to an object detected by a range finding sensor. Then, the found depth (d) of field is displayed on a display part 46. On the display part 46, an indicator 60 representing the depth of field (focused range) and character information 62 representing a range of the depth of field with characters are displayed on the downside. Thus, a photographer easily grasps the focused range and the photographer can easily adjust the diaphragm, a shutter speed, and the like in accordance with an intention of photographing. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、デジタルカメラに
係り、特に、被写界深度を検出可能なデジタルカメラに
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital camera, and more particularly to a digital camera capable of detecting a depth of field.

【0002】[0002]

【従来の技術】近年、CCD等の撮像素子を備えたデジ
タルカメラが数多く流通している。このようなデジタル
カメラでは、撮影時には、CCDの受光面に被写体像が
結像され、CCDの各センサで入射光量に応じた量の信
号電荷に変換される。そして、CCDに蓄積された信号
電荷を画素毎に読み取って画像データに変換し、この画
像データをメモリカードなどの記録媒体に記録してい
る。
2. Description of the Related Art In recent years, many digital cameras equipped with an image pickup device such as a CCD have been distributed. In such a digital camera, a subject image is formed on the light receiving surface of the CCD at the time of shooting, and converted into signal charges of an amount corresponding to the amount of incident light by each sensor of the CCD. Then, the signal charge accumulated in the CCD is read for each pixel and converted into image data, and this image data is recorded in a recording medium such as a memory card.

【0003】また、従来から様々な撮影シーンを効果的
に撮影するため、被写界深度をコントロールして撮影す
る技術が提案されている。例えば、人物を撮影する場合
には、被写界深度を浅くして撮影することにより、人物
に焦点が合うと共に背景が適度にぼけ、人物を浮き立た
せた撮影が可能となる。
Further, conventionally, in order to effectively shoot various shooting scenes, a technique of shooting by controlling the depth of field has been proposed. For example, when a person is photographed, the depth of field is shallowed so that the person is in focus and the background is appropriately blurred, so that the person can be photographed.

【0004】特開平6−303491号公報には、被写
体が人物であるか否かを判断し、被写体が人物である場
合には、人物の顔面全体が略被写界深度となるように制
御する技術が開示されている。
In Japanese Patent Laid-Open No. 6-303491, it is determined whether or not a subject is a person, and when the subject is a person, control is performed so that the entire face of the person has a substantially depth of field. The technology is disclosed.

【0005】[0005]

【発明が解決しようとする課題】被写界深度は、撮像素
子のサイズが大きくなるに従って浅くなる。また、被写
界深度は、被写体までの距離が小さいほど浅くなるた
め、被写体が近距離にある場合に、特にピントが合う範
囲が狭くなり、撮影者の意図に沿った撮影ができない場
合がある。
The depth of field becomes shallower as the size of the image sensor increases. In addition, the depth of field becomes shallower as the distance to the subject becomes smaller. Therefore, when the subject is at a short distance, the focus range becomes narrow, and it may not be possible to photograph according to the photographer's intention. .

【0006】しかしながら、デジタルカメラにおいて主
流である光学式のファインダは、撮影用のレンズとは異
なる光学系であるため、実際に被写界深度をファインダ
で確認するのは困難である。
However, it is difficult to actually confirm the depth of field with the finder because the optical finder, which is the mainstream in digital cameras, is an optical system different from the lens for photographing.

【0007】また、デジタルカメラは、ファインダに代
えて又はファインダと共に、液晶パネル等の表示装置が
備えられ、被写体をリアルタイムに撮影したスルー画像
を表示できるようになっているのが一般的である。撮影
者は、この液晶パネルに表示されたスルー画像を確認す
ることにより撮影範囲を確認することができるが、スル
ー画像を液晶パネルに表示するときの絞り値と実際に撮
影するときの絞り値とは異なるのが通常であり、この場
合も被写界深度を確認するのが困難である。
Further, a digital camera is generally equipped with a display device such as a liquid crystal panel instead of or in addition to the finder, and is capable of displaying a through image of a subject photographed in real time. The photographer can confirm the shooting range by checking the through image displayed on this LCD panel.However, the aperture value when displaying the through image on the LCD panel and the aperture value when actually shooting are Are usually different, and again, it is difficult to check the depth of field.

【0008】本発明はこのような事情に鑑みてなされた
もので、被写界深度を容易に確認することができるデジ
タルカメラを提供することを目的とする。
The present invention has been made in view of such circumstances, and an object thereof is to provide a digital camera capable of easily confirming the depth of field.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、請求項1記載のデジタルカメラは、被写体を撮像す
る撮像素子と、前記撮像素子に前記被写体の像を結像す
るレンズと、前記被写体までの距離を検出する測距手段
と、前記レンズの明るさを調節する絞りの絞り値を定め
る設定手段と、前記レンズの焦点距離、前記絞りの絞り
値、及び前記測距手段により検出した前記被写体までの
距離に基づいて被写界深度を求める演算手段と、前記演
算手段により求めた被写界深度を報知する報知手段と、
を備えたことを特徴とする。
In order to achieve the above object, a digital camera according to a first aspect of the present invention comprises an image pickup device for picking up an image of a subject, a lens for forming an image of the subject on the image pickup device, Distance measuring means for detecting the distance to the subject, setting means for adjusting the aperture value of the aperture for adjusting the brightness of the lens, focal length of the lens, aperture value of the aperture, and the distance measuring means Calculating means for obtaining the depth of field based on the distance to the subject; notifying means for notifying the depth of field obtained by the calculating means;
It is characterized by having.

【0010】この発明によれば、レンズにより被写体の
像を撮像素子に結像させることにより、被写体が撮像さ
れる。測距手段は、撮像する被写体までの距離を検出す
る。
According to the present invention, the image of the subject is picked up by forming the image of the subject on the image pickup device by the lens. The distance measuring means detects a distance to a subject to be imaged.

【0011】設定手段は、レンズの明るさを調節する絞
りの絞り値を定める。この絞り値は、例えば被写体を測
光して得られた被写体の輝度値から定められ、被写体が
最適な露光量となるように設定される。
The setting means determines the aperture value of the aperture for adjusting the brightness of the lens. The aperture value is determined, for example, from the brightness value of the subject obtained by photometry of the subject, and is set so that the subject has an optimum exposure amount.

【0012】演算手段は、レンズの焦点距離、絞りの絞
り値、及び測距手段により検出した被写体までの距離に
基づいて被写界深度を求める。この被写界深度は、例え
ば所定の演算式により求めることができる。
The calculating means determines the depth of field based on the focal length of the lens, the aperture value of the diaphragm, and the distance to the object detected by the distance measuring means. This depth of field can be obtained by a predetermined arithmetic expression, for example.

【0013】報知手段は、演算手段により求めた被写界
深度を報知する。被写界深度の報知は、被写界深度を表
示することにより行ってもよいし、被写界深度を音声出
力することにより行ってもよい。
The notification means notifies the depth of field obtained by the calculation means. The notification of the depth of field may be performed by displaying the depth of field or by outputting the depth of field by voice.

【0014】また、請求項2に記載したように、前記演
算手段は、前記焦点距離、前記絞り値、及び前記被写体
までの距離と、前記被写界深度との対応関係を表すルッ
クアップテーブルを含み、前記焦点距離、前記絞り値、
及び前記被写体までの距離に対応する被写界深度を前記
対応関係から求める構成としてもよい。
Further, as described in claim 2, the calculating means stores a look-up table showing a correspondence relationship between the focal length, the aperture value, the distance to the subject, and the depth of field. Including the focal length, the aperture value,
And a depth of field corresponding to the distance to the subject may be obtained from the correspondence.

【0015】このように、予め定めた対応関係から被写
界深度を求めることにより、より速やかに被写界深度を
求めることができる。
As described above, by obtaining the depth of field from the predetermined correspondence, the depth of field can be obtained more quickly.

【0016】また、請求項3に記載したように、前記報
知手段は、前記撮像素子により撮像した撮像画像を表示
する表示手段をさらに備え、前記報知手段は、求めた被
写界深度を画像として生成し、前記表示手段に表示され
るべき前記撮像画像に合成する構成としてもよい。
Further, as described in claim 3, the notifying means further comprises display means for displaying a picked-up image picked up by the image pickup device, and the notifying means sets the obtained depth of field as an image. It may be configured to generate and combine with the captured image to be displayed on the display unit.

【0017】このように、求めた被写界深度を表す画像
を生成し、この生成した画像と被写体を撮像した撮像画
像とを合成する、すなわち、被写体を撮像した撮像画像
上に重ねて被写界深度を表す画像を表示することによ
り、撮影者は、容易に被写界深度を確認することができ
る。このため、撮影者は、容易に撮影意図に応じて絞り
等を調整することが可能となる。
As described above, an image representing the obtained depth of field is generated, and the generated image is combined with the captured image of the subject, that is, the captured image of the subject is overlaid on the captured image. By displaying the image showing the depth of field, the photographer can easily confirm the depth of field. Therefore, the photographer can easily adjust the aperture and the like according to the intention of photographing.

【0018】[0018]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態の一例を詳細に説明する。本実施の形態はデジ
タルカメラに本発明を適用したものである。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. The present embodiment is an application of the present invention to a digital camera.

【0019】図1には本発明の実施の形態に係るデジタ
ルカメラのブロック図を示した。このカメラ10の撮影
光学系12は撮影レンズ14及び絞り16を含む。撮影
レンズ14は1枚又は複数枚のレンズで構成され、単一
の焦点距離(固定焦点)のレンズでも良いし、ズームレ
ンズや望遠/広角の二焦点切替式レンズの如く焦点距離
可変のものでもよい。
FIG. 1 shows a block diagram of a digital camera according to an embodiment of the present invention. The taking optical system 12 of the camera 10 includes a taking lens 14 and a diaphragm 16. The taking lens 14 is composed of one or a plurality of lenses, and may be a lens having a single focal length (fixed focus) or a variable focal length such as a zoom lens or a telephoto / wide-angle bifocal switchable lens. Good.

【0020】撮影光学系12を介してCCD18の受光
面に結像された被写体像は、各センサで入射光量に応じ
た量の信号電荷に変換される。このようにして蓄積され
た信号電荷は、CCD駆動回路20から加えられるCC
D駆動パルスによって読み出され、信号電荷に応じた電
圧信号(アナログ画像信号)として順次CCD18から
出力される。
The subject image formed on the light-receiving surface of the CCD 18 via the photographing optical system 12 is converted by each sensor into a signal charge of an amount corresponding to the amount of incident light. The signal charge accumulated in this way is CC applied from the CCD drive circuit 20.
It is read by the D drive pulse and is sequentially output from the CCD 18 as a voltage signal (analog image signal) corresponding to the signal charge.

【0021】CCD18には、シャッターゲートを介し
てシャッタードレインが設けられており、シャッターゲ
ートをシャッターゲートパルスによって駆動することに
より、蓄積した信号電荷をシャッタードレインに掃き出
すことができる。すなわち、CCD18は、シャッター
ゲートパルスによって各センサに蓄積される電荷の蓄積
時間(シャッタースピード)を制御する、いわゆる電子
シャッター機能を有している。
The CCD 18 is provided with a shutter drain via a shutter gate. By driving the shutter gate with a shutter gate pulse, accumulated signal charges can be swept out to the shutter drain. That is, the CCD 18 has a so-called electronic shutter function that controls the accumulation time (shutter speed) of the charges accumulated in each sensor by the shutter gate pulse.

【0022】CCD18から読み出された信号は、CD
S回路22において相関二重サンプリング(CDS)処
理されるとともに、R,G,Bの各色信号に色分離処理
され、各色信号の信号レベルの調整(プリホワイトバラ
ンス処理)が行われる。
The signal read from the CCD 18 is a CD
Correlated double sampling (CDS) processing is performed in the S circuit 22, color separation processing is performed on each of the R, G, and B color signals, and the signal level of each color signal is adjusted (pre-white balance processing).

【0023】これら所定のアナログ信号処理を経た画像
信号は、A/D変換器24に加えられ、該A/D変換器
24によりR,G,Bのデジタル信号に変換された後、
メモリ26に格納される。
The image signal subjected to the predetermined analog signal processing is applied to the A / D converter 24 and converted into R, G, B digital signals by the A / D converter 24, and thereafter,
It is stored in the memory 26.

【0024】タイミング信号発生回路(TG)28は、
CPU30からのコマンドに応じてCCD駆動回路2
0、CDS回路22及びA/D変換器24に対して適宜
のタイミング信号を与えており、各回路はタイミング信
号発生回路28から加えられるタイミング信号により同
期して駆動されるようになっている。
The timing signal generation circuit (TG) 28 is
CCD drive circuit 2 in response to a command from the CPU 30
0, an appropriate timing signal is given to the CDS circuit 22 and the A / D converter 24, and each circuit is driven in synchronization with the timing signal applied from the timing signal generation circuit 28.

【0025】CPU30は、カメラ10の各回路を統括
制御する制御部であり、バス32を介してゲイン調整回
路34、ガンマ補正回路36、輝度・色差信号処理回路
(YC処理回路という。)38、圧縮伸張回路40、メ
モリカード42のカードインターフェース44、及び表
示部46を駆動する表示用ドライバー48等と接続され
ている。
The CPU 30 is a control unit that controls each circuit of the camera 10 in a centralized manner, and includes a gain adjusting circuit 34, a gamma correction circuit 36, a luminance / color difference signal processing circuit (referred to as YC processing circuit) 38 via a bus 32. The compression / expansion circuit 40, the card interface 44 of the memory card 42, the display driver 48 for driving the display unit 46, and the like are connected.

【0026】CPU30は操作部50からの入力信号に
基づいて対応する回路ブロックを制御するとともに、撮
影レンズ14のズーミング動作や自動焦点調節(AF)
動作の制御、並びに自動露出調節(AE)の制御等を行
う。
The CPU 30 controls the corresponding circuit block based on the input signal from the operation unit 50, and also performs the zooming operation of the photographing lens 14 and the automatic focus adjustment (AF).
It controls operations and controls automatic exposure adjustment (AE).

【0027】また、CPU30には、測距センサ58が
接続されている。詳細は後述するが、CPU30は、こ
の測距センサ58により検出された被写体までの距離
や、後述するAE制御により設定された絞り値、撮影レ
ンズ14の焦点距離に基づいて被写界深度を演算する。
演算した被写界深度は、表示部46に表示される。
A distance measuring sensor 58 is connected to the CPU 30. Although the details will be described later, the CPU 30 calculates the depth of field based on the distance to the subject detected by the distance measuring sensor 58, the aperture value set by the AE control described later, and the focal length of the photographing lens 14. To do.
The calculated depth of field is displayed on the display unit 46.

【0028】操作部50には、画像の記録開始の指示を
与えるレリーズボタン、カメラのモード選択手段、ズー
ム操作手段、その他の各種の入力手段が含まれる。これ
ら入力手段は、スイッチボタン、ダイヤル、スライド式
ツマミなど種々の形態があり、タッチパネルや液晶モニ
タ表示部の画面上において設定メニューや選択項目を表
示してカーソルで所望の項目を選択する態様もある。操
作部50はカメラ本体に配設されていてもよいし、リモ
コン送信機としてカメラ本体と分離した構成にすること
も可能である。
The operation section 50 includes a release button for giving an instruction to start recording an image, a mode selection means for the camera, a zoom operation means, and various other input means. These input means have various forms such as switch buttons, dials, and sliding knobs, and there is also a mode in which a setting menu or a selection item is displayed on the screen of the touch panel or the liquid crystal monitor display unit and a desired item is selected with a cursor. . The operation unit 50 may be provided in the camera body, or may be configured as a remote control transmitter separated from the camera body.

【0029】CPU30は、CCD18から出力される
画像信号に基づいて、焦点評価演算やAE演算などの各
種演算を行い、その演算に基づいて、撮影レンズ14及
び絞り16の駆動手段(例えば、AFモータやアイリス
モータ等)52を制御してフォーカスレンズを合焦位置
に移動させるとともに、絞り16を適正絞り値に設定す
る。
The CPU 30 performs various calculations such as focus evaluation calculation and AE calculation based on the image signal output from the CCD 18, and based on the calculations, driving means for the taking lens 14 and the diaphragm 16 (for example, AF motor). Or iris motor) 52 to move the focus lens to the in-focus position and set the aperture 16 to an appropriate aperture value.

【0030】例えば、AF制御には、G信号の高周波成
分が最大になるようにフォーカスレンズを移動させるコ
ントラストAF方式が採用される。AE制御には、1フ
レームのR、G、B信号を積算した積算値に基づいて被
写体輝度(撮影EV)を求め、この撮影EVに基づいて
絞り値とシャッタースピードを決定し、駆動手段52を
介して絞り16を駆動するとともに、決定したシャッタ
ースピードとなるように電子シャッターによってCCD
18の電荷の蓄積時間を制御する。したがって、カメラ
10の撮影レンズ14を被写体に向けるだけで、最適な
露出調整が行われるとともに、ピント合わせが自動的に
行われる。
For AF control, for example, a contrast AF method is adopted in which the focus lens is moved so that the high frequency component of the G signal is maximized. In the AE control, the subject brightness (shooting EV) is obtained based on the integrated value obtained by integrating the R, G, and B signals for one frame, the aperture value and the shutter speed are determined based on this shooting EV, and the driving means 52 is operated. The aperture 16 is driven via the CCD and an electronic shutter is used to achieve the determined shutter speed.
The charge accumulation time of 18 charges is controlled. Therefore, only by directing the taking lens 14 of the camera 10 to the subject, optimum exposure adjustment is performed and focusing is automatically performed.

【0031】撮影記録時においては、レリーズボタンの
「半押し」時に上述した測光動作を複数回繰り返して正
確な撮影EVを求め、この撮影EVに基づいて撮影時の
絞り値とシャッタースピードを最終的に決定する。そし
て、レリーズボタンの「全押し」時に前記最終的に決定
した絞り値になるように絞り16を駆動し、また、決定
したシャッタースピードとなるように電子シャッターに
よって電荷の蓄積時間を制御する。なお、AE、AFは
CCD18から取得される画像信号に基づいて制御する
方法の他、周知の測光センサやAF投光/受光センサか
らなる測距センサ等を用いてもよい。
At the time of shooting and recording, the above-described photometric operation is repeated a plurality of times when the release button is "half pressed" to obtain an accurate shooting EV, and the aperture value and shutter speed at the time of shooting are finally determined based on this shooting EV. To decide. Then, when the release button is “fully pressed”, the aperture 16 is driven so as to reach the finally determined aperture value, and the charge accumulation time is controlled by the electronic shutter so as to achieve the determined shutter speed. In addition to the method of controlling AE and AF based on the image signal obtained from the CCD 18, a known photometric sensor or a distance measuring sensor including an AF light emitting / receiving sensor may be used.

【0032】また、このカメラ10はストロボ発光装置
54と、調光用の受光素子56を有し、操作部50に含
まれるストロボモード設定ボタンの操作に応じて、低輝
度時にストロボ発光装置54を自動的に発光させる「低
輝度自動発光モード」、被写体輝度にかかわらずストロ
ボ発光装置54を発光させる「強制発光モード」、又は
ストロボ発光装置54の発光を禁止させる「発光禁止モ
ード」等に設定される。
Further, the camera 10 has a strobe light emitting device 54 and a light receiving element 56 for dimming, and the strobe light emitting device 54 is operated at a low brightness according to the operation of a strobe mode setting button included in the operation section 50. It is set to "low-brightness automatic flashing mode" that automatically flashes, "forced flashing mode" that flashes the strobe flashing device 54 regardless of subject brightness, or "flashing prohibition mode" that disables flashing of the strobe flashing device 54. It

【0033】CPU30はユーザーが選択したストロボ
モードに応じて、ストロボ発光装置54のメインコンデ
ンサの充電制御や、発光管(例えば、キセノン管)への
放電(発光)タイミングを制御するとともに、受光素子
56からの測定結果に基づいて発光停止の制御を行う。
受光素子56はストロボの発光によって照らされる被写
体からの反射光を受光し、受光量に応じた電気信号に変
換する。受光素子56の信号は図示せぬ積分回路により
積算され、積算受光量が所定の適正受光量に達した時に
ストロボの発光が停止される。
The CPU 30 controls the charging of the main capacitor of the strobe light emitting device 54 and the discharge (light emission) timing to the light emitting tube (for example, a xenon tube) according to the strobe mode selected by the user, and the light receiving element 56. The stop of light emission is controlled based on the measurement result from.
The light receiving element 56 receives the reflected light from the subject illuminated by the strobe light and converts it into an electric signal according to the amount of received light. The signals of the light receiving element 56 are integrated by an integrating circuit (not shown), and when the integrated amount of received light reaches a predetermined appropriate amount of received light, the flash light emission is stopped.

【0034】A/D変換器24から出力されたデータは
前記メモリ26に格納されるとともに、積算回路60に
加えられる。積算回路60は、撮影画面を複数のブロッ
ク(例えば、8×8の64個のブロック)に分割し、各
ブロック毎に受入したG信号の積算演算を行う。なお、
R、G、Bのデータから輝度信号(Y信号)を生成し
て、輝度信号の積算演算を行ってもよい。また、積算回
路60はAE演算回路で兼用することもできる。積算回
路60で得られた積算値の情報(演算結果)はCPU3
0に入力される。
The data output from the A / D converter 24 is stored in the memory 26 and added to the integrating circuit 60. The integrating circuit 60 divides the photographing screen into a plurality of blocks (for example, 64 blocks of 8 × 8), and performs an integrating operation of the G signal received for each block. In addition,
A luminance signal (Y signal) may be generated from the R, G, and B data, and the luminance signal may be integrated. The integrating circuit 60 can also be used as an AE arithmetic circuit. Information on the integrated value (calculation result) obtained by the integrating circuit 60 is stored in the CPU 3
Input to 0.

【0035】CPU30は積算回路60からの情報に基
づき、所定のアルゴリズムに従って撮影画面の評価値E
を算出し、求めた評価値Eを用いてゲイン調整回路34
におけるゲイン値(増幅率)を決定する。CPU30は
決定したゲイン値に従ってゲイン調整回路34における
ゲイン量を制御する。
Based on the information from the integrating circuit 60, the CPU 30 uses a predetermined algorithm to evaluate the photographic screen evaluation value E.
Is calculated, and the gain adjustment circuit 34 is calculated by using the obtained evaluation value E.
The gain value (amplification factor) at is determined. The CPU 30 controls the gain amount in the gain adjusting circuit 34 according to the determined gain value.

【0036】メモリ26に記憶されたR、G、Bの画像
データはゲイン調整回路34に送られ、ここで増幅処理
される。増幅処理された画像データは、ガンマ補正回路
36において、ガンマ補正処理が施された後、YC処理
回路38へ送られ、RGBデータから輝度信号(Y信
号)及び色差信号(Cr,Cb信号)に変換される。
The R, G, and B image data stored in the memory 26 is sent to the gain adjusting circuit 34, where it is amplified. The amplified image data is subjected to gamma correction processing in the gamma correction circuit 36 and then sent to the YC processing circuit 38 to convert the RGB data into a luminance signal (Y signal) and a color difference signal (Cr, Cb signal). To be converted.

【0037】YC処理回路38において生成された輝度
・色差信号(YC信号と略記する)は、メモリ26に書
き戻される。メモリ26に記憶されたYC信号は表示用
ドライバー48に供給され、所定方式の信号(例えば、
NTSC方式のカラー複合映像信号)に変換されて表示
部46に出力される。表示部46には液晶ディスプレイ
その他のカラー表示可能な表示装置が用いられる。な
お、表示部46はYC信号入力対応のタイプのものを適
用してもよいし、RGB信号入力タイプのものを適用し
てもよく、表示装置に対応したドライバーが適用され
る。
The luminance / color difference signal (abbreviated as YC signal) generated in the YC processing circuit 38 is written back to the memory 26. The YC signal stored in the memory 26 is supplied to the display driver 48, and a signal of a predetermined system (for example,
It is converted to an NTSC color composite video signal and output to the display unit 46. A liquid crystal display or other display device capable of color display is used for the display unit 46. The display unit 46 may be of a YC signal input type or RGB signal input type, and a driver corresponding to a display device may be used.

【0038】CCD18から出力される画像信号によっ
て画像データが定期的に書き換えられ、その画像データ
から生成される映像信号が表示部46に供給されること
により、CCD18が捉える画像がリアルタイムに動画
像(ライブ画像)として、又はリアルタイムではない
が、ほぼ連続した画像として表示部46に表示される。
Image data is periodically rewritten by the image signal output from the CCD 18, and a video signal generated from the image data is supplied to the display unit 46, whereby the image captured by the CCD 18 is a moving image in real time ( It is displayed on the display unit 46 as a live image) or as a substantially continuous image although not in real time.

【0039】表示部46は電子ビューファインダーとし
て利用でき、撮影者は表示部46の表示画像又は図示せ
ぬ光学ファインダーによって撮影画角を確認することが
できる。レリーズボタンの押下操作など所定の記録指示
(撮影開始指示)操作に呼応して、記録用の画像データ
の取り込みが開始される。
The display unit 46 can be used as an electronic viewfinder, and the photographer can confirm the photographing field angle by the display image of the display unit 46 or an optical finder (not shown). In response to a predetermined recording instruction (imaging start instruction) operation such as a release button pressing operation, the capture of image data for recording is started.

【0040】撮影者が操作部50から撮影記録の指示を
入力すると、CPU30は必要に応じて圧縮伸張回路4
0にコマンドを送り、これにより圧縮伸張回路40はメ
モリ26上のYCデータをJPEGその他の所定の形式
に従って圧縮する。圧縮された画像データはカードイン
ターフェース44を介してメモリカード42に記録され
る。
When the photographer inputs a photographing / recording instruction from the operation section 50, the CPU 30 causes the compression / expansion circuit 4 to operate as necessary.
The command is sent to 0, whereby the compression / expansion circuit 40 compresses the YC data on the memory 26 in accordance with a predetermined format such as JPEG. The compressed image data is recorded in the memory card 42 via the card interface 44.

【0041】非圧縮の画像データを記録するモード(非
圧縮モード)が選択されている場合には、前記圧縮伸張
回路40による圧縮処理を実施せずに、非圧縮のまま画
像データがメモリカード42に記録される。
When the mode for recording uncompressed image data (non-compression mode) is selected, the compression processing by the compression / expansion circuit 40 is not performed, and the image data remains uncompressed in the memory card 42. Recorded in.

【0042】本実施の形態のカメラ10は、画像データ
を保存する手段としてメモリカード42が用いられてい
る。具体的には、例えばスマートメディア等の記録メデ
ィアが適用される。記録メディアの形態は上記のものに
限らず、PCカード、マイクロドライブ、マルチメディ
アカード(MMC)、磁気ディスク、光ディスク、光磁
気ディスク、メモリスティックなど種々の形態が可能で
あり、使用される媒体に応じた信号処理手段とインター
フェースが適用される。
The camera 10 of the present embodiment uses the memory card 42 as a means for storing image data. Specifically, for example, a recording medium such as smart media is applied. The form of the recording medium is not limited to the above, and various forms such as a PC card, a micro drive, a multimedia card (MMC), a magnetic disk, an optical disk, a magneto-optical disk, and a memory stick can be used. Appropriate signal processing means and interface are applied.

【0043】また、再生モード時にはメモリカード42
から読み出された画像データが圧縮伸張回路40によっ
て伸張処理され、表示用ドライバー48を介して表示部
46に出力される。
In the reproduction mode, the memory card 42
The image data read from is expanded by the compression / expansion circuit 40 and output to the display unit 46 via the display driver 48.

【0044】次に、本実施の形態に係る被写界深度の演
算について説明する。
Next, the calculation of the depth of field according to this embodiment will be described.

【0045】CPU30は、撮影レンズ14の焦点距離
f、AE制御により最適に設定された絞り16の絞り値
(Fナンバー)FNO、測距センサ58により検出された
被写体までの距離uに基づいて被写界深度dを求める。
具体的には、次式により被写界深度dを求めることがで
きる。
The CPU 30 is based on the focal length f of the taking lens 14, the aperture value (F number) F NO of the aperture 16 optimally set by the AE control, and the distance u to the object detected by the distance measuring sensor 58. Find the depth of field d.
Specifically, the depth of field d can be calculated by the following equation.

【0046】[0046]

【数1】 [Equation 1]

【0047】ただし、d1は遠点における被写界深度、
d2は近点における被写界深度、uは前側主点から被写
体までの距離、u1は前側主点から遠点までの距離、u
2は前側主点から近点までの距離、δは、許容錯乱円径
である。なお、許容錯乱円径δは、CCD18の画素ピ
ッチのn倍に設定される。
However, d1 is the depth of field at the far point,
d2 is the depth of field at the near point, u is the distance from the front principal point to the subject, u1 is the distance from the front principal point to the far point, u
2 is the distance from the front principal point to the near point, and δ is the permissible circle of confusion diameter. The permissible circle of confusion diameter δ is set to n times the pixel pitch of the CCD 18.

【0048】このようにして被写界深度dを演算し、演
算した被写界深度dを表示部46に表示する。
The depth of field d is calculated in this manner, and the calculated depth of field d is displayed on the display unit 46.

【0049】図2には、カメラ10の構成を機能的に表
した機能ブロック図を示した。
FIG. 2 is a functional block diagram functionally showing the configuration of the camera 10.

【0050】図2に示すように、カメラ10は、演算手
段70、設定手段72、測距手段74、及び報知手段7
6を備えている。報知手段76は、生成手段78、合成
手段80、及び表示手段82を備えている。
As shown in FIG. 2, the camera 10 includes a calculating means 70, a setting means 72, a distance measuring means 74, and an informing means 7.
6 is provided. The notification unit 76 includes a generation unit 78, a combination unit 80, and a display unit 82.

【0051】演算手段70は、撮影レンズ14の焦点距
離情報86で表される焦点距離f、設定手段により設定
された絞り16の絞り値FNO、測距手段74により検出
された被写体までの距離uに基づいて、被写界深度dを
求め、生成手段78に出力する。
The calculating means 70 has a focal length f represented by the focal length information 86 of the taking lens 14, an aperture value F NO of the diaphragm 16 set by the setting means, and a distance to the object detected by the distance measuring means 74. Based on u, the depth of field d is obtained and output to the generation means 78.

【0052】生成手段78は、被写界深度dを表す画像
を生成し、合成手段80に出力する。合成手段80は、
CCD18により撮像された撮像画像88と、生成手段
78で生成した被写界深度を表す画像とを合成して表示
手段82に出力する。これにより、表示手段82に、被
写体を撮像した撮像画像上に被写界深度を表す画像が重
ねて表示された画像が表示される。これにより、撮影者
は、被写界深度を容易に確認することができる。
The generating means 78 generates an image representing the depth of field d and outputs it to the synthesizing means 80. The synthesizing means 80 is
The captured image 88 captured by the CCD 18 and the image representing the depth of field generated by the generation unit 78 are combined and output to the display unit 82. Thus, the display unit 82 displays an image in which the image representing the depth of field is superimposed on the captured image of the subject. Thereby, the photographer can easily confirm the depth of field.

【0053】また、例えば、測距手段74は測距センサ
58により実現され、演算手段70、設定手段72、及
び報知手段の一部はCPU30により実現され、合成手
段80及び表示手段82は表示部46により実現され
る。
Further, for example, the distance measuring means 74 is realized by the distance measuring sensor 58, the calculating means 70, the setting means 72, and a part of the notifying means are realized by the CPU 30, and the synthesizing means 80 and the display means 82 are display portions. It is realized by 46.

【0054】また、CCD18は本発明の撮像素子に相
当し、撮影レンズ14は本発明のレンズに相当し、測距
手段74は、本発明の測距手段に相当し、設定手段72
は本発明の設定手段に相当し、演算手段70は、本発明
の演算手段に相当し、報知手段76は、本発明の報知手
段に相当する。
The CCD 18 corresponds to the image pickup device of the present invention, the taking lens 14 corresponds to the lens of the present invention, the distance measuring means 74 corresponds to the distance measuring means of the present invention, and the setting means 72.
Corresponds to the setting means of the present invention, the arithmetic means 70 corresponds to the arithmetic means of the present invention, and the notification means 76 corresponds to the notification means of the present invention.

【0055】次に、本実施の形態の作用として、CPU
30で実行される制御ルーチンについて、図3に示すフ
ローチャートを参照して説明する。
Next, as an operation of this embodiment, the CPU
The control routine executed in 30 will be described with reference to the flowchart shown in FIG.

【0056】まず、ステップ100において、レリーズ
ボタンが半押しされたか否かが判断される。レリーズボ
タンが半押しされていない場合には、ステップ100の
判断が否定され、レリーズボタンが半押しされるまで待
機する。
First, in step 100, it is determined whether or not the release button has been half-depressed. If the release button has not been half pressed, the determination in step 100 is denied, and the process waits until the release button is half pressed.

【0057】一方、レリーズボタンが半押しされた場合
には、ステップ100の判断が肯定され、ステップ10
2へ移行する。
On the other hand, if the release button is pressed halfway, the determination in step 100 is affirmative and step 10
Move to 2.

【0058】ステップ102では、測距処理を行う。す
なわち、測距センサ58により被写体までの距離を検出
させ、検出した被写体までの距離を取り込む。
In step 102, distance measurement processing is performed. That is, the distance measuring sensor 58 detects the distance to the subject, and takes in the detected distance to the subject.

【0059】次のステップ104では、測光処理を行
う。すなわち、前述したように、1フレームのR、G、
B信号を積算した積算値に基づいて被写体輝度(撮影E
V)を求める。この測光動作は、複数回繰り返され、正
確な撮影EVが求められる。
In the next step 104, photometric processing is performed. That is, as described above, one frame of R, G,
Subject brightness (shooting E
V) is calculated. This photometric operation is repeated a plurality of times, and accurate photographing EV is required.

【0060】次のステップ106では、AE制御及びA
F制御を行う。すなわち、前述したように、求めた撮影
EVに基づいて絞り値とシャッタースピードを決定し、
駆動手段52を介して絞り16を駆動するとともに、決
定したシャッタースピードとなるように電子シャッター
によってCCD18の電荷の蓄積時間を制御する。これ
により、最適な露出調整が行われる。
At the next step 106, AE control and A
F control is performed. That is, as described above, the aperture value and the shutter speed are determined based on the obtained shooting EV,
The diaphragm 16 is driven via the drive means 52, and the charge accumulation time of the CCD 18 is controlled by the electronic shutter so that the shutter speed is determined. As a result, optimum exposure adjustment is performed.

【0061】また、CPU30は、CCD18から出力
される画像信号に基づいて、焦点評価演算やAE演算な
どの各種演算を行い、その演算に基づいて、撮影レンズ
14及び絞り16の駆動手段52を制御してフォーカス
レンズを合焦位置に移動させるとともに、絞り16を適
正絞り値(FナンバーFNO)に設定する。なお、AF制
御は、例えばG信号の高周波成分が最大になるようにフ
ォーカスレンズを移動させるコントラストAF方式によ
り行われる。
Further, the CPU 30 performs various calculations such as focus evaluation calculation and AE calculation based on the image signal output from the CCD 18, and controls the driving means 52 of the taking lens 14 and the diaphragm 16 based on the calculations. Then, the focus lens is moved to the in-focus position, and the diaphragm 16 is set to a proper diaphragm value (F number F NO ). The AF control is performed by, for example, a contrast AF method in which the focus lens is moved so that the high frequency component of the G signal becomes maximum.

【0062】そして、次のステップ106において、被
写界深度を演算する。すなわち、設定された撮影レンズ
14の焦点距離f、AE制御により設定された絞り値F
NO、測距センサ58により検出した被写体までの距離u
から、上記(3)式により被写界深度dを演算する。
Then, in the next step 106, the depth of field is calculated. That is, the set focal length f of the taking lens 14 and the aperture value F set by the AE control
NO , distance u to the subject detected by the distance measuring sensor 58
From the above, the depth of field d is calculated by the above equation (3).

【0063】次のステップ108では、ステップ106
で求めた被写界深度を、表示部46に表示する。具体的
には、求めた被写界深度を表す画像を生成し、生成した
画像と表示部46で表示されるべき被写体を撮像した撮
像画像とを合成し、この合成画像を表示部46に表示さ
せる。すなわち、表示部46に表示されるべき被写体の
撮像画像上に、被写界深度を表す画像を重ねて表示させ
る。
In the next step 108, step 106
The depth of field obtained in step 3 is displayed on the display unit 46. Specifically, an image representing the calculated depth of field is generated, the generated image is combined with a captured image of a subject to be displayed on the display unit 46, and the combined image is displayed on the display unit 46. Let That is, the image representing the depth of field is displayed on the captured image of the subject to be displayed on the display unit 46.

【0064】例えば、図4(A)、(B)に示すよう
に、表示部46の下側に、被写界深度、すなわちピント
の合う範囲を表すインジケータ60及び被写界深度の範
囲を文字で表した文字情報62を含む画像を被写体の撮
像画像上に重ねて表示させる。なお、図4(A),
(B)の例では、インジケータ60の黒塗り部分が被写
界深度を表しており、図4(A)は、例えば花をマクロ
撮影した場合の例であり、図4(B)は、風景を広角で
撮影した場合の例である。
For example, as shown in FIGS. 4A and 4B, the depth of field, that is, the indicator 60 indicating the focused range and the range of the depth of field are displayed on the lower side of the display unit 46. The image including the character information 62 represented by is superimposed and displayed on the captured image of the subject. In addition, FIG.
In the example of (B), the black-painted portion of the indicator 60 represents the depth of field, FIG. 4 (A) is an example of a macro image of a flower, and FIG. 4 (B) is a landscape. This is an example of the case where the image was taken at a wide angle.

【0065】このように、本実施の形態では、被写界深
度を表示部46にインジケータ及び文字で表示するた
め、撮影者は、ピントの合う範囲を容易に把握すること
ができる。これにより、撮影者は、撮影意図に沿って絞
りやシャッタースピードを容易に調整することが可能と
なる。これは、CCD18のサイズが比較的大きく、か
つ図4(A)の例のように被写体が近距離にあり、ピン
トが合う範囲が狭くなる場合に特に有効である。
As described above, in the present embodiment, the depth of field is displayed on the display unit 46 by the indicator and the characters, so that the photographer can easily grasp the focus range. As a result, the photographer can easily adjust the aperture and the shutter speed according to the intention of photographing. This is particularly effective when the size of the CCD 18 is relatively large, the subject is in a short distance as in the example of FIG. 4A, and the focus range is narrow.

【0066】次に、ステップ112では、レリーズボタ
ンが全押しされたか否かが判断される。そして、レリー
ズボタンが全押しされた場合には、ステップ112の判
断が肯定され、ステップ114へ移行する。
Next, at step 112, it is judged if the release button has been fully pressed. Then, when the release button is fully pressed, the determination in step 112 is affirmed, and the process proceeds to step 114.

【0067】ステップ114では、撮像処理が行われ、
画像データがメモリカード42に記録される。
In step 114, an image pickup process is performed,
The image data is recorded in the memory card 42.

【0068】一方、レリーズボタンが全押しされていな
い場合には、ステップ112の判断が否定され、ステッ
プ116へ移行する。
On the other hand, if the release button has not been fully pressed, the determination at step 112 is denied and the routine proceeds to step 116.

【0069】ステップ116では、レリーズボタンの半
押しが解除されたか否かが判断される。そして、レリー
ズボタンの半押しが解除されていない場合には、ステッ
プ116の判断が否定され、ステップ112へ移行し
て、上記と同様にレリーズボタンが全押しされたか否か
が判断される。
In step 116, it is determined whether or not the half press of the release button has been released. Then, if the half-press of the release button has not been released, the determination in step 116 is negative, the process proceeds to step 112, and it is determined whether or not the release button has been fully pressed as in the above.

【0070】一方、レリーズボタンの半押しが解除され
た場合には、ステップ116の判断が肯定され、ステッ
プ100へ移行して、レリーズボタンが再び半押しされ
るまで待機する。レリーズボタンが再び半押しされる
と、上記と同様の処理を行い、被写界深度を演算して表
示部46に表示させる。
On the other hand, when the release button is half-pushed, the determination at step 116 is affirmative, and the routine proceeds to step 100, where it waits until the release button is half-pushed again. When the release button is pressed halfway again, the same processing as described above is performed, and the depth of field is calculated and displayed on the display unit 46.

【0071】これにより、レリーズボタンを半押しする
毎に、そのときの撮影レンズ14の焦点距離f、絞り値
NO、被写体までの距離uに基づいて被写界深度dが演
算され、表示部46に表示される。
With this, every time the release button is pressed halfway, the depth of field d is calculated based on the focal length f of the taking lens 14, the aperture value F NO , and the distance u to the subject at that time, and the display unit 46 is displayed.

【0072】このように、本実施の形態では、被写界深
度を求めて表示部46にインジケータ及び文字で表示す
るため、撮影者は、ピントの合う範囲を容易に把握する
ことができる。これにより、撮影者は、撮影意図に沿っ
て絞りやシャッタースピードを容易に調整すること可能
となり、撮影者による撮影を効果的に支援することがで
きる。
As described above, in the present embodiment, since the depth of field is obtained and displayed on the display unit 46 with the indicator and the characters, the photographer can easily grasp the focus range. As a result, the photographer can easily adjust the aperture and shutter speed according to the intention of the photograph, and can effectively assist the photographer in photographing.

【0073】なお、本実施の形態では、被写界深度dを
上記(3)式により演算する場合について説明したが、
これに限らず、焦点距離f、絞り値FNO、及び被写体ま
での距離uと、被写界深度dとの対応関係を表すルック
アップテーブルを予め設けておき、このルックアップテ
ーブルから、焦点距離f、絞り値FNO、及び被写体まで
の距離uに対応する被写界深度dを求めるようにしても
よい。これにより、被写界深度を速やかに求めることが
できる。なお、このルックアップテーブルは、メモリ2
6内に設けてもよいし、別個に設けてもよい。
In this embodiment, the case where the depth of field d is calculated by the above equation (3) has been described.
The present invention is not limited to this, and a look-up table representing the correspondence relationship between the focal length f, the aperture value F NO , the distance u to the subject, and the depth of field d is provided in advance, and the look-up table is used to calculate the focal length. f, the aperture value F NO , and the depth of field d corresponding to the distance u to the subject may be obtained. Thereby, the depth of field can be quickly obtained. The lookup table is stored in the memory 2
It may be provided within 6, or may be provided separately.

【0074】また、本実施の形態では、求めた被写界深
度を表示部46に表示することにより報知する場合につ
いて説明したが、これに限らず、カメラ10のファイン
ダに被写界深度を表示するようにしてもよい。すなわ
ち、撮影者がファインダを除いたときに、被写界深度を
確認できるように構成してもよい。また、表示に代え
て、又は表示と共に被写界深度を音声により報知するよ
うにしてもよい。
Further, in the present embodiment, the case has been described in which the obtained depth of field is displayed and displayed on the display unit 46, but the present invention is not limited to this, and the depth of field is displayed in the viewfinder of the camera 10. You may do it. That is, it may be configured such that the photographer can confirm the depth of field when the finder is removed. Further, instead of the display, or together with the display, the depth of field may be notified by voice.

【0075】[0075]

【発明の効果】以上説明したように本発明によれば、被
写体を撮像する撮像素子と、前記撮像素子に前記被写体
の像を結像するレンズと、前記被写体までの距離を検出
する測距手段と、前記レンズの明るさを調節する絞り
と、前記レンズの焦点距離、前記絞りの絞り値、及び前
記測距手段により検出した前記被写体までの距離に基づ
いて被写界深度を求める演算手段と、前記演算手段によ
り求めた被写界深度を報知する報知手段と、を備えた構
成としたので、被写界深度を容易に確認することができ
る、という効果がある。
As described above, according to the present invention, an image pickup device for picking up an image of a subject, a lens for forming an image of the subject on the image pickup device, and a distance measuring means for detecting the distance to the subject. And a diaphragm for adjusting the brightness of the lens, and a calculating means for obtaining the depth of field based on the focal length of the lens, the aperture value of the diaphragm, and the distance to the subject detected by the distance measuring means. Since the notification means for notifying the depth of field calculated by the calculation means is provided, there is an effect that the depth of field can be easily confirmed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態に係るデジタルカメラの回
路ブロック図である。
FIG. 1 is a circuit block diagram of a digital camera according to an embodiment of the present invention.

【図2】本発明の実施の形態に係るデジタルカメラの機
能ブロック図である。
FIG. 2 is a functional block diagram of the digital camera according to the embodiment of the present invention.

【図3】CPUで実行される制御ルーチンのフローチャ
ートである。
FIG. 3 is a flowchart of a control routine executed by a CPU.

【図4】被写界深度の表示例を示すイメージ図である。FIG. 4 is an image diagram showing a display example of depth of field.

【符号の説明】[Explanation of symbols]

10 カメラ 12 撮影光学系 14 撮影レンズ 16 絞り 18 CCD 26 メモリ 30 CPU 42 メモリカード 46 表示部 50 操作部 58 測距センサ 10 cameras 12 Shooting optical system 14 Shooting lens 16 aperture 18 CCD 26 memory 30 CPU 42 memory card 46 Display 50 Operation part 58 distance measuring sensor

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 被写体を撮像する撮像素子と、 前記撮像素子に前記被写体の像を結像するレンズと、 前記被写体までの距離を検出する測距手段と、 前記レンズの明るさを調節する絞りの絞り値を定める設
定手段と、 前記レンズの焦点距離、前記絞りの絞り値、及び前記測
距手段により検出した前記被写体までの距離に基づいて
被写界深度を求める演算手段と、 前記演算手段により求めた被写界深度を報知する報知手
段と、 を備えたデジタルカメラ。
1. An image pickup device for picking up an image of a subject, a lens for forming an image of the subject on the image pickup device, a distance measuring unit for detecting a distance to the subject, and a diaphragm for adjusting the brightness of the lens. Setting means for determining an aperture value, a calculation means for obtaining a depth of field based on a focal length of the lens, an aperture value of the aperture, and a distance to the subject detected by the distance measuring means, and the calculation means A digital camera comprising: a notifying unit for notifying the depth of field obtained by.
【請求項2】 前記演算手段は、前記焦点距離、前記絞
り値、及び前記被写体までの距離と、前記被写界深度と
の対応関係を表すルックアップテーブルを含み、前記焦
点距離、前記絞り値、及び前記被写体までの距離に対応
する被写界深度を前記対応関係から求めることを特徴と
する請求項1記載のデジタルカメラ。
2. The calculation means includes a look-up table showing a correspondence relationship between the focal length, the aperture value, the distance to the subject, and the depth of field, the focal length, the aperture value. , And the depth of field corresponding to the distance to the subject is obtained from the correspondence relationship.
【請求項3】 前記報知手段は、前記撮像素子により撮
像した撮像画像を表示する表示手段をさらに備え、 前記報知手段は、求めた被写界深度を画像として生成
し、前記表示手段に表示されるべき前記撮像画像に合成
することを特徴とする請求項1又は請求項2記載のデジ
タルカメラ。
3. The notifying means further comprises a display means for displaying a picked-up image picked up by the image pickup element, and the notifying means generates the obtained depth of field as an image and displays it on the display means. The digital camera according to claim 1 or 2, wherein the digital camera is combined with the captured image to be captured.
JP2002123602A 2002-04-25 2002-04-25 Digital camera Pending JP2003319246A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002123602A JP2003319246A (en) 2002-04-25 2002-04-25 Digital camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002123602A JP2003319246A (en) 2002-04-25 2002-04-25 Digital camera

Publications (1)

Publication Number Publication Date
JP2003319246A true JP2003319246A (en) 2003-11-07

Family

ID=29538845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002123602A Pending JP2003319246A (en) 2002-04-25 2002-04-25 Digital camera

Country Status (1)

Country Link
JP (1) JP2003319246A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006023553A (en) * 2004-07-08 2006-01-26 Olympus Corp Image pickup device and image processor
JP2006276683A (en) * 2005-03-30 2006-10-12 Casio Comput Co Ltd Imaging apparatus and program
EP1560424A3 (en) * 2004-01-30 2008-04-23 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Electronic motion picture camera
US7403705B2 (en) 2004-08-04 2008-07-22 Casio Computer Co., Ltd. Camera device having automatic focusing function
JP2008287050A (en) * 2007-05-18 2008-11-27 Nikon Corp Automatic focusing device and imaging apparatus
KR20150099353A (en) * 2014-02-21 2015-08-31 삼성전자주식회사 Method for displaying focus of image and apparatus to be applied to the same
KR101566195B1 (en) 2009-02-20 2015-11-05 삼성전자주식회사 A digital photographing device and a method for a digital photographing device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1560424A3 (en) * 2004-01-30 2008-04-23 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Electronic motion picture camera
US7428381B2 (en) 2004-01-30 2008-09-23 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Electronic motion picture camera
US8013924B2 (en) 2004-01-30 2011-09-06 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Electronic motion picture camera
JP2006023553A (en) * 2004-07-08 2006-01-26 Olympus Corp Image pickup device and image processor
US7403705B2 (en) 2004-08-04 2008-07-22 Casio Computer Co., Ltd. Camera device having automatic focusing function
JP2006276683A (en) * 2005-03-30 2006-10-12 Casio Comput Co Ltd Imaging apparatus and program
JP2008287050A (en) * 2007-05-18 2008-11-27 Nikon Corp Automatic focusing device and imaging apparatus
KR101566195B1 (en) 2009-02-20 2015-11-05 삼성전자주식회사 A digital photographing device and a method for a digital photographing device
KR20150099353A (en) * 2014-02-21 2015-08-31 삼성전자주식회사 Method for displaying focus of image and apparatus to be applied to the same
KR102150890B1 (en) * 2014-02-21 2020-09-02 삼성전자주식회사 Method for displaying focus of image and apparatus to be applied to the same

Similar Documents

Publication Publication Date Title
JP4644883B2 (en) Imaging device
US7668451B2 (en) System for and method of taking image
JP4198449B2 (en) Digital camera
US7706674B2 (en) Device and method for controlling flash
JP4882462B2 (en) Imaging device
US20090102940A1 (en) Imaging device and imaging control method
JP2004135029A (en) Digital camera
JP2003224771A (en) Image processing method, image processing apparatus and electronic camera
JP4181620B2 (en) Digital camera
JP2004157417A (en) Digital camera and exposure setting method in performing af control
JP2007235640A (en) Photographing device and method
JP3943470B2 (en) Digital camera
JP4565370B2 (en) Electronic camera and autofocus control method
JP2004032524A (en) Digital camera
JP4182864B2 (en) Electronic camera
JP2003319246A (en) Digital camera
JP2009033386A (en) Photographing device and method
JPH11112865A (en) Electronic still camera
JP4200575B2 (en) Digital camera
JP4496051B2 (en) Imaging device
JP2003222787A (en) Digital camera
JP2003319234A (en) Digital camera
JP2003295044A (en) Digital camera
JP2001169178A (en) Image processing method, image processor and electronic camera
JP2003319231A (en) Digital camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050207

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070306

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070703