JP2009098167A - Imaging device and program of the same - Google Patents

Imaging device and program of the same Download PDF

Info

Publication number
JP2009098167A
JP2009098167A JP2007266563A JP2007266563A JP2009098167A JP 2009098167 A JP2009098167 A JP 2009098167A JP 2007266563 A JP2007266563 A JP 2007266563A JP 2007266563 A JP2007266563 A JP 2007266563A JP 2009098167 A JP2009098167 A JP 2009098167A
Authority
JP
Japan
Prior art keywords
aperture value
imaging
displayed
aperture
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007266563A
Other languages
Japanese (ja)
Other versions
JP2009098167A5 (en
JP5092673B2 (en
Inventor
Takeshi Iwamoto
健士 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007266563A priority Critical patent/JP5092673B2/en
Publication of JP2009098167A publication Critical patent/JP2009098167A/en
Publication of JP2009098167A5 publication Critical patent/JP2009098167A5/ja
Application granted granted Critical
Publication of JP5092673B2 publication Critical patent/JP5092673B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device and its program capable of easily checking focusing areas according to a plurality of diaphragm values. <P>SOLUTION: A diaphragm value is changed into the smallest value in the currently selected diaphragm values (S21); when a frame cycle comes (S22), an AF evaluation value is calculated in each area frame 31 of the photographed image data (S23); and an operation is started for correlating an area frame 31 having the AF evaluation value equal to or larger than a predetermined value to the current diaphragm value and identifying and displaying the correlation (S24). In this step, the area frames are identified and displayed in such a way that each diaphragm value can be distinguished from others. Subsequently, whether the second largest value exists or not in the selected diaphragm values is determined (S25); and if the second largest diaphragm value exists, the diaphragm value is changed to the second largest value and the operation returns back to the step S22 to wait until the next frame comes, so as to repeat the above steps. Thus, area frames 31 are identified and displayed in such a way that the area frames 31 as focusing areas of each diaphragm value can be distinguished from others as shown in Fig.5. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像装置及びそのプログラムに係り、詳しくは、被写体のブレを抑える撮像装置及びそのプログラムに関する。   The present invention relates to an imaging device and a program thereof, and more particularly, to an imaging device and a program thereof that suppress subject blurring.

従来、カメラ等においては、被写界深度を手動によって変えるというものがある。この被写界深度は、絞り値(F値)、焦点距離等によって変わってくる。しかしながら、被写界深度を任意に変更するというのは難しく、また、電子ファインダや光学ファインダ上に見える被写体は小さいため、電子ファインダ上等ではピントが合っているように見えても、印画紙上ではボケている場合があり、初心者が被写界深度を任意に変えるというのは極めて困難であった。
このような問題を解消するため、例えば特許文献1の発明には、被写界深度の範囲内と範囲外とに2値化した領域をスルー画像に重ねて表示させることが記載されている。これによれば、被写界深度の範囲を容易に認識することができ、初心者でもピント領域とボケ領域を容易に確認することができる。
Conventionally, some cameras and the like manually change the depth of field. This depth of field varies depending on the aperture value (F value), the focal length, and the like. However, it is difficult to arbitrarily change the depth of field, and the subject that appears on the electronic viewfinder and optical viewfinder is small. In some cases, it is very difficult for a beginner to arbitrarily change the depth of field.
In order to solve such a problem, for example, the invention of Patent Document 1 describes that a binarized region within and outside the range of depth of field is displayed superimposed on a through image. According to this, the range of the depth of field can be easily recognized, and even a beginner can easily check the focus area and the blur area.

公開特許公報 特開2006−74634JP Patent Publication No. 2006-74634

しかしながら、上記特許文献によれば、1つの絞り値に対応する被写界深度しか表示されず、絞り値等の変更させる度に、スルー画像を見て被写界深度の範囲の変化を1つずつ確認しなければならず面倒であり、絞り値の変化に応じた被写界深度の変化を容易に確認することができなかった。   However, according to the above-mentioned patent document, only the depth of field corresponding to one aperture value is displayed, and each time the aperture value or the like is changed, one change in the depth of field range is seen by looking at the through image. It was cumbersome to check each one, and it was not possible to easily check the change in the depth of field according to the change in the aperture value.

そこで本発明は、かかる従来の問題点に鑑みてなされたものであり、複数の絞り値の応じた合焦領域を容易に確認することができる撮像装置及びそのプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of such a conventional problem, and an object of the present invention is to provide an imaging apparatus capable of easily confirming an in-focus area corresponding to a plurality of aperture values and a program thereof. .

上記目的達成のため、請求項1記載の発明による撮像装置は、被写体を撮像する撮像手段と、
複数の絞り値の夫々に対応した、前記撮像手段により得られる画像データにおける合焦領域を検出する検出手段と、
前記検出手段によって検出された合焦領域を、前記複数の絞り値と対応させて表示する表示手段と、
を備えたことを特徴とする。
In order to achieve the above object, an image pickup apparatus according to the first aspect of the present invention comprises an image pickup means for picking up an image of a subject
Detecting means for detecting an in-focus area in the image data obtained by the imaging means corresponding to each of a plurality of aperture values;
Display means for displaying the in-focus area detected by the detection means in association with the plurality of aperture values;
It is provided with.

また、例えば、請求項2に記載されているように、前記絞り値を複数選択する選択手段を更に備え、
前記検出手段は、
前記選択手段によって選択された複数の絞り値の夫々に対応した、前記撮像手段によって撮像される画像データにおける合焦領域を検出するようにしてもよい。
In addition, for example, as described in claim 2, further comprising a selection means for selecting a plurality of the aperture values,
The detection means includes
You may make it detect the focusing area | region in the image data imaged by the said imaging means corresponding to each of the some aperture value selected by the said selection means.

また、例えば、請求項3に記載されているように、前記表示手段は、
前記撮像手段によって得られた画像データを、更に表示するようにしてもよい。
For example, as described in claim 3, the display means is
The image data obtained by the imaging means may be further displayed.

また、例えば、請求項4に記載されているように、前記表示手段は、
前記検出手段により検出された合焦領域を、前記選択手段によって選択された複数の絞り値毎に区別可能な態様で識別表示させるようにしてもよい。
For example, as described in claim 4, the display means is
The in-focus area detected by the detection unit may be identified and displayed in a distinguishable manner for each of a plurality of aperture values selected by the selection unit.

また、例えば、請求項5に記載されているように、前記表示手段は、
前記検出手段により検出された合焦領域を、前記選択手段によって選択された複数の絞り値毎に異なる色を付して表示するようにしてもよい。
For example, as described in claim 5, the display means is
The in-focus area detected by the detection unit may be displayed with a different color for each of the plurality of aperture values selected by the selection unit.

また、例えば、請求項6に記載されているように、前記表示手段は、
複数の絞り値の指標と前記検出手段により検出された合焦領域とを対応付けて表示するようにしてもよい。
For example, as described in claim 6, the display means is
A plurality of aperture value indicators may be displayed in association with the in-focus areas detected by the detection means.

また、例えば、請求項7に記載されているように、前記表示手段は、
複数の絞り値の指標と前記検出手段により検出された合焦領域とを同じ色で表示するようにしてもよい。
Further, for example, as described in claim 7, the display means includes:
You may make it display the parameter | index of a some aperture value, and the focus area | region detected by the said detection means by the same color.

また、例えば、請求項8に記載されているように、前記表示手段による表示の後、前記選択手段により選択された複数の絞り値から所定の絞り値の決定を検出する決定検出手段と、
この決定検出手段によって決定が検出された絞り値を設定して前記撮像手段による撮像を行わせるよう制御する第1の撮像制御手段と、
この第1の撮像制御手段により撮像された画像データを記録する第1の記録手段と、
を更に備えるようにしてもよい。
Further, for example, as described in claim 8, after the display by the display unit, a determination detection unit that detects determination of a predetermined aperture value from a plurality of aperture values selected by the selection unit;
A first imaging control unit configured to control the imaging to be performed by setting the aperture value detected by the determination detection unit;
First recording means for recording image data imaged by the first imaging control means;
May be further provided.

また、例えば、請求項9に記載されているように、前記表示手段による表示の後、前記選択手段により選択された複数の絞り値を順次設定し、その都度前記撮像手段による撮像を行わせるよう制御する第2の撮像制御手段と、
この第2の撮像制御手段により撮像された複数の画像データを記録する第2の記録手段と、
を更に備えるようにしてもよい。
Further, for example, as described in claim 9, after the display by the display unit, a plurality of aperture values selected by the selection unit are sequentially set, and each time the imaging unit performs imaging. Second imaging control means for controlling;
Second recording means for recording a plurality of image data imaged by the second imaging control means;
May be further provided.

上記目的達成のため、請求項10記載の発明によるプログラムは、撮像素子、該撮像素子に入射する光の量を可変する絞り、及び、表示部を備える撮像装置が具備するコンピュータを、
前記絞りの複数の絞り値の夫々に対応した、前記撮像素子により得られる画像データにおける合焦領域を検出する検出手段、
前記検出手段によって検出された合焦領域を、前記複数の絞り値と対応させて前記表示部に表示させる表示制御手段、
として機能させることを特徴とする。
In order to achieve the above object, a program according to the invention described in claim 10 includes a computer provided in an imaging device including an imaging device, a diaphragm that changes an amount of light incident on the imaging device, and a display unit.
Detecting means for detecting an in-focus area in the image data obtained by the image sensor corresponding to each of a plurality of aperture values of the aperture;
Display control means for displaying the in-focus area detected by the detection means on the display unit in association with the plurality of aperture values;
It is made to function as.

本発明によれば、複数の絞り値に応じた合焦領域を容易に確認することができる。   According to the present invention, it is possible to easily confirm a focusing area corresponding to a plurality of aperture values.

以下、本実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮影レンズ2、レンズ駆動ブロック3、絞り4、CCD5、垂直ドライバ6、TG(timing generator)7、ユニット回路8、DMAコントローラ(以下、DMAという)9、CPU10、キー入力部11、メモリ12、DRAM13、DMA14、AF評価値算出部15、DMA16、画像生成部17、DMA18、DMA19、表示部20、DMA21、圧縮伸張部22、DMA23、フラッシュメモリ24、バス25を備えている。
Hereinafter, the present embodiment will be described in detail with reference to the drawings as an example in which the imaging apparatus of the present invention is applied to a digital camera.
[Embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a digital camera 1 that implements the imaging apparatus of the present invention.
The digital camera 1 includes a photographing lens 2, a lens driving block 3, an aperture 4, a CCD 5, a vertical driver 6, a TG (timing generator) 7, a unit circuit 8, a DMA controller (hereinafter referred to as DMA) 9, a CPU 10, and a key input unit 11. , Memory 12, DRAM 13, DMA 14, AF evaluation value calculation unit 15, DMA 16, image generation unit 17, DMA 18, DMA 19, display unit 20, DMA 21, compression / decompression unit 22, DMA 23, flash memory 24, and bus 25.

撮影レンズ2は、図示しない複数のレンズ群から構成されるフォーカスレンズ、ズームレンズを含む。そして、撮影レンズ2には、レンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ、ズームレンズをそれぞれ光軸方向に駆動させるフォーカスモータ、ズームモータ(図示略)と、CPU10から送られてくる制御信号にしたがって、フォーカスレンズ、ズームレンズを光軸方向に駆動させるフォーカスモータドライバ、ズームモータドライバ(図示略)とから構成されている。   The photographic lens 2 includes a focus lens and a zoom lens that are composed of a plurality of lens groups (not shown). A lens driving block 3 is connected to the photographing lens 2. The lens driving block 3 moves the focus lens and the zoom lens in the optical axis direction in accordance with a focus motor and a zoom motor (not shown) for driving the focus lens and the zoom lens in the optical axis direction, and a control signal sent from the CPU 10, respectively. And a zoom motor driver (not shown).

絞り4は、図示しない駆動回路を含み、駆動回路はCPU10の変更部101から送られてくる制御信号にしたがって絞り4を動作させる。
絞りとは、CCD5に入射される光の量を制御する機構のことをいう。この絞りの度合を示した絞り値(F値)は値が小さくなるほど絞りの度合が少なくなり、値が大きくなるほど絞りの度合が大きくなる。
露出量は、この絞り値とシャッタ速度によって定められる。
The diaphragm 4 includes a driving circuit (not shown), and the driving circuit operates the diaphragm 4 in accordance with a control signal sent from the changing unit 101 of the CPU 10.
The diaphragm is a mechanism that controls the amount of light incident on the CCD 5. As the aperture value (F value) indicating the aperture level decreases, the aperture level decreases as the value decreases, and the aperture level increases as the value increases.
The exposure amount is determined by the aperture value and the shutter speed.

CCD5は、垂直ドライバ6によって走査駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。この垂直ドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10によって制御される。なお、CCD5はベイヤー配列の色フィルターを有しており、また、電子シャッタとしての機能も有する。この電子シャッタのシャッタ速度は、ドライバ6、TG7を介してCPU10によって制御される。   The CCD 5 is scanned and driven by the vertical driver 6, photoelectrically converts the intensity of light of each color of the RGB value of the subject image at a constant period, and outputs it to the unit circuit 8 as an imaging signal. The operation timing of the vertical driver 6 and the unit circuit 8 is controlled by the CPU 10 via the TG 7. The CCD 5 has a Bayer color filter and also functions as an electronic shutter. The shutter speed of the electronic shutter is controlled by the CPU 10 via the driver 6 and TG7.

ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログ信号をデジタル信号に変換するA/D変換器から構成されており、CCD5によって得られた撮像信号はユニット回路8を経た後、DMA9によってベイヤーデータの状態でバッファメモリ(DRAM13)に記憶される。   A TG 7 is connected to the unit circuit 8, a CDS (Correlated Double Sampling) circuit that holds the imaged signal output from the CCD 5 by correlated double sampling, and an AGC that performs automatic gain adjustment of the imaged signal after the sampling. (Automatic Gain Control) circuit and an A / D converter that converts the analog signal after the automatic gain adjustment into a digital signal. The image pickup signal obtained by the CCD 5 passes through the unit circuit 8 and is then Bayered by the DMA 9 The data is stored in the buffer memory (DRAM 13).

CPU10は、撮像処理、記録処理などを行う機能を有すると共に、デジタルカメラ1の各部を制御するワンチップマイコンである。
特に、CPU10は、絞りの絞り値(絞り度合)を変更する変更部101、CCD5により撮像された画像データの合焦領域を検出する検出部102、CCD5により撮像された画像データや該検出された合焦領域とを表示部20に表示させる表示制御部103を有する。
The CPU 10 is a one-chip microcomputer that has functions of performing an imaging process, a recording process, and the like and controls each unit of the digital camera 1.
In particular, the CPU 10 includes a change unit 101 that changes the aperture value (aperture degree) of the aperture, a detection unit 102 that detects a focusing area of image data captured by the CCD 5, and image data captured by the CCD 5 and the detected data. The display control unit 103 displays the in-focus area on the display unit 20.

キー入力部11は、半押し操作全押し操作可能なシャッタボタン、モード切替キー、十字キー、SETキー、絞り値指定キー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。
メモリ12には、CPU10がデジタルカメラ1の各部を制御するのに必要な制御プログラム、及び必要なデータが記録されており、CPU10は、該プログラムに従い動作する。
The key input unit 11 includes a plurality of operation keys such as a shutter button, a mode switching key, a cross key, a SET key, an aperture value designation key, and the like, which can be operated by a half-press operation, and an operation signal corresponding to a user's key operation. It outputs to CPU10.
The memory 12 stores a control program and necessary data necessary for the CPU 10 to control each unit of the digital camera 1, and the CPU 10 operates according to the program.

DRAM13は、CCD5によって撮像された画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとしても使用される。   The DRAM 13 is used as a buffer memory for temporarily storing image data picked up by the CCD 5 and also as a working memory for the CPU 10.

DMA14は、バッファメモリに記憶されているベイヤーデータ若しくは輝度色差信号の画像データを読み出して、AF評価値算出部15に出力するものである。
AF評価値算出部15は、送られてきた画像データの画像データに基づいて高周波成分を抽出し、該抽出した高周波成分を積算してAF評価値を算出する。この算出されたAF評価値は、CPU10に送られる。このAF評価値が高い領域程、ピントが合っている領域となる。
The DMA 14 reads out Bayer data or luminance / chrominance signal image data stored in the buffer memory and outputs them to the AF evaluation value calculation unit 15.
The AF evaluation value calculation unit 15 extracts a high frequency component based on the image data of the transmitted image data, and calculates the AF evaluation value by integrating the extracted high frequency component. The calculated AF evaluation value is sent to the CPU 10. The region where the AF evaluation value is higher is the region in focus.

DMA16は、バッファメモリに記憶されたベイヤーデータの画像データを読み出して画像生成部17に出力するものである。
画像生成部17は、DMA16から送られてきた画像データに対して、画素補間処理、γ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)の生成も行なう。つまり、画像処理を施す部分である。
DMA18は、画像生成部17で画像処理が施された輝度色差信号の画像データ(YUVデータ)をバッファメモリに記憶させるものである。
The DMA 16 reads image data of Bayer data stored in the buffer memory and outputs it to the image generation unit 17.
The image generation unit 17 performs processing such as pixel interpolation processing, γ correction processing, and white balance processing on the image data sent from the DMA 16, and also generates a luminance color difference signal (YUV data). That is, it is a portion that performs image processing.
The DMA 18 stores the image data (YUV data) of the luminance / color difference signal subjected to image processing by the image generation unit 17 in a buffer memory.

DMA19は、バッファメモリに記憶されているYUVデータの画像データを表示部20に出力するものである。
表示部20は、カラーLCDとその駆動回路を含み、CPU10の表示制御部103の制御によってDMA19から出力された画像データの画像を表示させる。
The DMA 19 outputs image data of YUV data stored in the buffer memory to the display unit 20.
The display unit 20 includes a color LCD and its driving circuit, and displays an image of the image data output from the DMA 19 under the control of the display control unit 103 of the CPU 10.

DMA21は、バッファメモリに記憶されているYUVデータの画像データや圧縮された画像データを圧縮伸張部22に出力したり、圧縮伸張部22により圧縮された画像データや、伸張された画像データをバッファメモリに記憶させたりするものである。
圧縮伸張部22は、画像データの圧縮・伸張(例えば、JPEGやMPEG形式の圧縮・伸張)を行なう部分である。
DMA23は、バッファッメモリに記憶されている圧縮画像データを読み出してフラッシュメモリ24に記録させたり、フラッシュメモリ24に記録された圧縮画像データをバッファメモリに記憶させるものである。
The DMA 21 outputs the YUV data image data and compressed image data stored in the buffer memory to the compression / decompression unit 22, and buffers the image data compressed by the compression / decompression unit 22 and the decompressed image data. It is stored in memory.
The compression / decompression unit 22 is a part that performs compression / decompression of image data (for example, compression / decompression in JPEG or MPEG format).
The DMA 23 reads compressed image data stored in the buffer memory and records it in the flash memory 24, or stores the compressed image data recorded in the flash memory 24 in the buffer memory.

B.デジタルカメラ1の動作
第1の実施の形態におけるデジタルカメラ1の動作を図2のフローチャートにしたがって説明する。
B. Operation of Digital Camera 1 The operation of the digital camera 1 in the first embodiment will be described with reference to the flowchart of FIG.

ユーザのキー入力部11のモード切替キーの操作により静止画撮影モードに設定されると、ステップS1で、CPU10は、所定のキャプチャフレームレートでCCD5により被写体を撮像する処理(動画撮像処理)を開始させ、CPU10の表示制御部103は、画像生成部17によって順次生成されてバッファメモリに記憶された輝度色差信号の画像データを表示部20に表示させていく、といういわゆるスルー画像表示を開始する(ステップS1)。   When the still image shooting mode is set by the user's operation of the mode switching key of the key input unit 11, in step S1, the CPU 10 starts processing for capturing a subject (moving image capturing processing) with the CCD 5 at a predetermined capture frame rate. Then, the display control unit 103 of the CPU 10 starts so-called through image display in which the display unit 20 displays the image data of the luminance color difference signals sequentially generated by the image generation unit 17 and stored in the buffer memory ( Step S1).

次いで、CPU10は、ユーザによってシャッタボタンが半押しされたか否かを判断する(ステップS2)。この判断は、シャッタボタンの半押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。   Next, the CPU 10 determines whether or not the shutter button is half-pressed by the user (step S2). This determination is made based on whether or not an operation signal corresponding to a half-press operation of the shutter button is sent from the key input unit 11.

ステップS2で、シャッタボタンが半押しされていないと判断すると、半押しされるまでステップS2に留まり、シャッタボタンが半押しされたと判断すると、CPU10の表示制御部103は、表示部20に複数の領域枠をスルー画像に重ねて表示させる(ステップS3)。この領域枠は撮像された若しくは表示された画像データのある領域を示す枠であり、また、このある領域は予め定められた領域である。   If it is determined in step S2 that the shutter button is not half-pressed, it remains in step S2 until it is half-pressed. If it is determined that the shutter button is half-pressed, the display control unit 103 of the CPU 10 The area frame is displayed so as to overlap the through image (step S3). This area frame is a frame indicating a certain area of image data that has been captured or displayed, and this certain area is a predetermined area.

図3(A)は、表示される複数の領域枠の様子の一例を示すものであり、図3(B)は、スルー画像32に重ねて表示された複数の領域枠31の様子の一例を示すものである。
このように、図3(A)に示すような複数の領域枠31が、スルー画像32に重ねて表示されることになる。
なお、ここでは、縦8×横10の計80個の領域枠31を表示させるようにしたが、これの数に限られないことは言うまでもなく、又領域枠31の大きさもこれに限られない。領域枠31の大きさは、n画素×m画素のブロック単位であってもよいし、画素単位であってもよい。
FIG. 3A shows an example of a state of a plurality of region frames displayed, and FIG. 3B shows an example of a state of a plurality of region frames 31 displayed superimposed on the through image 32. It is shown.
In this way, a plurality of area frames 31 as shown in FIG. 3A are displayed so as to overlap the through image 32.
Here, a total of 80 area frames 31 of 8 × 10 are displayed here, but it is needless to say that the number is not limited to this, and the size of the area frame 31 is not limited to this. . The size of the region frame 31 may be a block unit of n pixels × m pixels, or may be a pixel unit.

次いで、CPU10の変更部101は、設定可能な絞り値のうち最少の絞り値を設定する(ステップS4)。この絞り値の設定とともに、該絞りの絞り度合も変更されることになる。ここでは、最小の絞り値は、「F2.8」とする。
次いで、CPU10は、一番手前の被写体に合うようにコントラスト検出方式によるAF処理を行う(ステップS5)。
Next, the changing unit 101 of the CPU 10 sets a minimum aperture value among settable aperture values (step S4). Along with the setting of the aperture value, the aperture level of the aperture is also changed. Here, the minimum aperture value is “F2.8”.
Next, the CPU 10 performs an AF process by a contrast detection method so as to match the foremost subject (step S5).

このAF処理を具体的に説明すると、まず、CPU10は、レンズ駆動ブロック3に制御信号を送ることにより、フォーカスレンズをレンズ駆動可能な範囲内の一方のレンズ端(最も撮影者から一番近い被写体に合うレンズ位置)から他方のレンズ端(最も撮影者から一番遠い被写体にピントが合うレンズ位置)まで所定の移動量単位でサンプリングポイントのレンズ位置に順次移動させていく。そして、各サンプリングポイントのレンズ位置でCCD5から画像データを読み出し、該読みだした画像データをAF評価値算出部15に出力する。そして、AF評価値算出部15は、各サンプリングポイントで得られた画像データの各領域枠31のAF評価値を算出していき、該算出した各領域枠31のAF評価値をCPU10に出力する。そして、CPU10の検出部102は、送られてきた各領域枠31のAF評価値のうち、最初にAF評価値のピークを検出すると、該ピークとなるレンズ位置にフォーカスレンズを移動させる。つまり、表示された各領域枠31の中で一番近い被写体がいる領域枠34にピントを合わせることになる。   This AF process will be described in detail. First, the CPU 10 sends a control signal to the lens driving block 3 so that one lens end within the range in which the focus lens can be driven (the subject closest to the photographer). The lens position is sequentially moved to the lens position of the sampling point by a predetermined unit of movement from the other lens end (lens position where the subject farthest from the photographer is in focus) to the other lens end. Then, image data is read from the CCD 5 at the lens position of each sampling point, and the read image data is output to the AF evaluation value calculation unit 15. Then, the AF evaluation value calculation unit 15 calculates the AF evaluation value of each area frame 31 of the image data obtained at each sampling point, and outputs the calculated AF evaluation value of each area frame 31 to the CPU 10. . Then, when the detection unit 102 of the CPU 10 first detects the peak of the AF evaluation value among the AF evaluation values of the respective area frames 31 that have been sent, the detection unit 102 moves the focus lens to the lens position that is the peak. In other words, the displayed area frame 31 is focused on the area frame 34 where the closest subject is located.

次いで、CPU10の表示制御部103は、現在選択されている絞り値毎にピントの合う領域を絞り値と対応付けて識別表示させる処理を行う(ステップS6)。つまり、現在選択されている各絞り値毎に、ピントの合う領域の領域枠の識別表示を行う。このステップS6の動作は後で後述する。
このとき、CPU10は、表示された絞り値のうち、最も小さい絞り値(ここでは「F2.8」)にカーソルを合わせておく。
ここでは、まだ、選択されている絞り値は、ステップS4で選択された最少の絞り値「F2.8」のみなので、該絞り値「F2.8」でピントが合う領域枠しか識別表示されないことになる。
Next, the display control unit 103 of the CPU 10 performs a process of identifying and displaying a region in focus for each currently selected aperture value in association with the aperture value (step S6). That is, for each aperture value that is currently selected, the area frame of the in-focus area is identified and displayed. The operation of step S6 will be described later.
At this time, the CPU 10 places the cursor on the smallest aperture value (here, “F2.8”) among the displayed aperture values.
Here, since the selected aperture value is only the minimum aperture value “F2.8” selected in step S4, only the area frame that is in focus with the aperture value “F2.8” is identified and displayed. become.

図4(A)は、絞り値「F2.8」のみが選択されているときに識別表示される合焦領域の様子の一例を示すものである。
図4(A)を見るとわかるように、複数表示される領域枠31のうち、一番手間にいる被写体にある領域枠34のみが識別表示(斜線で表示)され、その領域枠が合焦領域であることがわかる。
また、右上を見るとわかるように、現在識別表示されている合焦領域(領域枠34)と、絞り値を示す指標(アイコン)33が対応付けて表示されているのがわかる。つまり、領域枠34について、どの絞り値でピントが合ったのかがわかるように表示されている。ここでは、絞り値「F2.8」における合焦領域の領域枠34と同じ態様(斜線表示)で、右上に「F2.8」と描画された指標33が表示されている。
FIG. 4A shows an example of the state of the in-focus area that is identified and displayed when only the aperture value “F2.8” is selected.
As can be seen from FIG. 4A, among the plurality of displayed area frames 31, only the area frame 34 in the most troubled subject is identified and displayed (indicated by diagonal lines), and the area frame is in focus. It turns out that it is an area.
Further, as can be seen from the upper right, it can be seen that the focus area (area frame 34) currently identified and displayed and the index (icon) 33 indicating the aperture value are displayed in association with each other. That is, the area frame 34 is displayed so that it can be understood at which aperture value the focus is achieved. Here, in the same manner as the area frame 34 of the in-focus area at the aperture value “F2.8” (displayed with diagonal lines), an index 33 drawn “F2.8” is displayed on the upper right.

次いで、CPU10は、ユーザによって絞り値の決定操作が行われたか否かを判断する(ステップS7)。この判断は、SETキーの操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。   Next, the CPU 10 determines whether or not an aperture value determination operation has been performed by the user (step S7). This determination is made based on whether or not an operation signal corresponding to the operation of the SET key is sent from the key input unit 11.

ステップS7で、絞り値の決定操作が行われていないと判断すると、CPU10は、ユーザによって絞り値の変更及び指定操作が行われたか否かを判断する(ステップS8)。
このとき、ユーザが絞り値指定キーを操作すると、設定可能な絞り値が一覧表示され、該一覧表示された中から十字キーの操作を行うことにより任意の絞り値にカーソルを合わせることができ、該カーソルが合わさっている絞り値でOKと思う場合にSETキーを操作することにより、該カーソルが合わさっている絞り値を指定することができ、この一連操作に対応する操作信号が送られてくると、CPU10は、絞り値の指定操作が行われたと判断する。
If it is determined in step S7 that the aperture value determination operation has not been performed, the CPU 10 determines whether or not an aperture value change and designation operation has been performed by the user (step S8).
At this time, when the user operates the aperture value designation key, a list of aperture values that can be set is displayed, and the cursor can be set to an arbitrary aperture value by operating the cross key from the displayed list. By operating the SET key when the aperture value at which the cursor is aligned is considered OK, the aperture value at which the cursor is aligned can be designated, and an operation signal corresponding to this series of operations is sent. Then, the CPU 10 determines that an aperture value designation operation has been performed.

ステップS8で絞り値の変更及び指定操作があると判断されると、CPU10は、該指定された絞り値を追加選択してステップS6に戻り、ステップS8で絞り値の指定操作がないと判断するとそのままステップS6に戻る。   If it is determined in step S8 that there is an aperture value change and designation operation, the CPU 10 additionally selects the designated aperture value, returns to step S6, and determines that there is no aperture value designation operation in step S8. The process returns to step S6 as it is.

図4は、新たに絞り値「F4.0」が追加選択されたときに、ステップS6の動作により識別表示される合焦領域の様子の一例を示す図である。
図4(B)を見ると、絞り値「F2.8」でピントのあう領域枠34が識別表示されているとともにと、絞り値「F4.0」でピントのあう領域枠36も識別表示されているのがわかる。また、領域枠34と領域枠36とが区別可能な状態で識別表示(斜線表示と縦線表示)されているのがわかる。この区別可能な態様で可能で表示しないと、たとえば、すべて斜線表示してしまうと、どの絞り値でどの領域枠31にピントが合ったのかわからないからである。
FIG. 4 is a diagram illustrating an example of the state of the in-focus area that is identified and displayed by the operation of step S6 when the aperture value “F4.0” is newly selected.
In FIG. 4B, the area frame 34 that is in focus with the aperture value “F2.8” is identified and displayed, and the area frame 36 that is in focus with the aperture value “F4.0” is also identified and displayed. I can see that In addition, it can be seen that the area frame 34 and the area frame 36 are identified and displayed (diagonal line display and vertical line display) in a distinguishable state. This is because, if it is possible and can not be displayed in this distinguishable manner, for example, if all are displayed with diagonal lines, it is not possible to know which area frame 31 is in focus at which aperture value.

また、識別表示された合焦領域がどの絞り値でピントが合ったのか分かるように、絞り値を示す指標と該絞り値でピントが合った合焦領域とが対応付けて表示されている。ここでは、領域枠34と同じ態様(斜線表示)で、画面右上に「F2.8」と描画された指標33を表示すると同時に、これと並べて領域枠36と同じ態様(縦線表示)で、「F4.0」と描画された指標35が表示されている。   In addition, an index indicating the aperture value and the in-focus area focused by the aperture value are displayed in association with each other so that the aperture value at which the identified focused area is in focus can be understood. Here, the index 33 drawn as “F2.8” is displayed on the upper right side of the screen in the same manner (displayed with diagonal lines) as the region frame 34, and at the same time, in the same mode (vertical line display) as the region frame 36. An index 35 drawn as “F4.0” is displayed.

尚、このとき、ユーザが、十字キーの操作を行うことにより現在画面右上に表示されている指標の何れかにカーソルを合わせることができ、該カーソルが合っている指標でOKと思う場合にはSETキーを操作することにより絞り値の決定を行うことができ、SETキーの操作が行われるとステップS7で絞り値の決定操作があると判断する。なお、識別表示されている合焦領域を指定することにより、絞り値を決定するようにしてもよい。この場合は、該指定された合焦領域に対応する絞り値に決定する。要は、ユーザが絞り値を決定することできる態様であればよい。   At this time, if the user can move the cursor to any of the indexes currently displayed on the upper right of the screen by operating the cross key, and the cursor is positioned and the indicator is OK. The aperture value can be determined by operating the SET key. When the SET key is operated, it is determined in step S7 that there is an aperture value determining operation. It should be noted that the aperture value may be determined by designating an in-focus area that is identified and displayed. In this case, the aperture value corresponding to the designated in-focus area is determined. The point is that the user can determine the aperture value.

このように、絞り値を追加選択していくことにより、該選択された絞り値でどの領域枠31が合焦点領域になるのかが一目瞭然にわかり、選択された各絞り値の被写界深度も一目瞭然にわかる。   In this way, by further selecting the aperture value, it is obvious at a glance which region frame 31 is the in-focus region with the selected aperture value, and the depth of field of each selected aperture value is also determined. I understand it at a glance.

図5(A)は、ユーザによって追加選択されていったときに識別表示される合焦領域の様子の一例を示すものであり、図5(B)は、図5(A)に示される識別表示されている領域枠31を抽出したもの(撮像されたスルー画像32を除外したもの)を示す図である。
図5を見るとわかるように、指定された絞り値は「F2.8」(指標33)、「F4.0」(指標35)、「F8.0」(指標37)、「F11」(指標39)、「F16」(指標41)であり、各絞り値でピントが合う領域枠34、36、38、40、及び42が区別可能な態様で識別表示されている。各領域枠がどの絞り値でピントが合ったのか分かるように、各絞り値の指標と各領域枠とが対応付けて表示されている。
FIG. 5A shows an example of the state of the in-focus area that is identified and displayed when it is additionally selected by the user, and FIG. 5B shows the identification shown in FIG. It is a figure which shows what extracted the area frame 31 currently displayed (what excluded the imaged through image 32).
As can be seen from FIG. 5, the designated aperture values are “F2.8” (index 33), “F4.0” (index 35), “F8.0” (index 37), “F11” (index). 39), “F16” (index 41), and the area frames 34, 36, 38, 40, and 42 that are in focus at each aperture value are identified and displayed in a distinguishable manner. The index of each aperture value and each region frame are displayed in association with each other so that it can be understood at which aperture value each region frame is in focus.

なお、ここで、ある絞り値でピントが合う領域40として識別表示される領域枠31として識別表示される領域枠は、該ある絞り値より小さい絞り値でピントが合う領域以外の領域枠でピントが合うことを示している。たとえば、図5を用いて説明すると、絞り値「F4.0」でピントが合う領域枠36は、絞り値「F2.8」でピントが合う領域枠34以外でピントが合うことを示している。   Here, the area frame that is identified and displayed as the area frame 31 that is identified and displayed as the area 40 that is in focus at a certain aperture value is in the area frame other than the area that is in focus at an aperture value that is smaller than the certain aperture value. Shows that it fits. For example, referring to FIG. 5, the area frame 36 that is in focus at the aperture value “F4.0” indicates that the area frame 36 that is in focus at the aperture value “F2.8” is in focus other than the area frame 34 that is in focus. .

また、絞り値「F11」でピントが合う領域枠40は、絞り値「F2.8」でピントが合う領域枠34、「F4.0」でピントが合う領域枠36、及び、「F8.0」でピントが合う領域枠38以外でピントが合うことを示している。つまり、絞り値が大きくなれば被写界深度も深くなるので、ある絞り値でピントが合う領域枠は、該ある絞り値より大きい絞り値でもピントが合う可能性が高いので、取り分けそのような領域枠に対して2重に識別表示させる必要はないからである。   In addition, the area frame 40 in focus at the aperture value “F11” includes the area frame 34 in focus at the aperture value “F2.8”, the area frame 36 in focus at “F4.0”, and “F8.0”. "" Indicates that the focus is out of the area frame 38 that is in focus. In other words, as the aperture value increases, the depth of field also increases, so it is highly likely that an area frame that is in focus at a certain aperture value will be in focus even at an aperture value that is larger than the certain aperture value. This is because it is not necessary to identify and display the area frame twice.

図2のフローチャートに戻り、図2のステップS7で、絞り値の決定操作が行われたと判断すると、ステップS10に進み、CPU10は、該決定された絞り値を静止画撮影の撮影条件として設定する(ステップS10)。
次いで、CPU10は、ユーザによってシャッタボタンが全押しされたか否かを判断する(ステップS11)。この判断は、シャッタボタンの全押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
Returning to the flowchart of FIG. 2, if it is determined in step S7 of FIG. 2 that an aperture value determination operation has been performed, the process proceeds to step S10, and the CPU 10 sets the determined aperture value as a shooting condition for still image shooting. (Step S10).
Next, the CPU 10 determines whether or not the shutter button has been fully pressed by the user (step S11). This determination is made based on whether or not an operation signal corresponding to the full pressing operation of the shutter button is sent from the key input unit 11.

ステップS11で、シャッタボタンが全押しされていないと判断すると全押しされるまでステップS11に留まり、シャッタボタンが全押しされたと判断すると、CPU10は、動画撮像処理を終了し、ステップS10で設定された絞り値で静止画撮影を行い、該静止画撮影処理により得られ、圧縮部22で圧縮された画像データをDMA23を介してフラッシュメモリ24に記録する(ステップS12)。   If it is determined in step S11 that the shutter button is not fully pressed, the process stays in step S11 until it is fully pressed. If it is determined that the shutter button is fully pressed, the CPU 10 ends the moving image capturing process and is set in step S10. Still image shooting is performed with the aperture value, and the image data obtained by the still image shooting process and compressed by the compression unit 22 is recorded in the flash memory 24 via the DMA 23 (step S12).

C. 識別表示の動作について
次に、図2のステップS6の現在選択されている絞り値毎にピントの合う領域を絞り値と対応付けて識別表示させる処理の動作を図6のサブフローチャートにしたがって説明する。
C. Operation of identification display Next, the operation of the process of displaying the region in focus associated with the aperture value for each aperture value currently selected in step S6 of FIG. 2 according to the sub-flowchart of FIG. explain.

図2のステップS6に進むと、図6のステップS21に進み、CPU10の変更部21は、現在選択されている複数の絞り値のうち、最も小さい絞り値に変更する。たとえば、現在選択されている絞り値が「F2.8」、「F4.0」、「F8.0」、「F11」、「F16」である場合は、最小の「F2.8」を選択することになる。この絞り値の変更とともに、該絞りの絞り度合も変更されることになる。   If it progresses to step S6 of FIG. 2, it will progress to step S21 of FIG. 6, and the change part 21 of CPU10 will change to the smallest aperture value among the some aperture values currently selected. For example, when the currently selected aperture value is “F2.8”, “F4.0”, “F8.0”, “F11”, “F16”, the smallest “F2.8” is selected. It will be. Along with the change of the aperture value, the aperture degree of the aperture is also changed.

次いで、CPU10は、キャプチャフレーム周期(撮像タイミング)が到来するまで待ち処理を行う(ステップS22)。このキャプチャフレーム周期は、動画撮像のキャプチャフレームレートに基づいて定まる。たとえば、キャプチャフレームレートが30fpsの場合は、1/30秒毎にキャプチャフレーム周期が到来することになる。   Next, the CPU 10 performs a waiting process until the capture frame period (imaging timing) arrives (step S22). This capture frame period is determined based on the capture frame rate for moving image capturing. For example, when the capture frame rate is 30 fps, the capture frame period arrives every 1/30 seconds.

そして、キャプチャフレーム周期が到来すると、CPU10は、撮像されたフレーム画像データを、AF評価値算出部15に出力し、AF評価値算出部15に、各領域枠のAF評価値を算出させる(ステップS23)。この算出された各領域枠のAF評価値はCPU10に送られる。   When the capture frame period arrives, the CPU 10 outputs the captured frame image data to the AF evaluation value calculation unit 15, and causes the AF evaluation value calculation unit 15 to calculate the AF evaluation value of each area frame (step). S23). The calculated AF evaluation value of each area frame is sent to the CPU 10.

次いで、CPU10の検出部102は、AF評価値算出部15から送られてきた各領域枠のAF評価値に基づいて、AF評価値が所定値以上となるAF領域枠を検出し、表示制御部103は、該検出されたAF評価値が所定値以上となる領域枠をステップS21で直近に変更された絞り値(現在の絞り値)と対応付けて画像表示部15に識別表示させる動作を開始する(ステップS24)。つまり、AF評価値が所定値以上となる領域枠を合焦領域として検出し、該合焦領域と判断された領域枠が識別表示されることになる。このときは、各絞り値毎に区別可能な態様で識別表示させる。   Next, the detection unit 102 of the CPU 10 detects an AF area frame in which the AF evaluation value is equal to or greater than a predetermined value based on the AF evaluation value of each area frame sent from the AF evaluation value calculation unit 15, and the display control unit 103 starts an operation of causing the image display unit 15 to identify and display an area frame in which the detected AF evaluation value is equal to or greater than a predetermined value in association with the aperture value (current aperture value) that was most recently changed in step S21. (Step S24). That is, an area frame having an AF evaluation value equal to or greater than a predetermined value is detected as a focused area, and the area frame determined to be the focused area is identified and displayed. At this time, identification display is performed in a distinguishable manner for each aperture value.

ここで、検出部103は、すべての領域枠31のうち、ステップ21で直近に変更された絞り値(現在の絞り値)より小さい絞り値で合焦領域と検出された領域枠以外で合焦領域となる領域枠の検出を行うものとする。つまり、現在の絞り値より小さい絞り値で合焦領域と検出された領域枠に対しては、再度合焦領域であるかの検出を行わないことになる。現在の絞り値より小さい絞り値でピント合う領域枠は、それよりも高い絞り値でピントが合う可能性が高いからである。たとえば、現在選択されている絞り値が「F2.8」、「F4.0」、「F8.0」、「F11」、及び、「F16」の場合であって、現在の絞り値が「F8.0」の場合は、絞り値「F2.8」で合焦領域と検出された領域枠、及び、絞り値「F4.0」で合焦領域と検出された領域枠以外で、合焦領域となる領域枠を検出することになる。これにより、検出の処理負担を軽減させることができる。   Here, the detection unit 103 focuses out of all the area frames 31 other than the area frame detected as the in-focus area with an aperture value smaller than the aperture value (current aperture value) changed most recently in step 21. It is assumed that a region frame to be a region is detected. That is, for the area frame detected as an in-focus area with an aperture value smaller than the current aperture value, it is not detected again whether it is the in-focus area. This is because an area frame that is in focus with an aperture value smaller than the current aperture value is likely to be in focus with a higher aperture value. For example, when the currently selected aperture value is “F2.8”, “F4.0”, “F8.0”, “F11”, and “F16”, the current aperture value is “F8”. .0 ”is a focus area other than the area frame detected as the in-focus area with the aperture value“ F2.8 ”and the area frame detected as the in-focus area with the aperture value“ F4.0 ”. The area frame to be detected is detected. Thereby, the processing load of detection can be reduced.

次いで、CPU10は、該選択されている絞り値のうち、現在の絞り値の次に大きい絞り値があるか否かを判断する(ステップS25)。たとえば、たとえば、現在選択されている絞り値が「F2.8」、「F4.0」、「F8.0」、「F11」、「F16」の場合であって、現在の絞り値が「F8.0」の場合は、次に大きい絞り値があると判断することになる。
ステップS25で、次に大きい絞り値があると判断すると、CPU10の変更部101は、該次に大きい絞り値に変更して(ステップS26)、ステップS22に戻る。この絞り値の変更とともに、該絞りの絞り度合も変更されることになる。
一方、ステップS25で、次に大きい絞り値が無いと判断すると、図2のステップS7に進む。
Next, the CPU 10 determines whether or not there is an aperture value that is next to the current aperture value among the selected aperture values (step S25). For example, for example, the currently selected aperture value is “F2.8”, “F4.0”, “F8.0”, “F11”, “F16”, and the current aperture value is “F8”. .0 ”, it is determined that there is the next largest aperture value.
If it is determined in step S25 that there is the next largest aperture value, the changing unit 101 of the CPU 10 changes to the next largest aperture value (step S26) and returns to step S22. Along with the change of the aperture value, the aperture degree of the aperture is also changed.
On the other hand, if it is determined in step S25 that there is no next largest aperture value, the process proceeds to step S7 in FIG.

以上のように、実施の形態においては、絞り値を変えていくことにより、各絞り値における画像データの各領域枠31の中で合焦領域となる領域枠を検出し、該検出した各絞り値における合焦領域となる領域枠と該絞り値とを対応付けて識別表示させるで、複数の絞り値に応じた合焦領域を容易に確認することができ、複数の絞り値に応じた被写界深度の範囲を容易に確認することができる。
また、撮像された画像データを表示させるとともに、それぞれの絞り値に応じた合焦領域を識別表示させるので、どの被写体がどの絞り値でピントが合うのかを容易に認識することができる。
As described above, in the embodiment, by changing the aperture value, a region frame that becomes a focus region is detected in each region frame 31 of the image data at each aperture value, and each detected aperture By focusing and displaying the area frame that becomes the focus area in the value and the aperture value, it is possible to easily confirm the focus area corresponding to the plurality of aperture values, and The range of the depth of field can be easily confirmed.
In addition, the captured image data is displayed and the in-focus area corresponding to each aperture value is identified and displayed, so it is possible to easily recognize which subject is in focus at which aperture value.

また、絞り値毎に合焦領域となる領域枠を区別可能な態様で識別表示させるので、どの絞り値でどの領域枠にピントがあったのか、どの絞り値でどのくらいの被写界深度になったのかをユーザは認識することができる。
また、絞り値と、該絞り値における合焦領域となる領域枠とを対応付けて表示させるので、どの絞り値でどの領域枠でピントが合うのか、どの絞り値でどのくらいの被写界深度になるのか容易に認識することができる。
また、ユーザによって選択された絞り値に変えていくので、任意の絞り値に変更することができるとともに、被写界深度を知りたい絞り値の被写界深度を知ることができる。
また、決定された絞り値で静止画撮影を行なうので、絞り値毎に識別表示された合焦領域を見ることにより、最も適切な絞り値を決定することにより、所望の被写界深度となる静止画像データを得ることができる。
In addition, because the area frame that becomes the focus area is identified and displayed for each aperture value in a distinguishable manner, which area frame is in focus at which aperture value, and how much depth of field is at which aperture value The user can recognize whether it has happened.
In addition, since the aperture value and the area frame that is the focus area at the aperture value are displayed in association with each other, it is displayed which field frame is in focus with which aperture value, and how much depth of field with which aperture value. Can be easily recognized.
Further, since the aperture value is changed to the aperture value selected by the user, the aperture value can be changed to an arbitrary aperture value, and the depth of field of the aperture value for which the depth of field is desired can be known.
Further, since still image shooting is performed with the determined aperture value, a desired depth of field is obtained by determining the most appropriate aperture value by looking at the in-focus area identified and displayed for each aperture value. Still image data can be obtained.

[変形例]
D.上記実施の形態は、以下のような変形例も可能である。
[Modification]
D. The above-described embodiment can be modified as follows.

(01)また、上記実施の形態においては、図2のステップS4で設定可能な最小の絞り値を選択して、該絞りの絞り値を変更するようにしたが、ユーザによって任意に指定された絞り値、若しくは自動選択した絞り値を選択し、該選択した絞り値に変更するようにしてもよい。この自動選択は、適正露出量となるようにプログラム線図等によって自動的に選択された絞り値等のことをいう。   (01) In the above embodiment, the minimum aperture value that can be set in step S4 of FIG. 2 is selected and the aperture value of the aperture is changed. However, it is arbitrarily designated by the user. An aperture value or an automatically selected aperture value may be selected and changed to the selected aperture value. This automatic selection refers to an aperture value or the like automatically selected by a program diagram or the like so as to obtain an appropriate exposure amount.

(02)また、上記実施の形態においては、図2のステップS5で一番手前にある被写体に対してAF処理を行うようにしたが、ユーザによって指定された領域枠、若しくは、所定の領域枠(例えば、画角の中央にある領域枠31)にピントが合うようにAF処理を行うようにしてもよい。
また、AF動作を行なわないようにしてもよい。この場合は、図2のステップS4の動作を経るとそのままステップS6に進む。また、この場合は、ステップS2に動作も無くしてもよい。つまり、ステップS1で、スルー画像表示を開始すると、ステップS3に進むようにしてもよい。
(02) In the above embodiment, the AF process is performed on the foremost subject in step S5 of FIG. 2, but the area frame designated by the user or the predetermined area frame For example, the AF process may be performed so as to focus on the area frame 31 at the center of the angle of view.
Further, the AF operation may not be performed. In this case, if the operation of step S4 in FIG. In this case, no operation may be performed in step S2. That is, when the through image display is started in step S1, the process may proceed to step S3.

(03)また、上記実施の形態においては、図2のステップS6の動作、図6のステップS24の識別表示は、領域枠の模様(斜線、縦線等の模様)を絞り値に応じて変えるようにしたが、絞り値に応じて合焦領域となる領域枠に異なる色を付して識別表示するようにしてもよい。要は、絞り値毎に合焦領域となる領域枠31を区別可能な態様で識別表示させる方法であればよい。
また、絞り値に応じて領域枠の色を変えることによって識別表示させる場合は、絞り値の指標と該絞り値でピントが合った合焦領域とを対応付けて表示させるため、表示させる絞り値の色も変えるようにしてもよい。つまり、各絞り値に応じて、絞り値と該絞り値で合焦領域となる領域枠31とを同じ色で表示させるようにする。例えば、第1の絞り値で合焦領域となった領域枠に赤色を付して表示させる場合は、該第1の絞り値の指標を赤色で描画表示させる。
(03) In the above embodiment, the operation in step S6 in FIG. 2 and the identification display in step S24 in FIG. 6 change the pattern of the area frame (pattern with diagonal lines, vertical lines, etc.) according to the aperture value. However, the area frame that becomes the in-focus area may be identified and displayed with a different color depending on the aperture value. In short, any method may be used as long as it is possible to identify and display the area frame 31 that is the in-focus area for each aperture value in a distinguishable manner.
Also, in the case of discriminating and displaying by changing the color of the area frame according to the aperture value, the aperture value to be displayed is displayed in association with the aperture value index and the in-focus area focused on by the aperture value. You may also change the color of. That is, according to each aperture value, the aperture value and the region frame 31 that is the focus region at the aperture value are displayed in the same color. For example, when a region frame that has become a focus region at the first aperture value is displayed with a red color, the first aperture value index is drawn and displayed in red.

(04)また、上記実施の形態においては、絞り値と該絞り値で合焦領域となる領域枠を対応付けて表示させるようにしたが、つまり、ある絞り値で合焦領域となった領域枠を識別表示させるとともに、該ある絞り値も表示させるようにしたが、絞り値を表示させないようにしてもよい。つまり、領域枠の識別表示のみを行うようにしてもよい。その識別表示の態様によってどの絞り値のであるか分かる場合もあるからである。この場合は、この各絞り値毎に識別表示の態様(斜線表示、赤色表示等)を予め決めておくようにしてもよい。   (04) In the above embodiment, the aperture value and the area frame that becomes the in-focus area are displayed in association with each other, that is, the area that becomes the in-focus area with a certain aperture value. While the frame is identified and displayed, the certain aperture value is also displayed, but the aperture value may not be displayed. That is, only the area frame identification display may be performed. This is because the aperture value may be known depending on the mode of the identification display. In this case, an identification display mode (shaded display, red display, etc.) may be determined in advance for each aperture value.

(05)また、上記実施の形態においては、図6のステップS24では、現在の絞り値より小さい絞り値で合焦領域と検出された領域枠以外の領域枠の中で合焦領域となる領域枠の検出を行なうようにしたが、現在の絞り値で合焦領域となる領域枠を、全ての領域枠の中から検出するようにしてもよい。
この場合に、ある領域枠が2つ以上の絞り値で合焦領域となる場合は、そのことが分かるように該領域枠を識別表示させる。例えば、絞り値に応じて色を変えることにより識別表示させる場合は、合焦領域となる領域枠を絞り値に応じた色で交互に表示さえることにより識別表示させるようにしてもよい。具体的に説明すると、第1の絞り値で合焦領域となる領域枠を赤色で、第2の絞り値で合焦領域となる領域枠を青色で表示させる場合に、ある領域枠が第1の絞り値及び第2の絞り値で合焦領域となる場合は、該ある領域枠を赤色と青色の2色で表示させる。
(05) Also, in the above embodiment, in step S24 of FIG. 6, the region that becomes the in-focus region among the region frames other than the region frame detected as the in-focus region with the aperture value smaller than the current aperture value. Although the detection of the frame is performed, the region frame that becomes the in-focus region with the current aperture value may be detected from all the region frames.
In this case, when a certain area frame becomes an in-focus area with two or more aperture values, the area frame is identified and displayed so that it can be understood. For example, when the identification display is performed by changing the color according to the aperture value, the area frame that becomes the in-focus area may be identified and displayed by alternately displaying the frame corresponding to the aperture value. More specifically, when an area frame that is an in-focus area at a first aperture value is displayed in red and an area frame that is an in-focus area at a second aperture value is displayed in blue, a certain area frame is the first If the aperture value and the second aperture value are the in-focus area, the certain area frame is displayed in two colors of red and blue.

(06)また、上記実施の形態においては、図2のステップS10で決定された絞り値に設定した後、シャッタボタンが全押しされるまで静止画撮影記録処理を行なわないようにしたが、ステップS10で決定した絞り値に設定した後、直ちに静止画撮影記録処理を行うようにしてもよい。
つまり、ステップS10の動作を経た後そのままステップS12に進むようにしてもよい。
(06) In the above embodiment, after setting the aperture value determined in step S10 in FIG. 2, the still image shooting and recording process is not performed until the shutter button is fully pressed. After setting the aperture value determined in S10, the still image shooting and recording process may be performed immediately.
That is, after the operation of step S10, the process may proceed to step S12 as it is.

(07)また、上記実施の形態においては、ステップS12で設定された絞り値での静止画撮影記録処理を行うようにしたが、選択した全ての絞り値(ステップS4、及び、ステップS9で選択した全ての絞り値)での静止画撮影処理を連続して行うようにしてもよい。例えば、現在選択している絞り値が「F2.8」、「F4.0」、「F8.0」、「F11」、「F16」の場合は、「F2.8」で静止画撮影処理を行い、そして、「F4.0」での静止画撮影、「F8.0」での静止画撮影というように連続して行なうようにしてもよい。
この場合の動作は、図2のステップS7でシャッタボタンが全押しされたか否かを判断し、全押しされていない場合はステップS8に進み、全押しされた場合は、選択している全ての絞り値での静止画撮影処理を連続して行う。
このとき、連続して行なった静止画撮影処理により得られた画像データを全て記録するようにしてもよいし、該連続して行った静止画撮影処理により得られた画像データをプレビュー表示させて、ユーザによって選択された画像データのみを記録するようにしてもよい。
これにより、各絞り値で静止画撮影を連続して行なうので、所望の被写界深度となる画像データを得ることができる。
(07) In the above embodiment, the still image shooting and recording process is performed with the aperture value set in step S12. However, all the selected aperture values (selected in step S4 and step S9) are selected. Still image shooting processing at all aperture values) may be performed continuously. For example, when the currently selected aperture value is “F2.8”, “F4.0”, “F8.0”, “F11”, “F16”, the still image shooting process is performed with “F2.8”. It may be performed continuously, such as still image shooting at “F4.0” and still image shooting at “F8.0”.
In this case, the operation determines whether or not the shutter button has been fully pressed in step S7 of FIG. 2. If the shutter button has not been fully pressed, the operation proceeds to step S8. The still image shooting process with the aperture value is performed continuously.
At this time, all of the image data obtained by the continuous still image shooting process may be recorded, or the image data obtained by the continuous still image shooting process may be displayed as a preview. Only the image data selected by the user may be recorded.
Thus, since still image shooting is continuously performed at each aperture value, image data having a desired depth of field can be obtained.

(08)また、上記実施の形態においては、シャッタボタンが半押しされると、領域枠を表示させるようにしたが(図2のステップS3)、表示させないようにしてもよい。この場合は、ピントの合っている領域枠として検出された場合に始めて領域枠を表示させるとともに該領域枠を識別表示させる(図2のステップS6、図6のステップS24)。   (08) In the above embodiment, the area frame is displayed when the shutter button is half-pressed (step S3 in FIG. 2), but it may not be displayed. In this case, the area frame is displayed only when it is detected as a focused area frame, and the area frame is identified and displayed (step S6 in FIG. 2, step S24 in FIG. 6).

(09)また、上記実施の形態において、複数の領域枠は、画像データの中で予め定められた領域であるが、画像データを複数に分けた領域であってもよい。この領域は、例えば、8画素×8画素等のブロック単位に分けるようにし、該各ブロックを領域枠としてもよいし、1画素ずつ分けるようにし、各画素を領域枠とするようにしてもよい。   (09) In the above-described embodiment, the plurality of area frames are predetermined areas in the image data, but may be areas obtained by dividing the image data into a plurality of areas. This area may be divided into block units such as 8 pixels × 8 pixels, for example, and each block may be used as an area frame, or may be divided one pixel at a time, and each pixel may be used as an area frame. .

(10)また、上記実施の形態において、個々の領域枠を識別表示させるのではなく、各絞り値における合焦領域となる画像領域を区別可能な態様で識別表示させるようにしてもよい。
図7は、そのときに識別表示される合焦領域の様子の一例を示すものである。
図7を見ると分かるように、各絞り値を描画した指標33、35、37、39、及び、41とこの各絞り値における合焦領域となる画像領域340、360、380、400、及び、420とが区別可能な態様で表示されているのがわかる。
(10) In the above embodiment, the individual area frames may not be identified and displayed, but may be identified and displayed in such a manner that the image areas that are in-focus areas at the respective aperture values can be distinguished.
FIG. 7 shows an example of the state of the focus area identified and displayed at that time.
As can be seen from FIG. 7, the indices 33, 35, 37, 39, and 41 in which each aperture value is drawn, and the image regions 340, 360, 380, 400 that are in-focus regions at the respective aperture values, and It can be seen that 420 is displayed in a distinguishable manner.

(11)また、上記実施の形態においては、フレーム毎に絞り値を変更していき、該変更後の絞り値の合焦領域となる領域枠を検出していくようにしたが(図6参照)、2フレーム毎、5フレーム毎等に絞り値を変更していくようにしてもよい。要は、所定の周期毎に絞り値を変更していくものであればよい。   (11) In the above-described embodiment, the aperture value is changed for each frame, and the region frame that becomes the focus region of the aperture value after the change is detected (see FIG. 6). ) The aperture value may be changed every two frames or every five frames. In short, what is necessary is just to change an aperture value for every predetermined period.

(12)また、上記実施の形態において、ステップS9ではユーザによって指定された絞り値を追加選択していくようにしたが、自動的に絞り値を追加選択していくようにしてもよい。これにより自動的に選択された各絞り値の合焦領域を容易に確認することができる。この絞り値の自動選択は、順々に高い絞り値を選択するようにしてもよいし、ランダムに選択するようにしてもよいし、所定間隔の値で絞り値を選択していくようにしてもよい。   (12) In the above embodiment, the aperture value designated by the user is additionally selected in step S9. However, the aperture value may be automatically selected. Thereby, it is possible to easily confirm the focus area of each aperture value automatically selected. In this automatic aperture value selection, a high aperture value may be selected one after another, a random aperture may be selected, or an aperture value may be selected at a predetermined interval. Also good.

(13)また、上記実施の形態において、主にコンパクトデジタルカメラを例にして説明したがレンズ交換式のデジタルカメラでも適用可能なことはいうまでもない。   (13) In the above-described embodiment, the description has been mainly made of the compact digital camera as an example, but it goes without saying that the present invention is also applicable to an interchangeable lens digital camera.

(14)また、上記変形例(01)乃至(13)を任意に組み合わせた態様であってもよい。   (14) Moreover, the aspect which combined the said modification (01) thru | or (13) arbitrarily may be sufficient.

(15)また、本発明の上記実施形態及び各変形例は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
(15) In addition, the above-described embodiment and each modification of the present invention are merely examples as the best embodiment, so that the principle and structure of the present invention can be better understood. And is not intended to limit the scope of the appended claims.
Therefore, it should be understood that all the various variations and modifications that can be made to the above-described embodiments of the present invention are included in the scope of the present invention and protected by the appended claims.

最後に、上記各実施の形態においては、本発明の撮像装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、絞りと撮像素子を備えた機器であれば適用可能である。   Finally, in each of the above embodiments, the case where the image pickup apparatus of the present invention is applied to the digital camera 1 has been described. However, the present invention is not limited to the above embodiment. Any device equipped can be applied.

本発明の実施の形態のデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. 実施の形態のデジタルカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera of embodiment. 表示される複数の領域枠の様子の一例、スルー画像に重ねて表示された複数の領域の様子の一例を示す図である。It is a figure which shows an example of the mode of the several area | region frame displayed, and an example of the mode of the some area | region displayed superimposed on the through image. 識別表示される合焦領域の様子の一例を示す図である。It is a figure which shows an example of the mode of the focus area | region identified and displayed. 識別表示される合焦領域の様子の一例を示す図である。It is a figure which shows an example of the mode of the focus area | region identified and displayed. 図2のステップS6の動作を示すサブフローチャートである。3 is a sub-flowchart showing an operation in step S6 of FIG. 変形例における識別表示される合焦領域の様子の一例を示す図である。It is a figure which shows an example of the mode of the focus area | region identified and displayed in a modification.

符号の説明Explanation of symbols

1 デジタルカメラ
2 撮影レンズ
3 レンズ駆動ブロック
4 絞り
5 CCD
6 垂直ドライバ
7 TG
8 ユニット回路
9 DMA
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 DMA
15 AF評価値算出部
16 DMA
17 画像生成部
18 DMA
19 DMA
20 表示部
21 DMA
22 圧縮伸張部
23 DMA
24 フラッシュメモリ
25 バス
1 Digital Camera 2 Shooting Lens 3 Lens Drive Block 4 Aperture 5 CCD
6 Vertical driver 7 TG
8 Unit circuit 9 DMA
10 CPU
11 Key input section 12 Memory 13 DRAM
14 DMA
15 AF evaluation value calculation unit 16 DMA
17 Image generator 18 DMA
19 DMA
20 Display unit 21 DMA
22 Compression / decompression unit 23 DMA
24 flash memory 25 bus

Claims (10)

被写体を撮像する撮像手段と、
複数の絞り値の夫々に対応した、前記撮像手段により得られる画像データにおける合焦領域を検出する検出手段と、
前記検出手段によって検出された合焦領域を、前記複数の絞り値と対応させて表示する表示手段と、
を備えたことを特徴とする撮像装置。
Imaging means for imaging a subject;
Detecting means for detecting an in-focus area in the image data obtained by the imaging means corresponding to each of a plurality of aperture values;
Display means for displaying the in-focus area detected by the detection means in association with the plurality of aperture values;
An imaging apparatus comprising:
前記絞り値を複数選択する選択手段を更に備え、
前記検出手段は、
前記選択手段によって選択された複数の絞り値の夫々に対応した、前記撮像手段によって撮像される画像データにおける合焦領域を検出することを特徴とする請求項1記載の撮像装置。
A selection means for selecting a plurality of aperture values;
The detection means includes
The imaging apparatus according to claim 1, wherein an in-focus region in image data captured by the imaging unit corresponding to each of a plurality of aperture values selected by the selection unit is detected.
前記表示手段は、
前記撮像手段によって得られた画像データを、更に表示することを特徴とする請求項1又は2記載の撮像装置。
The display means includes
The image pickup apparatus according to claim 1 or 2, wherein the image data obtained by the image pickup means is further displayed.
前記表示手段は、
前記検出手段により検出された合焦領域を、前記選択手段によって選択された複数の絞り値毎に区別可能な態様で識別表示させることを特徴とする請求項1乃至3の何れかに記載の撮像装置。
The display means includes
4. The imaging according to claim 1, wherein the in-focus area detected by the detection unit is identified and displayed in a distinguishable manner for each of a plurality of aperture values selected by the selection unit. 5. apparatus.
前記表示手段は、
前記検出手段により検出された合焦領域を、前記選択手段によって選択された複数の絞り値毎に異なる色を付して表示することを特徴とする請求項1乃至3の何れかに記載の撮像装置。
The display means includes
4. The imaging according to claim 1, wherein the in-focus area detected by the detection unit is displayed with a different color for each of a plurality of aperture values selected by the selection unit. apparatus.
前記表示手段は、
複数の絞り値の指標と前記検出手段により検出された合焦領域とを対応付けて表示することを特徴とする請求項1乃至3の何れかに記載の撮像装置。
The display means includes
The imaging apparatus according to any one of claims 1 to 3, wherein a plurality of aperture value indexes and the in-focus area detected by the detection unit are displayed in association with each other.
前記表示手段は、
複数の絞り値の指標と前記検出手段により検出された合焦領域とを同じ色で表示することを特徴とする請求項1乃至3の何れかに記載の撮像装置。
The display means includes
The imaging apparatus according to any one of claims 1 to 3, wherein a plurality of aperture value indexes and the in-focus area detected by the detection unit are displayed in the same color.
前記表示手段による表示の後、前記選択手段により選択された複数の絞り値から所定の絞り値の決定を検出する決定検出手段と、
この決定検出手段によって決定が検出された絞り値を設定して前記撮像手段による撮像を行わせるよう制御する第1の撮像制御手段と、
この第1の撮像制御手段により撮像された画像データを記録する第1の記録手段と、
を更に備えたことを特徴とする請求項2乃至7の何れかに記載の撮像装置。
A determination detection unit for detecting determination of a predetermined aperture value from a plurality of aperture values selected by the selection unit after the display by the display unit;
A first imaging control unit configured to control the imaging to be performed by setting the aperture value detected by the determination detection unit;
First recording means for recording image data imaged by the first imaging control means;
The imaging apparatus according to claim 2, further comprising:
前記表示手段による表示の後、前記選択手段により選択された複数の絞り値を順次設定し、その都度前記撮像手段による撮像を行わせるよう制御する第2の撮像制御手段と、
この第2の撮像制御手段により撮像された複数の画像データを記録する第2の記録手段と、
を更に備えたことを特徴とする請求項2乃至8の何れかに記載の撮像装置。
A second imaging control unit configured to sequentially set a plurality of aperture values selected by the selection unit after the display by the display unit, and to control to perform imaging by the imaging unit each time;
Second recording means for recording a plurality of image data imaged by the second imaging control means;
The imaging apparatus according to claim 2, further comprising:
撮像素子、該撮像素子に入射する光の量を可変する絞り、及び、表示部を備える撮像装置が具備するコンピュータを、
前記絞りの複数の絞り値の夫々に対応した、前記撮像素子により得られる画像データにおける合焦領域を検出する検出手段、
前記検出手段によって検出された合焦領域を、前記複数の絞り値と対応させて前記表示部に表示させる表示制御手段、
として機能させることを特徴とするプログラム。
An image pickup device, a diaphragm that changes the amount of light incident on the image pickup device, and a computer provided in an image pickup apparatus including a display unit,
Detecting means for detecting an in-focus area in the image data obtained by the image sensor corresponding to each of a plurality of aperture values of the aperture;
Display control means for displaying the in-focus area detected by the detection means on the display unit in association with the plurality of aperture values;
A program characterized by functioning as
JP2007266563A 2007-10-12 2007-10-12 Imaging apparatus and program thereof Expired - Fee Related JP5092673B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007266563A JP5092673B2 (en) 2007-10-12 2007-10-12 Imaging apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007266563A JP5092673B2 (en) 2007-10-12 2007-10-12 Imaging apparatus and program thereof

Publications (3)

Publication Number Publication Date
JP2009098167A true JP2009098167A (en) 2009-05-07
JP2009098167A5 JP2009098167A5 (en) 2010-11-11
JP5092673B2 JP5092673B2 (en) 2012-12-05

Family

ID=40701278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007266563A Expired - Fee Related JP5092673B2 (en) 2007-10-12 2007-10-12 Imaging apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP5092673B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012235180A (en) * 2011-04-28 2012-11-29 Nikon Corp Digital camera
JP2013178714A (en) * 2012-02-29 2013-09-09 Casio Comput Co Ltd Image processing device, image processing method and program
WO2014041766A1 (en) * 2012-09-11 2014-03-20 Sony Corporation Information processing system, method, and non-transitory computer-readable medium
JP2017142318A (en) * 2016-02-09 2017-08-17 キヤノン株式会社 Image processing apparatus, imaging device, image processing method, program, and storage medium
KR101777353B1 (en) * 2011-06-16 2017-09-11 삼성전자주식회사 Digital photographing apparatus and control method thereof
JP2020085967A (en) * 2018-11-16 2020-06-04 キヤノン株式会社 Image processor, method for controlling the same, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01178948A (en) * 1987-12-29 1989-07-17 Kyocera Corp Inner finder display device for single-lens reflex camera
JPH05232371A (en) * 1991-03-11 1993-09-10 Nikon Corp Device for displaying depth of field
JPH07281271A (en) * 1994-04-05 1995-10-27 Olympus Optical Co Ltd Camera provided with aptitude and non-aptitude display means
JP2002244025A (en) * 2001-02-20 2002-08-28 Matsushita Electric Ind Co Ltd Focusing device for camera
JP2003241067A (en) * 2002-02-18 2003-08-27 Minolta Co Ltd Image pickup unit
JP2006074634A (en) * 2004-09-03 2006-03-16 Nippon Hoso Kyokai <Nhk> Imaging apparatus and method for displaying depth of field
JP2008145465A (en) * 2006-12-06 2008-06-26 Sigma Corp Method of adjusting depth of field and user interface for photographing apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01178948A (en) * 1987-12-29 1989-07-17 Kyocera Corp Inner finder display device for single-lens reflex camera
JPH05232371A (en) * 1991-03-11 1993-09-10 Nikon Corp Device for displaying depth of field
JPH07281271A (en) * 1994-04-05 1995-10-27 Olympus Optical Co Ltd Camera provided with aptitude and non-aptitude display means
JP2002244025A (en) * 2001-02-20 2002-08-28 Matsushita Electric Ind Co Ltd Focusing device for camera
JP2003241067A (en) * 2002-02-18 2003-08-27 Minolta Co Ltd Image pickup unit
JP2006074634A (en) * 2004-09-03 2006-03-16 Nippon Hoso Kyokai <Nhk> Imaging apparatus and method for displaying depth of field
JP2008145465A (en) * 2006-12-06 2008-06-26 Sigma Corp Method of adjusting depth of field and user interface for photographing apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012235180A (en) * 2011-04-28 2012-11-29 Nikon Corp Digital camera
KR101777353B1 (en) * 2011-06-16 2017-09-11 삼성전자주식회사 Digital photographing apparatus and control method thereof
JP2013178714A (en) * 2012-02-29 2013-09-09 Casio Comput Co Ltd Image processing device, image processing method and program
WO2014041766A1 (en) * 2012-09-11 2014-03-20 Sony Corporation Information processing system, method, and non-transitory computer-readable medium
US20150229830A1 (en) * 2012-09-11 2015-08-13 Sony Corporation Information processing system, method, and non-transitory computer-readable medium
US10455136B2 (en) * 2012-09-11 2019-10-22 Sony Corporation Information processing to indicate focusable areas in an image
JP2017142318A (en) * 2016-02-09 2017-08-17 キヤノン株式会社 Image processing apparatus, imaging device, image processing method, program, and storage medium
JP2020085967A (en) * 2018-11-16 2020-06-04 キヤノン株式会社 Image processor, method for controlling the same, and program
JP7198055B2 (en) 2018-11-16 2022-12-28 キヤノン株式会社 Image processing device, its control method, and program

Also Published As

Publication number Publication date
JP5092673B2 (en) 2012-12-05

Similar Documents

Publication Publication Date Title
KR100914084B1 (en) Image capture device and image capture method
US8823857B2 (en) Image apparatus
JP5005570B2 (en) Image processing apparatus and program
JP4657960B2 (en) Imaging method and apparatus
JP4727534B2 (en) Imaging device
JP2007060328A (en) Imaging apparatus and display control method
JP2007264196A (en) Strobe control unit and method
JP2007108412A (en) Autofocus device and its program
TWI492618B (en) Image pickup device and computer readable recording medium
JP2009021984A (en) Imaging apparatus, and program
JP2010054730A (en) Focusing position detecting device, imaging apparatus, and focusing position detecting method
JP5092673B2 (en) Imaging apparatus and program thereof
JP6377286B2 (en) Imaging apparatus, control method therefor, and operation program
JP6482247B2 (en) FOCUS ADJUSTMENT DEVICE, IMAGING DEVICE, FOCUS ADJUSTMENT DEVICE CONTROL METHOD, AND PROGRAM
JP2006253887A (en) Imaging apparatus
JP5195663B2 (en) Imaging apparatus, focusing method, and program
JP5105298B2 (en) Imaging apparatus and program thereof
JP5477345B2 (en) Imaging apparatus, focusing method, and program
JP5320937B2 (en) Focus detection apparatus and imaging apparatus
JP5597942B2 (en) Electronic camera
JP4985716B2 (en) Imaging apparatus, method for setting focus evaluation area, and program
JP4853447B2 (en) Digital camera, focus control system thereof, focus control method, focus control program
JP2005215495A (en) Image photographing device
JP5561392B2 (en) Imaging apparatus, focusing method, and program
JP2007079454A (en) Electronic camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100929

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120601

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120903

R150 Certificate of patent or registration of utility model

Ref document number: 5092673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees