JP2006033291A - Imaging apparatus, method of controlling the same and processing program thereof - Google Patents

Imaging apparatus, method of controlling the same and processing program thereof Download PDF

Info

Publication number
JP2006033291A
JP2006033291A JP2004207748A JP2004207748A JP2006033291A JP 2006033291 A JP2006033291 A JP 2006033291A JP 2004207748 A JP2004207748 A JP 2004207748A JP 2004207748 A JP2004207748 A JP 2004207748A JP 2006033291 A JP2006033291 A JP 2006033291A
Authority
JP
Japan
Prior art keywords
image
subject
region
area
photometric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004207748A
Other languages
Japanese (ja)
Inventor
Akimitsu Yoshida
明光 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004207748A priority Critical patent/JP2006033291A/en
Publication of JP2006033291A publication Critical patent/JP2006033291A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital camera which can automatically set a trimming region and can output the RAW data of a plurality of different resolutions. <P>SOLUTION: A pre-luminance is performed, and a reflected light from a subject is measured. Consequently, a main subject region is presumed from a photography screen. A file capacity is reduced by trimming and saving the RAW data of the region presumed to be the main subject. Next image processing is made easy. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、被写体に対する測定動作を行うことが可能な撮像措置に関する。   The present invention relates to an imaging measure capable of performing a measurement operation on a subject.

一般的なデジタルカメラにおいては、CCDセンサ、CMOSセンサ等の撮像素子から得られる画像信号をA/D変換し、さまざまな画像処理を施した後、JPEG符号化などの圧縮方式を用いて圧縮し記録媒体に記録する。   In general digital cameras, image signals obtained from image sensors such as CCD sensors and CMOS sensors are A / D converted, subjected to various image processing, and then compressed using a compression method such as JPEG encoding. Record on a recording medium.

この種のデジタルカメラでは、記録媒体への記録時に非可逆な圧縮が施されるため、再生時やプリント時に必ずしも十分に良好な画質が得られない場合がある。また、記録された画像には、既にさまざまな画像処理が施されているため、使用者が撮影後に更なる画像処理を施すと画質が劣化する場合がある。   In this type of digital camera, irreversible compression is performed when recording on a recording medium, so that a sufficiently good image quality may not always be obtained during reproduction or printing. In addition, since the recorded image has already been subjected to various image processing, the image quality may deteriorate if the user performs further image processing after shooting.

これに対して、撮像素子から出力される画素毎のアナログ信号をA/D変換し、画像処理を加えずに記録する方式(RAW方式)が提案されている。   On the other hand, a method (RAW method) has been proposed in which an analog signal for each pixel output from the image sensor is A / D converted and recorded without performing image processing.

このRAW方式では、現像等の画像処理前の画像データであるRAWデータを記録しておき、画像の再現(現像)処理をカメラ内で行わずにパソコン等の外部処理装置を用いて行うようにしている。これにより、使用者に対して撮影後にホワイトバランスや色処理等の画像処理の自由度を与えることができる。   In this RAW method, RAW data that is image data before image processing such as development is recorded, and image reproduction (development) processing is not performed in the camera but is performed using an external processing device such as a personal computer. ing. Thereby, the degree of freedom of image processing such as white balance and color processing can be given to the user after shooting.

しかし、撮像素子の高画素化に伴い、画像1枚あたりの記録容量が増大し、記録できる画像枚数が減少する問題がある。   However, as the number of pixels of the image sensor increases, there is a problem that the recording capacity per image increases and the number of images that can be recorded decreases.

また、記録媒体に記録されるRAWデータのデータ量が増加すると、これに応じて撮影後に外部処理装置で画像処理するデータ量も増えるため、使用者の負担が大きくなる。   Further, when the amount of RAW data recorded on the recording medium increases, the amount of data to be image processed by the external processing device after shooting increases accordingly, which increases the burden on the user.

そのため、RAW形式において、記録データ量を削減する方法として、例えば、画像中の不要な部分を削除するトリミング処理を行い、最大画素数よりも小さい画素数(解像度)で記録を行う方式が提案されている(例えば、特許文献1参照)。
特開2003−309796号公報(段落0229、図35)
Therefore, in the RAW format, as a method for reducing the amount of recording data, for example, a method of performing a trimming process for deleting unnecessary portions in an image and recording with a smaller number of pixels (resolution) than the maximum number of pixels is proposed. (For example, refer to Patent Document 1).
JP 2003-309796 A (paragraph 0229, FIG. 35)

しかしながら、特許文献1では、トリミング領域の指定方法については言及されていなかった。   However, Patent Document 1 does not mention a trimming area designation method.

上記課題を解決するために本願発明の目的の一つは、使用者が領域を設定する必要がないように自動的にトリミング領域を設定するとともに、記録容量の削減や後処理の手間がかからないRAWデータを出力することができるデジタルカメラを提供することにある。   In order to solve the above problems, one of the objects of the present invention is to set the trimming area automatically so that the user does not need to set the area, and to reduce the recording capacity and save the post-processing. The object is to provide a digital camera capable of outputting data.

上記課題を解決するために、本願発明の撮像装置の第1の構成は、撮像素子(例えば、CCDセンサ、CMOSセンサ)を用いて画像を生成する画像生成手段と、複数の被写体領域において被写体に対する測定動作を行う測定手段(例えば、測光動作、測距動作)と、前記測定手段による測定結果に基づいて、前記複数の被写体領域から特定被写体領域を決定する決定手段と、前記生成された画像のうち前記特定被写体領域に対応した画像領域を画像記録手段に記録する制御手段とを有することを特徴とする撮像装置。   In order to solve the above problems, a first configuration of an imaging apparatus according to the present invention includes an image generation unit that generates an image using an imaging element (for example, a CCD sensor or a CMOS sensor), and a subject in a plurality of subject areas. Measurement means for performing a measurement operation (for example, photometry operation, distance measurement operation), a determination means for determining a specific subject area from the plurality of subject areas based on a measurement result by the measurement means, and the generated image An image pickup apparatus comprising: a control unit that records an image region corresponding to the specific subject region in an image recording unit.

本願発明の第1の構成では、画像記録手段に特定被写体領域に対応した画像領域を記憶させているが、この特定被写体領域を測定手段による測定結果に基づき決定している。これにより、撮影装置の使用者は、全ての撮影画像に対して特定被写体領域を設定する必要がなくなるうえ、撮像の際に用いた情報を用いてこの特定被写体領域を設定することが可能になる。   In the first configuration of the present invention, an image area corresponding to the specific subject area is stored in the image recording means, and this specific subject area is determined based on the measurement result by the measuring means. As a result, the user of the photographing apparatus does not need to set a specific subject area for all the photographed images, and can set the specific subject area using information used for imaging. .

以下、本発明の実施例について、図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施例1)
図1は本発明の実施例であるデジタルカメラ(撮像装置)10の全体構成を示すブロック図である。同図において、100はデジタルカメラ全体の制御を司る制御回路であり、この制御回路100には中央演算処理回路が含まれている。101は撮影レンズであり、制御回路100からの駆動信号に基づき光軸方向に進退する。
(Example 1)
FIG. 1 is a block diagram showing the overall configuration of a digital camera (imaging device) 10 that is an embodiment of the present invention. In the figure, reference numeral 100 denotes a control circuit that controls the entire digital camera. The control circuit 100 includes a central processing circuit. Reference numeral 101 denotes a photographic lens that advances and retreats in the optical axis direction based on a drive signal from the control circuit 100.

102は絞りおよびシャッターなどからなる遮光部材であり、撮影光軸に対して略直交する面内で開閉駆動され、光り通過光量を変更する。   Reference numeral 102 denotes a light shielding member including a diaphragm, a shutter, and the like, which is opened and closed in a plane substantially orthogonal to the photographing optical axis to change the amount of light passing through.

103は被写体からの光を電気信号に変換する撮像素子(例えば、CCDセンサ、CMOSセンサ)である。撮像素子103から出力されたアナログ信号は、A/Dコンバータ104によってデジタル信号に変換される。   Reference numeral 103 denotes an image sensor (for example, a CCD sensor or a CMOS sensor) that converts light from a subject into an electrical signal. The analog signal output from the image sensor 103 is converted into a digital signal by the A / D converter 104.

以下において、A/Dコンバータ104から出力される信号をRAWデータ信号という。なお、RAWデータ信号とは、A/D変換がされ、かつ、ホワイトバランス調整、画素補間、階調変換、色補正等の画像処理がされていない信号を意味するが、例えば撮像素子103のキズデータを補間するキズ補正処理を行って得られた画像データの信号等も画質調整に関する画像処理を行っていないという点でこれに含まれるものとする。   Hereinafter, a signal output from the A / D converter 104 is referred to as a RAW data signal. Note that the RAW data signal means a signal that has undergone A / D conversion and has not undergone image processing such as white balance adjustment, pixel interpolation, gradation conversion, and color correction. The image data signal obtained by performing the defect correction process for interpolating the data is included in the point that the image process related to the image quality adjustment is not performed.

バッファメモリ105は、撮像素子103から読み出された1画面分の撮像データを1つの単位として、これを複数枚、記憶できる容量を備えている。さらに、バッファメモリ105の容量は、短時間に複数回の撮影動作を行う連射動作の速度が、後段の処理(フォーマット変換、圧縮符号化、記録媒体107への記録)の速度に制限されないように、大きめに設定されている。   The buffer memory 105 has a capacity capable of storing a plurality of pieces of image data for one screen read from the image sensor 103 as a unit. Furthermore, the capacity of the buffer memory 105 is such that the speed of the continuous shooting operation that performs a plurality of shooting operations in a short time is not limited to the speed of subsequent processing (format conversion, compression encoding, recording on the recording medium 107). It is set to be large.

画像処理回路106は、RAWデータ信号に対して、ホワイトバランス調整、画素補間処理、階調処理、色変換処理等の画像処理を施す。記録媒体107(画像記録手段)には、カメラに対して着脱可能な半導体メモリなどが用いられる。   The image processing circuit 106 performs image processing such as white balance adjustment, pixel interpolation processing, gradation processing, and color conversion processing on the RAW data signal. As the recording medium 107 (image recording means), a semiconductor memory that can be attached to and detached from the camera is used.

測光センサ108(測定手段)は、図3に示すように撮影画面内を複数の領域に分割して領域ごとに輝度を測定することができる多分割測光センサである。ここで、図3は撮影画面を35個の測光エリアに分割した分割図である。同図において、30は撮影画面全体を表しており、31は測光センサ108の撮影画面上での分割状態を表している。   The photometric sensor 108 (measuring means) is a multi-segment photometric sensor that can divide the imaging screen into a plurality of areas and measure the luminance for each area as shown in FIG. Here, FIG. 3 is a division diagram in which the photographing screen is divided into 35 photometric areas. In the figure, 30 represents the entire photographing screen, and 31 represents the division state of the photometric sensor 108 on the photographing screen.

このように撮影画面に関連付けられた測光センサ108は、撮影画面を分割してそれぞれの輝度値を測光し出力することができる。   In this way, the photometric sensor 108 associated with the photographing screen can divide the photographing screen and measure and output each luminance value.

112は撮影準備動作(測距動作及び測光動作)を開始させるために操作されるSW1であり、113は撮影動作(画像信号を記録するための撮像素子103への露光など)を開始させるために操作されるSW2である。   Reference numeral 112 denotes SW1 operated to start a shooting preparation operation (ranging operation and photometry operation), and 113 denotes a shooting operation (such as exposure to the image sensor 103 for recording an image signal). SW2 to be operated.

110は、カメラの撮影モードの設定やトリミング領域の設定等を行うために操作される操作ユニット、111は、撮影した画像などを表示する液晶パネル111aを含む画像表示ユニットである。   Reference numeral 110 denotes an operation unit that is operated for setting a shooting mode of the camera, setting of a trimming area, and the like, and 111 is an image display unit including a liquid crystal panel 111a that displays a shot image.

114は、液晶パネル111a全体に表示される画像から後述する主被写体領域(特定被写体領域)に対応するRAWデータを抽出するトリミング処理回路であり、制御回路100によって駆動される。   A trimming processing circuit 114 extracts RAW data corresponding to a main subject region (specific subject region), which will be described later, from an image displayed on the entire liquid crystal panel 111 a and is driven by the control circuit 100.

次に、図2を用いて、本実施例のデジタルカメラにおけるトリミング処理について説明する。ここで、図2はトリミング処理の制御手順を示したフローチャートであり、制御回路100によって不図示のメモリよりプログラムが読み出されて実行される。   Next, trimming processing in the digital camera of this embodiment will be described with reference to FIG. Here, FIG. 2 is a flowchart showing a control procedure of the trimming process. The control circuit 100 reads out and executes a program from a memory (not shown).

撮影者によりSW1が操作されると、以下に説明する測光センサ108による測光動作などが開始される(ステップS201)。すなわち、まず自然光の下、撮影画面内のエリアごとに測光センサ108が測光し、この測光結果を輝度値E1i(i=1〜35)としてバッファメモリ105に記憶する(ステップS202)。   When SW1 is operated by the photographer, a photometric operation by the photometric sensor 108 described below is started (step S201). That is, first, the photometric sensor 108 measures the light for each area in the shooting screen under natural light, and stores the photometric result in the buffer memory 105 as the luminance value E1i (i = 1 to 35) (step S202).

次に、不図示の照明装置を駆動して被写体に向けてプリ発光を行う(ステップS203)。そして、このプリ発光に基づく被写体の反射光を、各エリアにおいて再び測光センサ108で測光し、この測光結果を輝度値E2i(i=1〜35)としてバッファメモリ105に記憶する(ステップS204)。   Next, a lighting device (not shown) is driven to perform pre-light emission toward the subject (step S203). Then, the reflected light of the subject based on this pre-emission is measured again by the photometric sensor 108 in each area, and the photometric result is stored in the buffer memory 105 as a luminance value E2i (i = 1 to 35) (step S204).

次に、撮影画面内における各エリアのプリ発光時の輝度値と自然光状態での輝度値との差分ΔEiを演算する。   Next, a difference ΔEi between the luminance value at the time of pre-emission of each area in the photographing screen and the luminance value in the natural light state is calculated.

ΔEi=E2i−E1i (i=1〜35)
この演算では、純粋にプリ発光のエネルギーのみで被写体を照射したときの輝度を求めているが、自然光下での輝度に対してプリ発光下での輝度が格段に大きい場合が多い。そこで、計算を簡単にするため、差分演算結果をプリ発光下での輝度値に近似してもよい。
ΔEi=E2i (i=1〜35)
この差分値を基に各エリアでの重み付け係数の演算を行い、主被写体領域の推定を行う(ステップS205)。この主被写体領域の推定方法を図4を用いて説明する。ここで、図4は、主被写体領域の推定方法を示すフローチャートである。
ΔEi = E2i−E1i (i = 1 to 35)
In this calculation, the luminance when the subject is irradiated with pure pre-emission energy is obtained, but in many cases the luminance under pre-emission is much higher than the luminance under natural light. Therefore, in order to simplify the calculation, the difference calculation result may be approximated to a luminance value under pre-emission.
ΔEi = E2i (i = 1 to 35)
Based on this difference value, the weighting coefficient in each area is calculated to estimate the main subject area (step S205). This main subject region estimation method will be described with reference to FIG. Here, FIG. 4 is a flowchart showing a main subject region estimation method.

最初に各エリアで測光されたΔEi(i=1〜35)の最大値を求める(ステップS301)。
maxE=max(ΔEi)
ただし、ある一のエリアの輝度値が残りの他のエリアの輝度値よりもはるかに大きいときは、当該一のエリアの輝度値を除いて最大値を求めるようにしてもよい。
First, the maximum value of ΔEi (i = 1 to 35) measured in each area is obtained (step S301).
maxE = max (ΔEi)
However, when the luminance value of one area is much larger than the luminance values of the remaining other areas, the maximum value may be obtained by excluding the luminance value of the one area.

このよう輝度値が極端に大きいエリアを除くことにより、背景に非常に反射率の高い物体があった時に、この物体を誤って主被写体と推定するのを防ぐことができる。   By excluding areas with extremely large luminance values, it is possible to prevent the object from being erroneously estimated as the main subject when there is an object with a very high reflectance in the background.

次に、maxEとΔEiとの差分から各エリアでの重み付け係数ki(i=1〜35)が左上のエリア(i=1)から演算される(ステップS302、ステップS303)。重み付け係数が、閾値t0以上であったときには、そのエリアのフラグFiを1にする(ステップS304、ステップS305)。主被写体領域は、フラグFiが1であるエリアを全て含む矩形領域に設定される。   Next, the weighting coefficient ki (i = 1 to 35) in each area is calculated from the upper left area (i = 1) from the difference between maxE and ΔEi (steps S302 and S303). When the weighting coefficient is equal to or greater than the threshold value t0, the area flag Fi is set to 1 (steps S304 and S305). The main subject area is set to a rectangular area including all areas where the flag Fi is 1.

これに対して、重み付け係数が、閾値t0よりも小さかったときは、そのエリアのフラグFiを0にする(ステップS304、ステップS306)。次にiをインクリメントし(ステップS307)、35分割した全てのエリアのフラグFiが決定されるまで(つまり、i>35になるまで)ステップS304〜ステップS307までのルーチンが実行され(ステップS308)、全てのフラグFiが決定すると、Fi=1の領域を全て含む矩形領域を主被写体領域として推定する。   On the other hand, when the weighting coefficient is smaller than the threshold value t0, the flag Fi of the area is set to 0 (steps S304 and S306). Next, i is incremented (step S307), and the routine from step S304 to step S307 is executed (step S308) until the flags Fi of all 35 divided areas are determined (that is, until i> 35). When all the flags Fi are determined, a rectangular area including all areas where Fi = 1 is estimated as the main subject area.

図5は、上述したフローチャートに基づき主被写体領域を推定した図である。図5(a)のような構図でSW1が操作され撮影準備動作が開始されると、測光センサ108が各エリアでの輝度値を測光する。   FIG. 5 is a diagram in which the main subject area is estimated based on the above-described flowchart. When the SW1 is operated in the composition as shown in FIG. 5A and the photographing preparation operation is started, the photometric sensor 108 measures the luminance value in each area.

次に、この測光結果に基づき、各エリアでの重み付け係数が図5(b)のように演算される。このとき、閾値t0が50であるとすると、濃い灰色の領域のFiが1となる。この例において、灰色の領域は、濃度に応じて2つの領域に分かれているが、これらを全て含む矩形領域でかつ原画像のアスペクト比(3:2)を保持する領域が主被写体領域と推定される(図5(c))。   Next, based on the photometric result, the weighting coefficient in each area is calculated as shown in FIG. At this time, if the threshold value t0 is 50, the Fi of the dark gray area is 1. In this example, the gray area is divided into two areas according to the density, but a rectangular area that includes all of these areas and that retains the aspect ratio (3: 2) of the original image is estimated as the main subject area. (FIG. 5C).

主被写体が含まれると推定された領域の測光値に基づき、適正な露光量を演算する(ステップS206)。そして、SW2が操作されると(ステップS207)、この演算結果に基づき、遮光部材102が駆動制御されて露出制御が行われ、撮影動作、すなわち、照明装置による本発光光の照射及び撮像素子103への露光が開始される(ステップS208、ステップS209)。   An appropriate exposure amount is calculated based on the photometric value of the area estimated to contain the main subject (step S206). When SW2 is operated (step S207), the light shielding member 102 is driven and controlled based on the calculation result, and exposure control is performed. Is started (step S208, step S209).

次に、撮像素子103から出力されたRAWデータが、画像処理回路106において現像処理され、そこで画像表示ユニット111に表示するためのプレビュー画像が生成される(ステップS210)。プレビュー画像は、ステップS205で推定された主被写体領域を示す枠と共に、画像表示ユニット111に表示される(ステップS211)。   Next, the RAW data output from the image sensor 103 is developed in the image processing circuit 106, where a preview image to be displayed on the image display unit 111 is generated (step S210). The preview image is displayed on the image display unit 111 together with a frame indicating the main subject area estimated in step S205 (step S211).

また、同時に、画像表示ユニット111の液晶パネル111aの下部には、「トリミングする」、「トリミングしない」といった選択情報(不図示)が表示される。使用者は、十字キー61のうち左キー61L、右キー61Rを操作することによって、これらの選択情報のうちいずれかを選択することができる。そして、セットキー62を押し込むことにより選択した選択情報を確定することができる。これにより、画像のトリミングを行うかどうかを決定することができる(ステップS212)。   At the same time, selection information (not shown) such as “trimming” or “not trimming” is displayed below the liquid crystal panel 111 a of the image display unit 111. The user can select one of the selection information by operating the left key 61L and the right key 61R of the cross key 61. Then, the selection information selected by pressing the set key 62 can be confirmed. Thereby, it is possible to determine whether or not to perform image trimming (step S212).

「トリミングしない」が選択された場合には、液晶パネル111aの全体に表示される撮影画像のRAWデータを記録媒体107に保存し(ステップS214)、処理を終了する。このように、本実施例では、記録媒体107に保存される主被写体(主として撮影時に、撮影者がターゲットにした被写体)を自動的に設定できるため、撮影者の負担を減らすことができる。   If “Do not trim” is selected, the RAW data of the captured image displayed on the entire liquid crystal panel 111a is stored in the recording medium 107 (step S214), and the process is terminated. Thus, in this embodiment, the main subject (mainly the subject targeted by the photographer at the time of photographing) stored in the recording medium 107 can be automatically set, so the burden on the photographer can be reduced.

「トリミングする」が選択された場合には、さらに選択情報として「領域を変更する」、「領域を変更しない」が液晶パネル111aに表示される。使用者は、十字キー61のうち左キー61L、右キー61Rを操作することによって、これらの選択情報のうちいずれかを選択することができる。そして、セットキー62を押し込むことにより選択した選択情報を確定することができる。これにより、トリミング領域の設定を変更するかどうかを決定することができる(ステップS213)。   When “trimming” is selected, “change area” and “do not change area” are further displayed on the liquid crystal panel 111a as selection information. The user can select one of the selection information by operating the left key 61L and the right key 61R of the cross key 61. Then, the selection information selected by pressing the set key 62 can be confirmed. Thereby, it is possible to determine whether or not to change the setting of the trimming area (step S213).

「領域を変更しない」が選択された場合には、領域の再設定の処理(ステップS215)をスキップして、ステップS205で決定された主被写体領域のRAWデータを記録媒体107に保存し、処理を終了する。なお、主被写体領域以外の領域に関するRAWデータは、廃棄してもよいし、記録媒体107とは異なる別の記録媒体に記録してもよい。これにより、記録媒体107に記録されるデータ量を減らすことができる。   When “Do not change the area” is selected, the process of resetting the area (step S215) is skipped, and the RAW data of the main subject area determined in step S205 is stored in the recording medium 107 and processed. Exit. Note that RAW data relating to an area other than the main subject area may be discarded or recorded on a recording medium different from the recording medium 107. Thereby, the amount of data recorded on the recording medium 107 can be reduced.

「領域を変更する」が選択された場合には、図6に示すような操作案内が液晶パネル111aの下部に表示される。ここで、拡大・縮小キー60を操作することによってトリミング領域を拡大・縮小することができる。また、十字キー61を操作することによって、その操作方向に応じた方向にトリミング領域を移動させることができる。   When “change area” is selected, an operation guide as shown in FIG. 6 is displayed at the bottom of the liquid crystal panel 111a. Here, the trimming region can be enlarged / reduced by operating the enlargement / reduction key 60. Further, by operating the cross key 61, the trimming area can be moved in a direction corresponding to the operation direction.

そして、十字キー61の左キー61L及び右キー61Rを同時に押し込みことによりトリミング領域を回転させることができる。例えば、左キー61L及び右キー61Rを同時に押し込むことにより、図5(c)のような縦横の長さの比を2:3とするトリミング領域を90度回転させ、縦横の長さ比を3:2とするトリミング領域に変更することができる。   Then, the trimming area can be rotated by simultaneously pressing the left key 61L and the right key 61R of the cross key 61. For example, by simultaneously pressing the left key 61L and the right key 61R, the trimming region having a vertical / horizontal length ratio of 2: 3 as shown in FIG. 5C is rotated 90 degrees, and the vertical / horizontal length ratio is set to 3 : The trimming area can be changed to 2.

使用者が、セットキー62を押し込むことによりトリミング領域が再設定されると(ステップS215)、設定された領域に関するRAWデータが記録媒体107に保存される(ステップS216)。   When the trimming area is reset by the user pressing the set key 62 (step S215), RAW data relating to the set area is stored in the recording medium 107 (step S216).

(実施例2)
本実施例では、実施例1と異なり測距センサ109(図1参照)の測定結果に基づき、主被写体領域を特定する。ここで、測距センサ109(測定手段)は、撮影画面内を例えば図3に示すように複数の領域に分割し、領域ごとに距離を測定する多分割測距センサである。
(Example 2)
In the present embodiment, unlike the first embodiment, the main subject region is specified based on the measurement result of the distance measuring sensor 109 (see FIG. 1). Here, the distance measuring sensor 109 (measuring means) is a multi-distance distance measuring sensor that divides the imaging screen into a plurality of areas as shown in FIG. 3, for example, and measures the distance for each area.

図7を用いて、本実施例の撮影装置におけるトリミング処理について説明する。ここで、図7はトリミング処理の制御手順を示したフローチャートであり、制御回路100によって不図示のメモリよりプログラムが読み出されて実行される。   A trimming process in the photographing apparatus of the present embodiment will be described with reference to FIG. Here, FIG. 7 is a flowchart showing the control procedure of the trimming process. The program is read from the memory (not shown) by the control circuit 100 and executed.

まず、SW1が操作されると(ステップS401)、撮影準備動作、すなわち、測距センサ109による測距動作などが開始される。   First, when SW1 is operated (step S401), a shooting preparation operation, that is, a distance measuring operation by the distance measuring sensor 109, etc. is started.

この測距動作によって、各撮影エリアに表示された被写体までの距離が測定され、被写体に対する焦点調節状態が検出される(ステップS402)。   By this distance measuring operation, the distance to the subject displayed in each shooting area is measured, and the focus adjustment state for the subject is detected (step S402).

そして、図3のように分割された複数の撮影エリアごとに、被写体までの距離に応じた重み付け係数が演算され、この演算結果に基づき主被写体領域が推定される(S403)。   Then, a weighting coefficient corresponding to the distance to the subject is calculated for each of the plurality of shooting areas divided as shown in FIG. 3, and the main subject region is estimated based on the calculation result (S403).

そして、上述の測光動作による測光結果に基づき、適正な露光量が演算され(ステップS404)、この演算結果に基づき、遮光部材102が制御されるとともに上述の焦点検出状態に応じてフォーカスレンズが駆動され、SW2が操作されることにより(ステップS405)、照明装置による本発光光の照射(ステップS406)及び撮像素子103への露光(ステップS407)が開始される。   Then, an appropriate exposure amount is calculated based on the photometric result obtained by the above-described photometric operation (step S404). Based on the calculated result, the light shielding member 102 is controlled and the focus lens is driven according to the above-described focus detection state. Then, by operating SW2 (step S405), the illumination device irradiates the main light (step S406) and the image sensor 103 is exposed (step S407).

ステップS408〜ステップS414については、上述したステップS210〜ステップS216と同様であるため、説明を省略する。   About step S408-step S414, since it is the same as that of step S210-step S216 mentioned above, description is abbreviate | omitted.

なお、トリミング処理を撮影動作の直後ではなく、記録媒体107に記録されたRAWデータに対して適用できるようにしてもよい。   Note that the trimming process may be applied to the RAW data recorded on the recording medium 107 instead of immediately after the photographing operation.

実施例のデジタルカメラの機能ブロック図。1 is a functional block diagram of a digital camera according to an embodiment. 実施例1のデジタルカメラで実行されるトリミング処理の制御手順を示したフローチャートである。3 is a flowchart showing a control procedure of trimming processing executed by the digital camera of Embodiment 1. 測光センサの測光分割図である。It is a photometry division | segmentation figure of a photometry sensor. 主被写体領域を推定する手順を示したフローチャートである。5 is a flowchart showing a procedure for estimating a main subject area. 推定された主被写体領域を図示した図である。FIG. 6 is a diagram illustrating an estimated main subject area. 液晶パネルに主被写体領域及び操作案内を表示した図である。It is the figure which displayed the main subject field and operation guidance on the liquid crystal panel. 実施例2のデジタルカメラで実行されるトリミング処理の制御手順を示したフローチャートである。6 is a flowchart illustrating a control procedure of trimming processing executed by the digital camera of Embodiment 2.

符号の説明Explanation of symbols

10 デジタルカメラ
100 制御回路
101 撮影レンズ
102 遮光部材
103 撮像素子
104 A/Dコンバータ
105 バッファメモリ
106 画像処理回路
107 記録媒体
108 測光センサ
109 測距センサ
110 操作ユニット
111 画像表示ユニット
112 SW1
113 SW2
114 トリミング処理回路
30 撮影画面
31 測光領域
60 拡大・縮小キー
61 十字キー
62 セットキー

DESCRIPTION OF SYMBOLS 10 Digital camera 100 Control circuit 101 Shooting lens 102 Light-shielding member 103 Image pick-up element 104 A / D converter 105 Buffer memory 106 Image processing circuit 107 Recording medium 108 Photometric sensor 109 Distance sensor 110 Operation unit 111 Image display unit 112 SW1
113 SW2
114 Trimming Processing Circuit 30 Shooting Screen 31 Metering Area 60 Enlargement / Reduction Key 61 Cross Key 62 Set Key

Claims (7)

撮像素子を用いて画像を生成する画像生成手段と、
複数の被写体領域において被写体に対する測定動作を行う測定手段と、
前記測定手段による測定結果に基づいて、前記複数の被写体領域から特定被写体領域を決定する決定手段と、
前記生成された画像のうち前記特定被写体領域に対応した画像領域を画像記録手段に記録する制御手段とを有することを特徴とする撮像装置。
Image generating means for generating an image using an image sensor;
Measuring means for performing a measuring operation on a subject in a plurality of subject areas;
Determining means for determining a specific subject area from the plurality of subject areas based on a measurement result by the measuring means;
An image pickup apparatus comprising: a control unit that records an image region corresponding to the specific subject region in the generated image in an image recording unit.
前記測定手段は、測光手段であり、
前記決定手段は、前記被写体に照明光を照射して前記各被写体領域で得た測光結果と該照明光を照射せずに前記各被写体領域で得た測光結果との差に基づいて前記特定被写体領域を決定することを特徴とする請求項1に記載の撮像装置。
The measuring means is a photometric means;
The determining unit is configured to determine the specific subject based on a difference between a photometric result obtained in each subject region by irradiating the subject with illumination light and a photometric result obtained in each subject region without irradiating the illumination light. The imaging apparatus according to claim 1, wherein an area is determined.
前記測定手段は、測距手段であり、
前記決定手段は、前記各被写体領域で得た測距結果に基づいて前記特定被写体領域を決定することを特徴とする請求項1に記載の撮像装置。
The measuring means is a distance measuring means,
The imaging apparatus according to claim 1, wherein the determination unit determines the specific subject region based on a distance measurement result obtained in each subject region.
前記決定手段は、前記測定結果に基づいて前記複数の被写体領域間で重み付け演算を行い、該演算結果に基づいて前記特定領域を決定することを特徴とする請求項1から3のいずれか1つに記載の撮像装置。   4. The method according to claim 1, wherein the determination unit performs a weighting operation between the plurality of subject regions based on the measurement result, and determines the specific region based on the calculation result. The imaging device described in 1. 撮像素子を用いて画像を生成するステップと、
複数の被写体領域において被写体に対する測定動作を行う測定ステップと、
前記測定ステップによる測定結果に基づいて、前記複数の被写体領域から特定被写体領域を決定する決定ステップと、
前記生成された画像のうち前記特定被写体領域に対応した画像領域を画像記録手段に記録するステップとを有することを特徴とする撮像装置の制御方法。
Generating an image using an imaging device;
A measurement step for performing a measurement operation on a subject in a plurality of subject areas;
A determination step of determining a specific subject region from the plurality of subject regions based on the measurement result of the measurement step;
And a step of recording an image region corresponding to the specific subject region in the generated image in an image recording unit.
前記記録手段に記録される画像の画像データは、前記撮像素子から出力されたRAWデータであることを特徴とする請求項5に記載の撮像装置の制御方法。   6. The method according to claim 5, wherein the image data of the image recorded in the recording unit is RAW data output from the image sensor. 請求項5または6に記載の制御方法を撮像装置内のコンピュータに実行させるためのプログラムであることを特徴とする処理プログラム。   A processing program for causing a computer in an imaging apparatus to execute the control method according to claim 5 or 6.
JP2004207748A 2004-07-14 2004-07-14 Imaging apparatus, method of controlling the same and processing program thereof Pending JP2006033291A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004207748A JP2006033291A (en) 2004-07-14 2004-07-14 Imaging apparatus, method of controlling the same and processing program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004207748A JP2006033291A (en) 2004-07-14 2004-07-14 Imaging apparatus, method of controlling the same and processing program thereof

Publications (1)

Publication Number Publication Date
JP2006033291A true JP2006033291A (en) 2006-02-02

Family

ID=35899126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004207748A Pending JP2006033291A (en) 2004-07-14 2004-07-14 Imaging apparatus, method of controlling the same and processing program thereof

Country Status (1)

Country Link
JP (1) JP2006033291A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008145583A (en) * 2006-12-07 2008-06-26 Nikon Corp Camera and program for computing quantity of light
JP2010531080A (en) * 2007-05-30 2010-09-16 イーストマン コダック カンパニー Camera configuration for autonomous operation
JP2011155692A (en) * 2011-04-27 2011-08-11 Casio Computer Co Ltd Imaging apparatus and its program
US8379093B2 (en) 2007-12-18 2013-02-19 Samsung Electronics Co., Ltd. Recording and reproduction apparatus and methods, and a recording medium storing a computer program for executing the methods
KR20150070396A (en) * 2012-10-26 2015-06-24 백스터 코포레이션 잉글우드 Improved image acquisition for medical dose preparation system
US9662273B2 (en) 2012-10-26 2017-05-30 Baxter Corporation Englewood Work station for medical dose preparation system
USD790727S1 (en) 2015-04-24 2017-06-27 Baxter Corporation Englewood Platform for medical dose preparation
US10347374B2 (en) 2008-10-13 2019-07-09 Baxter Corporation Englewood Medication preparation system
US10818387B2 (en) 2014-12-05 2020-10-27 Baxter Corporation Englewood Dose preparation data analytics
US11107574B2 (en) 2014-09-30 2021-08-31 Baxter Corporation Englewood Management of medication preparation with formulary management
US11367533B2 (en) 2014-06-30 2022-06-21 Baxter Corporation Englewood Managed medical information exchange
US11575673B2 (en) 2014-09-30 2023-02-07 Baxter Corporation Englewood Central user management in a distributed healthcare information management system
US11948112B2 (en) 2015-03-03 2024-04-02 Baxter Corporation Engelwood Pharmacy workflow management with integrated alerts

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008145583A (en) * 2006-12-07 2008-06-26 Nikon Corp Camera and program for computing quantity of light
JP2010531080A (en) * 2007-05-30 2010-09-16 イーストマン コダック カンパニー Camera configuration for autonomous operation
US8379093B2 (en) 2007-12-18 2013-02-19 Samsung Electronics Co., Ltd. Recording and reproduction apparatus and methods, and a recording medium storing a computer program for executing the methods
US10347374B2 (en) 2008-10-13 2019-07-09 Baxter Corporation Englewood Medication preparation system
JP2011155692A (en) * 2011-04-27 2011-08-11 Casio Computer Co Ltd Imaging apparatus and its program
USD812769S1 (en) 2012-10-26 2018-03-13 Baxter Corporation Englewood Work station for medical dose preparation
KR20190045415A (en) * 2012-10-26 2019-05-02 백스터 코포레이션 잉글우드 Improved image acquisition for medical dose preparation system
KR20170007490A (en) * 2012-10-26 2017-01-18 백스터 코포레이션 잉글우드 Improved image acquisition for medical dose preparation system
KR101695119B1 (en) 2012-10-26 2017-01-23 백스터 코포레이션 잉글우드 Improved image acquisition for medical dose preparation system
US9662273B2 (en) 2012-10-26 2017-05-30 Baxter Corporation Englewood Work station for medical dose preparation system
US10971257B2 (en) 2012-10-26 2021-04-06 Baxter Corporation Englewood Image acquisition for medical dose preparation system
USD812768S1 (en) 2012-10-26 2018-03-13 Baxter Corporation Englewood Work station with platform for medical dose preparation
JP2016503531A (en) * 2012-10-26 2016-02-04 バクスター・コーポレーション・イングルウッドBaxter Corporation Englewood Improving image acquisition for medical dosage preparation systems
US10045912B2 (en) 2012-10-26 2018-08-14 Baxter Corporation Englewood Work station for medical dose preparation system
US10089444B2 (en) 2012-10-26 2018-10-02 Baxter Corporation Englewood Image acquisition for medical dose preparation system
KR101974258B1 (en) * 2012-10-26 2019-04-30 백스터 코포레이션 잉글우드 Improved image acquisition for medical dose preparation system
US9489489B2 (en) 2012-10-26 2016-11-08 Baxter Corporation Englewood Image acquisition for medical dose preparation system
KR20150070396A (en) * 2012-10-26 2015-06-24 백스터 코포레이션 잉글우드 Improved image acquisition for medical dose preparation system
KR102078768B1 (en) 2012-10-26 2020-02-19 백스터 코포레이션 잉글우드 Improved image acquisition for medical dose preparation system
JP2020044377A (en) * 2012-10-26 2020-03-26 バクスター・コーポレーション・イングルウッドBaxter Corporation Englewood Improved image acquisition for medical dose preparation system
US10646405B2 (en) 2012-10-26 2020-05-12 Baxter Corporation Englewood Work station for medical dose preparation system
US11367533B2 (en) 2014-06-30 2022-06-21 Baxter Corporation Englewood Managed medical information exchange
US11107574B2 (en) 2014-09-30 2021-08-31 Baxter Corporation Englewood Management of medication preparation with formulary management
US11575673B2 (en) 2014-09-30 2023-02-07 Baxter Corporation Englewood Central user management in a distributed healthcare information management system
US10818387B2 (en) 2014-12-05 2020-10-27 Baxter Corporation Englewood Dose preparation data analytics
US11948112B2 (en) 2015-03-03 2024-04-02 Baxter Corporation Engelwood Pharmacy workflow management with integrated alerts
USD790727S1 (en) 2015-04-24 2017-06-27 Baxter Corporation Englewood Platform for medical dose preparation

Similar Documents

Publication Publication Date Title
WO2020034737A1 (en) Imaging control method, apparatus, electronic device, and computer-readable storage medium
WO2020057199A1 (en) Imaging method and device, and electronic device
WO2020034701A1 (en) Imaging control method and apparatus, electronic device, and readable storage medium
JP2007019973A (en) Imaging device and imaging method
KR20070086061A (en) Image processing and image processing program of image processing
JP2005252657A (en) Electronic still camera
JP2020533883A (en) Methods and equipment for double camera-based imaging
JP2007208849A (en) Moving picture reproducing device and its program
JP2003348438A (en) Image photographing method and apparatus, image selecting method and apparatus, and program
JP5156991B2 (en) Imaging apparatus, imaging method, and imaging program
JP5158409B2 (en) Imaging apparatus and program thereof
JP2006033291A (en) Imaging apparatus, method of controlling the same and processing program thereof
JP2003319252A (en) Digital camera
JP5225137B2 (en) Imaging apparatus, image processing method, and program
JP2006108759A (en) Imaging apparatus
JP4104904B2 (en) Image processing method, apparatus, and program
JP5310076B2 (en) Image processing apparatus and image processing program
JP2002258351A (en) Electronic camera and image processing system
JP5320795B2 (en) Imaging device
JP6223173B2 (en) Image processing apparatus, control method thereof, and program
JP2012050121A (en) Imaging device, imaging method and imaging program
JP5332668B2 (en) Imaging apparatus and subject detection program
JP2010119051A (en) Imaging device and imaging method
JP4838644B2 (en) Imaging apparatus, control method thereof, and program
JP2006287516A (en) Camera apparatus, photographing method, and photographing program