JP2006033291A - Imaging apparatus, method of controlling the same and processing program thereof - Google Patents
Imaging apparatus, method of controlling the same and processing program thereof Download PDFInfo
- Publication number
- JP2006033291A JP2006033291A JP2004207748A JP2004207748A JP2006033291A JP 2006033291 A JP2006033291 A JP 2006033291A JP 2004207748 A JP2004207748 A JP 2004207748A JP 2004207748 A JP2004207748 A JP 2004207748A JP 2006033291 A JP2006033291 A JP 2006033291A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- region
- area
- photometric
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、被写体に対する測定動作を行うことが可能な撮像措置に関する。 The present invention relates to an imaging measure capable of performing a measurement operation on a subject.
一般的なデジタルカメラにおいては、CCDセンサ、CMOSセンサ等の撮像素子から得られる画像信号をA/D変換し、さまざまな画像処理を施した後、JPEG符号化などの圧縮方式を用いて圧縮し記録媒体に記録する。 In general digital cameras, image signals obtained from image sensors such as CCD sensors and CMOS sensors are A / D converted, subjected to various image processing, and then compressed using a compression method such as JPEG encoding. Record on a recording medium.
この種のデジタルカメラでは、記録媒体への記録時に非可逆な圧縮が施されるため、再生時やプリント時に必ずしも十分に良好な画質が得られない場合がある。また、記録された画像には、既にさまざまな画像処理が施されているため、使用者が撮影後に更なる画像処理を施すと画質が劣化する場合がある。 In this type of digital camera, irreversible compression is performed when recording on a recording medium, so that a sufficiently good image quality may not always be obtained during reproduction or printing. In addition, since the recorded image has already been subjected to various image processing, the image quality may deteriorate if the user performs further image processing after shooting.
これに対して、撮像素子から出力される画素毎のアナログ信号をA/D変換し、画像処理を加えずに記録する方式(RAW方式)が提案されている。 On the other hand, a method (RAW method) has been proposed in which an analog signal for each pixel output from the image sensor is A / D converted and recorded without performing image processing.
このRAW方式では、現像等の画像処理前の画像データであるRAWデータを記録しておき、画像の再現(現像)処理をカメラ内で行わずにパソコン等の外部処理装置を用いて行うようにしている。これにより、使用者に対して撮影後にホワイトバランスや色処理等の画像処理の自由度を与えることができる。 In this RAW method, RAW data that is image data before image processing such as development is recorded, and image reproduction (development) processing is not performed in the camera but is performed using an external processing device such as a personal computer. ing. Thereby, the degree of freedom of image processing such as white balance and color processing can be given to the user after shooting.
しかし、撮像素子の高画素化に伴い、画像1枚あたりの記録容量が増大し、記録できる画像枚数が減少する問題がある。 However, as the number of pixels of the image sensor increases, there is a problem that the recording capacity per image increases and the number of images that can be recorded decreases.
また、記録媒体に記録されるRAWデータのデータ量が増加すると、これに応じて撮影後に外部処理装置で画像処理するデータ量も増えるため、使用者の負担が大きくなる。 Further, when the amount of RAW data recorded on the recording medium increases, the amount of data to be image processed by the external processing device after shooting increases accordingly, which increases the burden on the user.
そのため、RAW形式において、記録データ量を削減する方法として、例えば、画像中の不要な部分を削除するトリミング処理を行い、最大画素数よりも小さい画素数(解像度)で記録を行う方式が提案されている(例えば、特許文献1参照)。
しかしながら、特許文献1では、トリミング領域の指定方法については言及されていなかった。
However,
上記課題を解決するために本願発明の目的の一つは、使用者が領域を設定する必要がないように自動的にトリミング領域を設定するとともに、記録容量の削減や後処理の手間がかからないRAWデータを出力することができるデジタルカメラを提供することにある。 In order to solve the above problems, one of the objects of the present invention is to set the trimming area automatically so that the user does not need to set the area, and to reduce the recording capacity and save the post-processing. The object is to provide a digital camera capable of outputting data.
上記課題を解決するために、本願発明の撮像装置の第1の構成は、撮像素子(例えば、CCDセンサ、CMOSセンサ)を用いて画像を生成する画像生成手段と、複数の被写体領域において被写体に対する測定動作を行う測定手段(例えば、測光動作、測距動作)と、前記測定手段による測定結果に基づいて、前記複数の被写体領域から特定被写体領域を決定する決定手段と、前記生成された画像のうち前記特定被写体領域に対応した画像領域を画像記録手段に記録する制御手段とを有することを特徴とする撮像装置。 In order to solve the above problems, a first configuration of an imaging apparatus according to the present invention includes an image generation unit that generates an image using an imaging element (for example, a CCD sensor or a CMOS sensor), and a subject in a plurality of subject areas. Measurement means for performing a measurement operation (for example, photometry operation, distance measurement operation), a determination means for determining a specific subject area from the plurality of subject areas based on a measurement result by the measurement means, and the generated image An image pickup apparatus comprising: a control unit that records an image region corresponding to the specific subject region in an image recording unit.
本願発明の第1の構成では、画像記録手段に特定被写体領域に対応した画像領域を記憶させているが、この特定被写体領域を測定手段による測定結果に基づき決定している。これにより、撮影装置の使用者は、全ての撮影画像に対して特定被写体領域を設定する必要がなくなるうえ、撮像の際に用いた情報を用いてこの特定被写体領域を設定することが可能になる。 In the first configuration of the present invention, an image area corresponding to the specific subject area is stored in the image recording means, and this specific subject area is determined based on the measurement result by the measuring means. As a result, the user of the photographing apparatus does not need to set a specific subject area for all the photographed images, and can set the specific subject area using information used for imaging. .
以下、本発明の実施例について、図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(実施例1)
図1は本発明の実施例であるデジタルカメラ(撮像装置)10の全体構成を示すブロック図である。同図において、100はデジタルカメラ全体の制御を司る制御回路であり、この制御回路100には中央演算処理回路が含まれている。101は撮影レンズであり、制御回路100からの駆動信号に基づき光軸方向に進退する。
(Example 1)
FIG. 1 is a block diagram showing the overall configuration of a digital camera (imaging device) 10 that is an embodiment of the present invention. In the figure,
102は絞りおよびシャッターなどからなる遮光部材であり、撮影光軸に対して略直交する面内で開閉駆動され、光り通過光量を変更する。
103は被写体からの光を電気信号に変換する撮像素子(例えば、CCDセンサ、CMOSセンサ)である。撮像素子103から出力されたアナログ信号は、A/Dコンバータ104によってデジタル信号に変換される。
以下において、A/Dコンバータ104から出力される信号をRAWデータ信号という。なお、RAWデータ信号とは、A/D変換がされ、かつ、ホワイトバランス調整、画素補間、階調変換、色補正等の画像処理がされていない信号を意味するが、例えば撮像素子103のキズデータを補間するキズ補正処理を行って得られた画像データの信号等も画質調整に関する画像処理を行っていないという点でこれに含まれるものとする。
Hereinafter, a signal output from the A /
バッファメモリ105は、撮像素子103から読み出された1画面分の撮像データを1つの単位として、これを複数枚、記憶できる容量を備えている。さらに、バッファメモリ105の容量は、短時間に複数回の撮影動作を行う連射動作の速度が、後段の処理(フォーマット変換、圧縮符号化、記録媒体107への記録)の速度に制限されないように、大きめに設定されている。
The
画像処理回路106は、RAWデータ信号に対して、ホワイトバランス調整、画素補間処理、階調処理、色変換処理等の画像処理を施す。記録媒体107(画像記録手段)には、カメラに対して着脱可能な半導体メモリなどが用いられる。
The
測光センサ108(測定手段)は、図3に示すように撮影画面内を複数の領域に分割して領域ごとに輝度を測定することができる多分割測光センサである。ここで、図3は撮影画面を35個の測光エリアに分割した分割図である。同図において、30は撮影画面全体を表しており、31は測光センサ108の撮影画面上での分割状態を表している。
The photometric sensor 108 (measuring means) is a multi-segment photometric sensor that can divide the imaging screen into a plurality of areas and measure the luminance for each area as shown in FIG. Here, FIG. 3 is a division diagram in which the photographing screen is divided into 35 photometric areas. In the figure, 30 represents the entire photographing screen, and 31 represents the division state of the
このように撮影画面に関連付けられた測光センサ108は、撮影画面を分割してそれぞれの輝度値を測光し出力することができる。
In this way, the
112は撮影準備動作(測距動作及び測光動作)を開始させるために操作されるSW1であり、113は撮影動作(画像信号を記録するための撮像素子103への露光など)を開始させるために操作されるSW2である。
110は、カメラの撮影モードの設定やトリミング領域の設定等を行うために操作される操作ユニット、111は、撮影した画像などを表示する液晶パネル111aを含む画像表示ユニットである。
114は、液晶パネル111a全体に表示される画像から後述する主被写体領域(特定被写体領域)に対応するRAWデータを抽出するトリミング処理回路であり、制御回路100によって駆動される。
A
次に、図2を用いて、本実施例のデジタルカメラにおけるトリミング処理について説明する。ここで、図2はトリミング処理の制御手順を示したフローチャートであり、制御回路100によって不図示のメモリよりプログラムが読み出されて実行される。
Next, trimming processing in the digital camera of this embodiment will be described with reference to FIG. Here, FIG. 2 is a flowchart showing a control procedure of the trimming process. The
撮影者によりSW1が操作されると、以下に説明する測光センサ108による測光動作などが開始される(ステップS201)。すなわち、まず自然光の下、撮影画面内のエリアごとに測光センサ108が測光し、この測光結果を輝度値E1i(i=1〜35)としてバッファメモリ105に記憶する(ステップS202)。
When SW1 is operated by the photographer, a photometric operation by the
次に、不図示の照明装置を駆動して被写体に向けてプリ発光を行う(ステップS203)。そして、このプリ発光に基づく被写体の反射光を、各エリアにおいて再び測光センサ108で測光し、この測光結果を輝度値E2i(i=1〜35)としてバッファメモリ105に記憶する(ステップS204)。
Next, a lighting device (not shown) is driven to perform pre-light emission toward the subject (step S203). Then, the reflected light of the subject based on this pre-emission is measured again by the
次に、撮影画面内における各エリアのプリ発光時の輝度値と自然光状態での輝度値との差分ΔEiを演算する。 Next, a difference ΔEi between the luminance value at the time of pre-emission of each area in the photographing screen and the luminance value in the natural light state is calculated.
ΔEi=E2i−E1i (i=1〜35)
この演算では、純粋にプリ発光のエネルギーのみで被写体を照射したときの輝度を求めているが、自然光下での輝度に対してプリ発光下での輝度が格段に大きい場合が多い。そこで、計算を簡単にするため、差分演算結果をプリ発光下での輝度値に近似してもよい。
ΔEi=E2i (i=1〜35)
この差分値を基に各エリアでの重み付け係数の演算を行い、主被写体領域の推定を行う(ステップS205)。この主被写体領域の推定方法を図4を用いて説明する。ここで、図4は、主被写体領域の推定方法を示すフローチャートである。
ΔEi = E2i−E1i (i = 1 to 35)
In this calculation, the luminance when the subject is irradiated with pure pre-emission energy is obtained, but in many cases the luminance under pre-emission is much higher than the luminance under natural light. Therefore, in order to simplify the calculation, the difference calculation result may be approximated to a luminance value under pre-emission.
ΔEi = E2i (i = 1 to 35)
Based on this difference value, the weighting coefficient in each area is calculated to estimate the main subject area (step S205). This main subject region estimation method will be described with reference to FIG. Here, FIG. 4 is a flowchart showing a main subject region estimation method.
最初に各エリアで測光されたΔEi(i=1〜35)の最大値を求める(ステップS301)。
maxE=max(ΔEi)
ただし、ある一のエリアの輝度値が残りの他のエリアの輝度値よりもはるかに大きいときは、当該一のエリアの輝度値を除いて最大値を求めるようにしてもよい。
First, the maximum value of ΔEi (i = 1 to 35) measured in each area is obtained (step S301).
maxE = max (ΔEi)
However, when the luminance value of one area is much larger than the luminance values of the remaining other areas, the maximum value may be obtained by excluding the luminance value of the one area.
このよう輝度値が極端に大きいエリアを除くことにより、背景に非常に反射率の高い物体があった時に、この物体を誤って主被写体と推定するのを防ぐことができる。 By excluding areas with extremely large luminance values, it is possible to prevent the object from being erroneously estimated as the main subject when there is an object with a very high reflectance in the background.
次に、maxEとΔEiとの差分から各エリアでの重み付け係数ki(i=1〜35)が左上のエリア(i=1)から演算される(ステップS302、ステップS303)。重み付け係数が、閾値t0以上であったときには、そのエリアのフラグFiを1にする(ステップS304、ステップS305)。主被写体領域は、フラグFiが1であるエリアを全て含む矩形領域に設定される。 Next, the weighting coefficient ki (i = 1 to 35) in each area is calculated from the upper left area (i = 1) from the difference between maxE and ΔEi (steps S302 and S303). When the weighting coefficient is equal to or greater than the threshold value t0, the area flag Fi is set to 1 (steps S304 and S305). The main subject area is set to a rectangular area including all areas where the flag Fi is 1.
これに対して、重み付け係数が、閾値t0よりも小さかったときは、そのエリアのフラグFiを0にする(ステップS304、ステップS306)。次にiをインクリメントし(ステップS307)、35分割した全てのエリアのフラグFiが決定されるまで(つまり、i>35になるまで)ステップS304〜ステップS307までのルーチンが実行され(ステップS308)、全てのフラグFiが決定すると、Fi=1の領域を全て含む矩形領域を主被写体領域として推定する。 On the other hand, when the weighting coefficient is smaller than the threshold value t0, the flag Fi of the area is set to 0 (steps S304 and S306). Next, i is incremented (step S307), and the routine from step S304 to step S307 is executed (step S308) until the flags Fi of all 35 divided areas are determined (that is, until i> 35). When all the flags Fi are determined, a rectangular area including all areas where Fi = 1 is estimated as the main subject area.
図5は、上述したフローチャートに基づき主被写体領域を推定した図である。図5(a)のような構図でSW1が操作され撮影準備動作が開始されると、測光センサ108が各エリアでの輝度値を測光する。
FIG. 5 is a diagram in which the main subject area is estimated based on the above-described flowchart. When the SW1 is operated in the composition as shown in FIG. 5A and the photographing preparation operation is started, the
次に、この測光結果に基づき、各エリアでの重み付け係数が図5(b)のように演算される。このとき、閾値t0が50であるとすると、濃い灰色の領域のFiが1となる。この例において、灰色の領域は、濃度に応じて2つの領域に分かれているが、これらを全て含む矩形領域でかつ原画像のアスペクト比(3:2)を保持する領域が主被写体領域と推定される(図5(c))。 Next, based on the photometric result, the weighting coefficient in each area is calculated as shown in FIG. At this time, if the threshold value t0 is 50, the Fi of the dark gray area is 1. In this example, the gray area is divided into two areas according to the density, but a rectangular area that includes all of these areas and that retains the aspect ratio (3: 2) of the original image is estimated as the main subject area. (FIG. 5C).
主被写体が含まれると推定された領域の測光値に基づき、適正な露光量を演算する(ステップS206)。そして、SW2が操作されると(ステップS207)、この演算結果に基づき、遮光部材102が駆動制御されて露出制御が行われ、撮影動作、すなわち、照明装置による本発光光の照射及び撮像素子103への露光が開始される(ステップS208、ステップS209)。
An appropriate exposure amount is calculated based on the photometric value of the area estimated to contain the main subject (step S206). When SW2 is operated (step S207), the
次に、撮像素子103から出力されたRAWデータが、画像処理回路106において現像処理され、そこで画像表示ユニット111に表示するためのプレビュー画像が生成される(ステップS210)。プレビュー画像は、ステップS205で推定された主被写体領域を示す枠と共に、画像表示ユニット111に表示される(ステップS211)。
Next, the RAW data output from the
また、同時に、画像表示ユニット111の液晶パネル111aの下部には、「トリミングする」、「トリミングしない」といった選択情報(不図示)が表示される。使用者は、十字キー61のうち左キー61L、右キー61Rを操作することによって、これらの選択情報のうちいずれかを選択することができる。そして、セットキー62を押し込むことにより選択した選択情報を確定することができる。これにより、画像のトリミングを行うかどうかを決定することができる(ステップS212)。
At the same time, selection information (not shown) such as “trimming” or “not trimming” is displayed below the
「トリミングしない」が選択された場合には、液晶パネル111aの全体に表示される撮影画像のRAWデータを記録媒体107に保存し(ステップS214)、処理を終了する。このように、本実施例では、記録媒体107に保存される主被写体(主として撮影時に、撮影者がターゲットにした被写体)を自動的に設定できるため、撮影者の負担を減らすことができる。
If “Do not trim” is selected, the RAW data of the captured image displayed on the entire
「トリミングする」が選択された場合には、さらに選択情報として「領域を変更する」、「領域を変更しない」が液晶パネル111aに表示される。使用者は、十字キー61のうち左キー61L、右キー61Rを操作することによって、これらの選択情報のうちいずれかを選択することができる。そして、セットキー62を押し込むことにより選択した選択情報を確定することができる。これにより、トリミング領域の設定を変更するかどうかを決定することができる(ステップS213)。
When “trimming” is selected, “change area” and “do not change area” are further displayed on the
「領域を変更しない」が選択された場合には、領域の再設定の処理(ステップS215)をスキップして、ステップS205で決定された主被写体領域のRAWデータを記録媒体107に保存し、処理を終了する。なお、主被写体領域以外の領域に関するRAWデータは、廃棄してもよいし、記録媒体107とは異なる別の記録媒体に記録してもよい。これにより、記録媒体107に記録されるデータ量を減らすことができる。
When “Do not change the area” is selected, the process of resetting the area (step S215) is skipped, and the RAW data of the main subject area determined in step S205 is stored in the
「領域を変更する」が選択された場合には、図6に示すような操作案内が液晶パネル111aの下部に表示される。ここで、拡大・縮小キー60を操作することによってトリミング領域を拡大・縮小することができる。また、十字キー61を操作することによって、その操作方向に応じた方向にトリミング領域を移動させることができる。
When “change area” is selected, an operation guide as shown in FIG. 6 is displayed at the bottom of the
そして、十字キー61の左キー61L及び右キー61Rを同時に押し込みことによりトリミング領域を回転させることができる。例えば、左キー61L及び右キー61Rを同時に押し込むことにより、図5(c)のような縦横の長さの比を2:3とするトリミング領域を90度回転させ、縦横の長さ比を3:2とするトリミング領域に変更することができる。
Then, the trimming area can be rotated by simultaneously pressing the left key 61L and the right key 61R of the
使用者が、セットキー62を押し込むことによりトリミング領域が再設定されると(ステップS215)、設定された領域に関するRAWデータが記録媒体107に保存される(ステップS216)。 When the trimming area is reset by the user pressing the set key 62 (step S215), RAW data relating to the set area is stored in the recording medium 107 (step S216).
(実施例2)
本実施例では、実施例1と異なり測距センサ109(図1参照)の測定結果に基づき、主被写体領域を特定する。ここで、測距センサ109(測定手段)は、撮影画面内を例えば図3に示すように複数の領域に分割し、領域ごとに距離を測定する多分割測距センサである。
(Example 2)
In the present embodiment, unlike the first embodiment, the main subject region is specified based on the measurement result of the distance measuring sensor 109 (see FIG. 1). Here, the distance measuring sensor 109 (measuring means) is a multi-distance distance measuring sensor that divides the imaging screen into a plurality of areas as shown in FIG. 3, for example, and measures the distance for each area.
図7を用いて、本実施例の撮影装置におけるトリミング処理について説明する。ここで、図7はトリミング処理の制御手順を示したフローチャートであり、制御回路100によって不図示のメモリよりプログラムが読み出されて実行される。
A trimming process in the photographing apparatus of the present embodiment will be described with reference to FIG. Here, FIG. 7 is a flowchart showing the control procedure of the trimming process. The program is read from the memory (not shown) by the
まず、SW1が操作されると(ステップS401)、撮影準備動作、すなわち、測距センサ109による測距動作などが開始される。
First, when SW1 is operated (step S401), a shooting preparation operation, that is, a distance measuring operation by the
この測距動作によって、各撮影エリアに表示された被写体までの距離が測定され、被写体に対する焦点調節状態が検出される(ステップS402)。 By this distance measuring operation, the distance to the subject displayed in each shooting area is measured, and the focus adjustment state for the subject is detected (step S402).
そして、図3のように分割された複数の撮影エリアごとに、被写体までの距離に応じた重み付け係数が演算され、この演算結果に基づき主被写体領域が推定される(S403)。 Then, a weighting coefficient corresponding to the distance to the subject is calculated for each of the plurality of shooting areas divided as shown in FIG. 3, and the main subject region is estimated based on the calculation result (S403).
そして、上述の測光動作による測光結果に基づき、適正な露光量が演算され(ステップS404)、この演算結果に基づき、遮光部材102が制御されるとともに上述の焦点検出状態に応じてフォーカスレンズが駆動され、SW2が操作されることにより(ステップS405)、照明装置による本発光光の照射(ステップS406)及び撮像素子103への露光(ステップS407)が開始される。
Then, an appropriate exposure amount is calculated based on the photometric result obtained by the above-described photometric operation (step S404). Based on the calculated result, the
ステップS408〜ステップS414については、上述したステップS210〜ステップS216と同様であるため、説明を省略する。 About step S408-step S414, since it is the same as that of step S210-step S216 mentioned above, description is abbreviate | omitted.
なお、トリミング処理を撮影動作の直後ではなく、記録媒体107に記録されたRAWデータに対して適用できるようにしてもよい。
Note that the trimming process may be applied to the RAW data recorded on the
10 デジタルカメラ
100 制御回路
101 撮影レンズ
102 遮光部材
103 撮像素子
104 A/Dコンバータ
105 バッファメモリ
106 画像処理回路
107 記録媒体
108 測光センサ
109 測距センサ
110 操作ユニット
111 画像表示ユニット
112 SW1
113 SW2
114 トリミング処理回路
30 撮影画面
31 測光領域
60 拡大・縮小キー
61 十字キー
62 セットキー
DESCRIPTION OF
113 SW2
114
Claims (7)
複数の被写体領域において被写体に対する測定動作を行う測定手段と、
前記測定手段による測定結果に基づいて、前記複数の被写体領域から特定被写体領域を決定する決定手段と、
前記生成された画像のうち前記特定被写体領域に対応した画像領域を画像記録手段に記録する制御手段とを有することを特徴とする撮像装置。 Image generating means for generating an image using an image sensor;
Measuring means for performing a measuring operation on a subject in a plurality of subject areas;
Determining means for determining a specific subject area from the plurality of subject areas based on a measurement result by the measuring means;
An image pickup apparatus comprising: a control unit that records an image region corresponding to the specific subject region in the generated image in an image recording unit.
前記決定手段は、前記被写体に照明光を照射して前記各被写体領域で得た測光結果と該照明光を照射せずに前記各被写体領域で得た測光結果との差に基づいて前記特定被写体領域を決定することを特徴とする請求項1に記載の撮像装置。 The measuring means is a photometric means;
The determining unit is configured to determine the specific subject based on a difference between a photometric result obtained in each subject region by irradiating the subject with illumination light and a photometric result obtained in each subject region without irradiating the illumination light. The imaging apparatus according to claim 1, wherein an area is determined.
前記決定手段は、前記各被写体領域で得た測距結果に基づいて前記特定被写体領域を決定することを特徴とする請求項1に記載の撮像装置。 The measuring means is a distance measuring means,
The imaging apparatus according to claim 1, wherein the determination unit determines the specific subject region based on a distance measurement result obtained in each subject region.
複数の被写体領域において被写体に対する測定動作を行う測定ステップと、
前記測定ステップによる測定結果に基づいて、前記複数の被写体領域から特定被写体領域を決定する決定ステップと、
前記生成された画像のうち前記特定被写体領域に対応した画像領域を画像記録手段に記録するステップとを有することを特徴とする撮像装置の制御方法。 Generating an image using an imaging device;
A measurement step for performing a measurement operation on a subject in a plurality of subject areas;
A determination step of determining a specific subject region from the plurality of subject regions based on the measurement result of the measurement step;
And a step of recording an image region corresponding to the specific subject region in the generated image in an image recording unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004207748A JP2006033291A (en) | 2004-07-14 | 2004-07-14 | Imaging apparatus, method of controlling the same and processing program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004207748A JP2006033291A (en) | 2004-07-14 | 2004-07-14 | Imaging apparatus, method of controlling the same and processing program thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006033291A true JP2006033291A (en) | 2006-02-02 |
Family
ID=35899126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004207748A Pending JP2006033291A (en) | 2004-07-14 | 2004-07-14 | Imaging apparatus, method of controlling the same and processing program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006033291A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008145583A (en) * | 2006-12-07 | 2008-06-26 | Nikon Corp | Camera and program for computing quantity of light |
JP2010531080A (en) * | 2007-05-30 | 2010-09-16 | イーストマン コダック カンパニー | Camera configuration for autonomous operation |
JP2011155692A (en) * | 2011-04-27 | 2011-08-11 | Casio Computer Co Ltd | Imaging apparatus and its program |
US8379093B2 (en) | 2007-12-18 | 2013-02-19 | Samsung Electronics Co., Ltd. | Recording and reproduction apparatus and methods, and a recording medium storing a computer program for executing the methods |
KR20150070396A (en) * | 2012-10-26 | 2015-06-24 | 백스터 코포레이션 잉글우드 | Improved image acquisition for medical dose preparation system |
US9662273B2 (en) | 2012-10-26 | 2017-05-30 | Baxter Corporation Englewood | Work station for medical dose preparation system |
USD790727S1 (en) | 2015-04-24 | 2017-06-27 | Baxter Corporation Englewood | Platform for medical dose preparation |
US10347374B2 (en) | 2008-10-13 | 2019-07-09 | Baxter Corporation Englewood | Medication preparation system |
US10818387B2 (en) | 2014-12-05 | 2020-10-27 | Baxter Corporation Englewood | Dose preparation data analytics |
US11107574B2 (en) | 2014-09-30 | 2021-08-31 | Baxter Corporation Englewood | Management of medication preparation with formulary management |
US11367533B2 (en) | 2014-06-30 | 2022-06-21 | Baxter Corporation Englewood | Managed medical information exchange |
US11575673B2 (en) | 2014-09-30 | 2023-02-07 | Baxter Corporation Englewood | Central user management in a distributed healthcare information management system |
US11948112B2 (en) | 2015-03-03 | 2024-04-02 | Baxter Corporation Engelwood | Pharmacy workflow management with integrated alerts |
-
2004
- 2004-07-14 JP JP2004207748A patent/JP2006033291A/en active Pending
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008145583A (en) * | 2006-12-07 | 2008-06-26 | Nikon Corp | Camera and program for computing quantity of light |
JP2010531080A (en) * | 2007-05-30 | 2010-09-16 | イーストマン コダック カンパニー | Camera configuration for autonomous operation |
US8379093B2 (en) | 2007-12-18 | 2013-02-19 | Samsung Electronics Co., Ltd. | Recording and reproduction apparatus and methods, and a recording medium storing a computer program for executing the methods |
US10347374B2 (en) | 2008-10-13 | 2019-07-09 | Baxter Corporation Englewood | Medication preparation system |
JP2011155692A (en) * | 2011-04-27 | 2011-08-11 | Casio Computer Co Ltd | Imaging apparatus and its program |
USD812769S1 (en) | 2012-10-26 | 2018-03-13 | Baxter Corporation Englewood | Work station for medical dose preparation |
KR20190045415A (en) * | 2012-10-26 | 2019-05-02 | 백스터 코포레이션 잉글우드 | Improved image acquisition for medical dose preparation system |
KR20170007490A (en) * | 2012-10-26 | 2017-01-18 | 백스터 코포레이션 잉글우드 | Improved image acquisition for medical dose preparation system |
KR101695119B1 (en) | 2012-10-26 | 2017-01-23 | 백스터 코포레이션 잉글우드 | Improved image acquisition for medical dose preparation system |
US9662273B2 (en) | 2012-10-26 | 2017-05-30 | Baxter Corporation Englewood | Work station for medical dose preparation system |
US10971257B2 (en) | 2012-10-26 | 2021-04-06 | Baxter Corporation Englewood | Image acquisition for medical dose preparation system |
USD812768S1 (en) | 2012-10-26 | 2018-03-13 | Baxter Corporation Englewood | Work station with platform for medical dose preparation |
JP2016503531A (en) * | 2012-10-26 | 2016-02-04 | バクスター・コーポレーション・イングルウッドBaxter Corporation Englewood | Improving image acquisition for medical dosage preparation systems |
US10045912B2 (en) | 2012-10-26 | 2018-08-14 | Baxter Corporation Englewood | Work station for medical dose preparation system |
US10089444B2 (en) | 2012-10-26 | 2018-10-02 | Baxter Corporation Englewood | Image acquisition for medical dose preparation system |
KR101974258B1 (en) * | 2012-10-26 | 2019-04-30 | 백스터 코포레이션 잉글우드 | Improved image acquisition for medical dose preparation system |
US9489489B2 (en) | 2012-10-26 | 2016-11-08 | Baxter Corporation Englewood | Image acquisition for medical dose preparation system |
KR20150070396A (en) * | 2012-10-26 | 2015-06-24 | 백스터 코포레이션 잉글우드 | Improved image acquisition for medical dose preparation system |
KR102078768B1 (en) | 2012-10-26 | 2020-02-19 | 백스터 코포레이션 잉글우드 | Improved image acquisition for medical dose preparation system |
JP2020044377A (en) * | 2012-10-26 | 2020-03-26 | バクスター・コーポレーション・イングルウッドBaxter Corporation Englewood | Improved image acquisition for medical dose preparation system |
US10646405B2 (en) | 2012-10-26 | 2020-05-12 | Baxter Corporation Englewood | Work station for medical dose preparation system |
US11367533B2 (en) | 2014-06-30 | 2022-06-21 | Baxter Corporation Englewood | Managed medical information exchange |
US11107574B2 (en) | 2014-09-30 | 2021-08-31 | Baxter Corporation Englewood | Management of medication preparation with formulary management |
US11575673B2 (en) | 2014-09-30 | 2023-02-07 | Baxter Corporation Englewood | Central user management in a distributed healthcare information management system |
US10818387B2 (en) | 2014-12-05 | 2020-10-27 | Baxter Corporation Englewood | Dose preparation data analytics |
US11948112B2 (en) | 2015-03-03 | 2024-04-02 | Baxter Corporation Engelwood | Pharmacy workflow management with integrated alerts |
USD790727S1 (en) | 2015-04-24 | 2017-06-27 | Baxter Corporation Englewood | Platform for medical dose preparation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020034737A1 (en) | Imaging control method, apparatus, electronic device, and computer-readable storage medium | |
WO2020057199A1 (en) | Imaging method and device, and electronic device | |
WO2020034701A1 (en) | Imaging control method and apparatus, electronic device, and readable storage medium | |
JP2007019973A (en) | Imaging device and imaging method | |
KR20070086061A (en) | Image processing and image processing program of image processing | |
JP2005252657A (en) | Electronic still camera | |
JP2020533883A (en) | Methods and equipment for double camera-based imaging | |
JP2007208849A (en) | Moving picture reproducing device and its program | |
JP2003348438A (en) | Image photographing method and apparatus, image selecting method and apparatus, and program | |
JP5156991B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP5158409B2 (en) | Imaging apparatus and program thereof | |
JP2006033291A (en) | Imaging apparatus, method of controlling the same and processing program thereof | |
JP2003319252A (en) | Digital camera | |
JP5225137B2 (en) | Imaging apparatus, image processing method, and program | |
JP2006108759A (en) | Imaging apparatus | |
JP4104904B2 (en) | Image processing method, apparatus, and program | |
JP5310076B2 (en) | Image processing apparatus and image processing program | |
JP2002258351A (en) | Electronic camera and image processing system | |
JP5320795B2 (en) | Imaging device | |
JP6223173B2 (en) | Image processing apparatus, control method thereof, and program | |
JP2012050121A (en) | Imaging device, imaging method and imaging program | |
JP5332668B2 (en) | Imaging apparatus and subject detection program | |
JP2010119051A (en) | Imaging device and imaging method | |
JP4838644B2 (en) | Imaging apparatus, control method thereof, and program | |
JP2006287516A (en) | Camera apparatus, photographing method, and photographing program |