JP2003319231A - Digital camera - Google Patents

Digital camera

Info

Publication number
JP2003319231A
JP2003319231A JP2002125854A JP2002125854A JP2003319231A JP 2003319231 A JP2003319231 A JP 2003319231A JP 2002125854 A JP2002125854 A JP 2002125854A JP 2002125854 A JP2002125854 A JP 2002125854A JP 2003319231 A JP2003319231 A JP 2003319231A
Authority
JP
Japan
Prior art keywords
image
captured
data
image data
peripheral area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002125854A
Other languages
Japanese (ja)
Inventor
Shinji Matsushima
晋治 松島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002125854A priority Critical patent/JP2003319231A/en
Publication of JP2003319231A publication Critical patent/JP2003319231A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital camera which prevents a boundary part from being unnatural even though a telephotographed image is combined to the central part of an image photographed at a wide angle and obtains images of various photographic magnifications with a simple configuration. <P>SOLUTION: This digital camera is provided with a first photographing system of a wide angle system and a second photographing system of a telephotographing system, generates a reduction image 66 reduced to a photographing magnification being the same as that of a photographic image 62A photographed by the first photographing system from a photographic image 62B photographed by the second photographing system and composes the reduction image with the photographic image 62A photographed by the first photographing system. At this time, correction data for correcting an image of a peripheral region 68 is generated on the basis of image data of the peripheral region 68 of the reduction image 66 and image data of the peripheral region of the photographic image 62A to define the correction data as the image data for the peripheral region 68. The correction data is determined so as to maintain the continuity of image data around the peripheral region. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、デジタルカメラに
係り、特に、複数の撮影系を備えたデジタルカメラに関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital camera, and more particularly to a digital camera having a plurality of photographing systems.

【0002】[0002]

【従来の技術】近年、CCD等の撮像素子を備えたデジ
タルカメラが数多く流通している。このようなデジタル
カメラでは、撮影時には、CCDの受光面に被写体像が
結像され、CCDの各センサで入射光量に応じた量の信
号電荷に変換される。そして、CCDに蓄積された信号
電荷を画素毎に読み取って画像データに変換し、この画
像データをメモリーカードなどの記録媒体に記録してい
る。
2. Description of the Related Art In recent years, many digital cameras equipped with an image pickup device such as a CCD have been distributed. In such a digital camera, a subject image is formed on the light receiving surface of the CCD at the time of shooting, and converted into signal charges of an amount corresponding to the amount of incident light by each sensor of the CCD. Then, the signal charge accumulated in the CCD is read for each pixel and converted into image data, and this image data is recorded in a recording medium such as a memory card.

【0003】また、複数の撮像素子を備えたデジタルカ
メラなども提案されている。例えば、特開2001−1
03466号公報には、広角撮影された画像の中央部
に、望遠撮影された画像を合成することにより、画像の
中央部の画質を向上させることができる技術が開示され
ている。
A digital camera having a plurality of image pickup devices has also been proposed. For example, JP 2001-1
Japanese Patent No. 03466 discloses a technique capable of improving the image quality of the central part of an image by combining the image of the telephoto image with the central part of the wide-angle image.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記従
来技術では、広角撮影された画像と望遠撮影された画像
との境界が不自然になってしまい、画質が劣化する、と
いう問題があった。
However, in the above-mentioned prior art, there is a problem in that the boundary between the wide-angle shot image and the telephoto shot image becomes unnatural and the image quality deteriorates.

【0005】また、様々な撮影倍率の画像を得るために
は、高倍率のズームレンズを使用したり、撮影画像をデ
ジタル処理して拡大することにより、光学ズームでカバ
ーできない撮影倍率を実現する電子ズームの機能を備え
る必要がある。
Further, in order to obtain images of various photographing magnifications, a high-magnification zoom lens is used, or a photographed image is digitally processed to be enlarged to realize a photographing magnification which cannot be covered by optical zoom. It is necessary to have a zoom function.

【0006】しかしながら、高倍率のズームレンズを使
用した場合、アクチュエータ等に要するスペースが必要
となり、制御も複雑になるという問題があり、電子ズー
ムの場合、過度の電子ズームを行った場合には画質が劣
化してしまうという問題があった。
However, when a high-magnification zoom lens is used, there is a problem that a space required for an actuator or the like is required and control is complicated, and in the case of electronic zoom, image quality becomes excessive when excessive electronic zoom is performed. There was a problem that was deteriorated.

【0007】本発明は、上記問題を解決すべく成された
ものであり、広角撮影された画像の中央部に望遠撮影さ
れた画像を合成しても境界部分が不自然になるのを防ぐ
ことができると共に、簡易な構成で様々な撮影倍率の画
像を得ることができるデジタルカメラを提供することを
目的とする。
The present invention has been made to solve the above problems, and prevents the boundary portion from being unnatural even if a telephoto image is combined with the central portion of a wide-angle image. In addition to the above, it is an object of the present invention to provide a digital camera capable of obtaining images with various photographing magnifications with a simple configuration.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に請求項1に記載の発明は、被写体を撮像する第1の撮
像素子と、前記第1の撮像素子に前記被写体の像を結像
する第1のレンズと、を含む第1の撮影系と、前記被写
体を撮像する第2の撮像素子と、前記第1のレンズより
も焦点距離が長く且つ前記第2の撮像素子に前記被写体
の像を結像する第2のレンズと、を含む第2の撮影系
と、前記第2の撮像素子によって撮像された第2の撮像
画像を、前記第1の撮像素子で撮像された第1の撮像画
像と略同一の画角の画像に縮小する縮小手段と、前記縮
小手段により縮小された画像の予め定めた周辺領域の画
像データと前記第1の撮像画像の前記周辺領域に対応す
る画像データとに基づいて、前記周辺領域の画像データ
の連続性を補正して、前記第1の撮像画像と前記縮小手
段により縮小された画像とを合成する合成手段と、を備
えたことを特徴とする。
In order to achieve the above object, the invention according to claim 1 forms a first image pickup device for picking up an image of a subject, and an image of the subject is formed on the first image pickup device. A first image pickup system including a first lens, a second image pickup device for picking up the image of the subject, and a second image pickup device having a focal length longer than that of the first lens. A second imaging system including a second lens that forms an image, and a second captured image captured by the second image sensor, and a first captured image by the first image sensor. Reduction means for reducing to an image having a view angle substantially the same as that of the captured image, image data of a predetermined peripheral area of the image reduced by the reduction means, and image data corresponding to the peripheral area of the first captured image Based on, the continuity of the image data in the peripheral area is corrected Characterized by comprising a synthesizing means for synthesizing the reduced image by the reduction unit and the first captured image.

【0009】この発明によれば、2つの撮影系を備えて
おり、各々の撮影系は、撮像素子と、この撮像素子に被
写体の像を結像させるためのレンズとを備えている。そ
して、例えば第2のレンズは、第1のレンズの焦点距離
よりも長い望遠系のレンズを用いることができ、第1の
レンズは、広角系のレンズを用いることができる。すな
わち、2つの撮影系により、撮影画角が異なる撮像画像
を得ることができる。また、第1の撮像素子及び第2の
撮像素子は、例えば略同一の画素数を有するCCD等で
構成される。
According to the present invention, two image pickup systems are provided, and each image pickup system includes an image pickup device and a lens for forming an image of a subject on the image pickup device. Then, for example, the second lens can use a telephoto lens longer than the focal length of the first lens, and the first lens can use a wide-angle lens. That is, it is possible to obtain picked-up images having different shooting angles of view by the two shooting systems. The first image sensor and the second image sensor are composed of, for example, CCDs having substantially the same number of pixels.

【0010】縮小手段は、第2の撮像素子によって撮像
された第2の撮像画像を、第1の撮像素子で撮像された
第1の撮像画像と略同一の画角の画像に縮小する。すな
わち、第2の撮像画像から、第1の撮像画像の中央部に
相当する画像を生成する。
The reduction means reduces the second captured image captured by the second image sensor to an image having an angle of view substantially the same as that of the first captured image captured by the first image sensor. That is, an image corresponding to the central portion of the first captured image is generated from the second captured image.

【0011】合成手段は、第1の撮影画像と縮小手段に
より縮小された画像とを合成する。このとき、縮小手段
により縮小された画像は、望遠系の第2の撮影系で撮影
された画像から生成されたものであるため、情報量は第
1の撮像画像の中央部の画像の情報量よりも多い。この
ため、画像の中央部の画質を向上させることができる。
The synthesizing means synthesizes the first photographed image and the image reduced by the reducing means. At this time, since the image reduced by the reducing means is generated from the image captured by the second telephoto system, the information amount is the information amount of the image in the central portion of the first captured image. More than. Therefore, the image quality of the central portion of the image can be improved.

【0012】また、合成により、第1の撮影画像と縮小
手段により縮小された画像との境界部分が不連続にな
り、画質が劣化する恐れがある。そこで、合成手段は、
合成の際に、縮小手段により縮小された画像の予め定め
た周辺領域の画像データと第1の撮像画像の周辺領域に
対応する画像データとに基づいて、周辺領域の画像デー
タの連続性を補正する。これにより、境界部分の画像が
不自然になるのを防ぐことができる。
Further, due to the composition, the boundary portion between the first photographed image and the image reduced by the reducing means becomes discontinuous, which may deteriorate the image quality. Therefore, the synthesizing means
When combining, the continuity of the image data of the peripheral area is corrected based on the image data of the predetermined peripheral area of the image reduced by the reducing means and the image data corresponding to the peripheral area of the first captured image. To do. As a result, it is possible to prevent the image at the boundary from becoming unnatural.

【0013】なお、合成手段は、請求項2に記載したよ
うに、前記縮小手段により縮小された画像の予め定めた
周辺領域の画像データと前記第1の撮像画像の前記周辺
領域に対応する画像データとに基づいて、前記周辺領域
の画像データの連続性を補正するための補正データを生
成する補正データ生成手段と、前記第1の撮像画像と前
記縮小手段により縮小された画像とを合成すると共に、
前記周辺領域の画像データを前記補正データで置換する
置換手段と、から成る構成とすることができる。
As described in claim 2, the synthesizing means includes image data of a predetermined peripheral area of the image reduced by the reducing means and an image corresponding to the peripheral area of the first captured image. A correction data generation unit that generates correction data for correcting the continuity of the image data of the peripheral area based on the data, and the first captured image and the image reduced by the reduction unit are combined. With
A replacement unit that replaces the image data of the peripheral region with the correction data can be configured.

【0014】また、請求項3に記載したように、撮影画
角を設定するための設定手段と、前記第1の撮像素子に
よって撮像された前記被写体の撮像画像を前記撮影画角
の画像に拡大する拡大手段と、をさらに備え、前記縮小
手段は、前記第2の撮像素子によって撮像された撮像画
像を前記撮影画角の画像に縮小し、前記補正データ生成
手段は、前記撮影画角の画像に縮小された縮小画像の予
め定めた周辺領域の画像データと前記撮影画角の画像に
拡大された拡大画像の前記周辺領域に対応する画像デー
タとに基づいて、前記周辺領域の画像データの連続性を
補正するための補正データを生成し、前記置換手段は、
前記拡大画像と前記縮小画像とを合成すると共に、前記
周辺領域の画像データを前記補正データで置換するよう
に構成してもよい。これにより、設定手段で設定された
任意の撮影画角の画像を得ることができる。
Further, as described in claim 3, a setting means for setting a photographing angle of view, and a captured image of the subject imaged by the first image sensor are enlarged to the image of the photographing field angle. And a reduction unit that reduces the captured image captured by the second image sensor to an image having the shooting angle of view, and the correction data generating unit has an image having the shooting angle of view. Based on the image data of the predetermined peripheral area of the reduced image reduced to and the image data corresponding to the peripheral area of the enlarged image enlarged to the image of the shooting angle of view, the image data of the peripheral area is continuous. Correction data for correcting the property, and the replacement means,
The enlarged image and the reduced image may be combined and the image data of the peripheral area may be replaced with the correction data. As a result, it is possible to obtain an image with an arbitrary photographing field angle set by the setting means.

【0015】また、前記第1のレンズ及び前記第2のレ
ンズの少なくとも一方がズームレンズとしてもよい。こ
れにより、高倍率ズームと同等の効果を得ることができ
る。
At least one of the first lens and the second lens may be a zoom lens. This makes it possible to obtain the same effect as high-power zoom.

【0016】[0016]

【発明の実施の形態】(第1実施形態)以下、図面を参
照して本発明の第1実施形態の一例を詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION (First Embodiment) An example of the first embodiment of the present invention will be described in detail below with reference to the drawings.

【0017】図1には本発明の実施の形態に係るデジタ
ルカメラのブロック図を示す。このデジタルカメラ10
は、それぞれ独立した2つの撮影系(第1の撮影系12
A及び第2の撮影系12B)を有しており、それぞれ撮
影光学系14A、14Bを介してCCD18A、18B
の受光面に被写体像を結像するようになっている。
FIG. 1 shows a block diagram of a digital camera according to an embodiment of the present invention. This digital camera 10
Are two independent shooting systems (first shooting system 12
A and a second photographing system 12B), and CCDs 18A and 18B through photographing optical systems 14A and 14B, respectively.
A subject image is formed on the light receiving surface of the.

【0018】第1の撮影系12Aは撮影画像取得用とし
て用いられ、第2の撮影系12Bは焦点調整用(AF制
御用)として用いられる。
The first photographing system 12A is used for acquiring a photographed image, and the second photographing system 12B is used for focus adjustment (for AF control).

【0019】撮影光学系14Aは、撮影レンズ15A及
びフォーカスレンズ16Aを含む第1のレンズ群19A
と絞り17Aとを含んで構成されており、同様に、撮影
光学系14Bは、撮影レンズ15B及びフォーカスレン
ズ16Bを含む第2のレンズ群19Bと絞り17Bとを
含んで構成されている。
The photographing optical system 14A comprises a first lens group 19A including a photographing lens 15A and a focus lens 16A.
Similarly, the taking optical system 14B is configured to include a second lens group 19B including a taking lens 15B and a focus lens 16B and an aperture 17B.

【0020】レンズ群19Aは、例えば図2(A)、
(B)に示すように、その画角αがレンズ群19Bの画
角βよりも広い(焦点距離が短い)広角系の単焦点レン
ズとなっている。レンズ群19Bは、その画角βがレン
ズ群19Aの画角αよりも狭い(焦点距離が長い)望遠
系の単焦点レンズとなっている。なお、レンズ群19
A、19Bをズームレンズ(焦点距離可変レンズ)で構
成してもよい。また、レンズ群19A、19Bの何れか
を単焦点レンズで構成してもよい。
The lens group 19A includes, for example, FIG.
As shown in (B), the angle of view α is wider than the angle of view β of the lens group 19B (short focal length) is a wide-angle system single focus lens. The lens group 19B is a telephoto single-focus lens whose angle of view β is narrower (longer focal length) than the angle of view α of the lens group 19A. The lens group 19
A and 19B may be configured by zoom lenses (focal length variable lenses). Further, either of the lens groups 19A and 19B may be composed of a single focus lens.

【0021】また、CCD18AとCCD18Bとは例
えば同一サイズ、すなわち同画素数のCCDで構成され
る。従って、第1の撮影系12Aで撮影された画像が、
図3(A)に示すような撮影画像62Aであった場合、
第2の撮影系12Bで撮影される画像は、図3(B)に
示すように、図3(A)の中央部が拡大された撮影画像
62Bとなる。
The CCD 18A and the CCD 18B are, for example, CCDs of the same size, that is, the same number of pixels. Therefore, the image photographed by the first photographing system 12A is
If the captured image 62A as shown in FIG.
The image captured by the second image capturing system 12B is a captured image 62B in which the central portion of FIG. 3A is enlarged, as shown in FIG. 3B.

【0022】なお、CCD18Aは本発明の第1の撮像
素子に相当し、CCD18Bは本発明の第2の撮像素子
に相当し、第1のレンズ群19Aは本発明の第1のレン
ズに相当し、第2のレンズ群19Bは本発明の第2のレ
ンズに相当する。
The CCD 18A corresponds to the first image sensor of the present invention, the CCD 18B corresponds to the second image sensor of the present invention, and the first lens group 19A corresponds to the first lens of the present invention. The second lens group 19B corresponds to the second lens of the present invention.

【0023】それぞれの撮影光学系14A、14Bを介
してCCD18A、18Bの受光面に結像された被写体
像は、各センサで入射光量に応じた量の信号電荷に変換
される。このようして蓄積された信号電荷は、CCD駆
動回路20A、20Bから加えられるCCD駆動パルス
によって読み出され、信号電荷に応じた電圧信号(アナ
ログ画像信号)として順次CCD18A、18Bから出
力される。
The subject images formed on the light receiving surfaces of the CCDs 18A and 18B via the respective photographing optical systems 14A and 14B are converted into signal charges by the respective sensors according to the incident light amount. The signal charges accumulated in this way are read by CCD driving pulses applied from the CCD driving circuits 20A and 20B, and are sequentially output from the CCDs 18A and 18B as voltage signals (analog image signals) corresponding to the signal charges.

【0024】CCD18A、18Bには、シャッターゲ
ートを介してシャッタードレインが設けられており、シ
ャッターゲートをシャッターゲートパルスによって駆動
することにより、蓄積した信号電荷をシャッタードレイ
ンに掃き出すことができる。すなわち、CCD18は、
シャッターゲートパルスによって各センサに蓄積される
電荷の蓄積時間(シャッタースピード)を制御する、い
わゆる電子シャッター機能を有している。
Each of the CCDs 18A and 18B is provided with a shutter drain via a shutter gate. By driving the shutter gate with a shutter gate pulse, accumulated signal charges can be swept out to the shutter drain. That is, the CCD 18
It has a so-called electronic shutter function that controls the accumulation time (shutter speed) of the charge accumulated in each sensor by the shutter gate pulse.

【0025】それぞれのCCD18A、18Bから読み
出された信号は、CDS回路22A、22Bにおいて相
関二重サンプリング(CDS)処理されると共に、R、
G、Bの各色信号に色分離処理され、各色信号の信号レ
ベルの調整(例えばプリホワイトバランス処理)が行わ
れる。
The signals read from the CCDs 18A and 18B are subjected to correlated double sampling (CDS) processing in the CDS circuits 22A and 22B, and R,
Color separation processing is performed on each of the G and B color signals, and the signal level of each color signal is adjusted (for example, pre-white balance processing).

【0026】これら所定のアナログ信号処理を経た画像
信号は、A/D変換器24A、24Bに加えられ、該A
/D変換器24A、24BによりR、G、Bのデジタル
信号に変換された後、メモリ26A、26Bに格納され
る。なお、メモリ26A、26Bは1つのメモリでもよ
いし、それぞれ撮影系毎に別々のメモリとしてもよい。
また、メモリ26A、26Bには、画像データ以外の各
種データも記憶される。
The image signal subjected to the predetermined analog signal processing is added to A / D converters 24A and 24B, and the A
After being converted into R, G, B digital signals by the / D converters 24A, 24B, they are stored in the memories 26A, 26B. The memories 26A and 26B may be one memory, or may be separate memories for each imaging system.
The memories 26A and 26B also store various data other than image data.

【0027】タイミング信号発生回路(TG)28は、
CPU30からのコマンドに応じてCCD駆動回路20
A、20B、CDS回路22A、22B、及びA/D変
換器24A、24Bに対して適宜のタイミング信号を与
えており、各回路はタイミング信号発生回路28から加
えられるタイミング信号により同期して駆動されるよう
になっている。
The timing signal generation circuit (TG) 28 is
CCD drive circuit 20 in response to a command from CPU 30
A, 20B, CDS circuits 22A, 22B, and A / D converters 24A, 24B are provided with appropriate timing signals, and each circuit is driven in synchronization with a timing signal added from a timing signal generation circuit 28. It has become so.

【0028】CPU30は、デジタルカメラ10の各回
路を統括制御する制御部であり、バス32を介してゲイ
ン調整回路34、ガンマ補正回路36、輝度・色差信号
処理回路(YC処理回路という)38、圧縮伸張回路4
0、メモリカード42のカードインターフェース44、
及び表示部46を駆動する表示用ドライバ48等と接続
されている。
The CPU 30 is a control unit for integrally controlling each circuit of the digital camera 10, and includes a gain adjusting circuit 34, a gamma correction circuit 36, a luminance / color difference signal processing circuit (referred to as YC processing circuit) 38 via a bus 32. Compression / expansion circuit 4
0, card interface 44 of the memory card 42,
And a display driver 48 for driving the display unit 46 and the like.

【0029】CPU30は操作部50からの入力信号に
基づいて対応する回路ブロックを制御すると共に、撮影
レンズ15A、15Bのズーミング動作やフォーカスレ
ンズ16A、16Bによる自動焦点調整(AF)動作の
制御、並びに自動露出調整(AE)の制御等を行う。
The CPU 30 controls corresponding circuit blocks based on an input signal from the operation unit 50, controls zooming operations of the photographing lenses 15A and 15B and automatic focus adjustment (AF) operations by the focus lenses 16A and 16B, and Controls automatic exposure adjustment (AE).

【0030】操作部50には、画像の記録開始の指示を
与えるレリーズボタン、カメラのモード選択手段、ズー
ム操作手段、その他の各種の入力手段が含まれる。これ
ら入力手段は、スイッチボタン、ダイヤル、スライド式
ツマミなど種々の形態があり、タッチパネルや液晶モニ
タ表示部の画面上において設定メニューや選択項目を表
示してカーソルで所望の項目を選択する態様がある。操
作部50はカメラ本体に配設されていてもよいし、リモ
コン送信機としてカメラ本体と分離した構成にすること
も可能である。
The operation section 50 includes a release button for giving an instruction to start recording an image, a mode selection means for the camera, a zoom operation means, and various other input means. These input means have various forms such as switch buttons, dials, and sliding knobs, and there is a mode in which a setting menu or selection items are displayed on the screen of a touch panel or a liquid crystal monitor display unit and a desired item is selected with a cursor. . The operation unit 50 may be provided in the camera body, or may be configured as a remote control transmitter separated from the camera body.

【0031】CPU30は、CCD18A、18Bから
出力される画像信号に基づいて、焦点評価演算やAE演
算などの各種演算を行い、その演算に基づいて、撮影レ
ンズ15A、15B、フォーカスレンズ16A、16
B、及び絞り17A、17Bの駆動回路52A、52B
を制御する。すなわち、レンズ群19A、19Bをズー
ムレンズで構成した場合には、モータ54A、54Bを
駆動することによって撮影レンズ15A、15Bをズー
ミングさせ撮影倍率を変更する。なお、手動でズーミン
グする構成の場合や単焦点レンズの場合には、モータ5
4A、54Bは省略することができる。
The CPU 30 performs various calculations such as focus evaluation calculation and AE calculation based on the image signals output from the CCDs 18A and 18B, and based on the calculations, the photographing lenses 15A and 15B and the focus lenses 16A and 16B.
B, and drive circuits 52A and 52B for the diaphragms 17A and 17B
To control. That is, when the lens groups 19A and 19B are composed of zoom lenses, the photographing lenses 15A and 15B are zoomed by driving the motors 54A and 54B to change the photographing magnification. In the case of manual zooming or a single focus lens, the motor 5
4A and 54B can be omitted.

【0032】また、モータ56A、56Bを駆動するこ
とによって、フォーカスレンズ16A、16Bを合焦位
置に移動させると共に、絞り17A、17Bを適正絞り
値に設定する。モータ56A、56Bはステッピングモ
ータからなり、ステップ数を制御することによってフォ
ーカスレンズ位置が制御される。なお、モータ56A、
56Bはステッピングモータに限るものではなく、例え
ば、DCモータ等を用いることも可能である。なお、モ
ータ54A、54Bも同様にステッピングモータやDC
モータ等を用いることができる。
By driving the motors 56A and 56B, the focus lenses 16A and 16B are moved to the in-focus position, and the diaphragms 17A and 17B are set to proper diaphragm values. The motors 56A and 56B are stepping motors, and the focus lens position is controlled by controlling the number of steps. The motor 56A,
56B is not limited to a stepping motor, but a DC motor or the like may be used, for example. Note that the motors 54A and 54B are also stepping motors and DCs.
A motor or the like can be used.

【0033】AF制御は、G信号の高周波成分が最大に
なるようにフォーカスレンズ16A、16Bを移動させ
るコントラストAF方式が採用される。すなわち、駆動
回路52A、52Bを介してモータ56A、56Bを駆
動することによりフォーカスレンズ16A、16Bを移
動させて、コントラスト値が最大となる位置にフォーカ
スレンズ16A、16Bを位置させる。
The AF control employs a contrast AF method in which the focus lenses 16A and 16B are moved so that the high frequency component of the G signal becomes maximum. That is, the focus lenses 16A and 16B are moved by driving the motors 56A and 56B via the drive circuits 52A and 52B, and the focus lenses 16A and 16B are positioned at the position where the contrast value is maximum.

【0034】AE制御には、1フレームのR、G、B信
号を積算回路60A、60Bで積算した積算値に基づい
て被写体輝度(撮影EV値)を求め、この撮影EV値に
基づいて絞り値とシャッタースピードを決定し、駆動回
路52A、52Bを介して絞り17A、17Bを駆動す
ると共に、決定したシャッタースピードとなるように電
子シャッタによってCCD18A、18Bの電荷の蓄積
時間を制御する。従って、デジタルカメラ10の撮影レ
ンズ15A、15Bを被写体に向けるだけで、最適な露
出調整が行われると共に、ピント合わせが自動的に行わ
れる。
In the AE control, the subject brightness (photographing EV value) is obtained based on the integrated value obtained by integrating the R, G, B signals of one frame by the integrating circuits 60A, 60B, and the aperture value is calculated based on this photographing EV value. The shutter speed is determined, the diaphragms 17A and 17B are driven through the drive circuits 52A and 52B, and the charge accumulation time of the CCDs 18A and 18B is controlled by the electronic shutter so that the determined shutter speed is achieved. Therefore, only by directing the taking lenses 15A and 15B of the digital camera 10 to the subject, the optimum exposure adjustment is performed and the focusing is automatically performed.

【0035】撮影記録時においては、レリーズボタンの
「半押し」時に上述したAF動作を行うと共に、測光動
作を複数回繰り返して正確な撮影EVを求め、この撮影
EVに基づいて撮影時の絞り値とシャッタスピードを最
終的に決定する。そして、レリーズボタンの「全押し」
時に前記最終的に決定した絞り値になるように絞り17
A、17Bを駆動し、また、決定したシャッタスピード
となるように電子シャッタによって電荷の蓄積時間を制
御する。なお、AE制御はCCD18A、18Bから取
得される画像信号に基づいて制御する方法の他、周知の
測光センサ等を用いて行ってもよい。
At the time of shooting and recording, the above-mentioned AF operation is performed when the release button is "half-pressed", and an accurate shooting EV is obtained by repeating the photometric operation a plurality of times, and the aperture value at the time of shooting is obtained based on this shooting EV. And finally the shutter speed is decided. Then, press the release button "fully."
Sometimes, the aperture value is adjusted so that the aperture value finally determined is the same as the aperture value 17
A and 17B are driven, and the charge accumulation time is controlled by the electronic shutter so that the shutter speed becomes the determined shutter speed. Note that the AE control may be performed using a known photometric sensor or the like in addition to the method of controlling based on the image signals acquired from the CCDs 18A and 18B.

【0036】また、このデジタルカメラ10はストロボ
発光装置55と、調光用の受光素子57を有し、操作部
50に含まれるストロボモード設定ボタンの操作に応じ
て、低輝度時にストロボ発光装置55を自動的に発光さ
せる「低輝度自動発光モード」、被写体輝度にかかわら
ずストロボ発光装置55を発光させる「強制発光モー
ド」、又はストロボ発光装置55の発光を禁止させる
「発光禁止モード」等に設定される。
Further, the digital camera 10 has a strobe light emitting device 55 and a light receiving element 57 for light control, and in response to the operation of a strobe mode setting button included in the operation unit 50, the strobe light emitting device 55 at low brightness. Set to "low-brightness automatic flash mode" that automatically flashes, "forced flash mode" that flashes the flash 55 regardless of subject brightness, or "flash off mode" that disables flashing of the flash 55 To be done.

【0037】CPU30はユーザが選択したストロボモ
ードに応じて、ストロボ発光装置55のメインコンデン
サの充電制御や、発光管(例えば、キセノン管等)への
放電(発光)タイミングを制御すると共に、受光素子5
7からの測定結果に基づいて発光停止の制御を行う。受
光素子57はストロボの発光によって照らされる被写体
からの反射光を受光し、受光量に応じた電気信号に変換
する。受光素子57の信号は図示しない積分回路により
積算され、積算受光量が所定の適正受光量に達した時に
ストロボ発光装置55の発光が停止される。
The CPU 30 controls the charging of the main capacitor of the strobe light emitting device 55 and the discharge (light emission) timing to the light emitting tube (for example, a xenon tube) according to the strobe mode selected by the user, and the light receiving element. 5
The light emission stop control is performed based on the measurement result from 7. The light receiving element 57 receives the reflected light from the subject illuminated by the strobe light and converts it into an electric signal according to the amount of received light. The signal of the light receiving element 57 is integrated by an integrating circuit (not shown), and when the integrated amount of received light reaches a predetermined appropriate amount of received light, the strobe light emitting device 55 stops emitting light.

【0038】A/D変換器24A、24Bから出力され
たデータは前記メモリ26A、26Bに格納されると共
に、積算回路60A、60Bに加えられる。積算回路6
0A、60Bは、撮影画面を複数のブロック(例えば、
8×8の64個のブロック)に分割し、各ブロック毎に
受入したG信号の積算演算を行う。なお、R、G、Bの
データから輝度信号(Y信号)を生成して、輝度信号の
積算演算を行ってもよい。また、積算回路60A、60
BはAF演算回路やAE演算回路で兼用することもでき
る。積算回路60A、60Bで得られた積算値の情報
(演算結果)はCPU60に入力される。
The data output from the A / D converters 24A and 24B are stored in the memories 26A and 26B and added to the integrating circuits 60A and 60B. Integrating circuit 6
0A and 60B include a plurality of blocks (for example,
(8 × 8 64 blocks), and the G signal received for each block is integrated. It should be noted that a luminance signal (Y signal) may be generated from the R, G, and B data and integrated calculation of the luminance signal may be performed. In addition, the integrating circuits 60A and 60
B can also be used as an AF arithmetic circuit or an AE arithmetic circuit. Information (calculation result) of the integrated value obtained by the integrating circuits 60A and 60B is input to the CPU 60.

【0039】CPU30は積算回路60A、60Bから
受入する情報に基づき、撮影画面の評価値Eを算出し、
求めた評価値Eを用いてゲイン調整回路34におけるゲ
イン値(増幅率)を決定する。CPU30は決定したゲ
イン値に従ってゲイン調整回路34におけるゲイン量を
制御する。
The CPU 30 calculates the evaluation value E of the photographing screen based on the information received from the integrating circuits 60A and 60B,
The obtained evaluation value E is used to determine the gain value (amplification factor) in the gain adjustment circuit 34. The CPU 30 controls the gain amount in the gain adjusting circuit 34 according to the determined gain value.

【0040】メモリ26A、26Bに記憶されたR、
G、Bの画像データはゲイン調整回路34に送られ、こ
こで増幅処理される。増幅処理された画像データは、ガ
ンマ補正回路36において、ガンマ補正処理が施された
後、YC処理回路38へ送られ、RGBデータから輝度
信号(Y信号)及び色差信号(Cr、Cb信号)に変換
される。
R stored in the memories 26A and 26B,
The G and B image data are sent to the gain adjusting circuit 34, and are amplified there. The image data subjected to the amplification processing is subjected to gamma correction processing in the gamma correction circuit 36 and then sent to the YC processing circuit 38, where it is converted from RGB data into a luminance signal (Y signal) and a color difference signal (Cr, Cb signal). To be converted.

【0041】YC処理回路38において生成された輝度
・色差信号(YC信号と略記する)は、メモリ26A、
26Bに書き戻される。メモリ26A、26Bに記憶さ
れたYC信号は表示用ドライバ48に供給され、所定方
式の信号(例えば、NTSC方式のカラー複合映像信
号)に変換されて表示部46に出力される。表示部46
には液晶ディスプレイその他のカラー表示可能な表示装
置が用いられる。なお、表示部46はYC信号入力対応
のタイプのものを適用してもよいし、RGB信号入力対
応のタイプのものを適用してもよく、表示装置に対応し
たドライバが適用される。
The luminance / color difference signal (abbreviated as YC signal) generated in the YC processing circuit 38 is stored in the memory 26A,
It is written back to 26B. The YC signal stored in the memories 26A and 26B is supplied to the display driver 48, converted into a predetermined system signal (for example, NTSC system color composite video signal), and output to the display unit 46. Display unit 46
A liquid crystal display or other display device capable of color display is used as the display device. The display unit 46 may be of a type compatible with YC signal input or may be of a type compatible with RGB signal input, and a driver compatible with a display device may be applied.

【0042】CCD18A、18Bから出力される画像
信号によって画像データが定期的に書き換えられ、その
画像データから生成される映像信号が表示部46に供給
されることにより、CCD18A、18Bが捉える画像
がリアルタイムに動画像(ライブ画像)として、又はリ
アルタイムではないが、ほぼ連続した画像として表示部
46に表示される。
Image data is periodically rewritten by image signals output from the CCDs 18A and 18B, and a video signal generated from the image data is supplied to the display unit 46, so that images captured by the CCDs 18A and 18B are real-time. Is displayed on the display unit 46 as a moving image (live image) or as a substantially continuous image although not in real time.

【0043】表示部46は電子ビューファインダとして
利用でき、撮影者は表示部46の表示画像又は図示しな
い電子ビューファインダによって撮影画角を確認するこ
とができる。レリーズボタンの押下操作など所定の記録
指示(撮影開始指示)操作に呼応して、記録用画像デー
タの取り込みが開始される。
The display section 46 can be used as an electronic viewfinder, and the photographer can confirm the photographing field angle by the display image of the display section 46 or the electronic viewfinder (not shown). In response to a predetermined recording instruction (imaging start instruction) operation such as a release button pressing operation, the acquisition of the recording image data is started.

【0044】撮影者が操作部50から撮影記録の指示を
入力すると、CPU30は必要に応じて圧縮伸張回路4
0にコマンドを送り、これにより圧縮伸張回路40はメ
モリ26A、26B上のYCデータをJPEGその他の
所定の形式に従って圧縮する。圧縮された画像データは
カードインターフェース44を介してメモリカード42
に記録される。
When the photographer inputs a photographing / recording instruction from the operation unit 50, the CPU 30 causes the compression / expansion circuit 4 to operate as necessary.
A command is sent to 0, whereby the compression / expansion circuit 40 compresses the YC data on the memories 26A and 26B in accordance with a predetermined format such as JPEG. The compressed image data is transferred to the memory card 42 via the card interface 44.
Recorded in.

【0045】非圧縮の画像データを記録するモード(非
圧縮モード)が選択されている場合には、前記圧縮伸張
回路40による圧縮処理を実施せずに、非圧縮のまま画
像データがメモリカード42に記録される。
When the mode for recording non-compressed image data (non-compression mode) is selected, the compression processing by the compression / expansion circuit 40 is not performed, and the image data remains uncompressed in the memory card 42. Recorded in.

【0046】本実施の形態に係るデジタルカメラ10
は、画像データを保存する手段としてメモリカード42
が用いられている。具体的には、例えばスマートメディ
ア等の記録メディアが適用される。記録メディアの形態
は、上記のものに限らず、PCカード、マイクロドライ
ブ、マルチメディアカード(MMC)、磁気ディスク、
光ディスク、光磁気ディスク、メモリスティックなど種
々の形態が可能であり、使用される媒体に応じた信号処
理手段とインターフェースが適用される。
Digital camera 10 according to the present embodiment
Is a memory card 42 as a means for storing image data.
Is used. Specifically, for example, a recording medium such as smart media is applied. The form of the recording medium is not limited to the above, but may be a PC card, a micro drive, a multimedia card (MMC), a magnetic disk,
Various forms such as an optical disc, a magneto-optical disc, and a memory stick are possible, and a signal processing means and an interface according to the medium used are applied.

【0047】また、再生モード時にはメモリカード42
から読み出された画像データが圧縮伸張回路40によっ
て伸張処理され、表示用ドライバ48を介して表示部4
6に出力される。
In the reproduction mode, the memory card 42
The image data read from the display unit 4 is expanded by the compression / expansion circuit 40, and is displayed on the display unit 4 via the display driver 48.
6 is output.

【0048】次に、2つの撮影系で撮影された撮影画像
の合成処理について説明する。本実施の形態では、第1
の撮影系12Aで撮影された撮影画像62Aと第2の撮
影系12Bで撮影された撮影画像62Bとを合成するこ
とにより、撮影画像の中央部の画質を向上させた画像を
生成する。
Next, the synthesizing process of photographed images photographed by the two photographing systems will be described. In the present embodiment, the first
By combining the photographed image 62A photographed by the photographing system 12A and the photographed image 62B photographed by the second photographing system 12B, an image in which the image quality of the central portion of the photographed image is improved is generated.

【0049】例えば、ズーム操作手段により、最も広角
での撮影、すなわち画角αでの撮影が指示されている場
合には、図4(A)、(B)に示すように、第2の撮影
系12Bで撮影された撮影画像62Bから第1の撮影系
12Bで撮影された撮影画像62Aと同じ撮影倍率(撮
影画角)に縮小した縮小画像66を生成し、これを第1
の撮影系12Aで撮影された撮影画像62Aと合成す
る。すなわち、縮小画像66に相当する撮影画像62A
の中央部の画像を、前記縮小画像66で置換することに
より両者の画像を合成する。これにより、画像の中央部
の画質を向上させた画像を得ることができる。
For example, in the case where the zoom operation means has instructed the shooting at the widest angle, that is, the shooting at the view angle α, the second shooting is performed as shown in FIGS. A reduced image 66 is generated by reducing the captured image 62B captured by the system 12B to the same capturing magnification (capturing angle of view) as that of the captured image 62A captured by the first capturing system 12B.
It is combined with the photographed image 62A photographed by the photographing system 12A. That is, the captured image 62A corresponding to the reduced image 66
By replacing the image in the center of the image with the reduced image 66, both images are combined. This makes it possible to obtain an image in which the image quality of the central portion of the image is improved.

【0050】しかしながら、撮影画像62Aの中央部の
画像を、単に縮小画像66で置換しただけでは、両者の
境界部分が不自然になってしまい、画質の低下を招く恐
れがある。
However, if the central image of the photographed image 62A is simply replaced by the reduced image 66, the boundary between the two becomes unnatural, and the image quality may deteriorate.

【0051】そこで、本実施の形態では、図4(A)に
示すように、縮小画像66の周辺領域68(斜線で示す
領域)の画像データと、撮影画像62Aの周辺領域68
の画像データとに基づいて、周辺領域68の画像を補正
するための補正データを生成する。そして、この補正デ
ータを周辺領域68の画像データとする。これにより、
撮影画像62Aと縮小画像66との境界部分に不自然さ
が発生するのを防ぐことができ、画質の劣化を防ぐこと
ができる。
Therefore, in the present embodiment, as shown in FIG. 4A, the image data of the peripheral area 68 (area indicated by diagonal lines) of the reduced image 66 and the peripheral area 68 of the photographed image 62A.
The correction data for correcting the image of the peripheral region 68 is generated based on the image data of No. Then, this correction data is used as the image data of the peripheral area 68. This allows
It is possible to prevent unnaturalness from occurring at the boundary between the captured image 62A and the reduced image 66, and to prevent deterioration in image quality.

【0052】次に、周辺領域68の補正データの生成処
理について説明する。
Next, the process of generating the correction data for the peripheral area 68 will be described.

【0053】図5には、撮影画像62Aを構成する画像
データのうち図4(A)に示すA−B間における特定色
(例えばR)の画像データ70、縮小画像66の画像デ
ータ72の一例を示した。
FIG. 5 shows an example of the image data 70 of the specific color (for example, R) between A and B shown in FIG. 4A and the image data 72 of the reduced image 66 of the image data forming the photographed image 62A. showed that.

【0054】補正データの生成では、周辺領域68の外
縁部の位置を示す位置X1から周辺領域68の内縁部の
位置を示す位置Xnまでをn分割する(n=1,2,
3,…)。そして、n分割された位置X1〜Xnにそれぞ
れ対応する補正データD1〜Dnを求める。
In the generation of the correction data, the position X 1 indicating the position of the outer edge of the peripheral region 68 to the position X n indicating the position of the inner edge of the peripheral region 68 is divided into n (n = 1, 2,
3, ...). Then, the correction data D 1 to D n corresponding to the n-divided positions X 1 to X n are obtained.

【0055】まず、周辺領域68の外縁部の位置を示す
位置X1の補正データD1は、図5に示すように、撮影画
像62Aを構成する画像データ70の画像データをその
まま用い、周辺領域68の内縁部の位置を示す位置Xn
の補正データDnは、図5に示すように、縮小画像66
を構成する画像データ72の画像データをそのまま用い
る。そして、位置X2〜Xn-1までの補正データD2〜D
n-1を次式に従って求める。
First, as the correction data D 1 at the position X 1 indicating the position of the outer edge of the peripheral area 68, as shown in FIG. 5, the image data of the image data 70 forming the photographed image 62A is used as it is, Position X n indicating the position of the inner edge of 68
The correction data D n of the reduced image 66
The image data of the image data 72 constituting the above is used as it is. Then, the correction data D 2 to D at the positions X 2 to X n-1
Calculate n-1 according to the following formula.

【0056】Di=D1−{(Xi−X1)/L}×H …
(1)ここで、i=2,3,…n−1である。また、L
は、周辺領域68の幅であり、Xn−X1で表すことがで
きる。また、Hは、補正データD1と補正データDnとの
差である。
D i = D 1 − {(X i −X 1 ) / L} × H ...
(1) Here, i = 2, 3, ... N-1. Also, L
Is the width of the peripheral region 68 and can be represented by X n −X 1 . H is the difference between the correction data D 1 and the correction data D n .

【0057】すなわち、周辺領域68の左端である位置
1から周辺領域68の右端である位置Xnに向けて、補
正データが画像データ70から画像データ72に近づく
ように、補正データD1〜Dnが決定される。これによ
り、周辺領域68の補正データは、図5の一点鎖線で示
すような補正曲線で表されるため、A−B間の画像デー
タがほぼ連続的となるため、撮影画像62Aと縮小画像
66との境界部分が不自然になるのを防ぐことができ
る。
That is, from the position X 1 which is the left end of the peripheral area 68 to the position X n which is the right end of the peripheral area 68, the correction data D 1 to D n is determined. As a result, the correction data of the peripheral area 68 is represented by the correction curve as shown by the alternate long and short dash line in FIG. It is possible to prevent the boundary part between and from becoming unnatural.

【0058】上記の処理は、図6に示すように、撮影画
像62Aの中心位置74を中心とした放射線76上にお
ける周辺領域68の画像データ70、72の全てについ
て行われ、これにより、周辺領域68全てについて補正
データが生成される。
As shown in FIG. 6, the above processing is performed for all the image data 70 and 72 of the peripheral area 68 on the radiation 76 centered on the center position 74 of the captured image 62A, whereby the peripheral area is obtained. Correction data is generated for all 68.

【0059】そして、これらの処理をR,G,B全ての
画像について行うことにより、補正データの生成が完了
する。
Then, by carrying out these processes for all the R, G, B images, the generation of the correction data is completed.

【0060】なお、補正データの生成は、上記の方法に
限定されず、A−B間の画像データがほぼ連続的となる
ようなものであれば、どのような方法を採用してもよ
い。
The generation of the correction data is not limited to the above method, and any method may be adopted as long as the image data between A and B is substantially continuous.

【0061】また、中間倍率の画像、すなわち、撮影画
像62Aの撮影倍率と撮影画像62Bの撮影倍率との中
間の倍率の画像を生成する場合には、撮影画像62Aを
中間倍率に拡大した拡大画像を生成すると共に、撮影画
像62Bを中間倍率に縮小した縮小画像を生成して、上
記の方法により合成すればよい。これにより、ズームレ
ンズを使用することなく、無段階に中間倍率の画像を得
ることができる。
In the case of generating an image of intermediate magnification, that is, an image of intermediate magnification between the photographing magnification of the photographed image 62A and the photographing magnification of the photographed image 62B, an enlarged image obtained by enlarging the photographed image 62A to the intermediate magnification. Is generated, a reduced image obtained by reducing the captured image 62B to an intermediate magnification is generated, and the reduced image may be combined by the above method. As a result, it is possible to obtain an intermediate-magnification image steplessly without using a zoom lens.

【0062】次に、本実施の形態の作用として、CPU
30で実行される制御ルーチンについて、図7のフロー
チャートを参照して説明する。
Next, as an operation of this embodiment, the CPU
The control routine executed in 30 will be described with reference to the flowchart in FIG.

【0063】ステップ100では、レリーズボタンが全
押しされたか否かが判断される。レリーズボタンが押下
されていない場合には、ステップ100の判断が否定さ
れ、レリーズボタンが押下されるまで待機する。
In step 100, it is determined whether or not the release button has been fully pressed. If the release button has not been pressed, the determination in step 100 is denied, and the process waits until the release button is pressed.

【0064】一方、レリーズボタンが押下された場合に
は、ステップ100の判断が肯定され、ステップ102
へ移行し、上記のようにして第1の撮影系12A及び第
2の撮影系12Bのそれぞれにおいて撮像処理が行われ
る。これにより、撮影画像62Aがメモリ26Aに、撮
影画像62Bがメモリ26Bにそれぞれ記憶される。
On the other hand, if the release button is pressed, the determination in step 100 is affirmative, and step 102
Then, the imaging process is performed in each of the first imaging system 12A and the second imaging system 12B as described above. As a result, the captured image 62A is stored in the memory 26A and the captured image 62B is stored in the memory 26B.

【0065】次のステップ104では、第1の撮影系1
2Aで撮影された撮影画像62Aを、指定された倍率に
拡大する。この倍率は、ズーム操作手段のズーム操作量
に応じて決定される。なお、ステップ104の処理は、
本発明の拡大手段に相当し、ズーム操作手段は、本発明
の設定手段に相当する。
In the next step 104, the first photographing system 1
The captured image 62A captured in 2A is enlarged to the designated magnification. This magnification is determined according to the zoom operation amount of the zoom operation means. The process of step 104 is
The zoom operation means corresponds to the enlargement means of the present invention, and the zoom operation means corresponds to the setting means of the present invention.

【0066】そして、次のステップ106において、第
2の撮影系12Bで撮影された撮影画像62Bを、指定
された倍率に縮小する。なお、ステップ106の処理
は、本発明の縮小手段に相当する。
Then, in the next step 106, the photographed image 62B photographed by the second photographing system 12B is reduced to the designated magnification. The processing of step 106 corresponds to the reducing means of the present invention.

【0067】次に、ステップ108において、上記のよ
うにして周辺領域68の補正データを生成する。すなわ
ち、第2の撮影系12Bで撮影された撮影画像62Bを
縮小した縮小画像の周辺領域の画像データと、第1の撮
影系12Aで撮影された撮影画像62Aを指定された倍
率に拡大した拡大画像の画像データのうち前記周辺領域
の画像データと、に基づいて、周辺領域の補正データを
生成する。この補正データは、画像の周辺部である第1
の撮影系12Aで撮影された撮影画像62Aを拡大した
拡大画像と第2の撮影系12Bで撮影された撮影画像6
2Bを縮小した縮小画像との境界部分の画像データがほ
ぼ連続的となるように決定される。これにより、拡大画
像と縮小画像との境界部分が不自然になるのを防ぐこと
ができる。なお、ステップ108の処理は、本発明の補
正データ生成手段に相当する。
Next, in step 108, the correction data of the peripheral area 68 is generated as described above. That is, the image data of the peripheral area of the reduced image obtained by reducing the captured image 62B captured by the second capturing system 12B and the captured image 62A captured by the first capturing system 12A are enlarged to a specified magnification. The correction data of the peripheral area is generated based on the image data of the peripheral area of the image data of the image. This correction data is the first part which is the peripheral part of the image.
Magnified image of the photographic image 62A taken by the second photographic system 12B and the photographic image 6 taken by the second photographic system 12B
The image data at the boundary with the reduced image obtained by reducing 2B is determined to be substantially continuous. This can prevent the boundary portion between the enlarged image and the reduced image from becoming unnatural. The processing of step 108 corresponds to the correction data generating means of the present invention.

【0068】そして、次のステップ110において、画
像の合成処理を行う。すなわち、第1の撮影系12Aで
撮影された撮影画像62Aを拡大した拡大画像に、第2
の撮影系12Bで撮影された撮影画像62Bを縮小した
縮小画像を合成すると共に、縮小画像の周辺領域を、ス
テップ108で生成した補正データに置換する。これに
より、合成画像の周辺部の画像データは第1の撮影系1
2Aで撮影された撮影画像62Aを拡大した拡大画像の
画像データとなり、合成画像の中央部の画像データは第
2の撮影系12Bで撮影された撮影画像62Bを縮小し
た縮小画像の画像データとなり、拡大画像と縮小画像と
の境界部分は生成した補正データとなる。なお、ステッ
プ110の処理は、本発明の合成手段に相当する。
Then, in the next step 110, image synthesizing processing is performed. That is, the enlarged image obtained by enlarging the photographed image 62A photographed by the first photographing system 12A is
The reduced image obtained by reducing the captured image 62B captured by the image capturing system 12B is combined, and the peripheral area of the reduced image is replaced with the correction data generated in step 108. As a result, the image data of the peripheral portion of the composite image is stored in the first imaging system 1
It becomes image data of an enlarged image obtained by enlarging the taken image 62A taken by 2A, and the image data of the central portion of the composite image becomes image data of a reduced image obtained by reducing the taken image 62B taken by the second taking system 12B. The boundary portion between the enlarged image and the reduced image is the generated correction data. The processing of step 110 corresponds to the synthesizing means of the present invention.

【0069】このように、本実施の形態では、広角系の
撮影系で撮影された撮影画像と望遠系の撮影系で撮影さ
れた撮影画像を合成すると共に、両者の境界部分の画像
データを、広角系の撮影系で撮影された撮影画像の画像
データから望遠系の撮影系で撮影された撮影画像の画像
データに徐々に近づくような補正データで置換し、境界
部分付近の画像データがほぼ連続性を保つようにして合
成する。これにより、画像の中央部の画質を向上させる
ことができると共に、境界部分の画像が不自然になるの
を防ぐことができる。
As described above, according to the present embodiment, a photographic image photographed by the wide-angle photographic system and a photographic image photographed by the telephoto photographic system are combined, and the image data of the boundary portion between the two is Replace the image data of the image shot with the wide-angle shooting system with the correction data that gradually approaches the image data of the image shot with the telephoto shooting system, and the image data near the boundary is almost continuous. Synthesize so as to maintain sex. As a result, the image quality of the central portion of the image can be improved and the image of the boundary portion can be prevented from becoming unnatural.

【0070】また、広角系の撮影系で撮影された撮影画
像を拡大した拡大画像と望遠系の撮影系で撮影された撮
影画像を縮小した縮小画像を合成することにより、ズー
ムレンズを使用することなく、無段階に中間倍率の画像
を得ることができる。これにより、簡易な装置構成で様
々な倍率の画像を得ることができる。
Further, the zoom lens can be used by synthesizing a magnified image obtained by enlarging a photographed image taken by the wide-angle taking system and a reduced image obtained by reducing the taken image taken by the telephoto taking system. Without it, it is possible to obtain an intermediate magnification image steplessly. As a result, images with various magnifications can be obtained with a simple device configuration.

【0071】なお、本実施の形態では、何れの撮影系も
単焦点レンズを用いた場合について説明したが、これに
限らず、少なくとも一方をズームレンズとしてもよい。
例えば、第1のレンズ群19Aを超広角の単焦点レンズ
とし、第2のレンズ群19Bを広角〜望遠の低倍率ズー
ムレンズとしてもよい。また、第1のレンズ群19Aを
超望遠の単焦点レンズとし、第2のレンズ群19Bを広
角〜望遠の低倍率ズームレンズとしてもよい。このよう
に、1つの単焦点レンズと1つのズームレンズを組み合
わせることにより、高倍率のズームレンズと同等の効果
を得ることができる。
It should be noted that, in the present embodiment, a case has been described in which a monofocal lens is used in any photographing system, but the present invention is not limited to this, and at least one may be a zoom lens.
For example, the first lens group 19A may be a super wide-angle single focus lens, and the second lens group 19B may be a wide-angle to telephoto low-magnification zoom lens. Further, the first lens group 19A may be a super-telephoto single-focus lens, and the second lens group 19B may be a wide-angle to telephoto low-magnification zoom lens. In this way, by combining one single-focus lens and one zoom lens, it is possible to obtain the same effect as a high-magnification zoom lens.

【0072】[0072]

【発明の効果】以上説明したように本発明によれば、広
角撮影された画像の中央部に望遠撮影された画像を合成
しても境界部分が不自然になるのを防ぐことができると
共に、簡易な構成で様々な撮影倍率の画像を得ることが
できる、という効果がある。
As described above, according to the present invention, it is possible to prevent the boundary portion from becoming unnatural even if the telephoto shot image is combined with the central portion of the wide-angle shot image. There is an effect that images of various photographing magnifications can be obtained with a simple configuration.

【図面の簡単な説明】[Brief description of drawings]

【図1】デジタルカメラの概略構成を示すブロック図で
ある。
FIG. 1 is a block diagram showing a schematic configuration of a digital camera.

【図2】(A)は第1実施形態に係る第1の撮影系の概
略構成図であり、(B)は第1実施形態に係る第2の撮
影系の概略構成図である。
2A is a schematic configuration diagram of a first imaging system according to the first embodiment, and FIG. 2B is a schematic configuration diagram of a second imaging system according to the first embodiment.

【図3】(A)は第1実施形態に係る第1の撮影系で撮
影された画像のイメージ図であり、(B)は、第1実施
形態に係る第2の撮影系で撮影された画像のイメージ図
である。
FIG. 3A is an image diagram of an image taken by the first imaging system according to the first embodiment, and FIG. 3B is an image taken by the second imaging system according to the first embodiment. FIG.

【図4】(A)は第1実施形態に係る第1の撮影系で撮
影された画像のイメージ図であり、(B)は、第1実施
形態に係る第2の撮影系で撮影された画像のイメージ図
である。
FIG. 4A is an image diagram of an image taken by a first imaging system according to the first embodiment, and FIG. 4B is an image taken by a second imaging system according to the first embodiment. FIG.

【図5】画像の境界部分における画像データと位置との
関係を示す線図である。
FIG. 5 is a diagram showing a relationship between image data and a position in a boundary portion of an image.

【図6】補正データの生成について説明するためのイメ
ージ図である。
FIG. 6 is an image diagram for explaining generation of correction data.

【図7】CPUで実行される制御ルーチンのフローチャ
ートである。
FIG. 7 is a flowchart of a control routine executed by a CPU.

【符号の説明】[Explanation of symbols]

10 デジタルカメラ 12A、12B 撮影系 14A、14B 撮影光学系 15A、15B 撮影レンズ 16A、16B フォーカスレンズ 20A、20B CCD駆動回路 22A、22B CDS回路 24A、24B A/D変換器 26A、26B メモリ 28 タイミング信号発生回路 32 バス 34 ゲイン調整回路 36 ガンマ補正回路 38 処理回路 40 圧縮伸張回路 42 メモリカード 44 カードインターフェース 46 表示部 48 表示用ドライバ 50 操作部 52A、52B 駆動回路 54A、54B モータ 55 ストロボ発光装置 56A、56B モータ 57 受光素子 60A、60B 積算回路 10 digital camera 12A, 12B shooting system 14A, 14B Photographic optical system 15A, 15B shooting lens 16A, 16B focus lens 20A, 20B CCD drive circuit 22A, 22B CDS circuit 24A, 24B A / D converter 26A, 26B memory 28 Timing signal generation circuit 32 buses 34 Gain adjustment circuit 36 Gamma correction circuit 38 Processing circuit 40 compression / expansion circuit 42 memory card 44 card interface 46 Display 48 display driver 50 Operation part 52A, 52B drive circuit 54A, 54B motor 55 Strobe light emitting device 56A, 56B motor 57 Light receiving element 60A, 60B integrating circuit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 被写体を撮像する第1の撮像素子と、前
記第1の撮像素子に前記被写体の像を結像する第1のレ
ンズと、を含む第1の撮影系と、 前記被写体を撮像する第2の撮像素子と、前記第1のレ
ンズよりも焦点距離が長く且つ前記第2の撮像素子に前
記被写体の像を結像する第2のレンズと、を含む第2の
撮影系と、 前記第2の撮像素子によって撮像された第2の撮像画像
を、前記第1の撮像素子で撮像された第1の撮像画像と
略同一の画角の画像に縮小する縮小手段と、 前記縮小手段により縮小された画像の予め定めた周辺領
域の画像データと前記第1の撮像画像の前記周辺領域に
対応する画像データとに基づいて、前記周辺領域の画像
データの連続性を補正して、前記第1の撮像画像と前記
縮小手段により縮小された画像とを合成する合成手段
と、 を備えたデジタルカメラ。
1. A first imaging system including a first imaging device for imaging a subject and a first lens for forming an image of the subject on the first imaging device; and an imaging for the subject. And a second lens having a focal length longer than that of the first lens and forming an image of the subject on the second image sensor. Reducing means for reducing the second captured image captured by the second image sensor to an image having a field angle substantially the same as that of the first captured image captured by the first image sensor; The continuity of the image data of the peripheral area is corrected based on the image data of the predetermined peripheral area of the image reduced by and the image data corresponding to the peripheral area of the first captured image, and Combining the first captured image and the image reduced by the reducing means A digital camera equipped with a synthesizing means for.
【請求項2】 前記合成手段は、前記縮小手段により縮
小された画像の予め定めた周辺領域の画像データと前記
第1の撮像画像の前記周辺領域に対応する画像データと
に基づいて、前記周辺領域の画像データの連続性を補正
するための補正データを生成する補正データ生成手段
と、 前記第1の撮像画像と前記縮小手段により縮小された画
像とを合成すると共に、前記周辺領域の画像データを前
記補正データで置換する置換手段と、 から成ることを特徴とする請求項1記載のデジタルカメ
ラ。
2. The synthesizing means, based on image data of a predetermined peripheral area of the image reduced by the reducing means, and image data corresponding to the peripheral area of the first captured image, A correction data generation unit that generates correction data for correcting the continuity of the image data of the region, the first captured image and the image reduced by the reduction unit are combined, and the image data of the peripheral region is combined. 2. The digital camera according to claim 1, further comprising: a replacement unit that replaces the correction data with the correction data.
【請求項3】 撮影画角を設定するための設定手段と、 前記第1の撮像素子によって撮像された前記被写体の撮
像画像を前記撮影画角の画像に拡大する拡大手段と、を
さらに備え、 前記縮小手段は、前記第2の撮像素子によって撮像され
た撮像画像を前記撮影画角の画像に縮小し、 前記補正データ生成手段は、前記撮影画角の画像に縮小
された縮小画像の予め定めた周辺領域の画像データと前
記撮影画角の画像に拡大された拡大画像の前記周辺領域
に対応する画像データとに基づいて、前記周辺領域の画
像データの連続性を補正するための補正データを生成
し、 前記置換手段は、前記拡大画像と前記縮小画像とを合成
すると共に、前記周辺領域の画像データを前記補正デー
タで置換することを特徴とする請求項2に記載のデジタ
ルカメラ。
3. A setting means for setting a photographing angle of view, and an enlarging means for enlarging a captured image of the subject captured by the first image sensor to an image of the photographing angle of view, The reduction unit reduces the captured image captured by the second image sensor to the image with the shooting angle of view, and the correction data generation unit determines in advance the reduced image reduced to the image with the shooting angle of view. Correction data for correcting the continuity of the image data of the peripheral area based on the image data of the peripheral area and the image data corresponding to the peripheral area of the enlarged image enlarged to the image of the shooting angle of view. 3. The digital camera according to claim 2, wherein the replacement unit combines the enlarged image and the reduced image and replaces the image data of the peripheral region with the correction data.
JP2002125854A 2002-04-26 2002-04-26 Digital camera Pending JP2003319231A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002125854A JP2003319231A (en) 2002-04-26 2002-04-26 Digital camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002125854A JP2003319231A (en) 2002-04-26 2002-04-26 Digital camera

Publications (1)

Publication Number Publication Date
JP2003319231A true JP2003319231A (en) 2003-11-07

Family

ID=29540452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002125854A Pending JP2003319231A (en) 2002-04-26 2002-04-26 Digital camera

Country Status (1)

Country Link
JP (1) JP2003319231A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004297332A (en) * 2003-03-26 2004-10-21 Fuji Photo Film Co Ltd Imaging apparatus
JP2010119011A (en) * 2008-11-14 2010-05-27 Nikon Corp Digital camera
JP2016096487A (en) * 2014-11-17 2016-05-26 株式会社クワンズ Imaging system
JP2017529549A (en) * 2015-07-10 2017-10-05 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Image acquisition system and unmanned aerial vehicle

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004297332A (en) * 2003-03-26 2004-10-21 Fuji Photo Film Co Ltd Imaging apparatus
JP2010119011A (en) * 2008-11-14 2010-05-27 Nikon Corp Digital camera
JP2016096487A (en) * 2014-11-17 2016-05-26 株式会社クワンズ Imaging system
JP2017529549A (en) * 2015-07-10 2017-10-05 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Image acquisition system and unmanned aerial vehicle
US9967477B2 (en) 2015-07-10 2018-05-08 SZ DJI Technology Co., Ltd. Dual lens system having a light splitter
US10397493B2 (en) 2015-07-10 2019-08-27 SZ DJI Technology Co., Ltd. Dual lens system having a light splitter
US10687001B2 (en) 2015-07-10 2020-06-16 SZ DJI Technology Co., Ltd. Dual lens system having a light splitter
EP3687156A1 (en) * 2015-07-10 2020-07-29 SZ DJI Technology Co., Ltd. Dual lens system having a light splitter
CN111556253A (en) * 2015-07-10 2020-08-18 深圳市大疆创新科技有限公司 Method and system for generating combined image and method and system for displaying image
US11039086B2 (en) 2015-07-10 2021-06-15 SZ DJI Technology Co., Ltd. Dual lens system having a light splitter
CN111556253B (en) * 2015-07-10 2022-06-14 深圳市大疆创新科技有限公司 Method and system for generating combined image and method and system for displaying image

Similar Documents

Publication Publication Date Title
JP4198449B2 (en) Digital camera
JP3480446B2 (en) Digital camera
JP3607509B2 (en) Autofocus device
JP3395770B2 (en) Digital still camera
JP2001251551A (en) Electronic camera
JP2002064745A (en) Camera aperture control method, lens-control method and device, contour emphasis control method and device, and camera
JP2004135029A (en) Digital camera
JP2001208959A (en) Image pickup device, automatic focusing method, and recording medium having focusing procedure recorded thereon
JP4250198B2 (en) Digital camera
JP4112312B2 (en) Digital camera with zoom function
JP2001275033A (en) Digital still camera
JP4033456B2 (en) Digital camera
JP4160664B2 (en) Autofocus device, camera, and in-focus position determination method
JP2009089037A (en) Photographing controller, photographing control method, photographing control program and photographing device
JP2002207162A (en) Digital camera
JP2004032524A (en) Digital camera
JP3601500B2 (en) Digital camera
JP4046276B2 (en) Digital camera
JP2003319231A (en) Digital camera
JP2003319246A (en) Digital camera
JP2004287183A (en) Digital camera
JP3918985B2 (en) Digital camera
JP3727841B2 (en) Digital still camera
JP2007316471A (en) Imaging apparatus and program therefore
JP2003319234A (en) Digital camera