JP4710351B2 - Digital camera and program - Google Patents

Digital camera and program Download PDF

Info

Publication number
JP4710351B2
JP4710351B2 JP2005050106A JP2005050106A JP4710351B2 JP 4710351 B2 JP4710351 B2 JP 4710351B2 JP 2005050106 A JP2005050106 A JP 2005050106A JP 2005050106 A JP2005050106 A JP 2005050106A JP 4710351 B2 JP4710351 B2 JP 4710351B2
Authority
JP
Japan
Prior art keywords
image
subject
imaging unit
monitor
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005050106A
Other languages
Japanese (ja)
Other versions
JP2006238085A (en
Inventor
敦 渋谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2005050106A priority Critical patent/JP4710351B2/en
Publication of JP2006238085A publication Critical patent/JP2006238085A/en
Application granted granted Critical
Publication of JP4710351B2 publication Critical patent/JP4710351B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Description

本発明は撮像素子を複数備えたデジタルカメラ及びプログラムに関する。   The present invention relates to a digital camera including a plurality of image sensors and a program.

撮像素子を2つ備えているデジタルカメラがある(例えば特許文献1参照)。この特許文献1の技術は、デジタルカメラの前面と後面にそれぞれ撮像素子を備え、前面の撮像素子で撮った画像と後面の撮像素子で撮った画像を合成するというものである。
他方、デジタルカメラでは液晶などのモニタをファインダとして使用するため手振れを確認しにくい。そこで、モニタの一部に被写体の画像を拡大表示することによって手振れ状態を確認しやすくしたデジタルカメラがある(例えば特許文献2、3参照)。
更に、複数の撮像素子を備え、1つの撮像素子で被写体像を撮像するとともに他の撮像素子で入射光の状態を検出するものがある(例えば特許文献4参照)。
There is a digital camera provided with two image sensors (see, for example, Patent Document 1). The technique disclosed in Patent Document 1 includes image sensors on the front and rear surfaces of a digital camera, and synthesizes an image captured by the front image sensor and an image captured by the rear image sensor.
On the other hand, since a digital camera uses a monitor such as a liquid crystal as a finder, it is difficult to check camera shake. In view of this, there is a digital camera that makes it easy to check the camera shake state by displaying an enlarged image of the subject on a part of the monitor (see, for example, Patent Documents 2 and 3).
Furthermore, there is a device that includes a plurality of image sensors and that captures a subject image with one image sensor and detects the state of incident light with another image sensor (see, for example, Patent Document 4).

特開2004−363994JP 2004-363994 A 特開平11−331649JP-A-11-331649 特開2001−28699JP 2001-28699 A 特開平8−79597JP-A-8-79597

特許文献1記載の技術では、カメラの前面に第1の撮像素子、後面に第2の撮像素子を設け、両方の画像を合成することができるが、合成写真を撮る機会はそう頻繁にあるものではなく、普段は他方の撮像素子が活用されていないという課題があった。   In the technique described in Patent Document 1, a first image sensor is provided on the front surface of the camera and a second image sensor is provided on the rear surface, and both images can be combined, but there are so many opportunities to take composite photographs. However, there is a problem that the other image sensor is not normally used.

また、特許文献2記載の技術では、LCDモニタをファインダとして用いる場合、LCDモニタの全部あるいは一部に拡大処理を施して表示することによって、撮影者が確実にフォーカス状態を確認し得る撮像装置を提供するものであるが、撮像素子が1つしかないので、撮影する画像と拡大表示用の画像を電子処理により並列的に行わなくてはならず、処理速度が低下するという課題があった。   Further, in the technique described in Patent Document 2, when an LCD monitor is used as a finder, an image pickup apparatus that allows a photographer to confirm a focus state reliably by performing an enlargement process on all or a part of the LCD monitor and displaying it. Although provided, since there is only one image pickup device, an image to be photographed and an enlarged display image have to be performed in parallel by electronic processing, and there is a problem that processing speed is reduced.

特許文献3記載の技術では、特定領域に対する表示装置の表示領域を拡大することによって、撮影前には、被写体のピントの確認を行い、撮影後であったならば更に撮影時にブレてしまったか否かも含めて容易に確認することができる撮像装置を提供するものであるが、特許文献2と同様、撮像素子が1つしかないので、撮影する画像と拡大表示用の画像を電子処理により並列的に行わなくてはならず、処理速度が低下するという課題があった。   In the technique described in Patent Document 3, the display area of the display device with respect to the specific area is enlarged, and the focus of the subject is confirmed before shooting. In addition, as in Patent Document 2, since there is only one imaging device, an image to be captured and an image for enlargement display are processed in parallel by electronic processing. Therefore, there is a problem that the processing speed decreases.

特許文献4記載の技術では、複数の撮像素子を設け、少なくとも1つの撮像素子から出力される信号を基にして被写体像を生成するとともに、上記被写体像を生成するための撮像素子と略同一の撮影領域を持つ他の撮像素子の信号を基に入射光の状態を検出するようにすることにより、被写体像の撮像と入射光の状態の検出とを同時に行うことができるようにしているが、複数の撮像素子が同一の撮影領域の光を入射しているので、被写体の光状態は分かるが撮影者の背後に光源があるなどの周囲の光源情報はわからないという課題があった。   In the technique described in Patent Document 4, a plurality of image sensors are provided, a subject image is generated based on a signal output from at least one image sensor, and substantially the same as the image sensor for generating the subject image. By detecting the state of incident light based on the signal of another imaging element having a shooting area, it is possible to simultaneously perform imaging of the subject image and detection of the state of incident light. Since a plurality of image sensors are incident on the same shooting region, there is a problem that the light state of the subject can be understood but the surrounding light source information such as the light source behind the photographer is not known.

本発明は上記従来技術の課題を解決するためになされたものであり、複数の撮像素子を備え、より確実な周囲の光源情報を得ることができる、撮像装置、デジタルカメラ及びプログラム、及び、処理速度を遅くすることなく、ブレ状態の確認画像を表示することができるデジタルカメラ及びプログラムの提供を目的とする。   The present invention has been made to solve the above-described problems of the prior art, and includes an imaging apparatus, a digital camera, a program, and a process that include a plurality of imaging elements and can obtain more reliable ambient light source information. It is an object of the present invention to provide a digital camera and a program that can display a blur confirmation image without slowing down the speed.

上記課題を解決するために、請求項1に記載の発明では、正面に前方の被写体像を取り込んで光電変換信号を出力する第1の撮像部を配置し、背面に、後方の被写体像を取り込んで光電変換信号を出力する第2の撮像部と画像表示可能な表示部とを配置したデジタルカメラにおいて、一方の被写体を撮影するとき、背面の撮像素子で背面の被写体を拡大して撮影し、背面に配置されたモニタに前方の被写体をスルー表示するとともに、ウインドウに拡大された背面被写体画像のスルー画像を表示することにより、手振れ状況を強調して表示することができるようにしたことを特徴とするデジタルカメラを提供する。 In order to solve the above-described problem, in the first aspect of the present invention, the first imaging unit that captures the front subject image and outputs a photoelectric conversion signal is disposed on the front surface, and the rear subject image is captured on the rear surface. In the digital camera in which the second imaging unit that outputs the photoelectric conversion signal and the display unit capable of displaying an image are photographed, when photographing one subject, the rear subject is enlarged and photographed with the rear imaging device, It is possible to display the subject in front through on the monitor placed on the back and to display the through image of the enlarged back subject image in the window so that the camera shake situation can be emphasized and displayed. that provides a digital camera to be.

また、請求項に記載の発明では、第1の撮像部と第2の撮像部で略同時に撮像を行う同時撮影モードを備えていることを特徴とする請求項1に記載のデジタルカメラを提供する。 Further, in the invention according to claim 2, the first imaging unit and the second digital camera of the mounting serial to claim 1, characterized in that it comprises a simultaneous photographing mode for performing substantially simultaneously captured by the imaging unit of provide.

また、請求項に記載の発明では、正面に前方の被写体像を取り込んで光電変換信号を出力する第1の撮像部を配置し、背面に、後方の被写体像を取り込んで光電変換信号を出力する第2の撮像部と画像表示可能な表示部とを配置したデジタルカメラのコンピュータに、前方の被写体を撮影するとき、背面の撮像素子で背面の被写体を拡大して撮影する機能と、背面に配置されたモニタに前方の被写体をスルー表示する機能と、略同時にウインドウに拡大された背面被写体画像のスルー画像を表示する機能と、を実行させるプログラムを提供する。 In the third aspect of the present invention, the first imaging unit that captures the front subject image and outputs a photoelectric conversion signal is arranged on the front surface, and the rear subject image is captured on the rear surface and the photoelectric conversion signal is output. When a front subject is photographed on a computer of a digital camera having a second image pickup unit and a display unit capable of displaying an image, a rear image sensor is used to magnify and photograph the rear subject, and There is provided a program for executing a function of displaying a subject in front on a disposed monitor and a function of displaying a through image of a rear subject image enlarged in a window substantially simultaneously.

発明によれば、デジタルカメラに備えられた2つの撮像素子のうちの一方で被写体の撮影を行う際に他の一方の撮像素子で被写体の拡大画像を撮影してウインドウにスルー表示することができるので、1つの撮像素子で撮影を行って並列処理により拡大画像を画面の一部に表示する場合に比べ速い処理速度で表示できる。また、画像を拡大表示することにより、手ブレがある場合は手ブレ状態が増幅されることから、ブレを検出するセンサなしでブレ状態の確認を行うことができる。 According to the present invention, when one of the two image sensors provided in the digital camera captures a subject, an enlarged image of the subject can be captured with the other image sensor and displayed in a through window. Therefore, it is possible to display at a higher processing speed than when an enlarged image is displayed on a part of the screen by performing parallel processing and shooting with one image sensor. In addition, by displaying an enlarged image, the camera shake state is amplified when there is a camera shake, so that the camera shake state can be confirmed without a sensor for detecting the camera shake.

(実施の形態1)
以下、本発明をデジタルカメラに適用した場合の第1の実施の形態について図面を参照して説明する。
(Embodiment 1)
Hereinafter, a first embodiment when the present invention is applied to a digital camera will be described with reference to the drawings.

図1は、本発明を適用したデジタルカメラの外観構成の一実施例を示す図であり、図1(a)は前面からの斜視図、図1(b)は背面からの斜視図である。
デジタルカメラ1は略矩形の薄板状ボディの前面に正面側撮像部(以下、被写体撮像部)20−1、セルフタイマランプ3、光学ファインダ窓4、及びストロボ発光部5を配設し、上面には電源キー6およびシャッターキー7を配してなる。
1A and 1B are diagrams showing an example of an external configuration of a digital camera to which the present invention is applied. FIG. 1A is a perspective view from the front, and FIG. 1B is a perspective view from the back.
The digital camera 1 is provided with a front side imaging unit (hereinafter referred to as a subject imaging unit) 20-1, a self-timer lamp 3, an optical viewfinder window 4, and a strobe light emitting unit 5 on the front surface of a substantially rectangular thin plate body. Comprises a power key 6 and a shutter key 7.

被写体撮像部20−1の撮影レンズ2−1は、薄型のボディに搭載するために例えば、単焦点レンズで且つ固定焦点であるものとし、ズーム動作や合焦動作は行わないものとする。   In order to mount the photographing lens 2-1 of the subject imaging unit 20-1 on a thin body, for example, it is assumed that it is a single focus lens and has a fixed focus, and does not perform a zoom operation or a focusing operation.

電源キー6は、1回押圧する毎に電源をオン/オフするキーであり、シャッターキー7は撮影モード時にレリーズを指示する一方で、メニュー選択等では設定/実行を指示するキーとしても機能する。   The power key 6 is a key for turning on / off the power each time it is pressed, and the shutter key 7 functions as a key for instructing the release in the shooting mode, and for setting / execution in the menu selection or the like. .

また、デジタルカメラ1の背面には、撮影レンズ2−2を含むモニタ側撮像部20−2、モードスイッチ(SW)8、メニューキー9、十字キー10、光学ファインダ11、ストロボチャージランプ12、及び表示部13が配設されている。   Also, on the back of the digital camera 1, a monitor side imaging unit 20-2 including a photographing lens 2-2, a mode switch (SW) 8, a menu key 9, a cross key 10, an optical viewfinder 11, a strobe charge lamp 12, and A display unit 13 is provided.

背面側撮像部(以下、モニタ側撮像部)20−2は自分撮り用であり、50〜100cmにピントが合い、なお撮影される画角も50〜100cm先にいるユーザ(つまり、撮影者)を撮像するのに適した画角に構成されている。また、モニタ側撮像部20−2は撮像方向が変えられるように構成されており、所定の範囲で撮像方向を変えられるので、ユーザは必ずしもカメラの真後ろに位置しなくてもよい。   The rear side imaging unit (hereinafter referred to as the monitor side imaging unit) 20-2 is for self-portrait, is focused on 50 to 100 cm, and the angle of view to be shot is also 50 to 100 cm away (that is, the photographer). The angle of view is suitable for capturing images. The monitor-side imaging unit 20-2 is configured to change the imaging direction, and the imaging direction can be changed within a predetermined range, so that the user does not necessarily have to be located directly behind the camera.

ユーザは、被写体撮像部20−1とモニタ側撮像部20−2のいずれか一方を撮像に一方をセンサとして用いるセンサ撮影モードを選択することができる。また、被写体撮像部20−1とモニタ側撮像部20−2で被写体と撮影者を略同時に撮影し、同時に撮影した画像を合成表示する同時撮影モードや、同時撮影した撮影者側の画像を拡大して被写体画像がスルー表示されているモニタ画面にウインドウ表示し、被写体画像のブレからカメラの手ブレ状態を認識可能とする手ブレ判別モードを選択することもできる。また、被写体撮像部20−1とモニタ側撮像部20−2のいずれか一方でのみを選択し、選択された撮像部でのみ撮影することもできる。   The user can select a sensor imaging mode in which one of the subject imaging unit 20-1 and the monitor-side imaging unit 20-2 is used for imaging. In addition, the subject imaging unit 20-1 and the monitor-side imaging unit 20-2 capture a subject and a photographer at substantially the same time, and synthesize and display simultaneously photographed images, and enlarge the image of the photographer side that has been photographed simultaneously. Then, it is possible to display a window on a monitor screen through which the subject image is displayed, and to select a camera shake discrimination mode in which the camera shake state of the camera can be recognized from the blur of the subject image. It is also possible to select only one of the subject imaging unit 20-1 and the monitor-side imaging unit 20-2 and perform shooting only with the selected imaging unit.

モードスイッチ8は、例えばスライドスイッチにより構成され、撮影モード「R」と再生モード「P」とを切換える。   The mode switch 8 is constituted by a slide switch, for example, and switches between the photographing mode “R” and the reproduction mode “P”.

表示部13は、バックライト付きのカラー液晶パネルで構成され、撮影モード時には電子ファインダとしてモニタ表示を行う一方で、再生モード時には選択された再生画像を表示する。また、同時撮影モードが選択された場合には被写体撮像部20−1とモニタ側撮像部20−2による撮影画像が合成されて表示されたり、一方の画像がウインドウ表示される。
なお、図示はしないがこのボディ下面には蓋付きのメモリカードスロットが設けられ、デジタルカメラ1の記録媒体であるメモリカードが着脱自在に装着されるものとする。
The display unit 13 is composed of a color liquid crystal panel with a backlight, and displays a monitor image as an electronic viewfinder in the shooting mode, while displaying a selected playback image in the playback mode. When the simultaneous shooting mode is selected, images captured by the subject imaging unit 20-1 and the monitor-side imaging unit 20-2 are combined and displayed, or one image is displayed in a window.
Although not shown, a memory card slot with a lid is provided on the lower surface of the body, and a memory card as a recording medium of the digital camera 1 is detachably attached.

図2は、デジタルカメラ1の電子回路構成の一実施例を示す図であり、デジタルカメラ1は、駆動モータ21−1、撮影レンズ2−1を含む光学系レンズ22−1及び撮像素子としてのCCD23−1、タイミング発生器(TG)24−1、及び垂直ドライバ25−1、サンプルホールド回路(S/H)26−1、A/D変換器27−1、駆動モータ21−2、撮影レンズ2−2を含む光学系レンズ22−2及び撮像素子としてのCCD23−2、タイミング発生器(TG)24−2、及び垂直ドライバ25−2、サンプルホールド回路(S/H)26−1A/D変換器27−2、カラープロセス回路28、DMA(Direct Memory Access)コントローラ29、DRAMインターフェイス(I/F)30、DRAM31、制御部32、VRAMコントローラ33、VRAM34−1、34−2、デジタルビデオエンコーダ35、キー入力部36、JPEG回路37、保存メモリ38、信号合成回路39、及び表示部13を備えている。   FIG. 2 is a diagram showing an embodiment of the electronic circuit configuration of the digital camera 1. The digital camera 1 includes a drive motor 21-1, an optical system lens 22-1 including a photographing lens 2-1, and an imaging device. CCD 23-1, timing generator (TG) 24-1, vertical driver 25-1, sample hold circuit (S / H) 26-1, A / D converter 27-1, drive motor 21-2, photographing lens 2-2 including an optical system lens 22-2, a CCD 23-2 as an imaging device, a timing generator (TG) 24-2, a vertical driver 25-2, a sample hold circuit (S / H) 26-1A / D. Converter 27-2, color process circuit 28, DMA (Direct Memory Access) controller 29, DRAM interface (I / F) 30, DRAM 31, Control unit 32, VRAM controller 33, VRAM34-1,34-2, digital video encoder 35, a key input unit 36, JPEG circuit 37, storage memory 38, and a signal combining circuit 39 and the display unit 13.

上記DRAM31にはCCD23−1からの1フレーム分の被写体画像データを記憶する領域と、CCD23−2からの1フレーム分のモニタ側画像データを記憶する領域が確保されているものとする。なお、DRAM31の代わりに、CCD23−1からの被写体画像データ等を記憶するDRAMと、CCD23−2からのモニタ側画像データ等を記憶するDRAMを設けるようにしてもよい。また、信号合成回路39は必要に応じて設ければよい。   Assume that the DRAM 31 has an area for storing subject image data for one frame from the CCD 23-1 and an area for storing monitor-side image data for one frame from the CCD 23-2. Instead of the DRAM 31, a DRAM that stores subject image data from the CCD 23-1 and a DRAM that stores monitor-side image data from the CCD 23-2 may be provided. Further, the signal synthesis circuit 39 may be provided as necessary.

駆動モータ21−1、撮影レンズ2を含む光学系レンズ22−1及びCCD23−1、タイミング発生器24−1、及び垂直ドライバ25−1は図1(a)に示した被写体撮像部20(第1の撮像部)の回路を構成し、駆動モータ21−2、撮影レンズ2−2を含む光学系レンズ22−2及びCCD23−2、タイミング発生器24−、及び垂直ドライバ25−2は図1(b)に示したモニタ側撮像部20−2(第2の撮像部)の回路を構成している。   The drive motor 21-1, the optical system lens 22-1, including the taking lens 2, and the CCD 23-1, the timing generator 24-1, and the vertical driver 25-1 are the subject imaging unit 20 (the first imaging unit 20) shown in FIG. 1), the driving motor 21-2, the optical system lens 22-2 including the photographing lens 2-2 and the CCD 23-2, the timing generator 24-, and the vertical driver 25-2 are shown in FIG. The circuit of the monitor side imaging unit 20-2 (second imaging unit) shown in (b) is configured.

上記2つの撮像部はキー入力部36からのユーザの指示に基づく制御部32の制御により、一方のみの撮影か同時撮影モードによる同時撮影が可能である。なお、同時撮影モードの場合は時分割制御による撮影が行われる。また、AE(Automatic Exposure;自動露出)は撮像部20−1および撮像部20−2に対して別々に行なう。   The two image capturing units can perform only one image capturing or simultaneous image capturing in the simultaneous image capturing mode under the control of the control unit 32 based on a user instruction from the key input unit 36. In the case of the simultaneous shooting mode, shooting by time division control is performed. Further, AE (Automatic Exposure) is performed separately for the imaging unit 20-1 and the imaging unit 20-2.

撮影モードのモニタリング状態で、被写体撮像部20−1による撮影の際は、制御部32からの駆動制御信号により駆動するモータ21−1の駆動により絞り位置が移動される。上記撮影レンズ2−1を含む光学系レンズ22−1の撮影光軸後方に配置されたCCD23−1が、タイミング発生器24−1からのタイミング信号に基づき垂直ドライバ25−1によって走査駆動され、一定時毎に結像した光像に対する光電変換出力を1フレーム分出力する。   When the subject imaging unit 20-1 performs shooting in the monitoring mode of the shooting mode, the aperture position is moved by driving the motor 21-1 driven by a drive control signal from the control unit 32. The CCD 23-1 disposed behind the photographing optical axis of the optical system lens 22-1 including the photographing lens 2-1 is scan-driven by the vertical driver 25-1 based on the timing signal from the timing generator 24-1. A photoelectric conversion output for a light image formed at regular intervals is output for one frame.

同様に、モニタ側撮像部20−2による撮影の際は、制御部32からの駆動制御信号により駆動するモータ21−2の駆動により絞り位置が移動される。上記撮影レンズ2−2を含む光学系レンズ22−2の撮影光軸後方に配置されたCCD23−2が、タイミング発生器24からのタイミング信号に基づき垂直ドライバ25によって走査駆動され、一定時毎に結像した光像に対する光電変換出力を1フレーム分出力する。   Similarly, at the time of shooting by the monitor-side imaging unit 20-2, the aperture position is moved by driving a motor 21-2 that is driven by a drive control signal from the control unit 32. The CCD 23-2 disposed behind the photographing optical axis of the optical system lens 22-2 including the photographing lens 2-2 is scanned and driven by the vertical driver 25 on the basis of the timing signal from the timing generator 24, and at regular intervals. A photoelectric conversion output for the formed optical image is output for one frame.

また、同時撮影モードの場合は、制御部32は、モータ21−1、21−2及びタイミング発生器24−1,24−2のタイミング信号生成動作を時分割制御すると共に、垂直ドライバ25−1、25−2の信号出力先(CCD23−1、CCD23−2)を走査タイミングに同期させて切換えるようにして、CCD23−1及びCCD23−2を走査駆動させ、一定時毎に結像した光像に対する光電変換出力を1フレーム分出力させる。   In the simultaneous photographing mode, the control unit 32 controls the timing signals generating operations of the motors 21-1 and 21-2 and the timing generators 24-1 and 24-2 in a time-sharing manner and also uses the vertical driver 25-1. , 25-2 signal output destinations (CCD 23-1, CCD 23-2) are switched in synchronism with the scanning timing, and CCD 23-1 and CCD 23-2 are driven to scan, and an optical image formed at regular intervals. Output one frame of photoelectric conversion output.

CCD23−1又はCCD23−2からの光電変換出力は、アナログ値の状態でRGBの原色毎に適宜ゲイン調整された後に、サンプルホールド回路26−1.26−2でサンプルホールドされ、A/D変換器27−1、27−2でデジタルデータに変換され、カラープロセス回路28(図3参照)で画素補間処理及びγ補正処理を含むカラープロセス処理が行われて、デジタル値の輝度信号Y及び色差信号Cb、Cr(以下、画像データ)が生成され、DMAコントローラ29に出力される。なお、同時撮影モードの場合は、CCD23−1からの光電変換出力とCCD23−2からの光電変換出力に基づくカラープロセス処理結果が別々にDMAコントローラ29に出力される。     The photoelectric conversion output from the CCD 23-1 or the CCD 23-2 is appropriately gain-adjusted for each RGB primary color in an analog value state, and then sample-held by the sample hold circuit 26-1.6-2, and A / D converted. The digital data is converted into digital data by the units 27-1 and 27-2, and color processing including pixel interpolation processing and γ correction processing is performed by the color processing circuit 28 (see FIG. 3). Signals Cb and Cr (hereinafter referred to as image data) are generated and output to the DMA controller 29. In the case of the simultaneous photographing mode, the color process processing results based on the photoelectric conversion output from the CCD 23-1 and the photoelectric conversion output from the CCD 23-2 are separately output to the DMA controller 29.

DMAコントローラ29は、カラープロセス回路28の出力する画像データをそれぞれカラープロセス回路28からの複合同期信号、メモリ書込みイネーブル信号、及びクロック信号を用いて一度DMAコントローラ29内部のバッファに書き込み、DRAMインターフェイス30を介してバッファメモリとして使用されるDRAM31にDMA転送する。     The DMA controller 29 once writes the image data output from the color process circuit 28 to the buffer in the DMA controller 29 once using the composite synchronization signal, memory write enable signal, and clock signal from the color process circuit 28, respectively. DMA transfer to the DRAM 31 used as a buffer memory via

なお、DMAコントローラ29内部のバッファは、CCD23−1からの光電変換出力とCCD23−2からの光電変換出力に基づくカラープロセス処理の結果をそれぞれ書込むよう2つのバッファ(又は、2つの書込み領域が割り当てられた1つのバッファ)からなっており、同時撮影の場合は、それぞれのバッファ(又は、それぞれの書込み領域)から順次読み出してDRAM31にDMA転送し、DRAM31に割り当てられている2つの書込み領域にそれぞれ書込む。     The buffer in the DMA controller 29 has two buffers (or two writing areas) for writing the result of the color process based on the photoelectric conversion output from the CCD 23-1 and the photoelectric conversion output from the CCD 23-2. In the case of simultaneous shooting, the data is sequentially read from each buffer (or each writing area), DMA-transferred to the DRAM 31, and transferred to the two writing areas assigned to the DRAM 31. Write each.

制御部32は、CPUと、CPUで実行される動作プログラムや撮像動作プログラムを固定的に記憶したROM、及びワークメモリとして使用されるRAM等により構成され、このデジタルカメラ1全体の制御動作を司るもので、上記輝度及び色差信号のDRAM31へのDMA転送終了後に、この画像データをDRAMインターフェイス30を介してDRAM31から読出し、VRAMコントローラ33を介して被写体画像用のVRAM34−1又はモニタ側画像用のVRAM34−2に書込む。     The control unit 32 includes a CPU, a ROM in which an operation program executed by the CPU and an imaging operation program are fixedly stored, a RAM used as a work memory, and the like, and controls the entire digital camera 1. Thus, after the DMA transfer of the luminance and color difference signals to the DRAM 31 is completed, the image data is read from the DRAM 31 via the DRAM interface 30 and is used for the VRAM 34-1 for the subject image or the monitor side image via the VRAM controller 33. Write to VRAM 34-2.

また、同時撮影モードの場合はDRAM31に割り当てられている2つの書き込み領域に書込まれている被写体画像及びモニタ側画像の画像データをVRAMコントローラ33を介して被写体画像用のVRAM34−1およびVRAM34−2にそれぞれ所定のタイミングで書込む。     In the case of the simultaneous shooting mode, the image data of the subject image and the monitor-side image written in the two writing areas assigned to the DRAM 31 are sent via the VRAM controller 33 to the VRAM 34-1 and VRAM 34- 2 is written at a predetermined timing.

デジタルビデオエンコーダ35は、上記画像データをVRAMコントローラ33を介してVRAM34から定期的に読み出し、これらのデータを元にビデオ信号を発生して表示部13に出力する。同時撮影モードの場合は、VRAM34−1に書込まれている被写体画像のビデオ信号にモニタ側画像のビデオ信号を上書き合成して表示部13にスルー表示する(図5、図6参照)。また、手ブレ判別モードのときはモニタ側画像を拡大してウインドウ内にスルー表示する(図7、図8参照)。   The digital video encoder 35 periodically reads out the image data from the VRAM 34 via the VRAM controller 33, generates a video signal based on these data, and outputs the video signal to the display unit 13. In the case of the simultaneous shooting mode, the video signal of the monitor side image is overwritten and combined with the video signal of the subject image written in the VRAM 34-1, and is displayed through on the display unit 13 (see FIGS. 5 and 6). In the camera shake discrimination mode, the monitor-side image is enlarged and displayed through in the window (see FIGS. 7 and 8).

表示部13は、上述したように撮影モード時にはモニタ表示部(電子ファインダ)として機能し、デジタルビデオエンコーダ35からのビデオ信号に基づいた表示を行うことで、その時点でVRAMコントローラから撮り込んでいる画像情報に基づく画像をリアルタイムに表示(スルー画像表示)する。また、手ブレ判別モードのときは拡大された撮影者像をスルー画像上にウインドウ表示する。   As described above, the display unit 13 functions as a monitor display unit (electronic finder) in the shooting mode, and performs display based on the video signal from the digital video encoder 35 to capture from the VRAM controller at that time. An image based on image information is displayed in real time (through image display). In the camera shake discrimination mode, the enlarged photographer image is displayed in a window on the through image.

表示部13にその時点での画像がスルー画像表示されている状態で、静止画像撮影を行いたいタイミングでユーザがキー入力部36を構成するシャッターキー7(図1参照)を操作するとトリガ信号を発生する。   When the user operates the shutter key 7 (see FIG. 1) constituting the key input unit 36 at a timing when a still image is desired to be captured while the current image is displayed on the display unit 13, a trigger signal is generated. appear.

制御部32はこのトリガ信号に応じてCCD23−1又は/及びCCD23−2から取り込んでいる1フレーム分の画像データのDMA転送の終了後、直ちにCCD23−1又は/及びCCD23−2からのDRAM31への経路を停止し、記録保存の状態(画像記録モード)に遷移する。   In response to the trigger signal, the control unit 32 immediately transfers the image data for one frame captured from the CCD 23-1 and / or the CCD 23-2 to the DRAM 31 from the CCD 23-1 and / or the CCD 23-2. Is stopped, and the recording / saving state (image recording mode) is entered.

記録保存の状態では、制御部32がDRAM31に書込まれている1フレーム分の画像データをDRAMインターフェイス30を介してY、Cb,Crの各コンポーネント毎に縦8画素×横8画素の基本ブロック単位で読み出してJPEG(Joint Photograph cording Experts Group)回路37に書込み、このJPEG回路37でADCT(Adaptive Discrete Cosine Transform:適応離散コサイン変換)、エントロピ符号化方式であるハフマン符号化等の処理によりデータ圧縮する。そして、取得した符号データを1画像のデータファイルとしてJPEG回路37から読出し、デジタルカメラ1の記録媒体として着脱自在に装着されるメモリカード内に封入された、フラッシュメモリ等の不揮発性メモリからなる保存メモリ38に書込む。なお、保存メモリ38は上記メモリカードとは別にデジタルカメラ1に内蔵されていてもよい。   In the recording and storage state, the control unit 32 stores the image data for one frame written in the DRAM 31 through the DRAM interface 30 for each of the Y, Cb, and Cr components in a basic block of 8 pixels × 8 pixels. The data is read in units and written in a JPEG (Joint Photographic Exploring Group) circuit 37, and this JPEG circuit 37 uses ADCT (Adaptive Discrete Cosine Transform: Adaptive Discrete Cosine Transform), a Huffman coding process such as an entropy coding method. To do. Then, the obtained code data is read out from the JPEG circuit 37 as a data file of one image, and is stored in a non-volatile memory such as a flash memory enclosed in a memory card that is detachably mounted as a recording medium of the digital camera 1. Write to memory 38. The storage memory 38 may be built in the digital camera 1 separately from the memory card.

そして、1フレーム分の画像データの圧縮処理及び保存メモリ38への全圧縮データの書込み終了に伴って、制御部32はCCD23−1又はCCD23−2からDRAM31への経路を再び起動する。   As the image data for one frame is compressed and all compressed data is written to the storage memory 38, the control unit 32 activates the path from the CCD 23-1 or the CCD 23-2 to the DRAM 31 again.

また、同時撮影モードの場合は、記録保存の状態では、制御部32は信号合成回路39によりDRAM31に割り当てられている被写体画像データ領域に書込まれている1フレーム分の被写体画像の画像データとモニタ側画像データ領域に書込まれているモニタ側画像の画像データを合成し、その合成画像データをDRAMインターフェイス30を介してJPEG回路37でデータ圧縮する。そして、取得した符号データを1画像のデータファイルとしてJPEG回路37から読出し、保存メモリ38に書込む。   In the case of the simultaneous shooting mode, in the recording and storing state, the control unit 32 stores the image data of the subject image for one frame written in the subject image data area assigned to the DRAM 31 by the signal synthesis circuit 39. The image data of the monitor side image written in the monitor side image data area is combined, and the combined image data is compressed by the JPEG circuit 37 via the DRAM interface 30. The acquired code data is read out from the JPEG circuit 37 as a data file of one image and written into the storage memory 38.

なお、上記説明では、同時撮影の場合は、記録保存の状態で被写体画像とモニタ側画像の合成画像データをデータ圧縮して保存メモリ38に保存記憶するようにしたが、DRAM31に書込まれている1フレーム分の被写体画像データとDRAM31に書込まれているモニタ側画像データをそれぞれ圧縮し、例えば、被写体画像データファイル名を”1−A”、モニタ側画像データファイル名を”1−B”といったように互いに関連付けて保存メモリ38に書込むようにしてもよい。また、合成画像として保存メモリ38に書込むか別々の画像として関連付けて保存メモリ38に書込むかをユーザが選択設定できるように構成してもよい。   In the above description, in the case of simultaneous shooting, the combined image data of the subject image and the monitor-side image is compressed and stored in the storage memory 38 in the record storage state. The subject image data for one frame and the monitor-side image data written in the DRAM 31 are respectively compressed. For example, the subject image data file name is “1-A” and the monitor-side image data file name is “1-B”. Or the like may be written in the storage memory 38 in association with each other. Alternatively, the user may be able to select and set whether to write as a composite image in the storage memory 38 or as a separate image and write it into the storage memory 38.

キー入力部36は、上述した電源キー6、シャッターキー7、モードスイッチ8、メニューキー9、及び十字キー10から構成され、それらのキー操作に伴う信号は直接制御部に送出される。   The key input unit 36 includes the power key 6, the shutter key 7, the mode switch 8, the menu key 9, and the cross key 10 described above, and signals associated with these key operations are directly sent to the control unit.

再生モード時には、制御部32が保存メモリ38に記録されている画像データを選択的に読出し、JPEG回路37で撮影モード時にデータ圧縮したと同じ手順で画像データを伸張し、伸張した画像データをVRAMコントローラ33を介してVRAM34に展開して記憶させた上で、VRAM34から定期的に読出し、これらの画像データを基にビデオ信号を発生して表示部13で再生出力させる。   In the playback mode, the control unit 32 selectively reads out the image data recorded in the storage memory 38, decompresses the image data in the same procedure as the data compression in the shooting mode by the JPEG circuit 37, and decompresses the decompressed image data into the VRAM. The data is developed and stored in the VRAM 34 via the controller 33, and then periodically read out from the VRAM 34. A video signal is generated based on these image data and reproduced and output on the display unit 13.

なお、同時撮影モードの場合で、合成画像を生成し、保存メモリ38に書込んだ場合は、再生モード時には、上述したと同様の手順で合成画像データを再生し、VRAMコントローラ33を介してVRAM34に展開して記憶させた上で、VRAM34から定期的に読出し、これらの画像データを基にビデオ信号を発生して表示部13で再生出力させる。   In the case of the simultaneous shooting mode, when a composite image is generated and written in the storage memory 38, the composite image data is played back in the same manner as described above in the playback mode, and the VRAM 34 is supplied via the VRAM controller 33. Then, it is periodically read out from the VRAM 34, and a video signal is generated based on these image data and reproduced and output on the display unit 13.

また、同時撮影モードの場合で、被写体画像データとモニタ側画像データをそれぞれ圧縮し、互いに関連付けて保存メモリ38に書込むように構成した場合には、再生モード時には、保存メモリ38から被写体画像データとそれに関連付けられたモニタ側画像データを選択的に読出し上述したと同様の手順で画像データを再生し、これらの画像データを基に発生させたビデオ信号を合成してVRAMコントローラ33を介してVRAM34展開して記憶させた上で、VRAM34から定期的に読出して表示部13に出力する。   In the case of the simultaneous shooting mode, when the subject image data and the monitor-side image data are compressed and written in the storage memory 38 in association with each other, the subject image data is read from the storage memory 38 in the playback mode. And the monitor-side image data associated therewith are selectively read out to reproduce the image data in the same procedure as described above, and the video signals generated based on these image data are synthesized and the VRAM 34 via the VRAM controller 33. After being expanded and stored, it is periodically read out from the VRAM 34 and output to the display unit 13.

(ホワイトバランス処理動作)
図3はカラープロセス回路におけるAWB(ホワイトバランス)処理の説明図であり、カラープロセス回路28は、この例では、デジタルクランプ280−1、AE用積分器280−2、AF用フィルタ280−3、WBゲイン乗算回路282、ガンマ補正回路283、画像生成回路284、YIQ変換回路286、白検出回路287及びWB係数決定回路288を含む画像処理系を有している。なお、YIQ変換回路286、白検出回路288及びWB係数決定回路289はWB係数演算ブロック285を構成している。また、符号281−1、281−2、281−3、285−1、285−2は、センサ撮影モード時にセンサーとして用いられる場合は開状態、同時撮影モード時や手ブレ判別モード時には走査タイミングに同期させて開閉制御されるスイッチであり、電子スイッチ若しくはプログラム制御によるスイッチを意味する。
(White balance processing operation)
FIG. 3 is an explanatory diagram of AWB (white balance) processing in the color process circuit. In this example, the color process circuit 28 includes a digital clamp 280-1, an AE integrator 280-2, an AF filter 280-3, The image processing system includes a WB gain multiplication circuit 282, a gamma correction circuit 283, an image generation circuit 284, a YIQ conversion circuit 286, a white detection circuit 287, and a WB coefficient determination circuit 288. The YIQ conversion circuit 286, the white detection circuit 288, and the WB coefficient determination circuit 289 constitute a WB coefficient calculation block 285. Reference numerals 281-1, 281-2, 281-3, 285-1, and 285-2 indicate the open state when used as a sensor in the sensor photographing mode, and the scanning timing in the simultaneous photographing mode and the camera shake discrimination mode. It is a switch that is controlled to be opened and closed in synchronism, and means an electronic switch or a switch under program control.

図3で、センサ撮影モードのとき、スイッチ281−1、281−2、281−3が閉状態であれば(つまり、被写体撮像部20−1による撮影の際は)、撮影レンズ2−1によって取り込まれた光学像はCCD23−1で電気信号(画像信号)に変換され、出力される。CCD23−1から出力された画像信号はサンプリング&A/D変換され、デジタルクランプ280−1でベイヤ(Bayer)形式のデータとされ、所定のタイミングでWBゲイン乗算回路24及びYIQ変換回路286に与えられる。次に、WBゲイン乗算回路282でWB係数(ホワイトバランス係数)を乗算してからガンマ補正回路283で画像補間処理を行ない、画像生成回路284で映像信号を生成してDMAコントローラ29に出力する。一方、YIQ変換回路286に与えられたデータからYIQ変換回路27、白検出回路28及びWB係数決定回路29からなるWB係数演算ブロックでWB係数を決定し、WBゲイン乗算回路24の設定値として、WBゲイン乗算回路24にフィードバックされる。また、このときは、スイッチ285−1、285−2が開状態(つまり、モニタ側撮像部20−2がセンサとして用いられるとき)であるから、撮影レンズ2−2によって取り込まれた光学像はCCD23−2で電気信号(画像信号)に変換され、出力される。CCD23−2から出力された画像信号はサンプリング&A/D変換され、デジタルクランプ280−1でベイヤ(Bayer)形式のデータとされ、所定のタイミングでYIQ変換回路286に与えられ、CCD23−1からのデータに加算される。
また、AE用積分器280−2では被写体撮像部20−1からの入力信号を積分してその積分値を制御部32に出力し、AF用フィルタ280−2では被写体撮像部20−1からの入力信号からコントラストオートフォーカス用高周波を検出するため、入力信号に対しハイパスフィルタ(HPF)をかけた後にその出力の積分値を制御部32に出力する。
In FIG. 3, when the switches 281-1, 281-2, and 281-3 are in the closed state in the sensor photographing mode (that is, when photographing by the subject imaging unit 20-1), the photographing lens 2-1 is used. The captured optical image is converted into an electrical signal (image signal) by the CCD 23-1 and output. The image signal output from the CCD 23-1 is sampled and A / D converted, converted into Bayer format data by the digital clamp 280-1, and supplied to the WB gain multiplication circuit 24 and the YIQ conversion circuit 286 at a predetermined timing. . Next, the WB gain multiplication circuit 282 multiplies the WB coefficient (white balance coefficient), and then the gamma correction circuit 283 performs image interpolation processing. The image generation circuit 284 generates a video signal and outputs it to the DMA controller 29. On the other hand, the WB coefficient is determined by the WB coefficient calculation block including the YIQ conversion circuit 27, the white detection circuit 28, and the WB coefficient determination circuit 29 from the data supplied to the YIQ conversion circuit 286. This is fed back to the WB gain multiplication circuit 24. At this time, since the switches 285-1 and 285-2 are in the open state (that is, when the monitor-side imaging unit 20-2 is used as a sensor), the optical image captured by the photographing lens 2-2 is It is converted into an electrical signal (image signal) by the CCD 23-2 and output. The image signal output from the CCD 23-2 is sampled and A / D converted, converted into Bayer format data by the digital clamp 280-1, and given to the YIQ conversion circuit 286 at a predetermined timing. Added to the data.
The AE integrator 280-2 integrates the input signal from the subject imaging unit 20-1 and outputs the integrated value to the control unit 32. The AF filter 280-2 receives the signal from the subject imaging unit 20-1. In order to detect a high frequency for contrast autofocus from the input signal, a high-pass filter (HPF) is applied to the input signal, and an integrated value of the output is output to the control unit 32.

また、スイッチ281−1、281−2、281−3が開状態のとき(つまり、被写体撮像部20−1がセンサとして用いられる際)は、スイッチ285−1、285−2が閉状態(モニタ側撮像部20−2による撮影が行なわれる)となり、撮影レンズ2−2によって取り込まれた光学像はCCD23−2で電気信号(画像信号)に変換され、出力される。CCD23−2から出力された画像信号はサンプリング&A/D変換され、デジタルクランプ280−1でベイヤー(Bayer)形式のデータとされ、所定のタイミングでWBゲイン乗算回路24及びYIQ変換回路286に与えられる。WBゲイン乗算回路282でWB係数(ホワイトバランス係数)を乗算してからガンマ補正回路283で画像補間処理を行ない、画像生成回路284で映像信号を生成してDMAコントローラ29に出力する。一方、YIQ変換回路286に与えられたデータからYIQ変換回路27、白検出回路28及びWB係数決定回路29からなるWB係数演算ブロックでWB係数を決定し、WBゲイン乗算回路24の設定値として、WBゲイン乗算回路24にフィードバックされる。また、撮影レンズ2−1によって取り込まれた光学像はCCD23−1で電気信号(画像信号)に変換され、出力される。CCD23−2から出力された画像信号はサンプリング&A/D変換され、デジタルクランプ280でベイヤ(Bayer)形式のデータとされ、所定のタイミングでYIQ変換回路286に与えられ、CCD23−2からのデータに加算される。
また、AE用積分器280−2では被写体撮像部20−1からの入力信号を積分してその積分値を制御部32に出力する。
When the switches 281-1, 281-2, and 281-3 are in the open state (that is, when the subject imaging unit 20-1 is used as a sensor), the switches 285-1 and 285-2 are in the closed state (monitoring). The optical image captured by the photographing lens 2-2 is converted into an electrical signal (image signal) by the CCD 23-2 and output. The image signal output from the CCD 23-2 is sampled and A / D converted, converted into Bayer format data by the digital clamp 280-1, and supplied to the WB gain multiplication circuit 24 and the YIQ conversion circuit 286 at a predetermined timing. . The WB gain multiplication circuit 282 multiplies the WB coefficient (white balance coefficient), and then the gamma correction circuit 283 performs image interpolation processing. The image generation circuit 284 generates a video signal and outputs it to the DMA controller 29. On the other hand, the WB coefficient is determined by the WB coefficient calculation block including the YIQ conversion circuit 27, the white detection circuit 28, and the WB coefficient determination circuit 29 from the data supplied to the YIQ conversion circuit 286. This is fed back to the WB gain multiplication circuit 24. The optical image captured by the photographing lens 2-1 is converted into an electrical signal (image signal) by the CCD 23-1 and output. The image signal output from the CCD 23-2 is sampled and A / D converted, converted into a Bayer format data by the digital clamp 280, supplied to the YIQ conversion circuit 286 at a predetermined timing, and converted into data from the CCD 23-2. Is added.
The AE integrator 280-2 integrates the input signal from the subject imaging unit 20-1 and outputs the integrated value to the control unit 32.

また、同時撮影モードや手ブレ判別モードのときは、時分割制御により、スイッチ281−1、281−2、281−3が閉状態のとき(つまり、被写体撮像部20−1による撮影の際)は、スイッチ285−1、285−2が開放されてモニタ側撮像部20−2がセンサとして用いられ、スイッチ285−1、285−2が閉状態のとき(つまり、被写体撮像部20−2による撮影の際)は、スイッチ2811、281−2、281−3が開放されてモニタ側撮像部20−1がセンサとして用いられる。   In the simultaneous shooting mode and the camera shake discrimination mode, the switches 281-1, 281-2, and 281-3 are closed by time division control (that is, when shooting is performed by the subject imaging unit 20-1). When the switches 285-1 and 285-2 are opened and the monitor-side imaging unit 20-2 is used as a sensor, and the switches 285-1 and 285-2 are closed (that is, by the subject imaging unit 20-2). At the time of shooting), the switches 2811, 281-2, and 281-3 are opened, and the monitor-side imaging unit 20-1 is used as a sensor.

図4は、センサ撮影モード時の撮影動作、つまり、被写体撮像部またはモニタ側撮像部のいずれか一方で画像を撮影し、他の一方を撮影情報収集用のセンサとして用いる場合のデジタルカメラ1の動作を説明するためのフローチャートである。このフローチャートはデジタルカメラ1に本願発明の撮影方法を実現させるためのプログラムを説明するためのものであり、撮影動作プログラムのサブプログラムの一つとして構成されていてもよいし、独立したプログラム(例えば、「センサ撮影モード時の撮影プログラム」)として構成されていてもよい。   FIG. 4 shows a photographing operation in the sensor photographing mode, that is, the digital camera 1 in the case where either one of the subject imaging unit or the monitor side imaging unit captures an image and the other one is used as a sensor for collecting photographing information. It is a flowchart for demonstrating operation | movement. This flowchart is for explaining a program for causing the digital camera 1 to implement the photographing method of the present invention, and may be configured as one of subprograms of the photographing operation program, or may be an independent program (for example, , “Shooting program in sensor imaging mode”).

以下に示す処理は基本的に制御部32のCPUが予めプログラムメモリに記憶されたプログラムに従って実行する例で説明するが、全ての機能をプログラムメモリに格納する必要はなく、必要に応じて、その一部若しくは全部をネットワークを介して受信して実現するようにしてもよい(図5、図7においても同様である)。以下、図1〜図4に基いて説明する。   The processing shown below will be basically explained by an example in which the CPU of the control unit 32 executes according to a program stored in advance in the program memory, but it is not necessary to store all functions in the program memory. It may be realized by receiving part or all via a network (the same applies to FIGS. 5 and 7). Hereinafter, description will be given based on FIGS.

撮影者がセンサ撮影モードを選択したとき、図4で、制御部32はカラープロセス回路28(図3)のスイッチ181−1、181−2、181−3を閉状態とし、スイッチ185−1、185−2を開放する(ステップS1)。   When the photographer selects the sensor photographing mode, in FIG. 4, the control unit 32 closes the switches 181-1, 181-2, 181-3 of the color process circuit 28 (FIG. 3), and switches 185-1, 185-2 is opened (step S1).

次に、制御部32はその時点の(ズーム値に対応した)焦点距離でAE処理を実行し、被写体撮像部20−1で、撮影レンズ2−1から入射する被写体光像をTG24−1からのタイミング信号を基に垂直ドライバ25−1でCCD23−1を駆動制御して被写体像を取り込み光電変換してサンプルホールド回路25−1、AD変換回路26−1の経路でデジタルの画像信号を得て、カラープロセス回路28に出力する。また、略同時に、撮影レンズ2−2から入射する撮影者側光像(撮影者像等)をモニタ側撮像部20−2で、TG24−2からのタイミング信号を基に垂直ドライバ25−2でCCD23−2を駆動制御して撮影者側の光像(撮影者像やその背景像)を光電変換してサンプルホールド回路25−2、AD変換回路26−2の経路でデジタルの画像信号を得て、カラープロセス回路28に出力する(ステップS2)。   Next, the control unit 32 executes AE processing at the focal length (corresponding to the zoom value) at that time, and the subject imaging unit 20-1 converts the subject light image incident from the photographing lens 2-1 from the TG 24-1. Based on the timing signal, the CCD 23-1 is driven and controlled by the vertical driver 25-1, the subject image is captured and subjected to photoelectric conversion, and a digital image signal is obtained through the path of the sample hold circuit 25-1 and AD conversion circuit 26-1. To the color process circuit 28. At substantially the same time, the photographer side light image (photographer image or the like) incident from the photographing lens 2-2 is captured by the monitor image capturing unit 20-2, and the vertical driver 25-2 based on the timing signal from the TG 24-2. The CCD 23-2 is driven and controlled to photoelectrically convert a photographer side light image (photographer image and its background image) to obtain a digital image signal through the path of the sample hold circuit 25-2 and AD conversion circuit 26-2. Is output to the color process circuit 28 (step S2).

被写体撮像部20−1からの画像信号はデジタルクランプ280でベイヤ(Bayer)形式のデータとされ、所定のタイミングでWBゲイン乗算回路24及びYIQ変換回路286に与えられ、モニタ側撮像部20−2からの画像信号はデジタルクランプ280でベイヤ(Bayer)形式のデータとされ、所定のタイミングでYIQ変換回路286に与えられる。つまり、カラープロセス回路28で、被写体撮像部20−1からの画像信号にモニタ側撮像部20−2からの入力信号を付加してホワイトバランス処理を行い光源の色に対応したホワイトバランスになるように調整を施してから(ステップS3)、ガンマ補正回路283で画像補間処理し、画像生成回路284で映像信号を生成してDMAコントローラ29及びDRAMインターフェイス(I/F)30を介してDRAM31にDMA転送する(ステップS4)。   The image signal from the subject imaging unit 20-1 is converted to Bayer format data by the digital clamp 280, and is supplied to the WB gain multiplication circuit 24 and the YIQ conversion circuit 286 at a predetermined timing, and the monitor side imaging unit 20-2 The image signal from is converted to Bayer format data by the digital clamp 280 and is supplied to the YIQ conversion circuit 286 at a predetermined timing. That is, the color process circuit 28 adds the input signal from the monitor-side imaging unit 20-2 to the image signal from the subject imaging unit 20-1, and performs white balance processing so as to achieve white balance corresponding to the color of the light source. (Step S3), the gamma correction circuit 283 performs image interpolation processing, the image generation circuit 284 generates a video signal, and the DMA signal is transferred to the DRAM 31 via the DMA controller 29 and the DRAM interface (I / F) 30. Transfer (step S4).

また、カラープロセス回路28からのDRAM31へのDMA転送と共に被写体撮像部20−1からの画像データを間引いてスルー画像データを生成し、VRAMコントローラ33を制御してVRAM34−1を生成したスルー画像の映像信号で書き換え、デジタルビデオエンコーダ35を経由させて表示部13にファインダ用の映像(スルー画像)を表示させる(ステップS5)。
制御部32はキー入力部36からの信号を調べてシャッターキー7が半押し操作されたか否かを調べ、半押しされた場合はステップS7に進み、押されていない場合はステップS2に戻る(ステップS6)。
In addition, through image data from the subject imaging unit 20-1 is generated together with DMA transfer from the color process circuit 28 to the DRAM 31, and through image data is generated, and the VRAM controller 33 is controlled to generate the VRAM 34-1. The video signal is rewritten, and a finder video (through image) is displayed on the display unit 13 via the digital video encoder 35 (step S5).
The control unit 32 checks the signal from the key input unit 36 to determine whether or not the shutter key 7 has been pressed halfway. If the shutter key 7 has been pressed halfway, the process proceeds to step S7. If not, the process returns to step S2 ( Step S6).

また、制御部32は次に、所定のフォーカスエリアにピントが合うようにAF駆動部11−2を制御して自動合焦処理、つまり、フォーカスレンズ12−1を移動させて合焦動作を行わせると共にAE制御(絞り制御含む)やAWB制御(ステップS2、S3参照)を行い、合焦処理が終わると合焦位置をロックしてステップS8に進む。なお、図示されていないが合焦動作中もスルー画像は表示される(ステップS7)。   Next, the control unit 32 controls the AF driving unit 11-2 so as to focus on a predetermined focus area, and performs an automatic focusing process, that is, moves the focus lens 12-1 to perform a focusing operation. At the same time, AE control (including aperture control) and AWB control (see steps S2 and S3) are performed. When the focusing process is completed, the focusing position is locked and the process proceeds to step S8. Although not shown, the through image is displayed even during the focusing operation (step S7).

制御部32はキー入力部30からの信号を調べてシャッターキー7が全押し操作されたか否かを判定し、シャッターキー7が全押しされた場合はステップS9に進む(ステップS8)。   The control unit 32 checks the signal from the key input unit 30 to determine whether or not the shutter key 7 has been fully pressed. If the shutter key 7 has been fully pressed, the process proceeds to step S9 (step S8).

シャッターキー7が全押しされた場合は、その時点で直ちに被写体撮像部20−1からのDRAM31への経路を停止してスルー画像取得時とは異なる本撮影時のCCD駆動方式への切り替えを実行して取込んだ画像データに画像圧縮処理を施した後、この圧縮画像データ(画像ファイル)を保存メモリ38に記録して1フレーム分の画像の撮影を終了する(ステップS9)。   When the shutter key 7 is fully pressed, the path from the subject imaging unit 20-1 to the DRAM 31 is immediately stopped at that time, and switching to the CCD driving method at the time of main photographing different from the through image acquisition is executed. Then, after the image compression processing is performed on the captured image data, the compressed image data (image file) is recorded in the storage memory 38, and the image capturing for one frame is finished (step S9).

上記図4のフローチャートに示した動作により、被写体撮像部20−1で被写体を撮影する際にモニタ側撮像部20−2からの光電変換出力をホワイトバランス処理等の撮影時の画像情報の調整データとして用いるので、被写体の撮影とモニタ周辺の明るさや光源等の情報の取得とを同時に行うことができる。つまり、前面及び背面の撮像素子が異なる撮影領域の光を取り込むので、被写体の撮影時に撮影者の背後等の周囲の光源情報等をより確実に得ることができる。そして、この情報を基にホワイトバランス等の撮影条件の設定を行い、被写体を撮影することができる。   By the operation shown in the flowchart of FIG. 4, when the subject imaging unit 20-1 captures a subject, the photoelectric conversion output from the monitor-side imaging unit 20-2 is converted into image information adjustment data during imaging such as white balance processing. Therefore, the photographing of the subject and the acquisition of information such as the brightness around the monitor and the light source can be performed simultaneously. That is, since the front and back imaging elements capture light from different shooting areas, information on the surrounding light sources such as the back of the photographer can be obtained more reliably when shooting the subject. Based on this information, shooting conditions such as white balance can be set and the subject can be shot.

また、上記図4のフローチャートの説明では被写体撮像部20−1で被写体の撮影(相手撮り)を行い、モニタ側撮像部20−2をセンサとして用いた例を示したが、図4はモニタ側撮像部20−2で撮影(自分撮り)を行い、被写体撮像部20−1をセンサとして用いる場合にも適用できる。但し、この場合は、スイッチ181−1、181−2、181−3を開放し、スイッチ185を閉状態にし、CCD23−2から撮影者側画像を取り込むようにする。また、モニタ側撮像部20−2は本実施形態ではズーム動作は行なわないのでステップS1におけるズーム動作は行なわない。また、固定焦点であり、合焦処理は行なわないのでステップS6のシャッターキー7の半押し操作検出とステップS7のAF〜AWB動作は行なわないようにする。また、シャッターキー7が全押しされない場合はステップS2に戻るようにする。   In the description of the flowchart of FIG. 4 above, an example is shown in which the subject imaging unit 20-1 captures a subject (photographing the other party) and the monitor side imaging unit 20-2 is used as a sensor. The present invention can also be applied to a case where photographing (self-portrait) is performed with the imaging unit 20-2 and the subject imaging unit 20-1 is used as a sensor. However, in this case, the switches 181-1, 181-2, 181-3 are opened, the switch 185 is closed, and the photographer side image is captured from the CCD 23-2. In addition, since the monitor-side imaging unit 20-2 does not perform a zoom operation in this embodiment, the zoom operation in step S1 is not performed. In addition, since the focus is fixed and no focusing process is performed, the half-pressing operation detection of the shutter key 7 in step S6 and the AF to AWB operations in step S7 are not performed. If the shutter key 7 is not fully pressed, the process returns to step S2.

なお、モニタ側撮像部20−2でズーム動作を行なうようにデジタルカメラ1を構成した場合は、上記図4のフローチャートのステップT1で、スイッチ181−1、181−2、181−3を開放し、スイッチ185を閉状態にし、CCD23−2から撮影者側画像を取り込むようにすればよい。   When the digital camera 1 is configured to perform the zoom operation with the monitor-side imaging unit 20-2, the switches 181-1, 181-2, 181-3 are opened at step T1 in the flowchart of FIG. Then, the switch 185 is closed, and the photographer side image is taken in from the CCD 23-2.

(実施形態2)
図5は、同時撮影モード時の撮影動作、つまり、被写体撮像部及びモニタ側撮像部で画像を略同時に撮影する場合のデジタルカメラ1の動作を説明するためのフローチャートであり、図5(a)は被写体側画像とモニタ側画像の合成画像を記録するように構成した例、図5(b)は被写体側画像とモニタ側画像を関連付けて記録するように構成した例を示す。
このフローチャートはデジタルカメラ1に本願発明の撮影方法を実現させるためのプログラムを説明するためのものであり、撮影動作プログラムのサブプログラムの一つとして構成されていてもよいし、独立したプログラム(例えば、「同時撮影モード時の撮影プログラム」)として構成されていてもよい。以下、ホワイトバランス処理に係わる撮像部2−1、2−2の一連の動作について図1〜3、図5、図6を基に説明する。
(Embodiment 2)
FIG. 5 is a flowchart for explaining the shooting operation in the simultaneous shooting mode, that is, the operation of the digital camera 1 when the subject imaging unit and the monitor-side imaging unit capture images substantially simultaneously. Is an example configured to record a composite image of the subject side image and the monitor side image, and FIG. 5B illustrates an example configured to record the subject side image and the monitor side image in association with each other.
This flowchart is for explaining a program for causing the digital camera 1 to implement the photographing method of the present invention, and may be configured as one of subprograms of the photographing operation program, or may be an independent program (for example, , “Shooting program in simultaneous shooting mode”). Hereinafter, a series of operations of the imaging units 2-1 and 2-2 related to the white balance processing will be described with reference to FIGS.

図5(a)で、撮影者が同時撮影モードを選択したとき制御部32はその時点の(ズーム値に対応した)焦点距離でAE処理を実行し、被写体撮像部20−1で、撮影レンズ2−1から入射する被写体光像をTG24−1からのタイミング信号を基に垂直ドライバ25−1でCCD23−1を駆動制御して被写体像を取り込んで光電変換してサンプルホールド回路25−1、AD変換回路26−1の経路でデジタルの画像信号を得て、カラープロセス回路28に出力する。また、略同時に、撮影レンズ2−2から入射する撮影者側光像ぞう撮影者像やその背景像)をモニタ側撮像部20−2で、TG24−2からのタイミング信号を基に垂直ドライバ25−2でCCD23−2を駆動制御して撮影者側の光像を光電変換してサンプルホールド回路25−2、AD変換回路26−2の経路で一定時毎にCCD−23−1に結像した光像に対する1フレーム分のデジタルの画像信号を得てカラープロセス回路28に出力する。また、略同時に、固定の焦点距離でAE処理を実行し、被写体撮像部20−2で、撮影レンズ2−2から入射する被写体光像をTG24−2からのタイミング信号を基に垂直ドライバ25−2でCCD23−2を駆動制御して被写体像を取り込み光電変換してサンプルホールド回路25−2、AD変換回路26−2の経路でデジタルの画像信号を得て、カラープロセス回路28に出力する。また、略同時に、撮影レンズ2−2から入射する撮影者側光像撮影者像やその背景像)をモニタ側撮像部20−2で、TG24−2からのタイミング信号を基に垂直ドライバ25−2でCCD23−2を駆動制御して撮影者側の光像(撮影者像やその背景像)を光電変換してサンプルホールド回路25−2、AD変換回路26−2の経路で一定時毎にCCD−23−2に結像した光像に対する1フレーム分のデジタルの画像信号を得てカラープロセス回路28に出力する(ステップT1)。   In FIG. 5A, when the photographer selects the simultaneous photographing mode, the control unit 32 executes AE processing at the focal length (corresponding to the zoom value) at that time, and the subject imaging unit 20-1 takes the photographing lens. The subject light image incident from 2-1 is driven and controlled by the vertical driver 25-1 based on the timing signal from the TG 24-1, the CCD 23-1 is driven and captured, and the subject image is photoelectrically converted to a sample hold circuit 25-1. A digital image signal is obtained through the path of the AD conversion circuit 26-1 and is output to the color process circuit 28. At the same time, the photographer-side light image incident on the photographing lens 2-2 (photographer image and its background image) is monitored by the monitor-side image pickup unit 20-2 and the vertical driver 25 based on the timing signal from the TG 24-2. -2 drives and controls the CCD 23-2, photoelectrically converts the photographer's side light image, and forms an image on the CCD-23-1 at regular intervals through the path of the sample hold circuit 25-2 and AD conversion circuit 26-2. A digital image signal for one frame corresponding to the optical image is obtained and output to the color process circuit 28. At substantially the same time, the AE process is executed at a fixed focal length, and the subject imaging unit 20-2 converts the subject light image incident from the photographing lens 2-2 based on the timing signal from the TG 24-2. 2, the CCD 23-2 is driven and controlled, the subject image is taken in, subjected to photoelectric conversion, a digital image signal is obtained through the path of the sample hold circuit 25-2 and the AD conversion circuit 26-2, and is output to the color process circuit 28. At substantially the same time, the photographer-side light image photographer image and its background image incident from the photographing lens 2-2 are monitored by the monitor-side imaging unit 20-2 and the vertical driver 25- based on the timing signal from the TG 24-2. 2, the CCD 23-2 is driven and controlled to photoelectrically convert the photographer's side light image (photographer image and its background image) at regular intervals along the path of the sample hold circuit 25-2 and AD conversion circuit 26-2. A digital image signal for one frame with respect to the optical image formed on the CCD-23-2 is obtained and output to the color process circuit 28 (step T1).

制御部32はまず上記1フレーム分の画像信号の出力タイミング(つまり、上記一定時)ごとに、カラープロセス回路28(図3)のスイッチ181−1、181−2、181−3を閉状態とし、スイッチ185−1、185−2を開放する第1の状態(被写体撮像部能動状態)と、スイッチ185−1、185−2を閉状態とし、スイッチ181−1、181−2、181−3を開放する第2の状態(モニタ側撮像部能動状態)を繰り返す(ステップT2)。   The control unit 32 first closes the switches 181-1, 181-2, and 181-3 of the color process circuit 28 (FIG. 3) at every output timing of the image signal for one frame (that is, at the fixed time). The switches 185-1 and 185-2 are opened in the first state (subject imaging unit active state), the switches 185-1 and 185-2 are closed, and the switches 181-1, 181-2 and 181-3 are closed. The second state (monitor side imaging unit active state) is released (step T2).

第1の状態では、カラープロセス回路28は、被写体撮像部20−1からの画像信号をデジタルクランプ280でベイヤ(Bayer)形式のデータとしてWBゲイン乗算回路24及びYIQ変換回路286に与え、被写体撮像部20−2からの画像信号は所定のタイミングでデジタルクランプ280でベイヤ(Bayer)形式のデータとし、YIQ変換回路286に与える。つまり、カラープロセス回路28で、被写体撮像部20−1からの画像信号にモニタ側撮像部20−2からの入力信号を付加してホワイトバランス処理を行い光源の色に対応したホワイトバランスになるように調整を施してから(ステップT3)、ガンマ補正回路283で画像補間処理し、画像生成回路284で映像信号を生成してDMAコントローラ29及びDRAMインターフェイス(I/F)30を介してDRAM31にDMA転送してDRAM31の被写体側像記憶領域に記憶させ、ステップT7に進む(ステップT4)。   In the first state, the color process circuit 28 supplies the image signal from the subject imaging unit 20-1 to the WB gain multiplication circuit 24 and the YIQ conversion circuit 286 as data in the Bayer format by the digital clamp 280, and captures the subject. The image signal from the unit 20-2 is converted into Bayer format data by the digital clamp 280 at a predetermined timing, and is supplied to the YIQ conversion circuit 286. That is, the color process circuit 28 adds the input signal from the monitor-side imaging unit 20-2 to the image signal from the subject imaging unit 20-1, and performs white balance processing so as to achieve white balance corresponding to the color of the light source. (Step T3), the image interpolation processing is performed by the gamma correction circuit 283, the video signal is generated by the image generation circuit 284, and the DMA signal is transferred to the DRAM 31 via the DMA controller 29 and the DRAM interface (I / F) 30. The data is transferred and stored in the subject-side image storage area of the DRAM 31, and the process proceeds to Step T7 (Step T4).

更に、制御部32は、上記ステップT4でのカラープロセス回路28からのDRAM31へのDMA転送と共に被写体撮像部20−1からの画像データを間引いてスルー画像データを生成し、VRAMコントローラ33を制御してVRAM34−2を画像データを生成したスルー画像データで書き換える(ステップT5)。   Further, the control unit 32 generates through image data by thinning out the image data from the subject imaging unit 20-1 together with the DMA transfer from the color process circuit 28 to the DRAM 31 in step T 4, and controls the VRAM controller 33. Then, the VRAM 34-2 is rewritten with the through image data that has generated the image data (step T5).

第2の状態では、カラープロセス回路28は、モニタ側撮像部20−2からの画像信号をデジタルクランプ280でベイヤ(Bayer)形式のデータとしてWBゲイン乗算回路24及びYIQ変換回路286に与え、被写体撮像部20−1からの画像信号は所定のタイミングでデジタルクランプ280でベイヤ(Bayer)形式のデータとし、YIQ変換回路286に与える。つまり、カラープロセス回路28で、モニタ側撮像部20−2からの画像信号に被写体撮像部20−2からの入力信号を付加してホワイトバランス処理を行い光源の色に対応したホワイトバランスになるように調整を施してから(ステップT6)、ガンマ補正回路283で画像補間処理し、画像生成回路284で映像信号を生成してDMAコントローラ29及びDRAMインターフェイス(I/F)30を介してDRAM31にDMA転送してDRAM31のモニタ側画像記憶領域に記憶させ、ステップT8に進む(ステップT7)。   In the second state, the color process circuit 28 supplies the image signal from the monitor-side imaging unit 20-2 to the WB gain multiplication circuit 24 and the YIQ conversion circuit 286 as data in the Bayer format by the digital clamp 280, and the subject The image signal from the imaging unit 20-1 is converted to Bayer format data by the digital clamp 280 at a predetermined timing, and is supplied to the YIQ conversion circuit 286. That is, the color process circuit 28 adds the input signal from the subject imaging unit 20-2 to the image signal from the monitor-side imaging unit 20-2 and performs white balance processing so as to achieve white balance corresponding to the color of the light source. (Step T6), the image interpolation processing is performed by the gamma correction circuit 283, the video signal is generated by the image generation circuit 284, and the DMA signal is transferred to the DRAM 31 via the DMA controller 29 and the DRAM interface (I / F) 30. The data is transferred and stored in the monitor-side image storage area of the DRAM 31, and the process proceeds to Step T8 (Step T7).

更に、制御部32は、上記ステップT7でのカラープロセス回路28からのDRAM31へのDMA転送と共に、モニタ側撮像部20−2からの画像データを間引いてから所定比率で縮小処理したスルー画像データを生成し、VRAMコントローラ33を制御してVRAM34−1に記憶されている被写体側の映像信号に、図6の例に示すように、モニタ側の画像132が被写体側の画像131上の所定の位置(表示部13の画面上の所定の位置)に重畳(上書き)表示されるように重畳(上書き)させ、デジタルビデオエンコーダ35を経由させて表示部13にモニタ側の画像が重畳(上書き)合成されたファインダ用の映像(スルー画像)を表示させる(ステップT8)。   Further, the control unit 32 performs the DMA transfer from the color process circuit 28 to the DRAM 31 in step T7, and the through image data reduced by a predetermined ratio after thinning out the image data from the monitor side imaging unit 20-2. As shown in the example of FIG. 6, the monitor-side image 132 is generated at a predetermined position on the subject-side image 131 in the subject-side video signal generated and stored in the VRAM 34-1 by controlling the VRAM controller 33. The image on the monitor side is superimposed (overwritten) and superimposed on the display unit 13 via the digital video encoder 35 so as to be superimposed (overwritten) and displayed at a predetermined position on the screen of the display unit 13. The finder image (through image) is displayed (step T8).

制御部32はキー入力部36からの信号を調べてシャッターキー7が半押し操作されたか否かを調べ、半押しされた場合はステップT10に進み、押されていない場合はステップT2に戻る(ステップT9)。   The control unit 32 checks the signal from the key input unit 36 to determine whether or not the shutter key 7 has been pressed halfway. If the shutter key 7 has been pressed halfway, the process proceeds to step T10, and if not, the process returns to step T2 ( Step T9).

また、制御部32は、次に、被写体撮像部20−1で、所定のフォーカスエリアにピントが合うようにAF駆動部11−2を制御して自動合焦処理、つまり、フォーカスレンズ12−1を移動させて合焦動作を行わせると共に被写体撮像部20−1及びモニタ側撮像部20−2のAE制御(絞り制御含む)やAWB制御(ステップT1〜T3参照)を行わせ、合焦処理が終わると合焦位置をロックしてステップT11に進む。なお、図示されていないが合焦動作中もスルー画像は表示される(ステップT10)。   The control unit 32 then controls the AF driving unit 11-2 so that the subject imaging unit 20-1 is focused on a predetermined focus area to perform automatic focusing processing, that is, the focus lens 12-1. Is moved to perform the focusing operation, and AE control (including aperture control) and AWB control (see steps T1 to T3) of the subject imaging unit 20-1 and the monitor-side imaging unit 20-2 are performed to perform the focusing process. When is finished, the in-focus position is locked and the process proceeds to Step T11. Although not shown, the through image is displayed even during the focusing operation (step T10).

制御部32はキー入力部30からの信号を調べてシャッターキー7が全押し操作されたか否かを判定し、シャッターキー7が全押しされた場合はステップT12に進む(ステップT11)。   The control unit 32 checks the signal from the key input unit 30 to determine whether or not the shutter key 7 has been fully pressed, and if the shutter key 7 has been fully pressed, the process proceeds to step T12 (step T11).

シャッターキー7が全押しされた場合は、その時点で直ちに被写体撮像部20−1及びモニタ側撮像部20−2からDRAM31への経路を停止してスルー画像取得時とは異なる本撮影時のCCD駆動方式への切替を実行して被写体撮像部20−1及びモニタ側撮像部20−2からの画像データをそれぞれDRAM31の被写体側画像記憶領域及びモニタ側画像記憶領域に記憶させ(ステップT12)、モニタ側画像記憶領域に記憶した画像データを縮小して、被写体側画像の所定の位置に縮小されたモニタ側画像が位置するように重畳させて合成(上書き合成)し(ステップT13)、合成した画像データに画像圧縮処理を施した後、この圧縮画像データ(画像ファイル)を保存メモリ38に記録して1フレーム分の合成画像の撮影を終了する(ステップT14)。   When the shutter key 7 is fully pressed, the path from the subject imaging unit 20-1 and the monitor-side imaging unit 20-2 to the DRAM 31 is immediately stopped at that time, and the CCD at the time of main shooting is different from that at the time of through image acquisition. Switching to the driving method is executed to store the image data from the subject imaging unit 20-1 and the monitor side imaging unit 20-2 in the subject side image storage area and the monitor side image storage area of the DRAM 31, respectively (step T12). The image data stored in the monitor-side image storage area is reduced, and the monitor-side image is superposed so that the reduced monitor-side image is positioned at a predetermined position of the subject-side image (overwrite synthesis) (step T13), and synthesized. After image compression processing is performed on the image data, the compressed image data (image file) is recorded in the storage memory 38, and the composite image for one frame is shot. That (step T14).

上記図5(a)のフローチャートに示した動作により、被写体撮像部20−1とモニタ側撮像部で略同時に撮影を行う際に、CCDからの1フレーム分のデータ出力のタイミングで、被写体撮像部20−1からの画像信号をモニタ側撮像部20−2からの光電変換出力をホワイトバランス処理の補完データとして用いる周期と、モニタ側撮像部20−2からの画像信号を被写体撮像部20−1からの光電変換出力をホワイトバランス処理の補完データとして用いる周期とを切り替えるので、被写体や撮影者の撮影と周囲の入射光の状態の検出とを同時に行うことができる。つまり、前面及び背面の撮像素子が異なる撮影領域の光を入射しているので、撮影時に周囲の光源情報をより確実に得ることができる。そしてこの情報を基にホワイトバランス等の撮影条件設定を行って被写体及び撮影者を撮影することができる。   When the subject imaging unit 20-1 and the monitor-side imaging unit shoot substantially simultaneously by the operation shown in the flowchart of FIG. 5A, the subject imaging unit at the timing of data output for one frame from the CCD. 20-1 is a period in which the photoelectric conversion output from the monitor-side imaging unit 20-2 is used as complementary data for white balance processing, and the image signal from the monitor-side imaging unit 20-2 is the subject imaging unit 20-1. Since the cycle of using the photoelectric conversion output from the white balance processing as complementary data is switched, it is possible to simultaneously perform photographing of the subject or the photographer and detection of the surrounding incident light state. In other words, since light from different imaging areas is incident on the front and back imaging elements, ambient light source information can be obtained more reliably during imaging. Then, based on this information, it is possible to photograph the subject and the photographer by setting photographing conditions such as white balance.

(変形例1)
上記図5(a)の例ではステップS13、S14に示したように被写体撮像部20−1で撮影した画像とモニタ側撮像部20−2で撮影した画像を合成して保存メモリ38に記録したが、図5(b)に示すように、被写体撮像部20−1で撮影した画像とモニタ側撮像部20−2で撮影した画像を別々に圧縮処理して(ステップT13’)、圧縮した被写体撮像部20−1で撮影した画像とモニタ側撮像部20−2で撮影した画像を関連付けて保存メモリ38に記録する(ステップT14’)ようにしてもよい。この場合は、再生時に再生してから再生画像を合成して表示するができる。
(Modification 1)
In the example of FIG. 5A, as shown in steps S13 and S14, the image captured by the subject imaging unit 20-1 and the image captured by the monitor-side imaging unit 20-2 are combined and recorded in the storage memory 38. However, as shown in FIG. 5B, the image captured by the subject imaging unit 20-1 and the image captured by the monitor side imaging unit 20-2 are separately compressed (step T13 ′), and the compressed subject The image captured by the imaging unit 20-1 and the image captured by the monitor side imaging unit 20-2 may be associated with each other and recorded in the storage memory 38 (step T14 ′). In this case, the reproduced image can be displayed after being reproduced during reproduction.

図6は、同時撮影モード時のモニタリング状態に表示される被写体画像とモニタ側画像の合成画像の例を示す図である。
デジタルカメラ1において、同時撮影モードが選択されると、カメラ正面の撮影レンズ2−1(図1(a))からの被写体画像131と、カメラ背面の撮影レンズ2−2(図1(b))からのモニタ側画像132が図3(c)に示すように合成されて表示される。ユーザは、所望のタイミングでシャッターキー7を操作して静止画像を得ることができる。
FIG. 6 is a diagram illustrating an example of a composite image of the subject image and the monitor-side image displayed in the monitoring state in the simultaneous shooting mode.
In the digital camera 1, when the simultaneous photographing mode is selected, the subject image 131 from the photographing lens 2-1 (FIG. 1 (a)) in front of the camera and the photographing lens 2-2 (FIG. 1 (b)) in the rear of the camera. ) From the monitor side 132 is synthesized and displayed as shown in FIG. The user can obtain a still image by operating the shutter key 7 at a desired timing.

なお、上記図6の例では、モニタ側画像の合成個所は右下隅となっているが、これに限定されない。また画像合成領域選択欄を表示し、ユーザが入力部36のキーの操作を行って所望の表示域を選択すると、選択された表示域にモニタ画像を合成して表示するように構成してもよい。   In the example of FIG. 6 described above, the combination part of the monitor-side image is the lower right corner, but is not limited to this. Alternatively, an image composition area selection field may be displayed, and when the user operates a key on the input unit 36 to select a desired display area, a monitor image is synthesized and displayed on the selected display area. Good.

また、図6の例では、撮影レンズ2−1で撮影した被写体画像中に撮影レンズ2−1で撮影したモニタ側画像を合成表示したが、2つのレイアウトを入れ替えモニタ側画像中に被写体画像を合成表示することができるようにしてもよい。例えば、被写体画像中に合成されたモニタ画像をマウス等でクリックするとレイアウトが入れ替わり、モニタ側画像中に被写体画像を合成した合成画像を表示するようにしてもよい。   In the example of FIG. 6, the monitor side image captured by the photographic lens 2-1 is combined and displayed in the subject image captured by the photographic lens 2-1, but the two layouts are switched and the subject image is displayed in the monitor side image. You may enable it to be displayed compositely. For example, when the monitor image synthesized in the subject image is clicked with a mouse or the like, the layout is switched, and a synthesized image obtained by synthesizing the subject image may be displayed in the monitor side image.

(変形例2)
本実施形態2では略同時に被写体撮像部20−1から取り込んだ画像とモニタ側撮像部20−2で取り込んだ画像の縮小画像を合成してスルー表示したが、モニタ側画像を拡大してウインドウにスルー表示することにより手ブレ防止として利用することができる。
(Modification 2)
In the second embodiment, the image captured from the subject imaging unit 20-1 and the reduced image of the image captured by the monitor-side imaging unit 20-2 are combined and displayed through substantially at the same time, but the monitor-side image is enlarged and displayed in the window. By displaying through, it can be used to prevent camera shake.

図7は、手ブレ防止撮影モード時のデジタルカメラ1の動作を説明するためのフローチャートである。このフローチャートはデジタルカメラ1に本願発明の撮影方法を実現させるためのプログラムを説明するためのものであり、撮影動作プログラムのサブプログラムの一つとして構成されていてもよいし、独立したプログラム(例えば、「手ブレ防止撮影モード時の撮影プログラム」)として構成されていてもよい。以下、ホワイトバランス処理に係わる撮像部2−1、2−2の一連の動作について図1〜3、図7、図8を基に説明する。   FIG. 7 is a flowchart for explaining the operation of the digital camera 1 in the camera shake prevention photographing mode. This flowchart is for explaining a program for causing the digital camera 1 to implement the photographing method of the present invention, and may be configured as one of subprograms of the photographing operation program, or may be an independent program (for example, , “Shooting program in camera shake prevention shooting mode”). Hereinafter, a series of operations of the imaging units 2-1 and 2-2 related to the white balance processing will be described with reference to FIGS.

図7でステップU1〜U7の動作は各ステップの図示を省略しているが図5に示したフローチャートのステップT1〜T7と同様である。したがって、手ブレ防止撮影モードが選択されると、制御部32は、図5のフローチャートのステップT1〜T7と同様の動作を行なうようデジタルカメラ1を制御する(ステップU1〜U7)。   In FIG. 7, the operations of steps U1 to U7 are the same as steps T1 to T7 of the flowchart shown in FIG. Therefore, when the camera shake prevention shooting mode is selected, the control unit 32 controls the digital camera 1 to perform the same operation as steps T1 to T7 in the flowchart of FIG. 5 (steps U1 to U7).

次に、制御部32は、上記ステップU7でのカラープロセス回路28からのDRAM31へのDMA転送と共に、モニタ側撮像部20−2からの画像データを拡大処理してスルー画像データを生成し(ステップU8)、間引き処理を施してからVRAMコントローラ33、デジタルビデオエンコーダ35を介して表示部13のモニタ画面にスルー画像としてウインドウ表示させる(図8参照)(ステップU9)。   Next, along with the DMA transfer from the color process circuit 28 to the DRAM 31 in step U7, the control unit 32 enlarges the image data from the monitor-side imaging unit 20-2 and generates through image data (step S7). U8) After the thinning process is performed, a window is displayed as a through image on the monitor screen of the display unit 13 via the VRAM controller 33 and the digital video encoder 35 (see FIG. 8) (step U9).

制御部32はキー入力部36からの信号を調べてシャッターキー7が半押し操作されたか否かを調べ、半押しされた場合はステップU11に進み、押されていない場合はステップU2に戻る(ステップU10)。   The control unit 32 checks the signal from the key input unit 36 to check whether or not the shutter key 7 has been half-pressed. If the shutter key 7 is half-pressed, the control unit 32 proceeds to Step U11. If not, the control unit 32 returns to Step U2 ( Step U10).

また、制御部32は次に、所定のフォーカスエリアにピントが合うようにAF駆動部11−2を制御して自動合焦処理、つまり、フォーカスレンズ12−1を移動させて合焦動作を行わせると共にAE制御(絞り制御含む)やAWB制御(ステップU1〜U3参照)を行い、合焦処理が終わると合焦位置をロックしてステップU12に進む。なお、図示されていないが合焦動作中もスルー画像は表示される(ステップU11)。   Next, the control unit 32 controls the AF driving unit 11-2 so as to focus on a predetermined focus area, and performs an automatic focusing process, that is, moves the focus lens 12-1 to perform a focusing operation. AE control (including aperture control) and AWB control (see Steps U1 to U3) are performed, and when the focusing process is completed, the focusing position is locked and the process proceeds to Step U12. Although not shown, the through image is displayed even during the focusing operation (step U11).

制御部32はキー入力部30からの信号を調べてシャッターキー7が全押し操作されたか否かを判定し、シャッターキー7が全押しされた場合はステップU13に進む(ステップU12)。   The control unit 32 checks the signal from the key input unit 30 to determine whether or not the shutter key 7 has been fully pressed. If the shutter key 7 has been fully pressed, the process proceeds to step U13 (step U12).

シャッターキー7が全押しされた場合は、その時点で直ちに被写体撮像部20−1からのDRAM31への経路を停止してスルー画像取得時とは異なる本撮影時のCCD駆動方式への切替を実行して取込んだ画像データに画像圧縮処理を施した後、この圧縮画像データ(画像ファイル)を保存メモリ38に記録して1フレーム分の画像の撮影を終了する(ステップU13)。   When the shutter key 7 is fully pressed, the path from the subject imaging unit 20-1 to the DRAM 31 is immediately stopped at that time, and switching to the CCD driving method at the time of main shooting different from the through image acquisition is executed. Then, after the image compression processing is performed on the captured image data, the compressed image data (image file) is recorded in the storage memory 38, and the image capturing for one frame is finished (step U13).

上記図7のフローチャートに示した動作により、被写体撮像部20−1で被写体を撮影する際に被写体撮像部20−1で取り込んだスルー画像が表示されているモニタ画面上にモニタ側撮像部20−2で取り込んだ背面側の被写体(通常は撮影者)を拡大してウインドウ表示するので、手ブレ状態が増幅されて表示されるので、カメラがブレるとウインドウ表示された画像が上下あるいは左右にゆれているように見えることから、撮影者は手ブレが生じていることを認識でき、カメラを構え直すなどしてブレを抑止することができる。したがって、デジタルカメラ1に特にブレ検出用のセンサを備えなくても手ブレの略ない画像を得ることができる。また、CCDが2つあるのでCCDが1つの場合のように並列処理等で処理速度を遅くすることなく、拡大画像にて手ブレ状況を強調表示し、手ブレ状態の確認を行なうことができる。また、ウインドウの拡大画像は電子ズームばかりでなく光学ズームでも可能となる。   By the operation shown in the flowchart of FIG. 7, when the subject imaging unit 20-1 captures a subject, the monitor side imaging unit 20- is displayed on the monitor screen on which the through image captured by the subject imaging unit 20-1 is displayed. Since the back-side subject (usually the photographer) captured in step 2 is enlarged and displayed in the window, the camera shake state is amplified and displayed. When the camera shakes, the image displayed in the window moves vertically or horizontally. Since it appears to be swaying, the photographer can recognize that camera shake has occurred, and can suppress camera shake by re-setting the camera. Therefore, even if the digital camera 1 is not particularly equipped with a blur detection sensor, an image free from camera shake can be obtained. In addition, since there are two CCDs, the camera shake state can be highlighted on the enlarged image and the state of the camera shake can be confirmed without slowing down the processing speed by parallel processing or the like as in the case of one CCD. . In addition, the enlarged image of the window can be obtained not only by electronic zoom but also by optical zoom.

図8は、手ブレ防止撮影モード時のモニタリング状態に表示される被写体画像とモニタ側画像の合成画像の例を示す図である。デジタルカメラ1において、手ブレ防止撮影モードが選択されると、カメラ正面の撮影レンズ2−1(図1(a))からの被写体画像131がスルー表示され、カメラ背面の撮影レンズ2−2(図1(b))からのモニタ側画像133(この例では撮影者像)が拡大されウインドウ表示される。また、符号133はブレた像を示す。拡大された画像133の動きは感知しやすいので、撮影者はウインドウ135に表示された画像133が上下または左右に動く場合は手ブレがあると判断できるので、撮影者がカメラを持ち直す等の手ブレ抑止動作を行なって画像133の動きが止まったタイミングでシャッターキー7を操作すると手ブレのない静止画像を得ることができる。   FIG. 8 is a diagram illustrating an example of a composite image of the subject image and the monitor-side image displayed in the monitoring state in the camera shake prevention shooting mode. In the digital camera 1, when the anti-shake shooting mode is selected, the subject image 131 from the shooting lens 2-1 (FIG. 1 (a)) in front of the camera is displayed through, and the shooting lens 2-2 ( The monitor-side image 133 (photographer image in this example) from FIG. 1B is enlarged and displayed in a window. Reference numeral 133 denotes a blurred image. Since the movement of the enlarged image 133 is easy to detect, the photographer can determine that there is camera shake when the image 133 displayed in the window 135 moves up and down or left and right. If the shutter key 7 is operated at the timing when the movement of the image 133 stops by performing the blur suppression operation, a still image without camera shake can be obtained.

なお、上記図8の例では、ウインドウ135の表示個所は右下隅となっているが、これに限定されない。また、十字キー10を操作してウインドウ135を画面上の所望の箇所、たとえば、スルー表示されている被写体画像の邪魔にならない箇所に移動させることもできる。   In the example of FIG. 8, the display location of the window 135 is the lower right corner, but the present invention is not limited to this. Further, the cross key 10 can be operated to move the window 135 to a desired location on the screen, for example, a location that does not interfere with the subject image displayed through.

(変形例3)
また、本実施形態2ではデジタルカメラ1が正面側に撮影レンズ2−1及びCCD−23−1を備え、背面側に撮影レンズ2―2およびCCD23−2を備えている例を基に説明したが、本実施形態2と本実施形態2の変形例2及び変形例3の発明はデジタルカメラ1が正面側に撮影レンズ2−1及びCCD−23−1と、撮影レンズ2−2及びCCD−23−2とを備えた場合にも適用できる。
このようにした場合、同時撮影モードでは正面側の撮影レンズ2−1及び撮影レンズ2―2で取り込んだ光学像が合成されてスルー表示される。また、図5のステップT2のスイッチ動作により、撮像部2−1または撮像部レンズ2−2がセンサとして動作するので、カメラ正面の周辺光源を効率よく用いることができる。
また、手ブレ防止撮影モードでは一方の撮像部で取り込んだ画像を拡大してウインドウ表示する。拡大された画像の動きは感知しやすいので、ウインドウ内の画像をブレ防止用の画像として利用することができる。
(Modification 3)
In the second embodiment, the digital camera 1 is described based on an example in which the front side includes the taking lens 2-1 and the CCD 23-1, and the back side includes the taking lens 2-2 and the CCD 23-2. However, according to the second and second modified examples of the second and second embodiments, the digital camera 1 has a photographing lens 2-1 and CCD-23-1, and a photographing lens 2-2 and CCD- 23-2 is also applicable.
In such a case, in the simultaneous photographing mode, the optical images captured by the photographing lens 2-1 and the photographing lens 2-2 on the front side are combined and displayed through. Further, since the imaging unit 2-1 or the imaging unit lens 2-2 operates as a sensor by the switch operation in step T2 in FIG. 5, the peripheral light source in front of the camera can be used efficiently.
In the camera shake prevention shooting mode, an image captured by one imaging unit is enlarged and displayed in a window. Since the movement of the enlarged image is easy to detect, the image in the window can be used as an image for preventing blurring.

以上、本発明のいくつかの実施例について説明したが本発明は上記各実施例に限定されるものではなく、種々の変形実施が可能であることはいうまでもない。     As mentioned above, although several Example of this invention was described, it cannot be overemphasized that this invention is not limited to said each Example, A various deformation | transformation implementation is possible.

本発明を適用したデジタルカメラの外観構成の一実施例を示す図である。It is a figure which shows one Example of the external appearance structure of the digital camera to which this invention is applied. 図1のデジタルカメラの電子回路構成の一実施例を示す図である。It is a figure which shows one Example of the electronic circuit structure of the digital camera of FIG. カラープロセス回路におけるAWB(ホワイトバランス)処理の説明図である。It is explanatory drawing of AWB (white balance) processing in a color process circuit. センサ撮影モード時のデジタルカメラの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the digital camera at the time of sensor imaging | photography mode. 同時撮影モード時のデジタルカメラの動作を説明するためのフローチャートである。6 is a flowchart for explaining the operation of the digital camera in the simultaneous photographing mode. 同時撮影モード時のモニタリング状態に表示される被写体画像とモニタ側画像の合成画像の例を示す図である。It is a figure which shows the example of the synthesized image of the to-be-photographed image displayed on the monitoring state at the time of simultaneous imaging | photography mode, and a monitor side image. 手ブレ防止撮影モード時のデジタルカメラ1の動作を説明するためのフローチャートである。6 is a flowchart for explaining an operation of the digital camera 1 in a camera shake prevention shooting mode. 手ブレ防止撮影モード時のモニタリング状態に表示される被写体画像とモニタ側画像の合成画像の例を示す図である。It is a figure which shows the example of the synthetic | combination image of the to-be-photographed image displayed on the monitoring state at the time of camera-shake prevention imaging | photography mode, and a monitor side image.

符号の説明Explanation of symbols

1 デジタルカメラ
7 シャッターキー(撮像指示手段)
8 モードスイッチ(撮像モード選択手段)
9 メニューキー(撮像モード選択手段)
13 表示部(合成画像表示手段)
20−1 被写体撮像部(第1の撮像部)
20−2 モニタ側撮像部(第2の撮像部)
29 カラープロセス回路(信号変換処理手段)
31 DRAM(画像記憶メモリ)
32 制御部(同時撮影制御手段、画像記憶制御手段)
38 保存メモリ(保存メモリ)
135 ウインドウ
1 Digital camera 7 Shutter key (Imaging instruction means)
8 Mode switch (Imaging mode selection means)
9 Menu key (Imaging mode selection means)
13 Display section (composite image display means)
20-1 Subject imaging unit (first imaging unit)
20-2 Monitor side imaging unit (second imaging unit)
29 color process circuit (signal conversion processing means)
31 DRAM (image storage memory)
32 Control unit (simultaneous photographing control means, image storage control means)
38 Storage memory (storage memory)
135 windows

Claims (3)

正面に前方の被写体像を取り込んで光電変換信号を出力する第1の撮像部を配置し、背面に、後方の被写体像を取り込んで光電変換信号を出力する第2の撮像部と画像表示可能な表示部とを配置したデジタルカメラにおいて、
前方の被写体を撮影するとき、背面の撮像素子で背面の被写体を拡大して撮影し、背面に配置されたモニタに前方の被写体をスルー表示するとともに、該モニタのウインドウに拡大された背面被写体画像のスルー画像を表示することにより、手振れ状況を強調して表示することができるようにしたことを特徴とするデジタルカメラ。
A first imaging unit that captures a front subject image and outputs a photoelectric conversion signal is arranged on the front, and a second imaging unit that captures a rear subject image and outputs a photoelectric conversion signal can be displayed on the back. In a digital camera with a display unit,
When photographing a front subject, the rear subject is enlarged and photographed by the rear imaging device, and the front subject is displayed on the monitor arranged on the rear, and the rear subject image enlarged in the monitor window is displayed. A digital camera characterized in that a camera shake situation can be emphasized and displayed by displaying a through image.
前記第1の撮像部と前記第2の撮像部で略同時に撮像を行う同時撮影モードを備えていることを特徴とする請求項に記載のデジタルカメラ。 The digital camera according to claim 1 , further comprising a simultaneous shooting mode in which the first imaging unit and the second imaging unit perform imaging at substantially the same time. 正面に前方の被写体像を取り込んで光電変換信号を出力する第1の撮像部を配置し、背面に、後方の被写体像を取り込んで光電変換信号を出力する第2の撮像部と画像表示可能な表示部とを配置したデジタルカメラのコンピュータに、
前方の被写体を撮影するとき、背面の撮像素子で背面の被写体を拡大して撮影する機能と、背面に配置されたモニタに前方の被写体をスルー表示する機能と、ウインドウに拡大された背面被写体画像のスルー画像を表示する機能と、を実行させるプログラム。
A first imaging unit that captures a front subject image and outputs a photoelectric conversion signal is arranged on the front, and a second imaging unit that captures a rear subject image and outputs a photoelectric conversion signal can be displayed on the back. To the digital camera computer with the display unit,
When shooting a subject in front, a function to magnify and shoot the subject on the back with the image sensor on the back, a function to display the subject in front on a monitor placed on the back, and a back subject image enlarged to a window And a program for executing a through image display function.
JP2005050106A 2005-02-25 2005-02-25 Digital camera and program Active JP4710351B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005050106A JP4710351B2 (en) 2005-02-25 2005-02-25 Digital camera and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005050106A JP4710351B2 (en) 2005-02-25 2005-02-25 Digital camera and program

Publications (2)

Publication Number Publication Date
JP2006238085A JP2006238085A (en) 2006-09-07
JP4710351B2 true JP4710351B2 (en) 2011-06-29

Family

ID=37045247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005050106A Active JP4710351B2 (en) 2005-02-25 2005-02-25 Digital camera and program

Country Status (1)

Country Link
JP (1) JP4710351B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4959535B2 (en) * 2007-12-13 2012-06-27 株式会社日立製作所 Imaging device
JP5681589B2 (en) * 2011-08-18 2015-03-11 富士フイルム株式会社 Imaging apparatus and image processing method
JP6200262B2 (en) * 2013-10-01 2017-09-20 キヤノン株式会社 Imaging apparatus and control method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152646A (en) * 2000-11-08 2002-05-24 Canon Inc Device and method for recording image
JP2004200885A (en) * 2002-12-17 2004-07-15 Matsushita Electric Ind Co Ltd Imaging apparatus mounted electronic apparatus
JP2004207774A (en) * 2002-02-22 2004-07-22 Fuji Photo Film Co Ltd Digital camera
JP2004363994A (en) * 2003-06-05 2004-12-24 Casio Comput Co Ltd Imaging apparatus, imaging method, and imaging program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152646A (en) * 2000-11-08 2002-05-24 Canon Inc Device and method for recording image
JP2004207774A (en) * 2002-02-22 2004-07-22 Fuji Photo Film Co Ltd Digital camera
JP2004200885A (en) * 2002-12-17 2004-07-15 Matsushita Electric Ind Co Ltd Imaging apparatus mounted electronic apparatus
JP2004363994A (en) * 2003-06-05 2004-12-24 Casio Comput Co Ltd Imaging apparatus, imaging method, and imaging program

Also Published As

Publication number Publication date
JP2006238085A (en) 2006-09-07

Similar Documents

Publication Publication Date Title
US7456864B2 (en) Digital camera for capturing a panoramic image
JP2012222495A (en) Image processor, image processing method, and program
KR20120115119A (en) Image processing device for generating composite image having predetermined aspect ratio
JP2008022306A (en) Imaging device and program thereof
JP2006222979A (en) Electronic camera device
KR20120002834A (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
JP2004363994A (en) Imaging apparatus, imaging method, and imaging program
JP4977569B2 (en) Imaging control apparatus, imaging control method, imaging control program, and imaging apparatus
JP2006033123A (en) Image pickup device
JP4710351B2 (en) Digital camera and program
JP4503741B2 (en) Electronic camera device
JP2018148512A (en) Imaging device, control method of imaging device, and program
JP2005086219A (en) Digital camera and photographing control method
JP2006203732A (en) Digital camera, portrait/landscape aspect photographing switching method and program
JP2011216958A (en) Imaging apparatus and program
JP2005130140A (en) Photographing device and photographing method
JP4306341B2 (en) Image shooting device
JP2010050599A (en) Electronic camera
JPH11224324A (en) Image signal processing method and device
JP2005051505A (en) Stereoscopic photographing device
JP2006287679A (en) Electronic camera
JP4962597B2 (en) Electronic camera and program
JP5003803B2 (en) Image output apparatus and program
JP2011186375A (en) Photographing device, photographing method, and program
JP2010217808A (en) Apparatus and method for processing image, electronic camera, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080108

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110307

R150 Certificate of patent or registration of utility model

Ref document number: 4710351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150