JP5370662B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5370662B2
JP5370662B2 JP2009175537A JP2009175537A JP5370662B2 JP 5370662 B2 JP5370662 B2 JP 5370662B2 JP 2009175537 A JP2009175537 A JP 2009175537A JP 2009175537 A JP2009175537 A JP 2009175537A JP 5370662 B2 JP5370662 B2 JP 5370662B2
Authority
JP
Japan
Prior art keywords
image data
image
unit
imaging
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009175537A
Other languages
Japanese (ja)
Other versions
JP2011030084A (en
Inventor
洋一 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009175537A priority Critical patent/JP5370662B2/en
Publication of JP2011030084A publication Critical patent/JP2011030084A/en
Application granted granted Critical
Publication of JP5370662B2 publication Critical patent/JP5370662B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus implementing a live view as a high definition finder while reducing power consumption. <P>SOLUTION: An imaging apparatus is equipped with: an imaging means which images a subject based on an imaging frame rate to capture image data; an interpolation image data generating means for generating interpolation image data between imaging frames from the image data; and a display means for displaying the image data or displaying the image data and the interpolation image data based on a display frame rate. When the imaging frame rate is set lower than the display frame rate and predetermined conditions are satisfied, the display means displays the image data and the interpolation image data and when the predetermined conditions are not satisfied, the display means displays the image data. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、電力消費量が低減された撮像装置に関するものである。   The present invention relates to an imaging apparatus with reduced power consumption.

近年のデジタルカメラにおいて、撮影範囲を見定めて構図決定を行うファインダは、光学式ではなく、背面の画像モニターを用いたライブビューが主流となり、デジタルカメラならではの機能として知られている。   In recent digital cameras, a viewfinder that determines a composition by determining a shooting range is not an optical type, but a live view using an image monitor on the back is the mainstream, and is known as a function unique to a digital camera.

また、デジタルカメラは、搭載されるバッテリの電力を利用して行われるように構成されており、電力消費量が増加すると、撮影可能枚数が減少する。
このため、バッテリの電力を有効活用し、撮影可能枚数を増加させるには、電力消費量を減少させる必要があり、特にライブビュー中の電力消費量を低減させることが望まれている。
In addition, the digital camera is configured to use the power of the battery mounted therein, and when the power consumption increases, the number of shootable images decreases.
For this reason, in order to effectively use the battery power and increase the number of images that can be shot, it is necessary to reduce the power consumption. In particular, it is desired to reduce the power consumption during live view.

そこで特許文献1には、撮影者がライブビューを視認しつつ撮影操作を行う場合は表示部のフレームレートを高く設定し、撮影操作を行わない場合には、表示部のフレームレートを低く設定することで電力消費量を低減させるデジタルカメラが開示されている。また、バッテリ残量に応じてフレームレートを低下させたり、露光時間に応じてフレームレートを低下させたりすることが開示されている。   Therefore, in Patent Document 1, when the photographer performs the shooting operation while viewing the live view, the frame rate of the display unit is set high, and when the shooting operation is not performed, the frame rate of the display unit is set low. Thus, a digital camera that reduces power consumption is disclosed. Further, it is disclosed that the frame rate is reduced according to the remaining battery level, or the frame rate is reduced according to the exposure time.

ところで、撮影レンズと固体撮像素子とを一体化したレンズユニットをカメラ本体ユニットに着脱できるようにすることで、撮影レンズの交換時に固体撮像素子を露呈させず固体撮像素子の撮像面へのゴミ付着を防止した撮像システムが知られている。この撮像システムでは、レンズユニットとカメラ本体ユニットとを接点にて電気的に接続した伝送路により、画像信号や制御信号をお互いに送受信する。   By the way, the lens unit that integrates the photographic lens and the solid-state image sensor can be attached to and detached from the camera body unit, so that the solid-state image sensor is not exposed when the photographic lens is replaced, and dust adheres to the imaging surface of the solid-state image sensor. An imaging system that prevents the above is known. In this imaging system, image signals and control signals are transmitted / received to / from each other through a transmission path in which a lens unit and a camera body unit are electrically connected at a contact point.

このような構成の撮像システムでも、同様にカメラ本体ユニットにある液晶モニターでのライブビューがファインダとして使用され、撮影画像を液晶モニターに表示したり、メモリカードに記録したりするために、固体撮像素子によって取得した画像データをレンズユニットからカメラ本体ユニットに転送するが、その伝送路の消費電力が大きいという問題がある。
より詳しくは、このような構成をとった場合、レンズユニットとカメラ本体ユニットとの間で伝送されるデータの量を、伝送路のバス幅に収めねばならないという問題がある。即ち、レンズユニットの固体撮像素子の解像度が高くなると、レンズユニットとカメラ本体ユニットとの間で伝送しなければならないデータ量を伝送路のバス幅に収めるため、レンズユニットで予め画像データの圧縮を行なうことが好ましく、ユニット間データ通信量の低減が必要になる。また、動画の撮影の場合においても同様の問題がある。
In such an imaging system, a live view on a liquid crystal monitor in the camera body unit is also used as a viewfinder, and solid-state imaging is used to display captured images on a liquid crystal monitor or record them on a memory card. The image data acquired by the element is transferred from the lens unit to the camera body unit, but there is a problem that the power consumption of the transmission path is large.
More specifically, when such a configuration is adopted, there is a problem that the amount of data transmitted between the lens unit and the camera body unit must be within the bus width of the transmission path. In other words, when the resolution of the solid-state imaging device of the lens unit increases, the lens unit compresses image data in advance so that the amount of data that must be transmitted between the lens unit and the camera body unit falls within the bus width of the transmission path. Preferably, it is necessary to reduce the amount of data communication between units. There is a similar problem in the case of moving image shooting.

これらの理由により、撮影レンズと固体撮像素子とを一体化し、このレンズユニットをカメラ本体ユニットに着脱できる撮像システムにおいては、レンズユニットにて画像データの圧縮または間引きを行いユニット間のデータ通信量を低減する技術が研究開発されている。
例えば、特許文献2には、省電力化を図る目的で、レンズユニットにてデータ量の大きい画素を間引いた間引き画像データを本体ユニットへ転送するようにして、データ転送にかかる電力消費を抑える撮像システムが開示されている。
また、特許文献3には、カメラモジュールに持つフレームバッファメモリの大きさを大幅に低減する目的で、カメラモジュールにて画像データを圧縮し、その画像データの圧縮を画像の数行単位でのFIFO(First In First Out)順序で行ない、ホストモジュールへ送信する技術が開示されている。
For these reasons, in an imaging system in which a photographic lens and a solid-state imaging device are integrated and this lens unit can be attached to and detached from the camera body unit, image data is compressed or thinned by the lens unit, and the data communication amount between the units is reduced. The technology to reduce is researched and developed.
For example, in Patent Document 2, for the purpose of saving power, imaging that suppresses power consumption required for data transfer is performed by transferring thinned image data obtained by thinning pixels with a large amount of data to a main unit with a lens unit. A system is disclosed.
Further, in Patent Document 3, in order to greatly reduce the size of the frame buffer memory included in the camera module, the image data is compressed by the camera module, and the compression of the image data is performed in units of several lines of the image. A technique for performing transmission in the order of (First In First Out) and transmitting it to a host module is disclosed.

しかしながら、特許文献1に記載のデジタルカメラでは、フレームレートの低下(例えば15fps)により電力消費量は低下するが、ライブビューには滑らかさがなくなり、一般的なテレビ画像(30〜60fps)と比較してカクカクするライブビューとなる。デジタルカメラのフレームレートは、撮影シーンによっては操作性に大きく影響を及ぼす場合があり、例えば、動きのある被写体を撮影する時にフレームレートが低いと、被写体の動きにライブビューが追従できず構図決定が困難になり、シャッタチャンスを逃してしまうという問題があった。あるいは、特許文献1に記載のデジタルカメラでは、フレームレートを一般的なテレビ画像と同等なもの(30〜60fps)にすると、電力消費量を充分に低減させることができず、撮影可能枚数が減少してしまうという問題があった。   However, in the digital camera described in Patent Document 1, although the power consumption is reduced due to a decrease in the frame rate (for example, 15 fps), the live view is not smooth and is compared with a general television image (30 to 60 fps). It becomes a live view to be crazy. The frame rate of the digital camera may greatly affect the operability depending on the shooting scene.For example, if the frame rate is low when shooting a moving subject, the composition will be determined because the live view cannot follow the movement of the subject. However, there is a problem that a photo opportunity is missed. Alternatively, in the digital camera described in Patent Document 1, if the frame rate is set to be equivalent to that of a general television image (30 to 60 fps), the power consumption cannot be reduced sufficiently, and the number of images that can be shot decreases. There was a problem of doing.

従って本発明は、電力消費量が低減されつつ、且つ、高品位なファインダとしてのライブビューを実現可能な撮像装置を提供することを第一の課題とする。   Accordingly, a first object of the present invention is to provide an imaging apparatus capable of realizing a live view as a high-quality finder while reducing power consumption.

また、上記特許文献2及び特許文献3に記載の技術では、ライブビューのような1秒間に数十〜60フレーム程度の画像データが次々とレンズユニットからカメラ本体ユニットへ送られる場合に、カメラ本体ユニットでは、レンズユニットからの送信タイミングで、これら全ての画像データについて伸張、画像処理、ライブビューの表示処理を行うので、伝送路の駆動周波数をそれに合わせる必要があり、かつカメラ本体ユニットでの画像処理タイミングもそれに合わせる必要があり、結果として本体ユニットへの負担も大きくなるために、消費電力を充分に低減できないという問題があった。   In the techniques described in Patent Document 2 and Patent Document 3, when image data of about several tens to 60 frames per second is sent from the lens unit to the camera body unit one second like a live view, the camera body The unit performs decompression, image processing, and live view display processing for all these image data at the transmission timing from the lens unit, so it is necessary to match the drive frequency of the transmission path to that, and the image in the camera body unit There is a problem in that the processing timing needs to be matched with the processing timing, and as a result, the burden on the main unit is increased, so that the power consumption cannot be reduced sufficiently.

従って本発明は、撮像素子を有するレンズユニットが本体ユニットに着脱可能であるカメラシステムの場合においても、電力消費量が低減されつつ、且つ、高品位なファインダとしてのライブビューを実現可能な撮像装置を提供することを第二の課題とする。   Therefore, the present invention provides an imaging apparatus capable of realizing a live view as a high-quality finder while reducing power consumption even in the case of a camera system in which a lens unit having an imaging element is detachable from a main unit. It is a second subject to provide

上記課題を解決するために本発明に係る撮像装置は、具体的には下記(1)〜(3)に記載の技術的特徴を有する。
(1):被写体を撮像フレームレートに基づき撮像し、画像データを取得する撮像手段と、前記画像データから、撮像フレーム間の補間画像データを生成する補間画像データ生成手段と、前記画像データを、または、前記画像データ及び前記補間画像データを、表示フレームレートに基づき表示する表示手段と、を備え、前記表示手段は、前記撮像フレームレートが前記表示フレームレートより低く設定された際、所定の条件を満たす場合に、前記画像データ及び前記補間画像データを表示し、所定の条件を満たさない場合に、前記画像データを表示し、光学式もしくは電子式による焦点距離変更手段を備え、前記表示手段は、前記焦点距離変更手段が焦点距離変更しているときに前記画像データ及び前記補間画像データを表示することを特徴とする撮像装置である。
(2):被写体を撮像フレームレートに基づき撮像し、画像データを取得する撮像手段と、前記画像データから、撮像フレーム間の補間画像データを生成する補間画像データ生成手段と、前記画像データを、または、前記画像データ及び前記補間画像データを、表示フレームレートに基づき表示する表示手段と、を備え、前記表示手段は、前記撮像フレームレートが前記表示フレームレートより低く設定された際、所定の条件を満たす場合に、前記画像データ及び前記補間画像データを表示し、所定の条件を満たさない場合に、前記画像データを表示し、当該撮像装置が水平であるか否かを検出する水準器手段を備え、前記表示手段は、前記水準器手段が動作中に前記画像データ及び前記補間画像データを表示することを特徴とする撮像装置である。
(3):前記撮像手段を有するレンズユニットと、前記レンズユニットを着脱可能に保持する本体ユニットとを備え、前記レンズユニットは、前記画像データを前記本体ユニットに送信し、前記本体ユニットは、前記補間画像データ生成手段と前記表示手段とを有することを特徴とする上記(1)または(2)に記載の撮像装置である。
In order to solve the above problems, an imaging apparatus according to the present invention specifically has the technical features described in the following (1) to (3) .
(1): An imaging unit that images a subject based on an imaging frame rate and acquires image data; an interpolation image data generation unit that generates interpolation image data between imaging frames from the image data; and the image data, Or display means for displaying the image data and the interpolated image data based on a display frame rate, wherein the display means has a predetermined condition when the imaging frame rate is set lower than the display frame rate. If the image data and the interpolated image data are satisfied, the image data is displayed if the predetermined condition is not satisfied, and includes an optical or electronic focal length changing means, and the display means , especially to display the image data and the interpolated image data when the focal length changing means has changed the focal length An imaging device according to.
(2): An imaging unit that images a subject based on an imaging frame rate and acquires image data; an interpolation image data generation unit that generates interpolation image data between imaging frames from the image data; and the image data, Or display means for displaying the image data and the interpolated image data based on a display frame rate, wherein the display means has a predetermined condition when the imaging frame rate is set lower than the display frame rate. Level level means for displaying the image data and the interpolated image data when satisfying the condition, displaying the image data when not satisfying a predetermined condition, and detecting whether or not the imaging device is horizontal And the display means displays the image data and the interpolated image data while the level means is operating. A.
(3) : a lens unit having the imaging unit and a main unit that detachably holds the lens unit, wherein the lens unit transmits the image data to the main unit, The imaging apparatus according to (1) or (2) , further including an interpolation image data generation unit and the display unit.

本発明によれば、電力消費量が低減されつつ、且つ、高品位なファインダとしてのライブビューを実現可能な撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus capable of realizing a live view as a high-quality finder while reducing power consumption.

本発明に係る撮像装置の第1の実施形態であるデジタルカメラの構成を示す概略前面図である。1 is a schematic front view showing a configuration of a digital camera which is a first embodiment of an imaging apparatus according to the present invention. 本発明に係る撮像装置の第1の実施形態であるデジタルカメラの構成を示す概略背面図である。1 is a schematic rear view illustrating a configuration of a digital camera which is a first embodiment of an imaging apparatus according to the present invention. 本発明に係る撮像装置の第1の実施形態であるデジタルカメラの制御系統の構成を示すブロック図である。It is a block diagram which shows the structure of the control system of the digital camera which is 1st Embodiment of the imaging device which concerns on this invention. 本発明に係る撮像装置の第1の実施形態であるデジタルカメラにおける動きベクトル検出部の概念図である。It is a conceptual diagram of the motion vector detection part in the digital camera which is 1st Embodiment of the imaging device which concerns on this invention. 従来のデジタルカメラにおいてハイフレーム化処理が行われない場合のライブビューのタイミングチャートを示すチャート図である。It is a chart figure which shows the timing chart of the live view when the high frame process is not performed in the conventional digital camera. 本発明に係る撮像装置の第1の実施形態であるデジタルカメラにおいてハイフレーム化処理が行われた場合のライブビューのタイミングチャートを示すチャート図である。It is a chart figure which shows the timing chart of the live view when the high frame process is performed in the digital camera which is 1st Embodiment of the imaging device which concerns on this invention. 実施例1のフローチャートである。3 is a flowchart of the first embodiment. 被写体にピントを合わせた後に構図を決定することを説明するための概念図である。It is a conceptual diagram for demonstrating determining a composition after focusing on a to-be-photographed object. 実施例2のフローチャートである。10 is a flowchart of Example 2. ズームを使っている場合を説明するための概念図である。It is a conceptual diagram for demonstrating the case where zoom is used. 実施例3のフローチャートである。10 is a flowchart of Example 3. 実施例4のフローチャートである。10 is a flowchart of Example 4. 電子水準器機能を用いて水平状態を確認することを説明するための概念図である。It is a conceptual diagram for demonstrating confirming a horizontal state using an electronic level function. 画像モニター9に表示されるセットアップメニューの概念図である。4 is a conceptual diagram of a setup menu displayed on the image monitor 9. FIG. 本発明に係る撮像装置の第2の実施形態であるデジタルカメラの構成を示す概略外観図である。It is a schematic external view which shows the structure of the digital camera which is 2nd Embodiment of the imaging device which concerns on this invention. 本発明に係る撮像装置の第2の実施形態であるデジタルカメラの制御系統の構成を示すブロック図である。It is a block diagram which shows the structure of the control system of the digital camera which is 2nd Embodiment of the imaging device which concerns on this invention. 従来のデジタルカメラにおいてハイフレーム化処理が行われない場合のライブビューのタイミングチャートを示すチャート図である。It is a chart figure which shows the timing chart of the live view when the high frame process is not performed in the conventional digital camera. 本発明に係る撮像装置の第2の実施形態であるデジタルカメラにおいてハイフレーム化処理が行われた場合のライブビューのタイミングチャートを示すチャート図である。It is a chart figure which shows the timing chart of the live view when the high frame process is performed in the digital camera which is 2nd Embodiment of the imaging device which concerns on this invention.

本発明に係る撮像装置は、被写体を撮像フレームレートに基づき撮像し、画像データを取得する撮像手段と、前記画像データから、撮像フレーム間の補間画像データを生成する補間画像データ生成手段と、前記画像データを、または、前記画像データ及び前記補間画像データを、表示フレームレートに基づき表示する表示手段と、を備え、前記表示手段は、前記撮像フレームレートが前記表示フレームレートより低く設定された際、所定の条件を満たす場合に、前記画像データ及び前記補間画像データを表示し、所定の条件を満たさない場合に、前記画像データを表示することを特徴とする。
次に、本発明に係る撮像装置についてさらに詳細に説明する。
尚、以下に述べる実施の形態は、本発明の好適な実施の形態であるから技術的に好ましい種々の限定が付されているが、本発明の範囲は以下の説明において本発明を限定する旨の記載がない限り、これらの態様に限られるものではない。
An imaging apparatus according to the present invention images an object based on an imaging frame rate, acquires image data, interpolation image data generation means for generating interpolated image data between imaging frames from the image data, Display means for displaying the image data or the image data and the interpolated image data based on a display frame rate, wherein the display means is configured such that the imaging frame rate is set lower than the display frame rate. The image data and the interpolated image data are displayed when a predetermined condition is satisfied, and the image data is displayed when the predetermined condition is not satisfied.
Next, the imaging device according to the present invention will be described in more detail.
Although the embodiments described below are preferred embodiments of the present invention, various technically preferable limitations are attached thereto, but the scope of the present invention is intended to limit the present invention in the following description. Unless otherwise described, the present invention is not limited to these embodiments.

〔第1の実施形態〕
図1は、本発明に係る撮像装置の第1の実施形態であるデジタルカメラの構成を示す概略前面図である。
この撮像装置は、レンズを通った光を固体撮像素子で受け、固体撮像素子のアナログ信号をデジタル信号に変換してメモリカードに記録するデジタルカメラである。
[First Embodiment]
FIG. 1 is a schematic front view showing a configuration of a digital camera which is a first embodiment of an imaging apparatus according to the present invention.
This imaging device is a digital camera that receives light passing through a lens with a solid-state imaging device, converts an analog signal of the solid-state imaging device into a digital signal, and records the digital signal on a memory card.

デジタルカメラ本体30の前面(図1)には、「POWER(電源)ボタン1」、「シャッターボタン2」、「フラッシュ発光部3」、「AF補助光/セルフタイマーランプ4」、「レンズカバー5」、「マイク6」、「スピーカー7」、「レンズ8」が配置されている。   On the front surface (FIG. 1) of the digital camera body 30, “POWER button 1”, “shutter button 2”, “flash emission unit 3”, “AF auxiliary light / self-timer lamp 4”, “lens cover 5” ”,“ Microphone 6 ”,“ Speaker 7 ”, and“ Lens 8 ”.

図2は、図1に示したデジタルカメラ30の概略背面図である。
デジタルカメラ30の背面(図2)には、「画像モニター9」、「ズームレバー(望遠)/(広角)10」、「モード切替スイッチ11」、「再生ボタン12」、「ADJ.ボタン13」、「削除/セルフタイマーボタン14」、「↑/MODEボタン15」、「→/クイックレビューボタン16」、「MENU/OKボタン17」、「↓/マクロボタン18」、「←/フラッシュボタン19」、「DISP.ボタン20」、「AV出力端子21」、「USB端子22」、「三脚ネジ穴23」、「バッテリ/カードカバー24」が配置されている。
FIG. 2 is a schematic rear view of the digital camera 30 shown in FIG.
On the rear surface of the digital camera 30 (FIG. 2), “image monitor 9”, “zoom lever (telephoto) / (wide angle) 10”, “mode switch 11”, “play button 12”, “ADJ. Button 13” , “Delete / Self-timer button 14”, “↑ / MODE button 15”, “→ / Quick review button 16”, “MENU / OK button 17”, “↓ / Macro button 18”, “← / Flash button 19” “DISP. Button 20”, “AV output terminal 21”, “USB terminal 22”, “tripod screw hole 23”, and “battery / card cover 24” are arranged.

バッテリ/カードカバー24を開けると、バッテリ挿入部とカード挿入部が設けられており、ここにバッテリとメモリカードが装填される。   When the battery / card cover 24 is opened, a battery insertion portion and a card insertion portion are provided, and a battery and a memory card are loaded therein.

モード切替スイッチ11は、2ポジションのスライドスイッチで構成されており、その位置によりデジタルカメラ30のモードを設定できる。静止画撮影や動画撮影などのカメラの操作は、このモード切替スイッチ11を切り替えてから行う。デジタルカメラ30のモードは、「シーンモード」、「静止画撮影モード」の2種類ある。   The mode switch 11 is composed of a two-position slide switch, and the mode of the digital camera 30 can be set according to the position. Camera operations such as still image shooting and moving image shooting are performed after the mode switch 11 is switched. There are two modes of the digital camera 30: “scene mode” and “still image shooting mode”.

「静止画撮影モード」は、静止画を撮影するときに使用し、「シーンモード」は、「ポートレートモード」、「フェイスモード」、「スポーツモード」、「遠景モード」、「夜景モード」、「高感度モード」、「ズームマクロモード」、「白黒モード」、「セピアモード」、「斜め補正モード」、「文字モード」、「動画撮影モード」などがある。   "Still image shooting mode" is used when shooting still images. "Scene mode" is "Portrait mode", "Face mode", "Sport mode", "Distant view mode", "Night view mode", There are “high sensitivity mode”, “zoom macro mode”, “monochrome mode”, “sepia mode”, “oblique correction mode”, “character mode”, “movie shooting mode” and the like.

再生ボタン12は、デジタルカメラ30のモードを「再生モード」へ指示するボタンとして機能する。撮影モード時、このボタンが押されると、最後に撮った静止画が画像モニター9に表示される。   The playback button 12 functions as a button for instructing the mode of the digital camera 30 to “playback mode”. When this button is pressed in the shooting mode, the last captured still image is displayed on the image monitor 9.

レンズ8は、沈胴式のズームレンズで構成されており、POWER(電源)ボタン1によりカメラの電源が投入され、モード切替スイッチ11によりカメラのモードを撮影モードに設定することにより、デジタルカメラ30から繰り出される。   The lens 8 is constituted by a retractable zoom lens. When the camera is turned on by the POWER button 1 and the mode of the camera is set to the shooting mode by the mode switch 11, the digital camera 30 It is paid out.

ズームレバー(望遠)/(広角)10は、シャッターボタン2の周囲にある3ポジションのレバーで構成されており、レンズ8のズームを指示する手段として機能する。デジタルカメラ30は、撮影モード時のこのズームレバー(望遠)/(広角)10を望遠側に操作すると、レンズ8は望遠側へのズームを行い、ズームレバー(望遠)/(広角)10を広角側に操作すると、レンズ8は広角側へのズームを行い、レンズ8の焦点距離を変化させる。また、再生モード時には、ズームレバー(望遠)/(広角)10を広角側へ操作すると、再生中の画像が縮小表示され、ズームレバー(望遠)/(広角)10を望遠側へ操作すると、再生中の画像が拡大され、再生した画像の表示倍率を変化させる。   The zoom lever (telephoto) / (wide angle) 10 is a three-position lever around the shutter button 2 and functions as a means for instructing the zoom of the lens 8. When the digital camera 30 operates the zoom lever (telephoto) / (wide angle) 10 in the shooting mode to the telephoto side, the lens 8 zooms to the telephoto side, and the zoom lever (telephoto) / (wide angle) 10 to the wide angle. When operated to the side, the lens 8 zooms to the wide-angle side and changes the focal length of the lens 8. In the playback mode, when the zoom lever (telephoto) / (wide angle) 10 is operated to the wide angle side, the image being reproduced is reduced and displayed, and when the zoom lever (telephoto) / (wide angle) 10 is operated to the telephoto side, playback is performed. The image inside is enlarged and the display magnification of the reproduced image is changed.

シャッターボタン2は、2段式のスイッチで構成されており、半押し操作と押し切り操作が可能である。デジタルカメラ30は、このシャッターボタン2の半押し操作により、AE/AFが作動し、押し切り操作により、AWBが作動し撮影を実行する。   The shutter button 2 is composed of a two-stage switch and can be operated halfway and fully. In the digital camera 30, the AE / AF is activated by half-pressing the shutter button 2, and the AWB is activated by performing the push-off operation, thereby executing photographing.

画像モニター9は、カラー表示が可能な液晶ディスプレイで構成されており、再生モード時には撮影済み画像を表示するための画像表示パネルとして利用されるとともに、各種設定操作を行なう際のユーザインターフェース表示パネルとして利用される。また、撮影モード時には、必要に応じてライブビューが表示されて、画角確認用のファインダとして利用される。   The image monitor 9 is composed of a liquid crystal display capable of color display, and is used as an image display panel for displaying captured images in the playback mode, and as a user interface display panel for performing various setting operations. Used. In the shooting mode, a live view is displayed as necessary and used as a view angle confirmation finder.

「↑/MODEボタン15」、「→/クイックレビューボタン16」、「↓/マクロボタン18」、「←/フラッシュボタン19」は、上下左右4方向の指示を入力する方向指示手段として機能し、たとえば、メニュー画面でメニュー項目の選択などに使用される。   The “↑ / MODE button 15”, “→ / quick review button 16”, “↓ / macro button 18”, “← / flash button 19” function as direction indicating means for inputting instructions in four directions, up, down, left and right. For example, it is used for selecting menu items on a menu screen.

MENU/OKボタン17は、各モードの通常画面からメニュー画面への遷移を指示するボタン(MENUボタン)として機能するととともに、選択内容の確定、処理の実行等を指示するボタン(OKボタン)として機能する。   The MENU / OK button 17 functions as a button (MENU button) for instructing transition from the normal screen to the menu screen in each mode, and also functions as a button (OK button) for instructing selection confirmation, execution of processing, and the like. To do.

DISP.ボタン20は、画像モニター9のマークの表示/非表示を切り替えるなど、画面の表示状態の変更を指示するボタンとして機能する。撮影モード時、このボタンを1回押されるごとに、ヒストグラム表示→グリッドガイド表示→表示なし→画像モニターオフ→通常のマーク表示→ヒストグラム表示→・・・と切り替えられる。再生モード時、このボタンを1回押されるごとに、ヒストグラム表示→ハイライト表示→表示なし→通常のマーク表示→ヒストグラム表示→・・・と切り替えられる。また、このボタンは、入力操作のキャンセルや一つ前の操作状態に戻すことを指示するボタンとしても機能する。   The DISP. Button 20 functions as a button for instructing to change the display state of the screen, such as switching between display / non-display of the mark on the image monitor 9. Each time this button is pressed in the shooting mode, the display is switched as follows: histogram display → grid guide display → no display → image monitor off → normal mark display → histogram display →. Each time this button is pressed in the playback mode, the display is switched from histogram display → highlight display → no display → normal mark display → histogram display →. This button also functions as a button for instructing to cancel the input operation or return to the previous operation state.

図3は、デジタルカメラ30内部の制御系統の構成例を示す。
デジタルカメラ30は、全体の動作を中央処理装置(CPU40)によって統括制御されている。
CPU40は、操作部41(POWER(電源)ボタン1、シャッターボタン2、ズームレバー(望遠)/(広角)10、モード切替スイッチ11、再生ボタン12、ADJ.ボタン13、削除/セルフタイマーボタン14、↑/MODEボタン15、→/クイックレビューボタン16、MENU/OKボタン17、↓/マクロボタン18、←/フラッシュボタン19、DISP.ボタン20)から入力される操作信号に基づき所定の制御プログラムに従ってデジタルカメラ30の全体を統括制御する。
FIG. 3 shows a configuration example of a control system inside the digital camera 30.
The overall operation of the digital camera 30 is comprehensively controlled by a central processing unit (CPU 40).
The CPU 40 has an operation unit 41 (POWER button 1, shutter button 2, zoom lever (telephoto) / (wide angle) 10, mode switch 11, playback button 12, ADJ. Button 13, delete / self-timer button 14, ↑ / MODE button 15, → / Quick review button 16, MENU / OK button 17, ↓ / macro button 18, ← / flash button 19, DISP. Overall control of the camera 30 is performed.

バスを介してCPU40と接続されたフラッシュROM58には、CPU40が実行する制御プログラム90及び制御に必要な各種データ、ユーザ設定情報など(例えば、カメラ調整データ91、カメラ設定データ92)のデジタルカメラ30の動作に関する各種設定情報等が格納されている。   A flash ROM 58 connected to the CPU 40 via the bus stores a digital camera 30 that stores a control program 90 executed by the CPU 40, various data necessary for control, user setting information, and the like (for example, camera adjustment data 91 and camera setting data 92). Stores various setting information related to the operation of.

メモリ(SDRAM54)は、CPU40の演算作業用領域、画像データ(Raw−RGB画像データ55、YUV画像データ56、圧縮伸張画像データ57)等の一時記憶領域として利用される。
鏡胴ユニット100は、被写体の光学画像を取り込むズームレンズ81、フォーカスレンズ82、それらを制御するレンズ駆動部86、絞り83、それらを制御する絞り駆動部87、メカシャッタ84、メカシャッタを制御するシャッタ駆動部88からなる。
The memory (SDRAM 54) is used as a temporary storage area for calculation work areas of the CPU 40, image data (Raw-RGB image data 55, YUV image data 56, compression / expansion image data 57), and the like.
The lens barrel unit 100 includes a zoom lens 81 that captures an optical image of a subject, a focus lens 82, a lens driving unit 86 that controls them, an aperture 83, an aperture driving unit 87 that controls them, a mechanical shutter 84, and a shutter drive that controls a mechanical shutter. Part 88.

レンズ駆動部86、絞り駆動部87、シャッタ駆動部88は、CPU40からの駆動指令により駆動制御される。   The lens driving unit 86, the aperture driving unit 87, and the shutter driving unit 88 are driven and controlled by a driving command from the CPU 40.

デジタルカメラ30の電源がオン状態になると、制御プログラムはメモリ(SDRAM54)にロードされ、CPU40はその制御プログラムに従い装置各部の動作を制御する。それとともに制御に必要なデータ等を、一時的にメモリ(SDRAM54)に保存する。   When the power source of the digital camera 30 is turned on, the control program is loaded into the memory (SDRAM 54), and the CPU 40 controls the operation of each part of the apparatus according to the control program. At the same time, data and the like necessary for control are temporarily stored in the memory (SDRAM 54).

フラッシュROM58は、書き換え可能な半不揮発性メモリなので、制御プログラムや制御に必要な各種データ、ユーザ設定情報を変更することが可能となり、機能のバージョンアップが容易に行えるという特徴をもつ。   Since the flash ROM 58 is a rewritable semi-nonvolatile memory, the control program, various data necessary for control, and user setting information can be changed, and the function can be easily upgraded.

デジタルカメラ30は、モード切替スイッチ11を撮影位置に合わせることで、撮影モードに設定され、撮影が可能になる。そして、撮影モードに設定されることにより、レンズ8が繰り出され、撮影スタンバイ状態になる。   The digital camera 30 is set to the shooting mode by setting the mode switch 11 to the shooting position, and shooting is possible. Then, when the shooting mode is set, the lens 8 is extended to enter a shooting standby state.

この撮影モードの下、レンズ8を通過した被写体光は、絞り83を介して固体撮像素子の受光面に結像される。   Under this photographing mode, the subject light that has passed through the lens 8 forms an image on the light receiving surface of the solid-state imaging device via the diaphragm 83.

固体撮像素子は、CCD85で構成されており、その受光面には、所定の配列構造(ベイヤー、Gストライプなど)で配列された赤(R)、緑(G)、青(B)のカラーフィルタを介して多数のフォトダイオード(受光素子)が二次元的に配置されている。   The solid-state imaging device is composed of a CCD 85, and on its light receiving surface, red (R), green (G), and blue (B) color filters arranged in a predetermined arrangement structure (Bayer, G stripe, etc.). A number of photodiodes (light receiving elements) are two-dimensionally arranged via

レンズ8を通過した被写体光は、各フォトダイオードによって受光され、入射光量に応じた量の信号電荷に変換される。   The subject light that has passed through the lens 8 is received by each photodiode and converted into a signal charge in an amount corresponding to the amount of incident light.

各フォトダイオードに蓄積された信号電荷は、タイミングジェネレータ(TG89)から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)として順次読み出され、アナログ処理部(CDS/AMP42)に加えられる。   The signal charge accumulated in each photodiode is sequentially read out as a voltage signal (image signal) corresponding to the signal charge based on the drive pulse supplied from the timing generator (TG89) and is read to the analog processing unit (CDS / AMP42). Added.

アナログ処理部(CDS/AMP42)は、入力された画素ごとのRGB信号をサンプリングホールド(相関二重サンプリング処理)するとともに、増幅し、A/D変換器43に出力する。   The analog processing unit (CDS / AMP42) samples and holds the input RGB signal for each pixel (correlated double sampling processing), amplifies it, and outputs it to the A / D converter 43.

A/D変換器43は、アナログ処理部(CDS/AMP42)から出力されたアナログRGB信号をデジタルRGB信号に変換して出力し、このA/D変換器43から出力されたデジタルのRGB信号が、センサ入力制御部44を介し、Raw−RGB画像データとしてメモリ(SDRAM54)に取り込まれる。   The A / D converter 43 converts the analog RGB signal output from the analog processing unit (CDS / AMP 42) into a digital RGB signal, and outputs the digital RGB signal. The digital RGB signal output from the A / D converter 43 is Then, it is taken into the memory (SDRAM 54) as Raw-RGB image data via the sensor input control unit 44.

画像信号処理部46は、メモリ54に取り込まれたRaw−RGB画像データ55をCPU40の指令に従って処理し、輝度信号(Y信号)及び色差信号(Cr、Cb信号)へ変換し、YUV画像データ56を生成する。   The image signal processing unit 46 processes the Raw-RGB image data 55 captured in the memory 54 in accordance with a command from the CPU 40, converts it into a luminance signal (Y signal) and a color difference signal (Cr, Cb signal), and YUV image data 56. Is generated.

すなわち、この画像信号処理部46は、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理回路)、ホワイトバランス補正回路、ガンマ補正回路、輪郭補正回路、輝度・色差信号生成回路等を含む画像処理手段として機能し、CPU40からの指令に従ってメモリ54を活用しながら入力されたRGB信号を信号処理することにより、輝度信号及び色差信号(輝度/色差信号)を生成する。生成された輝度/色差信号は、YUV画像データ56としてメモリ(SDRAM54)に格納される。   That is, the image signal processing unit 46 includes a synchronization circuit (a processing circuit that converts a color signal into a simultaneous expression by interpolating a spatial shift of the color signal associated with the color filter array of the single CCD), and a white balance correction circuit. Functions as an image processing means including a gamma correction circuit, a contour correction circuit, a luminance / color difference signal generation circuit, and the like. And a color difference signal (luminance / color difference signal). The generated luminance / color difference signal is stored in the memory (SDRAM 54) as YUV image data 56.

撮影画像を画像モニター9に出力する場合は、YUV画像データ56が、メモリ(SDRAM54)からOSDMIX部48に送られる。   When outputting a captured image to the image monitor 9, YUV image data 56 is sent from the memory (SDRAM 54) to the OSDMIX unit 48.

OSDMIX部48は、入力されたYUV画像データ56の輝度/色差信号に文字や図形などのオンスクリーンディスプレイデータを重ね合わせて合成され、ビデオエンコーダ65および画像モニター信号処理部49に出力する。これにより、所要の撮影情報等が画像データに重ねて表示される。   The OSDMIX unit 48 combines the luminance / color difference signals of the input YUV image data 56 by superimposing on-screen display data such as characters and graphics, and outputs them to the video encoder 65 and the image monitor signal processing unit 49. As a result, required shooting information and the like are displayed superimposed on the image data.

ビデオエンコーダ65は、入力されたYUV画像データ56の輝度/色差信号を表示用のデジタル表示出力信号(たとえばNTSC方式のカラー複合映像信号)に変換し、D/A変換器66にてデジタル表示出力信号をアナログビデオ出力信号に変換する。   The video encoder 65 converts the luminance / color difference signal of the input YUV image data 56 into a display digital display output signal (for example, NTSC color composite video signal), and the D / A converter 66 performs digital display output. Convert the signal to an analog video output signal.

ビデオAMP67は、D/A変換器66から出力されたアナログビデオ信号を、75Ωインピーダンス変換し、テレビなどの外部表示機器と接続するためのAV出力端子21へ出力する。これにより、CCD85で撮像された画像がテレビなどの外部表示機器に表示される。   The video AMP 67 performs 75Ω impedance conversion on the analog video signal output from the D / A converter 66 and outputs the analog video signal to the AV output terminal 21 for connection to an external display device such as a television. As a result, the image captured by the CCD 85 is displayed on an external display device such as a television.

一方、画像モニター信号処理部49は、入力されたYUV画像データ56の輝度/色差信号を画像モニター9の入力信号形式であるRGB信号へ変換し、画像モニター9へ出力する。これにより、CCD85で撮像された画像が画像モニター9に表示される。   On the other hand, the image monitor signal processing unit 49 converts the luminance / color difference signal of the input YUV image data 56 into an RGB signal which is an input signal format of the image monitor 9 and outputs the RGB signal to the image monitor 9. As a result, the image captured by the CCD 85 is displayed on the image monitor 9.

CCD85から画像信号を定期的に取り込み、その画像信号から生成される輝度/色差信号によってメモリ(SDRAM54)内のYUV画像データ56を定期的に書き換え、画像モニター9およびAV出力端子21に出力することにより、CCD85で撮像される画像がリアルタイムに表示される。撮影者は、この画像モニター9にリアルタイムに表示される画像(ライブビュー)を見ることにより、撮影画角を確認することができる。   The image signal is periodically taken from the CCD 85, the YUV image data 56 in the memory (SDRAM 54) is periodically rewritten by the luminance / color difference signal generated from the image signal, and output to the image monitor 9 and the AV output terminal 21. Thus, an image captured by the CCD 85 is displayed in real time. The photographer can confirm the shooting angle of view by viewing the image (live view) displayed in real time on the image monitor 9.

撮影はシャッターボタン2の押下によって行なわれる。撮影に先立ち、撮影者は、画角を調整する必要があるとき、ズームレバー(望遠)/(広角)10を操作し、ズームレンズ81をズーミングさせて画角を調整する。   Shooting is performed by pressing the shutter button 2. Prior to photographing, when the photographer needs to adjust the angle of view, the photographer operates the zoom lever (telephoto) / (wide angle) 10 to zoom the zoom lens 81 and adjust the angle of view.

シャッターボタン2が半押しされると、R1オン信号がCPU40に入力され、CPU40はAE/AF処理を実施する。   When the shutter button 2 is half-pressed, an R1 ON signal is input to the CPU 40, and the CPU 40 performs AE / AF processing.

まず、センサ入力制御部44を介してCCD85から取り込まれた画像信号がAF検出部51並びにAE/AWB検出部52に入力される。   First, an image signal captured from the CCD 85 via the sensor input control unit 44 is input to the AF detection unit 51 and the AE / AWB detection unit 52.

AE/AWB検出部52は、1画面を複数のエリア(例えば、16×16)に分割し、分割エリアごとにR、G、B信号を積算する回路を含み、その積算値をCPU40に提供する。   The AE / AWB detection unit 52 includes a circuit that divides one screen into a plurality of areas (for example, 16 × 16) and integrates R, G, and B signals for each divided area, and provides the integrated value to the CPU 40. .

CPU40は、AE/AWB検出部52から得た積算値に基づいて被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。そして、求めた撮影EV値と所定のプログラム線図から絞り値とシャッタースピードを決定し、これに従いCCD85の電子シャッタと絞り駆動部87を制御して適正な露光量を得る。   The CPU 40 detects the brightness of the subject (subject brightness) based on the integrated value obtained from the AE / AWB detection unit 52, and calculates an exposure value (shooting EV value) suitable for shooting. Then, an aperture value and a shutter speed are determined from the obtained photographing EV value and a predetermined program diagram, and an appropriate exposure amount is obtained by controlling the electronic shutter and the aperture drive unit 87 of the CCD 85 according to the determined aperture value and shutter speed.

また、AE/AWB検出部52は、自動ホワイトバランス調整時、分割エリアごとにR、G、B信号の色別の平均積算値を算出し、その算出結果をCPU40に提供する。CPU40は、得られたRの積算値、Bの積算値、Gの積算値から各分割エリアごとにR/G及びB/Gの比を求め、求めたR/G、B/Gの値のR/G、B/Gの色空間における分布等に基づいて光源種判別を行う。   Further, the AE / AWB detection unit 52 calculates an average integrated value for each color of the R, G, and B signals for each divided area during automatic white balance adjustment, and provides the calculation result to the CPU 40. The CPU 40 obtains the ratio of R / G and B / G for each divided area from the obtained R accumulated value, B accumulated value, and G accumulated value, and obtains the calculated R / G and B / G values. The light source type is determined based on the distribution in the color space of R / G and B / G.

そして、判別された光源種に適したホワイトバランス調整値に従って、たとえば、各比の値がおよそ1(つまり、1画面においてRGBの積算比率がR:G:B≒1:1:1)になるように、ホワイトバランス調整回路のR、G、B信号に対するゲイン値(ホワイトバランス補正値)を制御し、各色チャンネルの信号に補正をかける。   Then, according to the white balance adjustment value suitable for the discriminated light source type, for example, the value of each ratio is approximately 1 (that is, the RGB integration ratio is R: G: B≈1: 1: 1 on one screen). As described above, the gain value (white balance correction value) for the R, G, and B signals of the white balance adjustment circuit is controlled to correct the signal of each color channel.

AF検出部51は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、所定のフォーカスエリア(たとえば、画面中央部)内の信号を切り出すAFエリア抽出部及びAFエリア内の絶対値データを積算する積算部から構成され、AF検出部で求めた積算値のデータはCPU40に通知される。CPU40は、レンズ駆動部86を制御してフォーカスレンズ82を移動させながら、複数のAF検出ポイントで焦点評価値(AF評価値)を演算し、評価値が極大となるレンズ位置を合焦位置として決定する。そして、求めた合焦位置にフォーカスレンズ82が移動するように、レンズ駆動部86を制御する。   The AF detection unit 51 includes a high-pass filter that passes only high-frequency components of the G signal, an absolute value processing unit, an AF area extraction unit that extracts a signal within a predetermined focus area (for example, the center of the screen), and an absolute value within the AF area. The CPU 40 is notified of the integrated value data obtained by the AF detection unit. The CPU 40 calculates a focus evaluation value (AF evaluation value) at a plurality of AF detection points while controlling the lens driving unit 86 to move the focus lens 82, and a lens position where the evaluation value is maximized is set as a focus position. decide. Then, the lens driving unit 86 is controlled so that the focus lens 82 moves to the obtained in-focus position.

以上のように、シャッターボタン2の半押しによって、AE/AF処理が行なわれる。   As described above, the AE / AF processing is performed by half-pressing the shutter button 2.

この後、撮影者はシャッターボタン2を押し切ると、CPU40にR2オン信号が入力され、CPU40は、撮影、記録処理を開始する。すなわち、CPU40は測光結果に基づき決定された絞り値に従い、絞り駆動部87を制御して絞り83を動かし、シャッタ速度値に従い、シャッタ駆動部88を制御してメカシャッタ84の開閉動作を制御してCCD85の露光時間を制御することにより、CCD85を露光する。   Thereafter, when the photographer presses down the shutter button 2, an R2 ON signal is input to the CPU 40, and the CPU 40 starts photographing and recording processing. That is, the CPU 40 controls the aperture driving unit 87 to move the aperture 83 according to the aperture value determined based on the photometric result, and controls the shutter driving unit 88 to control the opening / closing operation of the mechanical shutter 84 according to the shutter speed value. The CCD 85 is exposed by controlling the exposure time of the CCD 85.

CCD85から出力された画像信号は、アナログ処理部(CDS/AMP)42、A/D変換器43、センサ入力制御部44を介してメモリ(SDRAM54)に取り込まれ、画像信号処理部46において輝度/色差信号に変換されたのち、YUV画像データ56としてメモリ(SDRAM54)に格納される。   The image signal output from the CCD 85 is taken into the memory (SDRAM 54) via the analog processing unit (CDS / AMP) 42, the A / D converter 43, and the sensor input control unit 44, and the luminance / After being converted into a color difference signal, it is stored as YUV image data 56 in a memory (SDRAM 54).

メモリ(SDRAM54)に格納されたYUV画像データ56は、圧縮伸張処理部47に加えられ、所定の圧縮フォーマット(たとえばJPEG形式)に従って圧縮された後、再びメモリ(SDRAM54)に圧縮伸張画像データとして格納され、所定の画像記録フォーマット(たとえばExif形式)の画像ファイルとされたのち、カード制御部50を介してメモリカード29(たとえばSDカード)に記録される。   The YUV image data 56 stored in the memory (SDRAM 54) is added to the compression / decompression processing unit 47, compressed according to a predetermined compression format (for example, JPEG format), and then stored again as compressed / decompressed image data in the memory (SDRAM 54). Then, the image file is in a predetermined image recording format (for example, Exif format) and then recorded on the memory card 29 (for example, an SD card) via the card control unit 50.

以上のようにしてメモリカード29に記録された画像は、(再生)ボタンの押下により、画像モニター9で再生表示させることができる。   The image recorded in the memory card 29 as described above can be reproduced and displayed on the image monitor 9 by pressing the (reproduce) button.

(再生)ボタンの押下により、デジタルカメラ30のモードを再生モードに設定すると、CPU40は、カード制御部50にコマンドを出力し、メモリカード29に最後に記録された画像ファイルを読み出させる。   When the mode of the digital camera 30 is set to the playback mode by pressing the (playback) button, the CPU 40 outputs a command to the card control unit 50 and causes the memory card 29 to read the last image file recorded.

読み出された画像ファイルの圧縮画像データは、圧縮伸張処理部47に加えられ、非圧縮の輝度/色差信号に伸張されたのち、OSDMIX部48および画像モニター信号処理部49を介して画像モニター9に出力される。これにより、メモリカード29に記録されている画像が画像モニター9に再生表示される。   The compressed image data of the read image file is added to the compression / expansion processing unit 47 and expanded to an uncompressed luminance / color difference signal, and then the image monitor 9 is passed through the OSDMIX unit 48 and the image monitor signal processing unit 49. Is output. As a result, the image recorded on the memory card 29 is reproduced and displayed on the image monitor 9.

また、パソコンなどの外部機器とUSB通信を行うには、USB端子22を介して接続を行い、CPU40は、USB制御部59を制御することにより、USB通信を行う。   In order to perform USB communication with an external device such as a personal computer, connection is made via the USB terminal 22, and the CPU 40 controls the USB control unit 59 to perform USB communication.

シャッタ音、操作音などの音声信号データはフラッシュROM58に格納されており、CPU40が音声信号処理部45を制御し、この音声データを音声信号処理部45を介してオーディオCODEC51へ出力する。   Audio signal data such as shutter sound and operation sound is stored in the flash ROM 58, and the CPU 40 controls the audio signal processing unit 45 and outputs the audio data to the audio CODEC 51 via the audio signal processing unit 45.

オーディオCODEC51は、入力された音声信号を増幅するマイクアンプや、スピーカー7を駆動するためのオーディオアンプが内蔵されており、このオーディオCODEC51には、撮影者が音声信号を入力するマイク6、音声信号を出力するスピーカー7が接続されており、これにより音声信号は、スピーカー7から出力される。   The audio CODEC 51 includes a microphone amplifier that amplifies the input audio signal and an audio amplifier for driving the speaker 7. The audio CODEC 51 includes a microphone 6 for inputting a sound signal by the photographer, and an audio signal. Is connected, so that an audio signal is output from the speaker 7.

図4は、動きベクトル検出部の概念図を示す。
本実施形態における動きベクトル検出部53は、ブロック・マッチング法により動きベクトルを求める方法により画像の動きベクトルを検出する。
FIG. 4 is a conceptual diagram of the motion vector detection unit.
The motion vector detection unit 53 in the present embodiment detects a motion vector of an image by a method for obtaining a motion vector by a block matching method.

動きベクトル検出部53は、動きベクトルを検出する基準となるフレームP1、P2画像をL×Lブロック(図4では10×10ブロック)に分割し、ブロック内の輝度情報を用いて、基準フレームP1における注目ブロックb1を中心とした矩形領域(参照ブロック)と、現画像P2における矩形領域(候補ブロック)の間で対応する画素どうしの輝度差分をとり、それらの総和を求める。候補ブロックを、L×Lブロックの範囲内(探索領域)で動かしながら先の処理を繰り返し、探索領域の中で最も輝度差の総和が小さい候補ブロックb2を求め、これを一致領域として参照ブロックとの位置のずれを動きベクトルとする。   The motion vector detection unit 53 divides the images of the frames P1 and P2 serving as a reference for detecting the motion vector into L × L blocks (10 × 10 blocks in FIG. 4), and uses the luminance information in the blocks to generate the reference frame P1. The luminance difference between corresponding pixels between the rectangular area (reference block) centered on the block of interest b1 in FIG. 2 and the rectangular area (candidate block) in the current image P2 is obtained, and the sum thereof is obtained. The above process is repeated while moving the candidate block within the range of the L × L block (search area), and a candidate block b2 having the smallest sum of luminance differences in the search area is obtained, and this is used as a reference block as a matching area. The displacement of the position is taken as a motion vector.

CPU40によるハイフレーム化処理について説明する。フレームP1、P2を用いて補間フレームPtを生成する場合、各フレーム内の位置(x,y)における画素値をf1(x,y)、f2(x,y)、ft(x,y)、上記動きベクトル量をMV=(dx,dy)とすると、下記式(1)が成立する。   The high frame processing by the CPU 40 will be described. When the interpolation frame Pt is generated using the frames P1 and P2, the pixel values at the position (x, y) in each frame are set to f1 (x, y), f2 (x, y), ft (x, y), When the motion vector amount is MV = (dx, dy), the following equation (1) is established.

f1(x+dx,y+dy)=f2(x,y) ・・・式(1)   f1 (x + dx, y + dy) = f2 (x, y) (1)

フレーム間の経過時間はCCDからの取り込みフレームレート(撮像フレームレート;単位時間あたりの撮像フレーム数)に依存し等速なので、フレーム間では等速直線運動と仮定することができるので、下記式(2)となる。   Since the elapsed time between frames depends on the capture frame rate from the CCD (imaging frame rate; the number of imaging frames per unit time), and can be assumed to be a uniform linear motion between frames. 2).

ft(x+dx/2、y+dy/2)=f2(x,y) ・・・式(2)   ft (x + dx / 2, y + dy / 2) = f2 (x, y) (2)

この式(2)にしたがってCPU40はフレームP2の画素値f2を補間フレームの画素値とすることで、補間画像Ptを求める。
補間画像Ptを求めるときに、一致した部分から画像を生成していき、不一致領域についてはその不一致領域に注目して再度動きベクトルを求めることで、補間画像Ptの補間画像を完成させる。
また、画像データの割り当ては、動きベクトルに従い、画像データを補間画像Ptの各画素に割り当てていく。画像データが割り当てられなかった画素は、周辺あるいは隣接フレームの画素から割り当てをおこなう。
The CPU 40 obtains the interpolated image Pt by using the pixel value f2 of the frame P2 as the pixel value of the interpolated frame in accordance with the equation (2).
When the interpolated image Pt is obtained, an image is generated from the matched portion, and for the inconsistent region, attention is paid to the inconsistent region, and the motion vector is obtained again, thereby completing the interpolated image of the interpolated image Pt.
Further, the image data is assigned in accordance with the motion vector by assigning the image data to each pixel of the interpolated image Pt. Pixels to which image data has not been assigned are assigned from neighboring or adjacent frame pixels.

このようにして、複数枚の画像より動きベクトルを検出し、画像間の動き量にあわせた補間フレームを生成して画像モニターへ表示することで、なめらかな表示のライブビューを実現する。   In this way, a smooth display live view is realized by detecting a motion vector from a plurality of images, generating an interpolation frame in accordance with the amount of motion between the images, and displaying them on an image monitor.

ライブビュー処理を図5、図6を使って説明する。図5はハイフレーム化処理を行わない従来技術による処理を、図6はハイフレーム化処理を行った場合の処理を示している。   The live view process will be described with reference to FIGS. FIG. 5 shows processing according to the prior art that does not perform high frame processing, and FIG. 6 shows processing when high frame processing is performed.

CCDVDは、タイミングジェネレータ(TG89)から与えられる駆動パルスで、CCD85を駆動する垂直同期信号である。この例では、TG89は、1/15秒のタイミングでCCD85へ駆動パルスを与え、CCD85からのデジタルRGB信号が15fpsのフレームレートでCCD85から出力されるように駆動している。   CCDVD is a vertical synchronization signal for driving the CCD 85 with a drive pulse given from the timing generator (TG 89). In this example, the TG 89 is driven so that a drive pulse is given to the CCD 85 at a timing of 1/15 seconds, and a digital RGB signal from the CCD 85 is output from the CCD 85 at a frame rate of 15 fps.

DISPVDは、画像モニター9に与える駆動パルスで、画像モニター9を駆動する垂直同期信号である。この例では、画像モニター信号処理部49は、1/30秒のタイミングで画像モニター9へ駆動パルスを与え、画像モニター信号処理部49でYUV画像データ56の輝度/色差信号を画像モニター9の入力信号形式へ変換したRGB信号が、30fpsのフレームレートで画像モニター9へ出力されるように駆動している。   DISPVD is a drive pulse given to the image monitor 9 and is a vertical synchronization signal for driving the image monitor 9. In this example, the image monitor signal processing unit 49 gives a drive pulse to the image monitor 9 at a timing of 1/30 second, and the image monitor signal processing unit 49 inputs the luminance / color difference signal of the YUV image data 56 to the image monitor 9. The RGB signal converted into the signal format is driven so as to be output to the image monitor 9 at a frame rate of 30 fps.

P1、P2、P3、P4、P5は画像データであり、CCD露光処理では電圧信号(画像信号)、CCDからの画像信号取り込み処理ではRaw−RGB画像データ55、画像処理ではYUV画像データ56、表示処理では、RGB信号である。   P1, P2, P3, P4, and P5 are image data, voltage signal (image signal) in the CCD exposure process, Raw-RGB image data 55 in the image signal capture process from the CCD, YUV image data 56 in the image process, display In the processing, it is an RGB signal.

図5のハイフレーム化処理を行わない場合を説明する。
タイミングT1〜T2:CCD85の露光を1/15秒間行い、P1の電圧信号(画像信号)を得る。
A case where the high frame processing of FIG. 5 is not performed will be described.
Timing T1 to T2: The CCD 85 is exposed for 1/15 seconds to obtain a voltage signal (image signal) of P1.

タイミングT2〜T3:CCD85からの画像信号の取り込み処理を1/15秒期間行い、センサ入力制御部44を介して、Raw−RGB画像データP1をメモリ54へ取り込む。同時にCCD85の露光も行い、P2の電圧信号(画像信号)を得る。
このようにCCD85の露光処理および画像信号の取り込み処理は1/15秒単位に連続して行われる。
Timing T2 to T3: Image signal capture processing from the CCD 85 is performed for a period of 1/15 seconds, and Raw-RGB image data P1 is captured into the memory 54 via the sensor input control unit 44. At the same time, the CCD 85 is exposed to obtain a voltage signal (image signal) of P2.
As described above, the exposure process of the CCD 85 and the image signal capturing process are continuously performed in units of 1/15 seconds.

次にP1画像のライブビューまでのステップに注目して説明する。
タイミングT3〜T4:画像信号処理部46はメモリ54に取り込まれたRaw−RGB画像データP1を処理してYUV画像データP1を生成する。
Next, a description will be given focusing on the steps up to the live view of the P1 image.
Timing T3 to T4: The image signal processing unit 46 processes the Raw-RGB image data P1 captured in the memory 54 to generate YUV image data P1.

タイミングT5〜T6:画像モニター信号処理部49はYUV画像データP1をRGB信号へ変換し画像モニター9へ出力して画像データP1を表示する。画像信号処理部46は、画像データP2の取り込み処理が終了すると直ちに画像データP2からYUV画像データP2を生成する。   Timing T5 to T6: The image monitor signal processing unit 49 converts the YUV image data P1 into RGB signals, outputs the RGB signals to the image monitor 9, and displays the image data P1. The image signal processing unit 46 generates YUV image data P2 from the image data P2 as soon as the capturing process of the image data P2 is completed.

以下画像データP2、P3・・・を画像モニターへ順次表示することでライブビューを実現する。   The live view is realized by sequentially displaying the image data P2, P3,... On the image monitor.

図5のようにハイフレーム化処理を行わない場合、画像モニターの表示フレームレート(単位時間あたりの表示フレーム数)は30fpsの能力を持つが、入力される画像(P1、P2・・・)のフレームレートに拘束され、実際はフレームレート15fpsでライブビューが行われる。   When the high frame processing is not performed as shown in FIG. 5, the display frame rate (the number of display frames per unit time) of the image monitor has a capacity of 30 fps, but the input image (P1, P2,...) Constrained by the frame rate, live view is actually performed at a frame rate of 15 fps.

次に図6のハイフレーム化処理が行われた場合について説明する。
タイミングT11〜T12:CCD85の露光を1/15秒間行い、P1の電圧信号(画像信号)を得る。
Next, a case where the high frame processing in FIG. 6 is performed will be described.
Timing T11 to T12: The CCD 85 is exposed for 1/15 seconds to obtain a voltage signal (image signal) of P1.

タイミングT12〜T13:CCD85からの画像信号P1の取り込み処理を1/15秒期間行い、センサ入力制御部44を介して、Raw−RGB画像データP1をメモリ54へ取り込む。同時にCCD85の露光も行い、P2の電圧信号(画像信号)を得る。   Timing T12 to T13: The capturing process of the image signal P1 from the CCD 85 is performed for a period of 1/15 seconds, and the Raw-RGB image data P1 is captured into the memory 54 via the sensor input control unit 44. At the same time, the CCD 85 is exposed to obtain a voltage signal (image signal) of P2.

タイミングT13〜T15:CCD85からの画像信号P2の取り込み処理を1/15秒期間行い、センサ入力制御部44を介して、Raw−RGB画像データP2をメモリ54へ取り込む。同時にCCD85の露光も行い、P3の電圧信号(画像信号)を得る。このようにCCD85の露光処理および画像信号の取り込み処理は1/15秒単位に連続して行われる。   Timing T13 to T15: The capturing process of the image signal P2 from the CCD 85 is performed for a period of 1/15 seconds, and the Raw-RGB image data P2 is captured into the memory 54 via the sensor input control unit 44. At the same time, the CCD 85 is exposed to obtain a voltage signal (image signal) of P3. As described above, the exposure process of the CCD 85 and the image signal capturing process are continuously performed in units of 1/15 seconds.

次にP1画像のライブビューとハイフレーム化処理までのステップに注目して説明する。   Next, a description will be given focusing on the steps up to the live view of the P1 image and the high frame processing.

タイミングT13〜T14:画像信号処理部46はメモリ54に取り込まれたRaw−RGB画像データP1を処理してYUV画像データP1を生成する。   Timing T13 to T14: The image signal processing unit 46 processes the Raw-RGB image data P1 captured in the memory 54 to generate YUV image data P1.

タイミングT15〜T16:画像信号処理部46はメモリ54に取り込まれたRaw−RGB画像データP2を処理してYUV画像データP2を生成する。   Timing T15 to T16: The image signal processing unit 46 processes the Raw-RGB image data P2 captured in the memory 54 to generate YUV image data P2.

タイミングT15〜T17:画像モニター信号処理部49はYUV画像データP1をRGB信号へ変換し画像モニター9へ出力して画像データP1を表示する。   Timing T15 to T17: The image monitor signal processing unit 49 converts the YUV image data P1 into RGB signals, outputs the RGB signals to the image monitor 9, and displays the image data P1.

タイミングT16〜T17:CPU40はYUV画像データP1およびP2を使用して、前述した動きベクトル検出処理と補間フレーム画像生成処理を行い、補間フレーム画像データPt1を生成する。   Timing T16 to T17: The CPU 40 uses the YUV image data P1 and P2 to perform the motion vector detection process and the interpolation frame image generation process described above to generate the interpolation frame image data Pt1.

タイミングT17〜T18:画像モニター信号処理部49はYUV画像データPt1をRGB信号へ変換し画像モニターへ出力して表示する。   Timing T17 to T18: The image monitor signal processing unit 49 converts the YUV image data Pt1 into RGB signals, outputs them to the image monitor, and displays them.

以下画像データP2、Pt2、P3、Pt3・・・を画像モニターへ順次表示することでライブビューを実現する。   The live view is realized by sequentially displaying the image data P2, Pt2, P3, Pt3... On the image monitor.

図6のようにハイフレーム化処理を行った場合、入力される画像(P1、P2・・・)のフレームレートに拘束されず、画像モニターの表示フレームレート30fpsを生かしたライブビューが行われる。   When the high frame processing is performed as shown in FIG. 6, a live view is performed using the display frame rate of 30 fps of the image monitor without being restricted by the frame rate of the input image (P1, P2,...).

このように電力消費量を削減しながらも高品位なファインダとしてのライブビューを提供することができる。   In this way, it is possible to provide a live view as a high-quality finder while reducing power consumption.

(実施例1)
上述した本実施形態に係るデジタルカメラを好適に実施する実施例1について説明する。
図7は、実施例1のフローチャートを示す。また、図8は被写体にピントを合わせた後に構図を決定することを説明するための概念図である。
本実施例は、シャッターボタン2の半押しによって、AE/AF処理を行うとき、さらに被写体にピントを合わせた状態で背景を撮りたい場合などは、シャッターボタン2の半押しのままカメラを動かして構図を決定する期間を撮影者が構図決定を行う期間と考え(図8)、シャッターボタン2の半押しを基点にシャッターボタンを押しきり撮影するまでの期間(フレーミング中)のみハイフレーム化処理を行うようにした。
Example 1
Example 1 for suitably implementing the digital camera according to the present embodiment described above will be described.
FIG. 7 shows a flowchart of the first embodiment. FIG. 8 is a conceptual diagram for explaining that the composition is determined after focusing on the subject.
In this embodiment, when the AE / AF processing is performed by half-pressing the shutter button 2, and when the background is to be taken while the subject is in focus, the camera is moved while the shutter button 2 is half-pressed. The period during which the composition is determined is considered as the period during which the photographer determines the composition (FIG. 8), and the high frame processing is performed only during the period from when the shutter button 2 is half-pressed until the shutter button is fully pressed (during framing). I did it.

先ず、カメラの電源が投入され、撮影モード時には、必要に応じてライブビューが表示される。電源投入直後のライブビューは、電力消費量を削減するために、ハイフレーム化を行わない。(ステップS101)   First, the camera is turned on, and a live view is displayed as necessary in the shooting mode. The live view immediately after power-on does not perform high frame in order to reduce power consumption. (Step S101)

CPU40は、シャッターボタン2の半押しを検出すると、AE/AF処理が行なわれるが、それに先立ち、動きベクトル検出部53を用いてライブビューをハイフレーム化し(ステップS102、S103)、AE/AF処理が行われる。(ステップS104)   When the CPU 40 detects that the shutter button 2 is half-pressed, AE / AF processing is performed. Prior to that, the motion vector detection unit 53 is used to frame the live view (steps S102 and S103), and the AE / AF processing. Is done. (Step S104)

CPU40は、ステップS104でAE/AF処理が行われたのち、さらにシャッターボタン2の半押しが継続されているか否かを検出し(ステップS105)、継続されていなければハイフレーム化を終了し(S101)、継続されていれば、シャッターボタンを押し切ったか否かを検出する。半押し状態が継続されていれば、図8のようにシャッターボタン2の半押しのままカメラを動かして構図を決定する期間であるため、ライブビューのハイフレーム化を継続したままステップS105に戻り、シャッターボタンの検出を継続する。(ステップS106)   After the AE / AF process is performed in step S104, the CPU 40 further detects whether or not the shutter button 2 is half-pressed (step S105). S101) If it is continued, it is detected whether or not the shutter button has been pressed. If the half-pressed state is continued, it is a period in which the camera is moved and the composition is determined while the shutter button 2 is half-pressed as shown in FIG. Continue to detect the shutter button. (Step S106)

CPU40は、ステップS106でシャッターボタン2の押し切りを検出すると、撮影、記録処理を開始し、撮影画像がメモリカード29へ記録される。記録が終了すると、ライブビューは、電力消費量を削減するために、ハイフレーム化を行わない。(ステップS107)   When the CPU 40 detects that the shutter button 2 is fully pressed in step S106, the CPU 40 starts photographing and recording processing, and the photographed image is recorded on the memory card 29. When the recording is finished, the live view does not perform high frame in order to reduce power consumption. (Step S107)

以上により、ハイフレームレート化期間をシャッターボタン2の半押しから押し切りまでの期間とすることで、ハイグレームカによる電力消費量をも最小限にし、カメラとしての機能を損なわない高品位なファインダとしてのライブビューを提供する。   As described above, by setting the high frame rate period from the half-press of the shutter button 2 until it is fully pressed, the power consumption by the high gray camera is minimized, and the live as a high-quality finder that does not impair the function as a camera. Provide a view.

(実施例2)
上述した本実施形態に係るデジタルカメラを好適に実施する実施例2について説明する。
図9は、実施例2のフローチャートを示す。また、図10はズームを使っている場合を説明するための概念図である。
本実施例は、撮影者は、画角を調整する必要があるとき、ズームレバー(望遠)/(広角)10を操作し、ズームレンズをズーミングさせて画角を調整する期間を撮影者が構図決定を行う期間と考え(図10)、ズームレバー(望遠)/(広角)10の操作を基点にズーミング期間(焦点距離変更手段が焦点距離変更しているとき)のみハイフレーム化処理を行うようにした。
(Example 2)
Example 2 in which the digital camera according to the present embodiment described above is preferably implemented will be described.
FIG. 9 shows a flowchart of the second embodiment. FIG. 10 is a conceptual diagram for explaining a case where zoom is used.
In this embodiment, when the photographer needs to adjust the angle of view, the photographer composes the period during which the angle of view is adjusted by operating the zoom lever (telephoto) / (wide angle) 10 and zooming the zoom lens. Considering that the period is to be determined (FIG. 10), high-frame processing is performed only during the zooming period (when the focal length changing means is changing the focal length) based on the operation of the zoom lever (telephoto) / (wide angle) 10. I made it.

また、高倍率のズームレンズを搭載している場合(たとえば35mm判カメラ換算値で28mm〜200mmなど)、ズームレンズ81が望遠になると、焦点距離が大きく(画角が狭く)なるためライブビューは手ぶれの影響を受けやすくなる。ライブビューは手ぶれの振動が加味されることで安定感がなくなり、ファインダとしての品位が低下してしまう。
そこで、あるしきい値(本実施例では、35mm判カメラ換算値で105mmとした)より焦点距離が大きい場合は、ハイフレーム化処理を行いファインダとしての品位を低下させないように構成した。
ズームレバーは広角と望遠の2通りあるが、図9は、広角側のみを説明している。
In addition, when a zoom lens with a high magnification is mounted (for example, 28 mm to 200 mm in terms of a 35 mm camera equivalent), when the zoom lens 81 is telephoto, the focal length becomes large (the angle of view becomes narrow), so the live view is It becomes more susceptible to camera shake. Live view loses stability due to the vibration of camera shake, and the quality of the viewfinder decreases.
Therefore, when the focal length is larger than a certain threshold value (105 mm in terms of 35 mm camera equivalent in this embodiment), a high frame processing is performed so that the quality as a finder is not deteriorated.
Although there are two types of zoom levers, wide angle and telephoto, FIG. 9 illustrates only the wide angle side.

先ず、カメラの電源が投入され、撮影モード時には、必要に応じてライブビューが表示される。電源投入直後のライブビューは、電力消費量を削減するために、ハイフレーム化を行わない。(ステップS201)   First, the camera is turned on, and a live view is displayed as necessary in the shooting mode. The live view immediately after power-on does not perform high frame in order to reduce power consumption. (Step S201)

CPU40は、ズームレバー(望遠)/(広角)10が望遠に回されているのを検出すると、ズームレンズ81を広角側へズーミングするが、それに先立ち、動きベクトル検出部53を用いてライブビューをハイフレーム化し(ステップS202、S203)、広角側へズーミングが行われる。(ステップS204)   When the CPU 40 detects that the zoom lever (telephoto) / (wide angle) 10 is turned to the telephoto position, the CPU 40 zooms the zoom lens 81 to the wide angle side, but prior to that, the motion vector detection unit 53 is used to perform live view. A high frame is formed (steps S202 and S203), and zooming is performed to the wide angle side. (Step S204)

CPU40は、さらにズームレバー(望遠)/(広角)10が回されているのが継続されているか否かを検出し(ステップS205)、継続されていれば、ズームレンズ81が望遠端に到達したか否かを検出する。(ステップS206)ズームレンズ81が望遠端に到達していれば、ズームレンズのズーミングを停止し(ステップS207)、そうでなければステップS205へ戻り、ズームレバー(望遠)/(広角)10が離されたかの検出を継続する。
ステップS205にてズームレバー(望遠)/(広角)10が離された場合、ズームレンズ81のズーミングを停止する。
(ステップS207)
The CPU 40 further detects whether or not the zoom lever (telephoto) / (wide angle) 10 continues to be rotated (step S205), and if it continues, the zoom lens 81 has reached the telephoto end. Whether or not is detected. (Step S206) If the zoom lens 81 has reached the telephoto end, zooming of the zoom lens is stopped (Step S207). Otherwise, the process returns to Step S205, and the zoom lever (telephoto) / (wide angle) 10 is released. Continue detection of whether or not
When the zoom lever (telephoto) / (wide angle) 10 is released in step S205, zooming of the zoom lens 81 is stopped.
(Step S207)

CPU40は、ズームレンズ81のズーミングが停止した後、焦点距離が何ミリかを調べる。(ステップS208)焦点距離が105mm以上であれば、ライブビューのハイフレーム化を継続したままとし、105mmより小さければ、ステップS201に戻り、ライブビューは、電力消費量を削減するために、ハイフレーム化を行わない。   The CPU 40 checks how many millimeters the focal length is after zooming of the zoom lens 81 is stopped. (Step S208) If the focal length is 105 mm or longer, the high-frame display of the live view is continued. If it is smaller than 105 mm, the process returns to step S201, and the live view displays the high frame in order to reduce power consumption. Do not change.

以上により、ハイフレームレート化期間をズームレンズのズーミング期間および焦点距離が大きい(画角が狭い)期間とすることで、ハイフレーム化による電力消費量を最小限にし、カメラとしての機能を損なわない高品位なファインダとしてのライブビューを提供する。
また、実施例2では光学ズームとしたが、デジタルズームでも同様である。
As described above, by setting the high frame rate period to the zoom lens zooming period and the period in which the focal length is large (the angle of view is narrow), the power consumption due to the high frame is minimized and the function as a camera is not impaired. Provides live view as a high-quality viewfinder.
In the second embodiment, the optical zoom is used, but the same applies to the digital zoom.

(実施例3)
上述した本実施形態に係るデジタルカメラを好適に実施する実施例3について説明する。
図11は、実施例3のフローチャートを示す。
本実施例は、撮影者は、レンズを被写体に接近させて接写で撮る必要があるとき、↓/マクロボタン18を操作し、マクロ撮影モードにしたときに、ハイフレーム化処理を実施する。
(Example 3)
Example 3 in which the above-described digital camera according to the present embodiment is preferably implemented will be described.
FIG. 11 shows a flowchart of the third embodiment.
In the present embodiment, when the photographer needs to bring the lens close to the subject and take a close-up shot, the photographer operates the ↓ / macro button 18 to execute the high frame processing when the macro shooting mode is set.

マクロ撮影モードは、フォーカスレンズの移動範囲を非マクロモードよりさらに広げることで、ピント合わせが可能な最短撮影距離を小さくすることができる(たとえばレンズ先端より1cm)ので、小さな被写体の撮影に用いることができる。
このとき、被写界深度が極端に浅くなるために、ライブビューは手ぶれの影響を受けやすくなる。ライブビューは手ぶれの振動が加味されることで安定感がなくなり、ファインダとしての品位が低下してしまう。
そこで、マクロ撮影モードのような被写界深度が浅い条件にてハイフレーム化処理を行いファインダとしての品位を低下させないように構成した。
The macro shooting mode can be used for shooting a small subject because the shortest shooting distance that can be focused can be reduced (for example, 1 cm from the front of the lens) by further expanding the moving range of the focus lens compared to the non-macro mode. Can do.
At this time, since the depth of field becomes extremely shallow, the live view is easily affected by camera shake. Live view loses stability due to the vibration of camera shake, and the quality of the viewfinder decreases.
In view of this, the high frame processing is performed under the condition that the depth of field is shallow as in the macro shooting mode so that the quality of the finder is not deteriorated.

先ず、カメラの電源が投入され、撮影モード時には、必要に応じてライブビューが表示される。電源投入直後のライブビューは、電力消費量を削減するために、ハイフレーム化を行わない。(ステップS301)   First, the camera is turned on, and a live view is displayed as necessary in the shooting mode. The live view immediately after power-on does not perform high frame in order to reduce power consumption. (Step S301)

CPU40は、↓/マクロボタン18が押下されたことを検出すると、マクロ撮影モードになるが、それに先立ち、動きベクトル検出部53を用いてライブビューをハイフレーム化し(ステップS302、S303)、マクロ撮影モードにする。(ステップS304)   When the CPU 40 detects that the ↓ / macro button 18 is pressed, it enters the macro shooting mode. Prior to that, the motion vector detection unit 53 is used to frame the live view (steps S302 and S303), and the macro shooting is performed. Enter mode. (Step S304)

CPU40は、S302の後にさらに↓/マクロボタン18が押下されたか否かを検出し(ステップS305)、押下されていればハイフレーム化を終了し通常撮影モードに戻る(ステップS306)。   The CPU 40 detects whether or not the ↓ / macro button 18 is further pressed after S302 (step S305). If it is pressed, the high frame is finished and the normal shooting mode is returned (step S306).

以上により、ハイフレームレート化期間を被写界深度が浅いマクロ撮影モードの期間(焦点距離変更手段が焦点距離変更しているとき)とすることで、ハイフレーム化による電力消費量を最小限にし、カメラとしての機能を損なわない高品位なファインダとしてのライブビューを提供する。   As described above, by setting the high frame rate period to the macro shooting mode period when the depth of field is shallow (when the focal length changing means is changing the focal length), the power consumption due to the high frame rate is minimized. Provide a live view as a high-quality viewfinder that does not impair the function of the camera.

(実施例4)
上述した本実施形態に係るデジタルカメラを好適に実施する実施例4について説明する。
図12は、実施例4のフローチャートを示す。
本実施例では、カメラは風景や建物の撮影時など、水平のとれた画像を撮影したい場合に便利な「電子水準器」機能を搭載している。
図13は電子水準器機能を用いて水平状態を確認することを説明するための概念図である。この「電子水準器」機能は、画像モニター9に表示される水平インジケーターと水準器音で、画像の水平状態を確認することがでる。
Example 4
Example 4 in which the above-described digital camera according to the present embodiment is preferably implemented will be described.
FIG. 12 shows a flowchart of the fourth embodiment.
In this embodiment, the camera is equipped with an “electronic level” function that is convenient when it is desired to take a horizontal image such as when shooting a landscape or a building.
FIG. 13 is a conceptual diagram for explaining that the horizontal state is confirmed using the electronic level function. With this “electronic level” function, the horizontal state of the image can be confirmed by the horizontal indicator and level sound displayed on the image monitor 9.

カメラの傾きは、カメラに内蔵されている2軸以上の加速度センサを利用しており、このセンサをCPU40に接続し、CPU40はセンサ出力を検出することで、左右の傾きを判別することができる。
2軸加速度センサは、重力を検出するセンサで、水平方向に置かれていると出力はゼロになり、傾けると重力がかかることでそれに伴う信号を出力する。そこで、これを2つ直交するように配置することで、水平面に対して何度傾いているかを示す絶対値の傾斜センサとして使用することができる。
The camera tilt uses a two-axis or more acceleration sensor built in the camera. This sensor is connected to the CPU 40, and the CPU 40 can detect the left-right tilt by detecting the sensor output. .
The biaxial acceleration sensor is a sensor that detects gravity. When the sensor is placed in the horizontal direction, the output is zero. When the sensor is tilted, gravity is applied to output a signal associated therewith. Therefore, by arranging the two so as to be orthogonal to each other, it can be used as an absolute tilt sensor that indicates how many times the tilt is made with respect to the horizontal plane.

また、カメラの電力消費量を減少させるために、電力消費量が大きい画像モニター9の液晶ディスプレイのバックライト部の電力消費量を小さくする「画像モニター節電」機能を搭載している。   Further, in order to reduce the power consumption of the camera, an “image monitor power saving” function for reducing the power consumption of the backlight part of the liquid crystal display of the image monitor 9 having a large power consumption is installed.

図14は画像モニター9に表示されるセットアップメニューの概念図である。「画像モニター節電機能」機能は、セットアップメニューで設定することができ、[画像モニター節電]を[ON]に設定すると、画像モニター9を点灯した状態で約5秒間カメラを動かさなかった場合に、節電のためにバックライト部の輝度を落とすことで、画像モニター9の輝度を落とす。その場合、カメラを動かすか、いずれかのボタン押すと元に戻る。カメラが動いたか否かの検出は、上記「電子水準器」機能で実施している。   FIG. 14 is a conceptual diagram of a setup menu displayed on the image monitor 9. The “Image monitor power saving function” function can be set in the setup menu. When [Image monitor power saving] is set to [ON], the camera is not moved for about 5 seconds with the image monitor 9 turned on. The brightness of the image monitor 9 is reduced by reducing the brightness of the backlight unit to save power. In that case, move the camera or press any button to restore. Whether or not the camera has moved is detected by the “electronic level” function.

本実施例は、電子水準器機能にてカメラが動いたか否かを検出したのは、撮影者が構図決定を行う期間と考え、カメラが動いている期間のみハイフレーム化処理を行うようにした。   In this embodiment, whether or not the camera has moved with the electronic level function is considered as a period during which the photographer decides the composition, and the high frame processing is performed only during the period when the camera is moving. .

先ず、CPU40は、電子水準器によるカメラの動きを検出すると(ステップS401)、動きベクトル検出部53を用いてハイフレーム化されたライブビューを表示し(ステップS402)、画像モニター節電OFFになる。(ステップS403)   First, when the CPU 40 detects the movement of the camera by the electronic level (step S401), the CPU 40 displays a live view with a high frame using the motion vector detection unit 53 (step S402), and the image monitor power saving is turned off. (Step S403)

次いで、CPU40は、電子水準器によりカメラの動きが検出されない静止状態であると(ステップS404)、静止状態が継続して5秒経過したか否かを検出し(ステップS405)、5秒経過した場合は画像モニター節電ONになり(ステップS406)、ハイフレーム化を終了する。(ステップS407)
尚、言うまでもなく静止状態の検出の際の時間を5秒とするのは一態様に過ぎず、所望の時間を設定してもよく、デジタルカメラの利用者が任意の時間を設定できるようにしてもよい。
Next, when the CPU 40 is in a stationary state in which no camera movement is detected by the electronic level (step S404), the CPU 40 detects whether or not the stationary state has continued for 5 seconds (step S405), and 5 seconds have elapsed. In this case, image monitor power saving is turned on (step S406), and the high frame is terminated. (Step S407)
Needless to say, the time for detecting the stationary state is set to 5 seconds, which is only one aspect, and a desired time may be set, so that the user of the digital camera can set an arbitrary time. Also good.

以上により、ハイフレームレート化期間を電子水準器機能にて検出されたカメラ非静止時(水準器手段が動作中の期間)、即ち撮影者が構図決定を行う期間とすることで、ハイフレーム化による電力消費量を最小限にし、カメラとしての機能を損なわない高品位なファインダとしてのライブビューを提供する。   As described above, the high frame rate period is set to the time when the camera is not detected (period in which the level device is operating) detected by the electronic level function, that is, the period in which the photographer determines the composition. The live view is provided as a high-quality viewfinder that minimizes the power consumption caused by the camera and does not impair the camera function.

〔第2の実施形態〕
図15は、本発明に係る撮像装置の第2の実施形態であるデジタルカメラの構成を示す概略外観図である。
図15においてデジタルカメラ103は、本体部102と、本体部102に着脱可能なレンズ部101からなる。デジタルカメラ103は、レンズ部101と本体部102が一体となってデジタルカメラ(撮像システム)としての機能を発揮する。レンズ部101は種々のタイプの中から利用者が適宜選択して本体部102に装着するものであって、例えば、単焦点レンズのレンズ部104a(図15(a))や、光学ズームを搭載したレンズ部104b(図15(b))がある。
尚、ここでは図示及び説明を省略するが、上述した第1の実施形態と同様に本実施形態におけるデジタルカメラにおいても、前面には「POWER(電源)ボタン1」、「シャッターボタン2」、「フラッシュ発光部3」、「AF補助光/セルフタイマーランプ4」、「レンズカバー5」、「マイク6」、「スピーカー7」、「レンズ8」が配置されている。また、背面の構成も上述した第1の実施形態と同様であるため、図示及び説明を省略する。
[Second Embodiment]
FIG. 15 is a schematic external view showing a configuration of a digital camera which is the second embodiment of the imaging apparatus according to the present invention.
In FIG. 15, the digital camera 103 includes a main body unit 102 and a lens unit 101 that can be attached to and detached from the main body unit 102. The digital camera 103 functions as a digital camera (imaging system) by integrating the lens unit 101 and the main body unit 102. The lens unit 101 is appropriately selected from various types by the user and attached to the main body unit 102. For example, a lens unit 104a (FIG. 15A) of a single focus lens or an optical zoom is mounted. There is a lens portion 104b (FIG. 15B).
Although illustration and description are omitted here, as in the first embodiment described above, in the digital camera according to this embodiment, the “POWER (power button) 1”, “shutter button 2”, “ A “flash light emitting unit 3”, “AF auxiliary light / self-timer lamp 4”, “lens cover 5”, “microphone 6”, “speaker 7”, and “lens 8” are arranged. Moreover, since the configuration of the back surface is the same as that of the first embodiment described above, illustration and description thereof are omitted.

次に、本発明に係る撮像装置の第2の実施形態であるデジタルカメラの制御系統の構成について、図16に示すブロック図を参照しながら説明する。尚、上述した第1の実施形態と重複する箇所については一部説明を省略する。
レンズユニットの各部は、全体の動作を中央処理装置(CPU)によって統括制御するように構成されている。
レンズCPUは、バスを介してレンズCPUが実行する制御プログラム、設定情報などを記録したフラッシュROMに接続されており、このフラッシュROMから制御プログラムを読み出すことによってレンズユニットの各部を制御する。
SDRAMからなるメモリは、レンズCPUの演算作業用領域、画像データ(Raw−RGB画像データ、YUV画像データ、圧縮伸張画像データなど)の一時記憶領域として利用される。
Next, the configuration of a control system of a digital camera which is the second embodiment of the imaging apparatus according to the present invention will be described with reference to the block diagram shown in FIG. A part of the description overlapping with the first embodiment described above is partially omitted.
Each part of the lens unit is configured to control the overall operation by a central processing unit (CPU).
The lens CPU is connected to a flash ROM that records a control program executed by the lens CPU, setting information, and the like via a bus, and controls each part of the lens unit by reading the control program from the flash ROM.
The memory made up of the SDRAM is used as a calculation work area for the lens CPU and a temporary storage area for image data (Raw-RGB image data, YUV image data, compression / expansion image data, etc.).

撮影レンズは、ズームレンズ、フォーカスレンズによって構成されていて、光軸に沿ってズームレンズ、フォーカスレンズ、絞り、シャッタが配置されている。
ズームモータは、ズーム(広角)ボタンおよびズーム(望遠)ボタンに連動して動作し、ズームレンズを広角側、もしくは望遠側へ移動させる。
フォーカスモータは、シャッタレリーズボタンの半押し操作によるオートフォーカスに連動して動作し、フォーカスレンズを至近側、もしくは無限遠側へ移動させる。
アイリスモータは、シャッタレリーズボタンの半押し操作による自動露光に連動して動作し、絞りの開口面積を変化させることにより絞り値を変化させ、撮影レンズから入射する光量を調節する。
シャッタモータは、シャッタレリーズボタンの全押し操作による撮影動作に連動して動作し、通常はシャッタを開くように制御しCCDの信号蓄積を開始し露光(シャッタ)時間経過後に光を遮断するときにシャッタを閉じる。
モータドライバは、各モータに接続している。バスを介してレンズユニットを統括的に制御するレンズCPUに接続されたモータドライバは、レンズCPUからの制御信号に基づいて各モータに駆動パルスを送信する。各モータは、この駆動パルスに応じて回転軸を回転駆動する。
The photographing lens includes a zoom lens and a focus lens, and a zoom lens, a focus lens, a diaphragm, and a shutter are disposed along the optical axis.
The zoom motor operates in conjunction with a zoom (wide angle) button and a zoom (telephoto) button, and moves the zoom lens to the wide angle side or the telephoto side.
The focus motor operates in conjunction with autofocus by half-pressing the shutter release button, and moves the focus lens to the close side or infinity side.
The iris motor operates in conjunction with automatic exposure by half-pressing the shutter release button, changes the aperture value by changing the aperture area of the aperture, and adjusts the amount of light incident from the photographing lens.
The shutter motor operates in conjunction with a shooting operation by fully depressing the shutter release button. Normally, the shutter motor is controlled to open the shutter to start CCD signal accumulation and shut off the light after the exposure (shutter) time has elapsed. Close the shutter.
The motor driver is connected to each motor. A motor driver connected to the lens CPU that comprehensively controls the lens unit via the bus transmits a drive pulse to each motor based on a control signal from the lens CPU. Each motor rotationally drives the rotating shaft in accordance with this drive pulse.

撮影レンズの背後には、撮影レンズを透過した被写体光を受光面にて結像し光電変換する固体撮像素子(固体撮像素子は、CCDで構成されており、その受光面には、所定の配列構造(ベイヤー、Gストライプなど)で配列された赤(R)、緑(G)、青(B)のカラーフィルタを介して多数のフォトダイオード(受光素子)が二次元的に配置されている)が配置されている。   Behind the photographic lens is a solid-state imaging device that forms an image of subject light that has passed through the photographic lens on a light-receiving surface and performs photoelectric conversion (the solid-state imaging device is composed of a CCD, and the light-receiving surface has a predetermined arrangement. (A large number of photodiodes (light receiving elements) are two-dimensionally arranged via red (R), green (G), and blue (B) color filters arranged in a structure (Bayer, G stripe, etc.)) Is arranged.

撮影レンズを通過した被写体光は、CCDの各フォトダイオードによって受光され、入射光量に応じた量の信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、レンズCPUの制御のもとにタイミングジェネレータ(TG)から与えられる駆動パルスに基づいて、信号電荷に応じた電圧信号(画像信号)として順次読み出され、アナログ処理部(CDS/AMP)に加えられる。
アナログ処理部(CDS/AMP)は、入力された画素ごとのRGB信号をサンプリングホールド(相関二重サンプリング処理)するとともに、増幅し、A/D変換器に出力する。
A/D変換器は、アナログ処理部(CDS/AMP)から出力されたアナログRGB信号をデジタルRGB信号に変換して出力し、このデジタルのRGB信号は、センサ入力制御部へ入力され、Raw−RGB画像データとしてSDRAMに取り込まれる。
The subject light that has passed through the photographic lens is received by each photodiode of the CCD, and converted into signal charges in an amount corresponding to the amount of incident light. The signal charge accumulated in each photodiode is sequentially read out as a voltage signal (image signal) corresponding to the signal charge based on a driving pulse given from the timing generator (TG) under the control of the lens CPU. It is added to the analog processing unit (CDS / AMP).
The analog processing unit (CDS / AMP) performs sampling hold (correlated double sampling processing), amplifies, and outputs the input RGB signal for each pixel to the A / D converter.
The A / D converter converts the analog RGB signal output from the analog processing unit (CDS / AMP) into a digital RGB signal and outputs the digital RGB signal. The digital RGB signal is input to the sensor input control unit, and Raw- It is taken into the SDRAM as RGB image data.

画像信号処理部は、SDRAMに取り込まれたRaw−RGB画像データをレンズCPUの指令に従って処理し、輝度信号(Y信号)及び色差信号(Cr、Cb信号)へ変換し、YUV画像データを生成する。この画像信号処理部は、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理回路)、ホワイトバランス補正回路、ガンマ補正回路、輪郭補正回路、輝度・色差信号生成回路なども含まれた画像処理手段として機能する。
圧縮伸張処理部は、画像信号処理部において輝度/色差信号に変換されたYUV画像データを、所定の圧縮フォーマット(たとえばJPEG形式)に従って圧縮した後、再びSDRAMに圧縮伸張画像データとして格納する。
The image signal processing unit processes the Raw-RGB image data captured in the SDRAM in accordance with a command from the lens CPU, converts it into a luminance signal (Y signal) and a color difference signal (Cr, Cb signal), and generates YUV image data. . This image signal processing unit includes a synchronization circuit (a processing circuit that interpolates a spatial shift of the color signal associated with the color filter array of the single CCD and converts the color signal into a simultaneous expression), a white balance correction circuit, a gamma correction It functions as an image processing means including a circuit, a contour correction circuit, a luminance / color difference signal generation circuit, and the like.
The compression / decompression processing unit compresses the YUV image data converted into the luminance / color difference signal by the image signal processing unit in accordance with a predetermined compression format (for example, JPEG format), and then stores it again as compressed / decompressed image data in the SDRAM.

AF検出部は、1画面を複数のエリア(例えば、16×16)に分割し、分割エリアごとにG信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、所定のフォーカスエリア(たとえば、画面中央部)内の信号を切り出すAFエリア抽出部およびAFエリア内の絶対値データを積算する積算部から構成されている。
AF検出部で求めた積算値のデータはレンズCPUに通知される。レンズCPUは、モータドライバを介してフォーカスモータを制御し、フォーカスレンズを移動させながら複数のAF検出ポイントで焦点評価値(AF評価値)を演算し、評価値が極大となるレンズ位置を合焦位置として決定する。
そして、求めた合焦位置にフォーカスレンズが移動するように、フォーカスモータを制御することで、オートフォーカス(AF)動作をおこなう。
The AF detection unit divides one screen into a plurality of areas (for example, 16 × 16), and passes a high frequency component of the G signal only for each divided area, an absolute value processing unit, a predetermined focus area (for example, The AF area extracting unit for cutting out the signal in the center of the screen) and the integrating unit for integrating the absolute value data in the AF area.
The integrated value data obtained by the AF detection unit is notified to the lens CPU. The lens CPU controls the focus motor via the motor driver, calculates a focus evaluation value (AF evaluation value) at a plurality of AF detection points while moving the focus lens, and focuses the lens position where the evaluation value is maximized. Determine as position.
Then, an autofocus (AF) operation is performed by controlling the focus motor so that the focus lens moves to the obtained in-focus position.

AE/AWB検出部は、1画面を複数のエリア(例えば、16×16)に分割し、分割エリアごとにR、G、B信号を積算する回路を含み、その積算値をレンズCPUに提供する。
レンズCPUは、AE/AWB検出部から得た積算値に基づいて被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。
そして、求めた撮影EV値と所定のプログラム線図から絞り値とシャッタースピードを決定し、これに従いCCDの電子シャッタとモータドライバを介してアイリスモータを駆動し、絞りを制御して適正な露光量を得ることで、自動露光(AE)動作をおこなう。
The AE / AWB detection unit includes a circuit that divides one screen into a plurality of areas (for example, 16 × 16) and integrates R, G, and B signals for each divided area, and provides the integrated value to the lens CPU. .
The lens CPU detects the brightness of the subject (subject brightness) based on the integrated value obtained from the AE / AWB detection unit, and calculates an exposure value (shooting EV value) suitable for shooting.
Then, an aperture value and a shutter speed are determined from the obtained shooting EV value and a predetermined program diagram, and an iris motor is driven through the electronic shutter and motor driver of the CCD according to the determined EV value, and an appropriate exposure amount is controlled by controlling the aperture. Thus, an automatic exposure (AE) operation is performed.

また、AE/AWB検出部は、自動ホワイトバランス調整時、分割エリアごとにR、G、B信号の色別の平均積算値を算出し、その算出結果をレンズCPUに提供する。
レンズCPUは、得られたRの積算値、Bの積算値、Gの積算値から分割エリアごとにR/GおよびB/Gの比を求め、求めたR/G、B/Gの値の、R/G、B/G色空間における分布等に基づいて、光源種判別を行う。
そして、判別された光源種に適したホワイトバランス調整値に従って、たとえば、各比の値がおよそ1(つまり、1画面においてRGBの積算比率がR:G:B≒1:1:1)になるように、ホワイトバランス調整回路のR、G、B信号に対するゲイン値(ホワイトバランス補正値)を制御し、各色チャンネルの信号に補正をかけることで、オートホワイトバランス(AWB)動作をおこなう。
The AE / AWB detection unit calculates an average integrated value for each color of the R, G, and B signals for each divided area during automatic white balance adjustment, and provides the calculation result to the lens CPU.
The lens CPU obtains the ratio of R / G and B / G for each divided area from the obtained integrated value of R, integrated value of B, and integrated value of G, and calculates the R / G and B / G values obtained. The light source type is determined based on the distribution in the R / G and B / G color spaces.
Then, according to the white balance adjustment value suitable for the discriminated light source type, for example, the value of each ratio is approximately 1 (that is, the RGB integration ratio is R: G: B≈1: 1: 1 on one screen). As described above, by controlling the gain values (white balance correction values) for the R, G, and B signals of the white balance adjusting circuit and correcting the signals of the respective color channels, the auto white balance (AWB) operation is performed.

また、バスには、制御用シリアルI/Fと、外部バスI/Fが接続されている。
制御用シリアルI/Fは、マウント部の接続部(不図示)に設けられた電気接点を介して本体ユニットと接続する。この制御用シリアルI/Fは、双方向通信が可能な構成となっており、本体ユニットにある各種ボタンの状態などを本体CPUから受信したり、現在のズームレンズ位置を本体CPUへ送信したりするときに使用する。
外部バスI/Fは、マウント部の接続部(不図示)に設けられた電気接点を介して本体ユニットと接続する。この外部バスI/Fは、レンズユニットから本体ユニットへの一方向通信が可能な構成となっており、画像データを本体ユニットへ送信する時に使用する。例えば、パラレルI/FやLVDSI/Fなど、制御用シリアルI/Fより高速な転送速度を持っている。
Also, a control serial I / F and an external bus I / F are connected to the bus.
The control serial I / F is connected to the main unit through an electrical contact provided at a connection portion (not shown) of the mount portion. This control serial I / F is configured to be capable of bidirectional communication, and receives the state of various buttons on the main unit from the main unit CPU, and transmits the current zoom lens position to the main unit CPU. Use when.
The external bus I / F is connected to the main unit via an electrical contact provided at a connection portion (not shown) of the mount portion. The external bus I / F is configured to allow one-way communication from the lens unit to the main unit, and is used when image data is transmitted to the main unit. For example, it has a higher transfer speed than the control serial I / F, such as a parallel I / F or LVDSI / F.

本体ユニットの各部は、全体の動作を中央処理装置(CPU)によって統括制御するように構成されている。本体CPUは、バスを介して本体CPUが実行する制御プログラム、設定情報などを記録したフラッシュROMに接続されており、このフラッシュROMから制御プログラムおよびカメラ設定データを読み出すことによってレンズユニットの各部を制御する。
SDRAMからなるメモリは、本体CPUの演算作業用領域、画像データ(YUV画像データ、圧縮伸張画像データなど)の一時記憶領域として利用される。
Each part of the main unit is configured to control the overall operation by a central processing unit (CPU). The main body CPU is connected to a flash ROM that records a control program executed by the main body CPU, setting information, and the like via a bus, and controls each part of the lens unit by reading the control program and camera setting data from the flash ROM. To do.
A memory composed of SDRAM is used as a calculation storage area for the main body CPU and a temporary storage area for image data (YUV image data, compression / decompression image data, etc.).

また、バスには、制御用シリアルI/Fと、外部バスI/Fが接続されている。
制御用シリアルI/Fは、マウント部の接続部(不図示)に設けられた電気接点を介してレンズユニットのシリアルI/Fと接続し、本体ユニットとレンズユニットの間で色々な制御情報の送受をおこなう。
外部バスI/Fも同様に、電気接点を介してレンズユニットの外部バスI/Fと接続し、レンズユニットから送信される画像データを受信し、SDRAMに取り込む。
圧縮伸張処理部は、SDRAMに取り込まれた圧縮伸張画像データを、所定の圧縮フォーマット(たとえばJPEG形式)に従って伸張した後、再びSDRAMにYUV画像データデータとして格納する。
Also, a control serial I / F and an external bus I / F are connected to the bus.
The serial I / F for control is connected to the serial I / F of the lens unit via an electrical contact provided at a connection part (not shown) of the mount part, and various control information is transmitted between the main unit and the lens unit. Send and receive.
Similarly, the external bus I / F is connected to the external bus I / F of the lens unit via an electrical contact, receives image data transmitted from the lens unit, and takes it into the SDRAM.
The compression / decompression processing unit decompresses the compressed / decompressed image data captured in the SDRAM according to a predetermined compression format (for example, JPEG format), and then stores the decompressed image data in the SDRAM again as YUV image data data.

画像モニター信号処理部は、入力されたYUV画像データの輝度/色差信号を画像モニターの入力信号形式であるRGB信号へ変換し、画像モニターへ出力する。
これにより、レンズユニットにあるCCDで撮像された画像が画像モニターに表示される。CCDから画像信号をレンズユニットにて定期的に取り込みYUV画像データとし、そのYUV画像データを圧縮して外部バスI/Fによる伝送路にて定期的に本体ユニットへ送信し、本体ユニットにて受信した圧縮伸張画像データを伸張してYUV画像データとし、SDRAM上のYUV画像データを定期的に書き換え、画像モニターに出力することにより、CCDで撮像される画像がリアルタイムに表示されるライブビューをおこなう。
撮影者は、この画像モニターにリアルタイムに表示される画像(ライブビュー)を見ることにより、撮影画角を確認することができる。
The image monitor signal processing unit converts the luminance / color difference signal of the input YUV image data into an RGB signal which is an input signal format of the image monitor, and outputs it to the image monitor.
As a result, an image captured by the CCD in the lens unit is displayed on the image monitor. The image signal from the CCD is periodically taken in by the lens unit to be converted into YUV image data, and the YUV image data is compressed, periodically sent to the main unit via the transmission path by the external bus I / F, and received by the main unit. The compressed / decompressed image data is expanded into YUV image data, and the YUV image data on the SDRAM is periodically rewritten and output to an image monitor to perform a live view in which an image captured by the CCD is displayed in real time. .
The photographer can check the angle of view by viewing the image (live view) displayed in real time on the image monitor.

メモリカード制御部は、本体ユニットに着脱可能なメモリカード(たとえばSDカード)に対して、圧縮伸張画像データを所定の画像記録フォーマット(たとえばExif形式)をした画像ファイルの読み書きをおこなう。
フラッシュライト制御部は、本体CPU、もしくはレンズCPUからから送信されるストロボ発光信号により、フラッシュライトを発光する。
USB制御部は、パソコンなどの外部機器をUSB端子を介して本体ユニットと接続したUSB通信を行う。
着脱自在なバッテリは、DC/DCコンバータ(DC/DC)へ電源を供給する。本体ユニット側のDC/DCは、バッテリの電圧を本体ユニットの各部に必要な所定の電圧に降圧、もしくは昇圧する。また、レンズユニット側のDC/DCは、バッテリの電圧をレンズユニットの各部に必要な所定の電圧に降圧、もしくは昇圧する。
また、本実施形態では上述した第1の実施形態と同様の動きベクトル検出部を備える。
The memory card control unit reads / writes an image file obtained by compressing / decompressing image data in a predetermined image recording format (for example, Exif format) with respect to a memory card (for example, an SD card) that can be attached to and detached from the main unit.
The flash light control unit emits a flash light by a strobe light emission signal transmitted from the main body CPU or the lens CPU.
The USB control unit performs USB communication in which an external device such as a personal computer is connected to the main unit via a USB terminal.
The detachable battery supplies power to a DC / DC converter (DC / DC). The DC / DC on the main unit side steps down or boosts the voltage of the battery to a predetermined voltage required for each part of the main unit. Further, the DC / DC on the lens unit side steps down or boosts the battery voltage to a predetermined voltage required for each part of the lens unit.
In the present embodiment, a motion vector detection unit similar to that in the first embodiment described above is provided.

ライブビュー処理を図17および図18を使って説明する。図17はハイフレーム化処理を行わない従来技術による処理を、図18はハイフレーム化処理を行った場合の処理を示している。   The live view process will be described with reference to FIGS. FIG. 17 shows processing according to the prior art that does not perform high frame processing, and FIG. 18 shows processing when high frame processing is performed.

CCDVDは、レンズユニットにあるタイミングジェネレータ(TG)から与えられる駆動パルスで、CCDを駆動する垂直同期信号である。この例では、TGは、1/30秒のタイミングでCCDへ駆動パルスを与え、CCDからのデジタルRGB信号が30fpsのフレームレートでCCDから出力されるように駆動している。   CCDVD is a driving pulse given from a timing generator (TG) in the lens unit, and is a vertical synchronizing signal for driving the CCD. In this example, the TG is driven such that a drive pulse is given to the CCD at a timing of 1/30 seconds, and a digital RGB signal from the CCD is output from the CCD at a frame rate of 30 fps.

DISPVDは、本体ユニットにある液晶モニターに与える駆動パルスで、液晶モニターを駆動する垂直同期信号である。この例では、液晶モニター信号処理部は、1/30秒のタイミングで液晶モニターへ駆動パルスを与え、液晶モニター信号処理部でYUV画像データの輝度/色差信号を液晶モニターの入力信号形式へ変換したRGB信号が、30fpsのフレームレートで液晶モニターへ出力されるように駆動している。
本実施例ではDISPVDとCCDVDはお互いに同期させるような仕組みは特に入れていない。
DISPVD is a drive pulse given to the liquid crystal monitor in the main unit, and is a vertical synchronization signal for driving the liquid crystal monitor. In this example, the liquid crystal monitor signal processing unit gives a driving pulse to the liquid crystal monitor at a timing of 1/30 second, and the liquid crystal monitor signal processing unit converts the luminance / color difference signal of the YUV image data into the input signal format of the liquid crystal monitor. It is driven so that RGB signals are output to the liquid crystal monitor at a frame rate of 30 fps.
In this embodiment, DISPVD and CCDVD do not include a mechanism for synchronizing them with each other.

P1〜P9は画像データであり、タイミングチャートの各処理により、前工程からのデータを入力データとして、画像データを処理して出力し、次工程の入力データとなる。CCD露光処理ではこの画像データは電圧信号(画像信号)であり、CCDからの画像信号取り込み、及びRaw−RGBからのYUV化処理では、電圧信号をRaw−RGB画像データとし、その後YUV画像データとなる。その後の工程は全てYUV画像データとなる。   P1 to P9 are image data. By each process of the timing chart, the image data is processed and output using the data from the previous process as input data, and becomes the input data of the next process. In the CCD exposure process, this image data is a voltage signal (image signal). In the image signal capture from the CCD and the YUV conversion process from Raw-RGB, the voltage signal is converted to Raw-RGB image data, and then the YUV image data and Become. All subsequent processes become YUV image data.

図17のハイフレーム化処理を行わない従来技術の場合を説明する。
T1〜T2期間:CCDの露光を1/30秒間行い、P1の電圧信号(画像信号)を得る。
T2〜T3期間:センサ入力制御部を介して、CCDからの画像信号の取り込み処理を行うと同時に、取り込んだRaw−RGB画像データP1を画像信号処理部へ送り、Raw−RGB画像データP1を処理してYUV画像データP1を生成し、SDRAMに格納する。
このとき、同時にCCDの露光も順次行っており、P2の電圧信号(画像信号)を得る。このようにCCDの露光処理および画像信号の取り込み処理は1/30秒単位に連続して行われる。
The case of the prior art in which the high frame processing in FIG. 17 is not performed will be described.
T1 to T2 period: CCD exposure is performed for 1/30 second to obtain a voltage signal (image signal) of P1.
T2 to T3 period: The image signal from the CCD is captured via the sensor input control unit, and at the same time, the captured Raw-RGB image data P1 is sent to the image signal processing unit, and the Raw-RGB image data P1 is processed. Then, YUV image data P1 is generated and stored in the SDRAM.
At this time, CCD exposure is also performed sequentially, and a voltage signal (image signal) of P2 is obtained. As described above, the CCD exposure processing and the image signal capturing processing are continuously performed in units of 1/30 seconds.

T3〜T4期間:P1画像をレンズユニットから本体ユニットへ転送する。SDRAMにあるYUV画像データは、レンズユニットの圧縮伸張処理部にてJPEG圧縮を行う。この圧縮画像データは、レンズユニットと本体ユニットの外部バスI/Fを介して伝送路を使用して、レンズユニットから本体ユニットへ転送される。
このとき、伝送路には1/30秒単位で圧縮画像データが流れることになり、画像伝送時間は1/30秒以内に終わらせないと、次の画像データP2を伝送することができなくなるため、これらを満たす伝送路の駆動周波数が必要となる。
次に、本体ユニットへ転送された圧縮画像データは、本体ユニットの圧縮伸張処理部にて伸張処理を行い、YUV画像データへの伸張処理を行い、SDRAMへYUV画像データとして格納される。
T3-T4 period: The P1 image is transferred from the lens unit to the main unit. The YUV image data in the SDRAM is subjected to JPEG compression at the compression / decompression processing unit of the lens unit. This compressed image data is transferred from the lens unit to the main unit using the transmission path via the external bus I / F between the lens unit and the main unit.
At this time, the compressed image data flows through the transmission path in units of 1/30 seconds, and the next image data P2 cannot be transmitted unless the image transmission time ends within 1/30 seconds. Therefore, a drive frequency for the transmission line that satisfies these requirements is required.
Next, the compressed image data transferred to the main unit is decompressed by the compression / decompression processing unit of the main unit, decompressed to YUV image data, and stored as YUV image data in the SDRAM.

T4〜T5期間:本体ユニットの液晶モニター信号処理部は、SDRAMに格納されたYUV画像データをRGB信号へ変換し、液晶モニターへ出力して画像データを表示する。
以上の処理を同様に画像データP2、P3・・・と繰り返すことにより、ライブビューを実現している。
Period T4 to T5: The liquid crystal monitor signal processing unit of the main unit converts the YUV image data stored in the SDRAM into an RGB signal, and outputs it to the liquid crystal monitor to display the image data.
Similarly, the live view is realized by repeating the above processing with the image data P2, P3,.

図17のようにハイフレーム化処理を行わない場合、液晶モニターの表示フレームレートは30fpsの性能を持つが、レンズユニットのTG駆動、センサ入力制御部、伝送路は1/30秒に1回は動作することとなり、これを満たすようにそれぞれの制御部を駆動する必要がある。
消費電力のうち大きな割合を占める撮像素子の駆動周波数および伝送路の駆動周波数を高くする必要があるために、電力消費量も多くなってしまう。消費電力を下げるには、これらの駆動周波数を低くする、もしくは伝送路のデータ量を少なくして動作時間を短くする、のが一番効果的である。
When the high frame processing is not performed as shown in FIG. 17, the display frame rate of the liquid crystal monitor has a performance of 30 fps, but the TG drive of the lens unit, the sensor input control unit, and the transmission path are once every 1/30 seconds. It is necessary to drive each control unit to satisfy this.
Since it is necessary to increase the drive frequency of the image sensor and the drive frequency of the transmission path, which occupy a large proportion of the power consumption, the power consumption also increases. In order to reduce the power consumption, it is most effective to reduce the drive frequency, or reduce the data amount of the transmission path to shorten the operation time.

次に図18のハイフレーム化処理が行われた場合について説明する。
ハイフレーム化する場合、表示のフレームレートが取り込みのフレームレートの2倍になるため、CCDの露光処理および画像信号の取り込み処理は、1/15秒単位で行えば良いので、本実施形態ではCCDVDを1/15秒としている。
Next, a case where the high frame processing in FIG. 18 is performed will be described.
In the case of a high frame, since the display frame rate is twice the capture frame rate, the CCD exposure process and the image signal capture process may be performed in units of 1/15 seconds. Is 1/15 seconds.

T1〜T3期間:CCDの露光を1/15秒間行い、P1の電圧信号(画像信号)を得る。
T3〜T5期間:センサ入力制御部を介して、CCDからの画像信号の取り込み処理を行うと同時に、取り込んだRaw−RGB画像データP1を画像信号処理部へ送り、Raw−RGB画像データP1を処理してYUV画像データP1を生成し、SDRAMに格納する。
このとき、同時にCCDの露光も順次行っており、P3の電圧信号(画像信号)を得る。CCDの駆動周波数を30fpsの時と比較して1/2としたために、電力消費量は少なくなる代わりに、CCDからの画像信号取り込み時間は2倍となってしまう。
T1 to T3 period: The CCD is exposed for 1/15 seconds to obtain a voltage signal (image signal) of P1.
T3 to T5 period: The image signal from the CCD is captured via the sensor input control unit, and at the same time, the captured Raw-RGB image data P1 is sent to the image signal processing unit, and the Raw-RGB image data P1 is processed. Then, YUV image data P1 is generated and stored in the SDRAM.
At this time, CCD exposure is also performed sequentially, and a voltage signal (image signal) of P3 is obtained. Since the drive frequency of the CCD is halved compared with 30 fps, the power consumption is reduced, but the image signal capture time from the CCD is doubled.

T5〜T7期間:P1画像をレンズユニットから本体ユニットへ転送する。SDRAMにあるYUV画像データは、レンズユニットの圧縮伸張処理部にてJPEG圧縮を行う。この圧縮画像データは、レンズユニットと本体ユニットの外部バスI/Fを介して伝送路を使用して、レンズユニットから本体ユニットへ転送される。
このとき、伝送路には1/15秒単位で圧縮画像データが流れることになる。画像伝送時間は後述するハイフレーム化処理との兼ね合いで、動作周波数を30fpsと比較して半分としてしまうと、その分表示までの時間もかかることとなり、あまり望ましくない。しかし、伝送路の動作時間は30fpsの時と比較して1/2となる。
次に、本体ユニットへ転送された圧縮画像データは、本体ユニットの圧縮伸張処理部にて伸張処理を行い、YUV画像データへの伸張処理を行い、SDRAMへYUV画像データとして格納される。
このとき、同時にP3画像データのCCDからの画像信号の取り込み処理と、取り込んだRaw−RGB画像データP3を画像信号処理部へ送り、Raw−RGB画像データP3を処理してYUV画像データP3を生成し、SDRAMに格納する。
Period T5 to T7: The P1 image is transferred from the lens unit to the main unit. The YUV image data in the SDRAM is subjected to JPEG compression at the compression / decompression processing unit of the lens unit. This compressed image data is transferred from the lens unit to the main unit using the transmission path via the external bus I / F between the lens unit and the main unit.
At this time, the compressed image data flows through the transmission path in units of 1/15 seconds. The image transmission time is in balance with the high frame processing described later, and if the operating frequency is halved compared to 30 fps, it takes time to display, and this is not very desirable. However, the operation time of the transmission line is ½ compared with 30 fps.
Next, the compressed image data transferred to the main unit is decompressed by the compression / decompression processing unit of the main unit, decompressed to YUV image data, and stored as YUV image data in the SDRAM.
At the same time, the image signal capturing process of the P3 image data from the CCD and the captured Raw-RGB image data P3 are sent to the image signal processing unit, and the Raw-RGB image data P3 is processed to generate YUV image data P3. And stored in the SDRAM.

T7〜T9期間:P3画像をレンズユニットから本体ユニットへ転送し、YUV画像データP3を得る。
本体CPUは、YUV画像データP1およびP3を使用して、前述した動きベクトル検出処理と補間フレーム画像生成処理を行い、補間フレーム画像データP2’を生成する。
本体ユニットの液晶モニター信号処理部は、SDRAMに格納されたYUV画像データP1、P2’、P3をRGB信号へ変換し、DISPVDのタイミングにて順次液晶モニターへ出力して画像データを表示する。
以上の処理を同様に画像データP5、P7・・・と繰り返すことにより、ライブビューを実現する。
Period T7 to T9: The P3 image is transferred from the lens unit to the main unit, and YUV image data P3 is obtained.
The main body CPU performs the motion vector detection process and the interpolation frame image generation process described above using the YUV image data P1 and P3, and generates the interpolation frame image data P2 ′.
The liquid crystal monitor signal processing unit of the main unit converts the YUV image data P1, P2 ′, P3 stored in the SDRAM into RGB signals, and sequentially outputs them to the liquid crystal monitor at the timing of DISPVD to display the image data.
Similarly, the live view is realized by repeating the above processing with the image data P5, P7.

図18のようにハイフレーム化処理を行った場合、入力される画像(P1、P3、P5・・・)のフレームレートを低下させて、CCD駆動周波数を低下させ、かつ伝送路の動作時間を低下させて電力消費量を削減しながらも、液晶モニターの表示フレームレートはハイフレーム化により30fpsのライブビューを提供することができる。
尚、以上説明した第2の実施形態においては、上述したハイフレーム化処理にかかる実施例1〜4がいずれも適用できるものである。
When the high frame processing is performed as shown in FIG. 18, the frame rate of the input image (P1, P3, P5...) Is lowered, the CCD drive frequency is lowered, and the operation time of the transmission path is reduced. While reducing the power consumption by lowering, the display frame rate of the liquid crystal monitor can provide a live view of 30 fps by increasing the frame rate.
In the second embodiment described above, any of Examples 1 to 4 relating to the above-described high frame processing can be applied.

以上、本発明の好適な実施形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範囲な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。   The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments, various modifications and changes may be made to the embodiments without departing from the broad spirit and scope of the invention as defined in the claims. Obviously you can.

1 POWERボタン
2 シャッターボタン
3 フラッシュ発光部
4 AF補助光/セルフタイマーランプ
5 レンズカバー
6 マイク
7 スピーカー
8 レンズ
DESCRIPTION OF SYMBOLS 1 POWER button 2 Shutter button 3 Flash light emission part 4 AF auxiliary light / self-timer lamp 5 Lens cover 6 Microphone 7 Speaker 8 Lens

特開2004−15595号公報JP 2004-15595 A 特開2007−110314号公報JP 2007-110314 A WO 04/112396WO 04/112396

Claims (3)

被写体を撮像フレームレートに基づき撮像し、画像データを取得する撮像手段と、
前記画像データから、撮像フレーム間の補間画像データを生成する補間画像データ生成手段と、
前記画像データを、または、前記画像データ及び前記補間画像データを、表示フレームレートに基づき表示する表示手段と、を備え、
前記表示手段は、前記撮像フレームレートが前記表示フレームレートより低く設定された際、
所定の条件を満たす場合に、前記画像データ及び前記補間画像データを表示し、
所定の条件を満たさない場合に、前記画像データを表示し、
光学式もしくは電子式による焦点距離変更手段を備え、
前記表示手段は、前記焦点距離変更手段が焦点距離変更しているときに前記画像データ及び前記補間画像データを表示することを特徴とする撮像装置。
Imaging means for imaging a subject based on an imaging frame rate and acquiring image data;
Interpolated image data generating means for generating interpolated image data between imaging frames from the image data;
Display means for displaying the image data or the image data and the interpolated image data based on a display frame rate;
The display means, when the imaging frame rate is set lower than the display frame rate,
When the predetermined condition is satisfied, the image data and the interpolated image data are displayed,
When the predetermined condition is not satisfied, the image data is displayed ,
With optical or electronic focal length changing means,
The image pickup apparatus , wherein the display unit displays the image data and the interpolated image data when the focal length changing unit changes the focal length .
被写体を撮像フレームレートに基づき撮像し、画像データを取得する撮像手段と、  Imaging means for imaging a subject based on an imaging frame rate and acquiring image data;
前記画像データから、撮像フレーム間の補間画像データを生成する補間画像データ生成手段と、  Interpolated image data generating means for generating interpolated image data between imaging frames from the image data;
前記画像データを、または、前記画像データ及び前記補間画像データを、表示フレームレートに基づき表示する表示手段と、を備え、  Display means for displaying the image data or the image data and the interpolated image data based on a display frame rate;
前記表示手段は、前記撮像フレームレートが前記表示フレームレートより低く設定された際、  The display means, when the imaging frame rate is set lower than the display frame rate,
所定の条件を満たす場合に、前記画像データ及び前記補間画像データを表示し、When the predetermined condition is satisfied, the image data and the interpolated image data are displayed,
所定の条件を満たさない場合に、前記画像データを表示し、When the predetermined condition is not satisfied, the image data is displayed,
当該撮像装置が水平であるか否かを検出する水準器手段を備え、  Comprising level means for detecting whether the imaging device is horizontal;
前記表示手段は、前記水準器手段が動作中に前記画像データ及び前記補間画像データを表示することを特徴とする撮像装置。  The image pickup apparatus, wherein the display means displays the image data and the interpolated image data while the level device is operating.
前記撮像手段を有するレンズユニットと、
前記レンズユニットを着脱可能に保持する本体ユニットとを備え、
前記レンズユニットは、前記画像データを前記本体ユニットに送信し、
前記本体ユニットは、前記補間画像データ生成手段と前記表示手段とを有することを特徴とする請求項1または2に記載の撮像装置。
A lens unit having the imaging means;
A body unit that detachably holds the lens unit;
The lens unit transmits the image data to the main unit,
The main unit, the imaging apparatus according to claim 1 or 2, characterized in that it has and the display unit and the interpolated image data generating means.
JP2009175537A 2009-07-28 2009-07-28 Imaging device Expired - Fee Related JP5370662B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009175537A JP5370662B2 (en) 2009-07-28 2009-07-28 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009175537A JP5370662B2 (en) 2009-07-28 2009-07-28 Imaging device

Publications (2)

Publication Number Publication Date
JP2011030084A JP2011030084A (en) 2011-02-10
JP5370662B2 true JP5370662B2 (en) 2013-12-18

Family

ID=43638258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009175537A Expired - Fee Related JP5370662B2 (en) 2009-07-28 2009-07-28 Imaging device

Country Status (1)

Country Link
JP (1) JP5370662B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020246181A1 (en) 2019-06-07 2020-12-10

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015236A (en) * 2002-06-04 2004-01-15 Canon Inc Imaging apparatus
JP2004015595A (en) * 2002-06-10 2004-01-15 Minolta Co Ltd Digital camera
JP2007110221A (en) * 2005-10-11 2007-04-26 Fujifilm Corp Imaging apparatus
JP4810323B2 (en) * 2006-06-20 2011-11-09 株式会社リコー Imaging device, program, recording medium
JP4733597B2 (en) * 2006-08-21 2011-07-27 株式会社リコー Image photographing apparatus and display method of image photographing apparatus
JP4954659B2 (en) * 2006-10-10 2012-06-20 株式会社リコー Imaging device
JP2008172507A (en) * 2007-01-11 2008-07-24 Nikon Corp Imaging apparatus

Also Published As

Publication number Publication date
JP2011030084A (en) 2011-02-10

Similar Documents

Publication Publication Date Title
JP4406937B2 (en) Imaging device
JP6325885B2 (en) Imaging apparatus, imaging method, and program
JP4783465B1 (en) Imaging device and display device
US20110018970A1 (en) Compound-eye imaging apparatus
TWI514847B (en) Image processing device, image processing method, and recording medium
TWI459126B (en) Image processing device capable of generating a wide-range image, image processing method and recording medium
JP2011205374A (en) Display apparatus
JP2005086499A (en) Imaging apparatus
JP5415170B2 (en) Compound eye imaging device
JP6325841B2 (en) Imaging apparatus, imaging method, and program
JP2007232793A (en) Imaging apparatus
JP2011075675A (en) Compound-eye imaging apparatus
JP2008028960A (en) Photographing apparatus and exposure control method
JP4730616B2 (en) Compound eye digital camera
JP2010178164A (en) Imaging apparatus
JP2008109485A (en) Imaging apparatus and imaging control method
JP2012098594A (en) Imaging apparatus and imaging method
JP4189820B2 (en) Imaging apparatus and image recording method
JP2007235640A (en) Photographing device and method
JP6706167B2 (en) Imaging device, image synthesizing method, and program
JP4013026B2 (en) Electronic camera and image display method during automatic focus adjustment
JP4716182B2 (en) Imaging apparatus and imaging control program
JP2008182486A (en) Photographing device, and image processing method
JP5370662B2 (en) Imaging device
JP5054214B2 (en) Compound eye digital camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130903

R151 Written notification of patent or utility model registration

Ref document number: 5370662

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees