JP2013162415A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2013162415A
JP2013162415A JP2012024419A JP2012024419A JP2013162415A JP 2013162415 A JP2013162415 A JP 2013162415A JP 2012024419 A JP2012024419 A JP 2012024419A JP 2012024419 A JP2012024419 A JP 2012024419A JP 2013162415 A JP2013162415 A JP 2013162415A
Authority
JP
Japan
Prior art keywords
unit
image
display
imaging
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012024419A
Other languages
Japanese (ja)
Other versions
JP6032901B2 (en
Inventor
Tatsuhiro Takeya
龍大 竹谷
Satoshi Miyazaki
敏 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2012024419A priority Critical patent/JP6032901B2/en
Publication of JP2013162415A publication Critical patent/JP2013162415A/en
Application granted granted Critical
Publication of JP6032901B2 publication Critical patent/JP6032901B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus in which time required for displaying a live view image on an EVF when the imaging apparatus is started is shortened and to provide an imaging method.SOLUTION: An imaging apparatus 10 having a plurality of image display sections includes: an imaging section 204 for acquiring image data by imaging; an image processing section 2206 for processing the image data which the imaging section 204 acquires and generating display image data; a finder liquid crystal monitor 211 being an image display section which preferentially displays the display image data among the plurality of image display sections; and body CPU 2201 which starts the imaging section 204 and the finder liquid crystal monitor 211 in response to a starting instruction of the camera and controls only the finder liquid crystal monitor 211 to display the display image data for at least a prescribed time.

Description

本発明は、例えばデジタルカメラ等の撮像装置、及び撮像方法に関する。   The present invention relates to an imaging apparatus such as a digital camera and an imaging method.

例えばデジタルカメラ等の撮像装置は、通常、撮影待機画像や再生画像の視認等に使用される表示装置として、液晶モニタ(LCD:Liquid Crystal Display:以降、LCDと略称する)を備えている。この液晶モニタに代表される表示装置は、近年、高精細化が進んでいる。   For example, an imaging device such as a digital camera is usually provided with a liquid crystal monitor (LCD: Liquid Crystal Display: hereinafter abbreviated as LCD) as a display device used for visually recognizing a shooting standby image or a reproduced image. In recent years, display devices represented by this liquid crystal monitor have been improved in definition.

また、近年では一眼タイプのデジタルカメラも広く普及している。この一眼タイプのデジタルカメラにおいては、高速連写の為に電子ビューファインダー(Electronic View Finder:以降、EVFと略称する)を搭載したものが普及し始めている。このEVFに係る技術は、例えば特許文献1等に開示されている。   In recent years, single-lens digital cameras have become widespread. In this single lens type digital camera, an electronic viewfinder (hereinafter abbreviated as EVF) for high-speed continuous shooting is becoming popular. The technique related to EVF is disclosed in, for example, Patent Document 1 and the like.

このEVFにおける表示手段としては、例えばカメラ背面に設けられたLCDや覗き込み型のファインダーユニットが備えるLCDを挙げることができる。このように当該カメラが複数のLCDを有する場合には、ライブビュー画像を表示させるLCDを適宜切り替えることができる。   Examples of the display means in the EVF include an LCD provided on the back of the camera and an LCD provided in a view type finder unit. In this way, when the camera has a plurality of LCDs, the LCD for displaying the live view image can be switched as appropriate.

なお、特許文献1には、表示手段近傍への接眼を検出し、該検出結果に基づいて、表示手段への画像の表示制御を行う技術が開示されている。   Patent Document 1 discloses a technique for detecting an eyepiece in the vicinity of a display unit and controlling display of an image on the display unit based on the detection result.

特開平2−179076号公報JP-A-2-179076

ところで、ユーザは、ライブビュー画像を視認してフレーミングやピント合せを行う。この場合において、ユーザは、EVFでのライブビュー表示に覗き込み型のファインダーユニットを用いることにより、当該カメラをしっかりと把持しつつ、被写体の観察を行うことが可能となる。つまり、ファインダーユニットが備えるLCDにおける被写体表示を短時間で行う為の技術が望まれている。   By the way, the user visually recognizes the live view image and performs framing and focusing. In this case, the user can observe the subject while firmly holding the camera by using the view-type finder unit for live view display with EVF. That is, there is a demand for a technique for displaying an object on the LCD provided in the finder unit in a short time.

また、EVFでのライブビュー表示においては、リアルタイム性と高速表示とが求められている。従って、EVFにライブビュー画像を表示させるのに要する時間(被写体表示に要する時間)の短縮化が望まれている。
本発明は、前記の事情に鑑みて為されたものであり、撮像装置の起動時におけるEVFへのライブビュー画像の表示に要する時間を短縮化した撮像装置及び撮像方法を提供することを目的とする。
In live view display with EVF, real-time performance and high-speed display are required. Therefore, it is desired to shorten the time required for displaying the live view image on the EVF (time required for displaying the subject).
The present invention has been made in view of the above circumstances, and an object thereof is to provide an imaging apparatus and an imaging method that shorten the time required for displaying a live view image on an EVF when the imaging apparatus is activated. To do.

前記の目的を達成するために、本発明の一態様による撮像装置は、
画像データを表示する画像表示部を複数有する撮像装置であって、
当該撮像装置を起動する指示を行う起動指示部と、
撮像によって画像データを取得する撮像部と、
前記撮像部が取得した画像データを処理して表示用画像データを生成する画像処理部と、
前記複数の画像表示部のうち優先的に前記表示用画像データを表示させる画像表示部である優先画像表示部と、
前記起動指示部による起動指示に応答して前記撮像部及び前記優先画像表示部を起動し、且つ、前記表示用画像データを前記優先画像表示部のみに少なくとも所定時間表示させる制御を行う制御部と、
を具備することを特徴とする。
In order to achieve the above object, an imaging apparatus according to an aspect of the present invention includes:
An imaging apparatus having a plurality of image display units for displaying image data,
An activation instructing unit for instructing to activate the imaging apparatus;
An imaging unit that acquires image data by imaging;
An image processing unit that processes image data acquired by the imaging unit to generate display image data;
A priority image display unit that is an image display unit that preferentially displays the image data for display among the plurality of image display units;
A control unit configured to activate the imaging unit and the priority image display unit in response to an activation instruction by the activation instruction unit, and to control the display image data to be displayed only on the priority image display unit for at least a predetermined time; ,
It is characterized by comprising.

前記の目的を達成するために、本発明の一態様による撮像方法は、
画像データを表示する画像表示部を複数有する撮像装置を用いた撮像方法であって、
前記撮像装置を起動する指示を行い、
前記指示に従って起動された後、撮像によって画像データを取得し、
前記撮像で取得した画像データを画像処理して表示用画像データを生成し、
前記複数の画像表示部のうち所定の画像表示部に、優先的に前記表示用画像データを表示させ、
前記指示に応答して前記撮像部及び前記所定の画像表示部を起動し、且つ、前記表示用画像データを前記所定の画像表示部のみに少なくとも所定時間表示させる、
ことを特徴とする。
In order to achieve the above object, an imaging method according to an aspect of the present invention includes:
An imaging method using an imaging device having a plurality of image display units for displaying image data,
Instructing to start the imaging device,
After being activated according to the instructions, obtain image data by imaging,
The image data acquired by the imaging is subjected to image processing to generate display image data,
The display image data is preferentially displayed on a predetermined image display unit among the plurality of image display units,
In response to the instruction, the imaging unit and the predetermined image display unit are activated, and the display image data is displayed only on the predetermined image display unit for at least a predetermined time.
It is characterized by that.

本発明によれば、撮像装置の起動時におけるEVFへのライブビュー画像の表示に要する時間を短縮化した撮像装置及び撮像方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device and imaging method which shortened the time required to display the live view image on EVF at the time of starting of an imaging device can be provided.

図1は、本発明の一実施形態に係るカメラの内部の一構成例を示すブロック図である。FIG. 1 is a block diagram showing an example of the internal configuration of a camera according to an embodiment of the present invention. 図2は、本発明の一実施形態に係るカメラの処理の流れの概略を示す図である。FIG. 2 is a diagram showing an outline of a processing flow of the camera according to the embodiment of the present invention. 図3Aは、本発明の一実施形態に係るカメラの主動作に係る一連の処理のフローチャートの第1の部分を示す図である。FIG. 3A is a diagram showing a first part of a flowchart of a series of processes relating to the main operation of the camera according to the embodiment of the present invention. 図3Bは、本発明の一実施形態に係るカメラの主動作に係る一連の処理のフローチャートの第2の部分を示す図である。FIG. 3B is a diagram showing a second part of a flowchart of a series of processes relating to the main operation of the camera according to the embodiment of the present invention. 図4は、本発明の一実施形態に係るカメラのモニタ表示についての状態遷移の一例を示す背面図である。FIG. 4 is a rear view showing an example of the state transition of the monitor display of the camera according to the embodiment of the present invention. 図5は、ライブビュー画像を取得する際の被写体撮影の様子を示す図である。FIG. 5 is a diagram illustrating a state of subject shooting when a live view image is acquired. 図6は、ステップS5において表示を開始するライブビュー画像の生成処理の一例を示す図である。FIG. 6 is a diagram illustrating an example of a live view image generation process for starting display in step S5. 図7は、ステップS9をYESに分岐する場合(ユーザが内蔵ファインダーユニットを用いて撮影を行おうとしている場合)における、当該カメラの使用態様を示す図である。FIG. 7 is a diagram showing how the camera is used when step S9 is branched to YES (when the user is going to take a picture using the built-in finder unit). 図8は、ステップS9をNOに分岐する場合(ユーザが当該カメラの設定確認/変更を、背面モニタを用いて行おうとしている場合)における、当該カメラの使用態様を示す図である。FIG. 8 is a diagram illustrating how the camera is used when step S9 is branched to NO (when the user is about to confirm / change the setting of the camera using the rear monitor). 図9は、ステップS9をNOに分岐する場合(ユーザが背面モニタをファインダーとして用いて撮影を行おうとしている場合)における、当該カメラの使用態様を示す図である。FIG. 9 is a diagram illustrating how the camera is used when step S9 is branched to NO (when the user is going to take a picture using the rear monitor as a viewfinder). 図10は、本発明の一実施形態に係るカメラがスリープモードに設定されている場合の接眼センサーの検出間隔の一例を示す図である。FIG. 10 is a diagram illustrating an example of the detection interval of the eye sensor when the camera according to the embodiment of the present invention is set to the sleep mode. 図11は、図3A,3Bに示されているフローチャートにおけるステップS7の“撮影動作”のサブルーチンのフローチャートを示す図である。FIG. 11 is a flowchart of the “shooting operation” subroutine of step S7 in the flowcharts shown in FIGS. 3A and 3B. 図12は、図3Bに示されているフローチャートにおけるステップS29の“パワーオフ”のサブルーチンのフローチャートを示す図である。FIG. 12 is a flowchart of the “power off” subroutine of step S29 in the flowchart shown in FIG. 3B. 図13は、カメラに装着されて実際に用いられる外部ファインダーユニットの使用態様の一例を示す図である。FIG. 13 is a diagram illustrating an example of a usage mode of an external finder unit that is mounted on a camera and actually used. 本発明の一実施形態の第1変形例に係るカメラの主動作に係る一連の処理のフローチャートの第1の部分を示す図である。It is a figure which shows the 1st part of the flowchart of a series of processes which concern on the main operation | movement of the camera which concerns on the 1st modification of one Embodiment of this invention. 本発明の一実施形態の第1変形例に係るカメラの主動作に係る一連の処理のフローチャートの第2の部分を示す図である。It is a figure which shows the 2nd part of the flowchart of a series of processes which concern on the main operation | movement of the camera which concerns on the 1st modification of one Embodiment of this invention. 本発明の一実施形態の第2変形例に係るカメラの主動作に係る一連の処理のフローチャートの第1の部分を示す図である。It is a figure which shows the 1st part of the flowchart of a series of processes which concern on the main operation | movement of the camera which concerns on the 2nd modification of one Embodiment of this invention. 本発明の一実施形態の第2変形例に係るカメラの主動作に係る一連の処理のフローチャートの第2の部分を示す図である。It is a figure which shows the 2nd part of the flowchart of a series of processes which concern on the main operation | movement of the camera which concerns on the 2nd modification of one Embodiment of this invention.

以下、本発明の一実施形態に係る撮像装置について、図面を参照して説明する。
図1は、本一実施形態に係るカメラ10の内部の一構成例を示すブロック図である。図2は、本一実施形態に係るカメラ10の処理の流れの概略を示す図である。
図1に示すように、カメラ10は、交換レンズ100と、カメラボディ200と、外部ファインダーユニット300uと、を具備する。
Hereinafter, an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing an example of the internal configuration of the camera 10 according to the present embodiment. FIG. 2 is a diagram illustrating an outline of a processing flow of the camera 10 according to the present embodiment.
As shown in FIG. 1, the camera 10 includes an interchangeable lens 100, a camera body 200, and an external viewfinder unit 300u.

前記交換レンズ100は、フォーカシングレンズ101と、絞り機構102と、フォーカス駆動機構103と、絞り駆動機構104と、レンズCPU105と、を有している。
前記フォーカシングレンズ101は、図示しない被写体からの光を、カメラボディ200内部の撮像素子2041に結像させるための光学系である。このフォーカシングレンズ101は、図の一点鎖線で示す光軸方向に駆動され、その焦点位置が調整される。
The interchangeable lens 100 includes a focusing lens 101, a diaphragm mechanism 102, a focus driving mechanism 103, a diaphragm driving mechanism 104, and a lens CPU 105.
The focusing lens 101 is an optical system for forming an image of light from a subject (not shown) on the image sensor 2041 inside the camera body 200. The focusing lens 101 is driven in the optical axis direction indicated by a one-dot chain line in the figure, and the focal position thereof is adjusted.

前記絞り機構102は、フォーカシングレンズ101を介して撮像素子2041に入射する被写体からの光の光量を調整する。
前記フォーカス駆動機構103は、モータ等を有し、レンズCPU105の制御のもと、フォーカスレンズをその光軸方向に駆動させる。
The aperture mechanism 102 adjusts the amount of light from the subject incident on the image sensor 2041 via the focusing lens 101.
The focus driving mechanism 103 includes a motor and the like, and drives the focus lens in the optical axis direction under the control of the lens CPU 105.

前記絞り駆動機構104は、モータ等を有し、レンズCPU105の制御のもと、絞り機構102を開閉駆動させる。
前記レンズCPU105は、交換レンズ100がカメラボディ200に装着された際に通信端子106を介してカメラボディ200内のシーケンスコントローラ(ボディCPU)2201と通信自在に接続される。このレンズCPU105は、CPUからの制御に従ってフォーカス駆動機構103や絞り駆動機構104の動作を制御する。
The aperture drive mechanism 104 includes a motor and the like, and drives the aperture mechanism 102 to open and close under the control of the lens CPU 105.
The lens CPU 105 is communicably connected to a sequence controller (body CPU) 2201 in the camera body 200 via the communication terminal 106 when the interchangeable lens 100 is attached to the camera body 200. The lens CPU 105 controls operations of the focus drive mechanism 103 and the aperture drive mechanism 104 in accordance with control from the CPU.

前記カメラボディ200は、フォーカルプレーンシャッター(シャッター)201と、シャッター駆動機構202と、撮像ユニット204と、撮像素子駆動回路205と、前処理回路206と、SDRAM207と、フラッシュメモリ209と、記録媒体208と、モニタ駆動回路210と、ファインダー液晶モニタ211と、接眼レンズ212と、接眼センサー213と、背面液晶モニタ214と、操作部301と、着脱検知スイッチ217と、制御回路220と、防塵フィルタ駆動回路254と、ボディ振動センサー251と、ボディ防振制御回路252と、ボディ防振機構253と、を有している。ここで、ファインダー液晶モニタ211と接眼レンズ212と接眼センサー213とは、内蔵ファインダーユニット200uを構成している。   The camera body 200 includes a focal plane shutter (shutter) 201, a shutter driving mechanism 202, an imaging unit 204, an imaging element driving circuit 205, a preprocessing circuit 206, an SDRAM 207, a flash memory 209, and a recording medium 208. A monitor driving circuit 210, a viewfinder liquid crystal monitor 211, an eyepiece lens 212, an eyepiece sensor 213, a rear liquid crystal monitor 214, an operation unit 301, an attachment / detachment detection switch 217, a control circuit 220, and a dustproof filter driving circuit. 254, a body vibration sensor 251, a body vibration isolation control circuit 252, and a body vibration isolation mechanism 253. Here, the finder liquid crystal monitor 211, the eyepiece lens 212, and the eyepiece sensor 213 constitute a built-in finder unit 200u.

前記撮像ユニット204は、撮像素子2041と、フィルタ群2042と、防塵フィルタ2043と、を備える。
前記撮像素子2041は、複数の画素が配置された光電変換面を有し、フォーカシングレンズ101を介して光電変換面上に結像された被写体からの光を電気信号(画像信号)に変換する。
The imaging unit 204 includes an imaging device 2041, a filter group 2042, and a dustproof filter 2043.
The image sensor 2041 has a photoelectric conversion surface on which a plurality of pixels are arranged, and converts light from a subject imaged on the photoelectric conversion surface via the focusing lens 101 into an electrical signal (image signal).

前記フィルタ群2042は、フォーカシングレンズ101を介して入射してくる光の赤外成分を除去する赤外カットフィルタやフォーカシングレンズ101を介して入射してくる光の高周波成分を除去するローパスフィルタといった複数のフィルタから成るフィルタ群である。   The filter group 2042 includes a plurality of filters such as an infrared cut filter that removes an infrared component of light incident through the focusing lens 101 and a low-pass filter that removes a high frequency component of light incident through the focusing lens 101. It is a filter group consisting of these filters.

前記防塵フィルタ2043は、撮像ユニット204に塵が付着しないように防塵動作をする部材である。撮像素子2041は例えばガラス製の防塵フィルタ2043によって塵等から保護されている。この防塵フィルタ2043の周縁部には、この防塵フィルタ2043を所定の振動周波数で振動させるための圧電素子2043pが取り付けられている。   The dust filter 2043 is a member that performs a dustproof operation so that dust does not adhere to the imaging unit 204. The image sensor 2041 is protected from dust and the like by a glass dustproof filter 2043, for example. A piezoelectric element 2043p for vibrating the dustproof filter 2043 at a predetermined vibration frequency is attached to the periphery of the dustproof filter 2043.

前記防塵フィルタ駆動回路254は、圧電素子2043pの駆動回路である。この防塵フィルタ駆動回路254の制御は、制御回路220によって行われる。この防塵フィルタ駆動回路254によって圧電素子2043pを振動させることによって、防塵フィルタ2043が振動する。これによって、防塵フィルタ2043の表面に付着した塵埃が払い落とされる。   The dust filter driving circuit 254 is a driving circuit for the piezoelectric element 2043p. The dust filter driving circuit 254 is controlled by the control circuit 220. By vibrating the piezoelectric element 2043p by the dustproof filter driving circuit 254, the dustproof filter 2043 vibrates. As a result, dust attached to the surface of the dustproof filter 2043 is removed.

ここで、撮像素子2041と圧電素子2043pとは、防塵フィルタ2043を一面とするケース内に一体的に収納されている。これにより、撮像素子2041への塵埃の付着を確実に防止することができる。
前記ボディ振動センサー251は、角速度センサーを含み、該角速度センサーを用いて手ぶれ検出を行い、該検出結果を示す手振れ検出信号を生成する。このボディ振動センサー251により生成された手ぶれ検出信号は、ボディ防振制御回路252に出力される。
Here, the image sensor 2041 and the piezoelectric element 2043p are integrally stored in a case having the dustproof filter 2043 as one surface. Thereby, the adhesion of dust to the image sensor 2041 can be reliably prevented.
The body vibration sensor 251 includes an angular velocity sensor, detects camera shake using the angular velocity sensor, and generates a camera shake detection signal indicating the detection result. The camera shake detection signal generated by the body vibration sensor 251 is output to the body image stabilization control circuit 252.

前記ボディ防振制御回路252は、ボディ振動センサー251から出力された手ぶれ検出信号に基づいて、撮像ユニット204を移動させて手ぶれ補正をする為の制御信号を生成する。
前記ボディ防振機構253は、ボディ防振制御回路252から出力された制御信号に基づいて、撮像ユニット204を移動させて手ぶれ補正を実行する。
Based on the camera shake detection signal output from the body vibration sensor 251, the body image stabilization control circuit 252 generates a control signal for moving the imaging unit 204 and correcting camera shake.
Based on the control signal output from the body image stabilization control circuit 252, the body image stabilization mechanism 253 moves the imaging unit 204 to perform camera shake correction.

前処理回路206は、撮像素子駆動回路205を介して撮像素子2041から読み出される画像信号に対してノイズ除去や増幅等のアナログ処理や、アナログ処理した画像信号をデジタル信号(画像データ)に変換する処理といった前処理を行う。
前記撮像素子駆動回路205は、入出力回路2211を介したボディCPU2201からの指示に従って撮像素子2041を駆動制御するとともに、撮像素子2041で得られる画像信号の読み出しを制御する。
The preprocessing circuit 206 performs analog processing such as noise removal and amplification on the image signal read from the image sensor 2041 via the image sensor driving circuit 205, and converts the analog processed image signal into a digital signal (image data). Pre-processing such as processing is performed.
The image sensor driving circuit 205 controls driving of the image sensor 2041 according to an instruction from the body CPU 2201 via the input / output circuit 2211 and controls reading of an image signal obtained by the image sensor 2041.

前記シャッター201は、撮像素子2041の光電変換面に対して進退自在に配置されている。このシャッター201は、シャッター駆動機構202によって駆動されて撮像素子2041の光電変換面を露出状態又は遮光状態とする。シャッター駆動機構202は、ボディCPU2201の制御に従ってシャッター201を開閉駆動させる。   The shutter 201 is disposed so as to be movable back and forth with respect to the photoelectric conversion surface of the image sensor 2041. The shutter 201 is driven by a shutter driving mechanism 202 to bring the photoelectric conversion surface of the image sensor 2041 into an exposed state or a light-shielded state. The shutter drive mechanism 202 opens and closes the shutter 201 according to the control of the body CPU 2201.

前記SDRAM207は、前処理回路206において得られたデータ等を一時格納しておくためのバッファメモリである。
前記フラッシュメモリ209は、ボディCPU2201によって読み出される制御プログラムやカメラボディ200の各種の設定値等を記憶する。
The SDRAM 207 is a buffer memory for temporarily storing data obtained in the preprocessing circuit 206.
The flash memory 209 stores a control program read by the body CPU 2201, various setting values of the camera body 200, and the like.

前記記録媒体208は、例えばカメラボディ200に対して着脱自在に構成されたメモリカードであり、圧縮伸長回路2207において圧縮された画像データを記録する。
前記モニタ駆動回路210−1は、ビデオ信号出力回路2208から入力されたビデオ信号に従ってファインダー液晶モニタ211及び外部ファインダーユニット300uが備えるファインダー液晶モニタ311を駆動してそれぞれのモニタの画面上に画像表示を行う。
The recording medium 208 is a memory card configured to be detachable from the camera body 200, for example, and records the image data compressed by the compression / decompression circuit 2207.
The monitor driving circuit 210-1 drives the finder liquid crystal monitor 211 and the finder liquid crystal monitor 311 included in the external finder unit 300u according to the video signal input from the video signal output circuit 2208 to display an image on the screen of each monitor. Do.

前記モニタ駆動回路210−2は、ビデオ信号出力回路2208から入力されたビデオ信号に従って背面液晶モニタ214を駆動してモニタの画面上に画像表示を行う。
すなわち、これら表示ドライバーたるモニタ駆動回路210−1,210−2は、図2に示すように画像処理回路2206から出力された“画像データに対応した画像”と、情報表示演算部たるボディCPU2201から出力される“設定状態情報”とを、ファインダー液晶モニタ211,311/背面液晶モニタ214に表示させる為の表示ドライバーとして機能する。
The monitor driving circuit 210-2 drives the rear liquid crystal monitor 214 in accordance with the video signal input from the video signal output circuit 2208 to display an image on the monitor screen.
That is, the monitor driving circuits 210-1 and 210-2 as display drivers are connected to the "image corresponding to image data" output from the image processing circuit 2206 and the body CPU 2201 as the information display calculation unit as shown in FIG. It functions as a display driver for displaying the output “setting state information” on the finder liquid crystal monitors 211 and 311 / the rear liquid crystal monitor 214.

なお、詳細は後述するが、モニタ駆動回路210−1,210−2は図2に示すように、ファインダー液晶モニタ211,311及び背面液晶モニタ214のうち何れのモニタに表示を行うかを、接眼センサー213,313による検出結果に応じて決定することもある。   Although details will be described later, as shown in FIG. 2, the monitor driving circuits 210-1 and 210-2 determine which monitor of the finder liquid crystal monitors 211 and 311 and the rear liquid crystal monitor 214 to display. It may be determined according to the detection result by the sensors 213 and 313.

前記ファインダー液晶モニタ211は、覗き込み型のファインダー用のモニタである。すなわち、ファインダー液晶モニタ211は、ユーザによって覗き込まれた状態で画像が視認される。このファインダー液晶モニタ211としては例えば液晶モニタが用いられる。このファインダー液晶モニタ211は、モニタ駆動回路210−1によって駆動されて、撮像素子2041を介して得られる被写体観察用の画像を表示する。   The viewfinder liquid crystal monitor 211 is a monitor for a view-type viewfinder. That is, the image is visually recognized on the finder liquid crystal monitor 211 while being looked into by the user. As the finder liquid crystal monitor 211, for example, a liquid crystal monitor is used. The finder liquid crystal monitor 211 is driven by the monitor driving circuit 210-1, and displays a subject observation image obtained through the image sensor 2041.

本一実施形態におけるファインダー液晶モニタ211は、被写体観察中のAF(オートフォーカス)設定を行うための表示やパラメータ設定を行うための画面の表示も行う。
前記接眼レンズ212は、ファインダー液晶モニタ211の画面上に表示されている画像をユーザの眼に結像させるための接眼光学系である。
The finder liquid crystal monitor 211 in the present embodiment also performs display for setting AF (autofocus) during observation of a subject and display of a screen for setting parameters.
The eyepiece 212 is an eyepiece optical system for forming an image displayed on the screen of the finder liquid crystal monitor 211 on the user's eye.

前記接眼センサー213は、ユーザがファインダーを覗いているか否かを検出するためのセンサーである。この接眼センサー213としては、例えば赤外線センサーを用いることが可能である。
前記背面液晶モニタ214は、第2の表示部として機能するモニタであり、カメラボディ200の背面に露出するように配置されている。この背面液晶モニタ214は、モニタ駆動回路210−2によって駆動されて、圧縮伸長回路2207で伸長された画像等の各種の画像を表示する。この背面液晶モニタ214は、ファインダー液晶モニタ211と異なり、ユーザによって覗き込まれることなく、画像が視認される。また、本一実施形態における背面液晶モニタ214は、被写体観察中のAF(オートフォーカス)設定を行うための表示やパラメータ設定を行うための画面の表示も行う。
The eye sensor 213 is a sensor for detecting whether the user is looking through the viewfinder. As the eye sensor 213, for example, an infrared sensor can be used.
The rear liquid crystal monitor 214 is a monitor that functions as a second display unit, and is disposed so as to be exposed on the rear surface of the camera body 200. The rear liquid crystal monitor 214 is driven by the monitor driving circuit 210-2 and displays various images such as an image expanded by the compression / expansion circuit 2207. Unlike the viewfinder liquid crystal monitor 211, the rear liquid crystal monitor 214 allows the user to view the image without looking into it. In addition, the rear liquid crystal monitor 214 according to the present embodiment also performs display for setting AF (autofocus) during observation of a subject and display of a screen for setting parameters.

前記操作部301は、例えば電源スイッチ301a(図4参照)、シャッターボタン301b(図4参照)、設定ボタン(不図示)及び操作ダイヤル(不図示)等の各種操作部である。電源スイッチ301aは、ユーザがカメラボディ200の電源のオン/オフを指示するための操作部である。シャッターボタン301bは、ユーザが撮影実行の指示をするための操作部である。設定ボタン(不図示)は、ユーザが各種のパラメータ設定等を行うための操作部群である。操作ダイヤル(不図示)は、ダイヤル式の操作部である。この操作ダイヤル(不図示)も例えば各種のパラメータ設定等に用いられる。   The operation unit 301 is, for example, various operation units such as a power switch 301a (see FIG. 4), a shutter button 301b (see FIG. 4), a setting button (not shown), and an operation dial (not shown). The power switch 301 a is an operation unit for the user to instruct on / off of the power supply of the camera body 200. The shutter button 301b is an operation unit for a user to instruct execution of shooting. A setting button (not shown) is an operation unit group for the user to perform various parameter settings. An operation dial (not shown) is a dial type operation unit. This operation dial (not shown) is also used for setting various parameters, for example.

前記着脱検知スイッチ217は、カメラボディ200に交換レンズ100が装着された際にオンするスイッチであり、オンすることによってカメラボディ200に交換レンズ100が装着されたことを示す信号をスイッチ検知回路2210−1に出力する。
前記制御回路220は、カメラボディ200の各種の動作を制御する。この制御回路220は、シーケンスコントローラ(ボディCPU)2201と、コントラストAF回路2202と、SDRAM制御回路2203と、フラッシュメモリ制御回路2204と、記録媒体制御回路2205と、画像処理回路2206と、ビデオ信号出力回路2208と、圧縮伸長回路2207と、スイッチ検知回路2210−1,2210−2と、入出力回路2211と、通信回路2212と、データバス2213と、を有している。
The attachment / detachment detection switch 217 is a switch that is turned on when the interchangeable lens 100 is attached to the camera body 200, and a signal indicating that the interchangeable lens 100 is attached to the camera body 200 when turned on is a switch detection circuit 2210. Output to -1.
The control circuit 220 controls various operations of the camera body 200. The control circuit 220 includes a sequence controller (body CPU) 2201, a contrast AF circuit 2202, an SDRAM control circuit 2203, a flash memory control circuit 2204, a recording medium control circuit 2205, an image processing circuit 2206, and a video signal output. A circuit 2208, a compression / decompression circuit 2207, switch detection circuits 2210-1 and 210-2, an input / output circuit 2211, a communication circuit 2212, and a data bus 2213 are included.

前記ボディCPU2201は、制御回路220内の各回路の動作を統括して制御する。また、本一実施形態におけるボディCPU2201は、制御部としての機能も有し、ファインダー液晶モニタ211や背面液晶モニタ214における指標の表示位置の更新も行う。この指標は、後述するカメラ10の設定を変更したり確定したりするために用いられる。   The body CPU 2201 controls the operation of each circuit in the control circuit 220 in an integrated manner. In addition, the body CPU 2201 in the present embodiment also has a function as a control unit, and updates the display position of the index on the finder liquid crystal monitor 211 and the rear liquid crystal monitor 214. This index is used to change or confirm the setting of the camera 10 described later.

前記コントラストAF回路2202は、撮像素子2041を介して得られる画像データから画像のコントラストを評価するための評価値を算出する。ボディCPU2201は、この評価値に従ってフォーカスレンズのAF制御を行う。
前記SDRAM制御回路2203は、SDRAM207へのデータの書き込み及び読み出しを制御する。
The contrast AF circuit 2202 calculates an evaluation value for evaluating the contrast of an image from image data obtained via the image sensor 2041. The body CPU 2201 performs AF control of the focus lens according to the evaluation value.
The SDRAM control circuit 2203 controls writing and reading of data to and from the SDRAM 207.

前記フラッシュメモリ制御回路2204は、フラッシュメモリ209へのデータの書き込み及び読み出しを制御する。
前記記録媒体制御回路2205は、記録媒体208へのデータの書き込み及び読み出しを制御する。
前記画像処理回路2206は、前処理回路206において得られ、SDRAM207に格納された画像データに対して各種の画像処理を施す。この画像処理は、画像の色バランスを補正するホワイトバランス補正処理、画像の色を補正する色補正処理、画像の階調を補正する階調補正処理等が含まれる。この画像処理回路2206において画像処理された画像データはSDRAM207に再び格納される。
The flash memory control circuit 2204 controls writing and reading of data to the flash memory 209.
The recording medium control circuit 2205 controls data writing to and reading from the recording medium 208.
The image processing circuit 2206 performs various types of image processing on the image data obtained in the preprocessing circuit 206 and stored in the SDRAM 207. This image processing includes white balance correction processing for correcting the color balance of the image, color correction processing for correcting the color of the image, gradation correction processing for correcting the gradation of the image, and the like. The image data processed by the image processing circuit 2206 is stored in the SDRAM 207 again.

前記ビデオ信号出力回路2208は、SDRAM207から画像データを読み出し、読み出した画像データをビデオ信号に変換してモニタ駆動回路210−1,210−2に出力する。
前記圧縮伸長回路2207は、画像処理後の画像データを読み出し、読み出した画像データをJPEG方式等の所定の圧縮形式で圧縮する。また、圧縮伸長回路2207は、画像の再生時には、圧縮済みの画像データを読み出し、読み出した画像データを伸長することも行う。
The video signal output circuit 2208 reads image data from the SDRAM 207, converts the read image data into a video signal, and outputs the video signal to the monitor drive circuits 210-1 and 210-2.
The compression / decompression circuit 2207 reads the image data after image processing, and compresses the read image data in a predetermined compression format such as JPEG. The compression / decompression circuit 2207 also reads compressed image data and decompresses the read image data when reproducing an image.

前記スイッチ検知回路2210−1は、操作部301の各操作部の操作状態を検知し、検知結果をボディCPU2201に通知する。スイッチ検知回路2210−1を介して操作部の操作が検知された場合に、ボディCPU2201は、操作された操作部の操作内容に応じた制御を実行する。   The switch detection circuit 2210-1 detects the operation state of each operation unit of the operation unit 301, and notifies the detection result to the body CPU 2201. When the operation of the operation unit is detected via the switch detection circuit 2210-1, the body CPU 2201 executes control according to the operation content of the operated operation unit.

前記スイッチ検知回路2210−2は、カメラボディ200が備える接眼センサー213及び外部ファインダーユニット300uが備える接眼センサー313のセンシング状態を検知し、その検知結果をボディCPU2201に通知する。スイッチ検知回路2210−2を介して接眼センサー213,313のセンシング状態が検知された場合に、ボディCPU2201は、そのセンシング状態に応じた制御を実行する。   The switch detection circuit 2210-2 detects the sensing state of the eye sensor 213 provided in the camera body 200 and the eye sensor 313 provided in the external viewfinder unit 300u, and notifies the body CPU 2201 of the detection result. When the sensing state of the eyepiece sensors 213 and 313 is detected via the switch detection circuit 2210-2, the body CPU 2201 executes control according to the sensing state.

前記入出力回路2211は、撮像素子駆動回路205やシャッター駆動機構202の制御を行うための信号を制御回路220から出力するためのインターフェース回路である。
前記通信回路2212は、カメラボディ200のボディCPU2201と交換レンズ100のレンズCPU105との通信を行うための各種処理を行う。
The input / output circuit 2211 is an interface circuit for outputting a signal for controlling the image sensor driving circuit 205 and the shutter driving mechanism 202 from the control circuit 220.
The communication circuit 2212 performs various processes for performing communication between the body CPU 2201 of the camera body 200 and the lens CPU 105 of the interchangeable lens 100.

前記データバス2213は、前処理回路206において得られた画像データや画像処理回路2206で処理された画像データ等の種々のデータを転送するための転送路である。
前記外部ファインダーユニット300uは、ファインダー液晶モニタ311と、接眼レンズ312と、接眼センサー313と、を備える外付け型のファインダーユニットである。
The data bus 2213 is a transfer path for transferring various data such as image data obtained by the preprocessing circuit 206 and image data processed by the image processing circuit 2206.
The external finder unit 300u is an external finder unit including a finder liquid crystal monitor 311, an eyepiece lens 312, and an eyepiece sensor 313.

前記ファインダー液晶モニタ311は、覗き込み型のファインダー用のモニタであり、通信端子306を介してカメラボディ200のモニタ駆動回路210−1と通信自在に接続される。すなわち、ファインダー液晶モニタ311は、ユーザによって覗き込まれた状態で画像が視認される。このファインダー液晶モニタ311としては例えば液晶モニタが用いられる。このファインダー液晶モニタ311は、モニタ駆動回路210−1によって駆動されて、撮像素子2041を介して得られる被写体観察用の画像を表示する。   The viewfinder liquid crystal monitor 311 is a monitor for a view-type viewfinder, and is connected to a monitor drive circuit 210-1 of the camera body 200 via a communication terminal 306 so as to be communicable. That is, the image is visually recognized on the finder liquid crystal monitor 311 while being looked into by the user. For example, a liquid crystal monitor is used as the finder liquid crystal monitor 311. The finder liquid crystal monitor 311 is driven by the monitor driving circuit 210-1, and displays a subject observation image obtained via the image sensor 2041.

本一実施形態におけるファインダー液晶モニタ311は、被写体観察中のAF(オートフォーカス)設定を行うための表示やパラメータ設定を行うための画面の表示も行う。
前記接眼レンズ312は、ファインダー液晶モニタ311の画面上に表示されている画像をユーザの眼に結像させるための接眼光学系である。
The finder liquid crystal monitor 311 in the present embodiment also performs display for setting AF (autofocus) during observation of a subject and display of a screen for setting parameters.
The eyepiece 312 is an eyepiece optical system for forming an image displayed on the screen of the finder liquid crystal monitor 311 on the user's eye.

前記接眼センサー313は、ユーザがファインダーを覗いているか否かを検出するためのセンサーであり、通信端子308を介してカメラボディ200のスイッチ検知回路2210−2と通信自在に接続される。この接眼センサー313としては、例えば赤外線センサーを用いることが可能である。   The eye sensor 313 is a sensor for detecting whether the user is looking through the viewfinder, and is connected to the switch detection circuit 2210-2 of the camera body 200 via the communication terminal 308 so as to be communicable. As the eye sensor 313, for example, an infrared sensor can be used.

以下、本一実施形態に係るカメラ10の主動作に係る一連の処理について説明する。図3A及び図3Bは、本一実施形態に係るカメラ10の主動作に係る一連の処理のフローチャートを示す図である。
ここで、本一実施形態においては、上述の外部ファインダーユニット300uについては当該カメラ10に装着されていないとして、以降の説明をする。なお、外部ファインダーユニット300uが当該カメラ10に装着されている場合の処理については、後に図13、図14A、及び図14Bを参照して説明する。
Hereinafter, a series of processes related to the main operation of the camera 10 according to the present embodiment will be described. 3A and 3B are flowcharts illustrating a series of processes related to the main operation of the camera 10 according to the present embodiment.
Here, in the present embodiment, the following description will be made assuming that the above-described external finder unit 300u is not attached to the camera 10. The processing when the external viewfinder unit 300u is attached to the camera 10 will be described later with reference to FIGS. 13, 14A, and 14B.

まず、電源スイッチ301aがオンに設定されると、ボディCPU2201は、入出力回路2211を介して撮像素子駆動回路205を制御することによって撮像素子2041を駆動させ、撮像動作を開始させる(ステップS1)。続いて、ボディCPU2201は、撮像素子2041によって取得され前処理回路206を経て画像処理回路2206に取り込まれた画像データについて、当該画像処理回路2206に測光処理(ライブビュー用測光処理)を開始させ、画像データの露出量を制御する(ステップS2)。そして、ボディCPU2201は、画像処理回路2206による当該画像データの各種画像処理を開始させる(ステップS3)。   First, when the power switch 301a is set to ON, the body CPU 2201 drives the image sensor 2041 by controlling the image sensor drive circuit 205 via the input / output circuit 2211 and starts an imaging operation (step S1). . Subsequently, the body CPU 2201 causes the image processing circuit 2206 to start photometric processing (live view photometric processing) for the image data acquired by the image sensor 2041 and taken into the image processing circuit 2206 via the preprocessing circuit 206. The exposure amount of the image data is controlled (step S2). Then, the body CPU 2201 starts various image processing of the image data by the image processing circuit 2206 (step S3).

さらに、ボディCPU2201は、モニタ駆動回路210−1を制御して、ファインダー液晶モニタ211を駆動させ、モニタの画面上における画像表示を開始させる(ステップS4)。
ここにおいて、ファインダー液晶モニタ211におけるライブビュー表示が開始され(ステップS5)、ボディCPU2201はレリーズスイッチをオンすることにつき受け付けを開始するよう制御する。すなわち、ボディCPU2201は、シャッターボタン301bが操作されたか否か(レリーズスイッチがオンされたか否か)を判定する(ステップS6)。
Further, the body CPU 2201 controls the monitor driving circuit 210-1 to drive the finder liquid crystal monitor 211 to start image display on the monitor screen (step S4).
Here, live view display on the finder liquid crystal monitor 211 is started (step S5), and the body CPU 2201 controls to start acceptance when the release switch is turned on. That is, the body CPU 2201 determines whether or not the shutter button 301b has been operated (whether or not the release switch has been turned on) (step S6).

図4は、本一実施形態に係るカメラ10のモニタ表示についての状態遷移の一例を示す背面図である。上述したステップS1乃至ステップS6を経た時点では、当該カメラ10は、内蔵ファインダーユニット200uのみにライブビュー表示を行う状態、すなわち図4上段右側に示されるモニタ表示状態となる。   FIG. 4 is a rear view showing an example of the state transition of the monitor display of the camera 10 according to the present embodiment. At the time when the above-described steps S1 to S6 are performed, the camera 10 is in a state where live view display is performed only on the built-in finder unit 200u, that is, a monitor display state shown on the right side in the upper part of FIG.

本一実施形態に係るカメラ10においては、このように電源スイッチ301aがオンに設定されて当該カメラ10が起動される際に、接眼センサー213の検出結果等の種々の条件に関わらず、強制的に内蔵ファインダーユニット200uのファインダー液晶モニタ211のみにライブビュー画像を表示させるよう制御する。この表示は、ステップS7において撮影動作が実行されるまで行われる(少なくとも当該カメラ10の起動後、一定の時間は実行される)。   In the camera 10 according to the present embodiment, when the power switch 301a is set to ON and the camera 10 is activated, the camera 10 is compulsory regardless of various conditions such as the detection result of the eye sensor 213. The live view image is controlled to be displayed only on the finder liquid crystal monitor 211 of the built-in finder unit 200u. This display is performed until a photographing operation is executed in step S7 (at least for a certain period of time after activation of the camera 10).

これにより、背面液晶モニタ214の表示に係る処理や各種演算に要する処理/時間を省くことができ、起動後すぐにシャッターチャンスが訪れたとしても当該シャッターチャンスを逃がしてしまうことを防止することができる。
ところで、図5はライブビュー画像を取得する際の被写体撮影の様子を示す図である。図6は、ステップS5において表示を開始するライブビュー画像の生成処理の一例を示す図である。
As a result, processing related to display on the rear liquid crystal monitor 214 and processing / time required for various calculations can be omitted, and even if a photo opportunity comes immediately after startup, the photo opportunity is prevented from being missed. it can.
Incidentally, FIG. 5 is a diagram showing a state of subject photographing when a live view image is acquired. FIG. 6 is a diagram illustrating an example of a live view image generation process for starting display in step S5.

図5に示すように被写体Sの後方に窓Wが存在する状態でフレーミングをする際に、光学ファインダーによる場合であれば、図6において示された表示Imのように逆光等の被写体がアンダーであるような場合でもそのまま表示されてしまう。
本一実施形態に係るカメラ10では、図6に示すように1表示フレーム期間において、所謂アンダー露光となる第1の露出時間(蓄積時間)t1と、所謂オーバー露光となる第2の露出時間t2とでそれぞれ撮像を行う(互いに異なる露出時間で計2回の撮像を実行する)。
As shown in FIG. 5, when framing is performed in the state where the window W exists behind the subject S, if the optical viewfinder is used, the subject such as backlight is under as shown in the display Im shown in FIG. Even in some cases, it is displayed as it is.
In the camera 10 according to the present embodiment, as shown in FIG. 6, in one display frame period, a first exposure time (accumulation time) t1 that is so-called underexposure and a second exposure time t2 that is so-called overexposure. And taking images respectively (taking a total of two times with different exposure times).

この撮像により、1表示フレーム期間において、アンダー露光の画像データである第1の参照画像データD1と、オーバー露光の画像データである第2の参照画像データD2とが得られる。そして、第1の参照画像データD1における黒潰れ部分以外の部分と、第2の参照画像データD2における白飛び部分以外の部分とを合成してライブビュー画像D3を生成する。   With this imaging, in one display frame period, first reference image data D1 that is image data of underexposure and second reference image data D2 that is image data of overexposure are obtained. Then, the live view image D3 is generated by combining the portion other than the blackout portion in the first reference image data D1 and the portion other than the whiteout portion in the second reference image data D2.

これにより、光学ファインダーによる場合であれば図6に示す表示Imのように視認性の悪いライブビュー表示となるところ、本一実施形態に係るカメラ10によればライブビュー画像D3に示すように視認性が良好なライブビュー表示となる。従って、被写体S、及び、窓Wの後方の景色を構成する枝Bや雲Cについて良好な視認性のライブビュー表示を提供することができる。   As a result, in the case of using the optical viewfinder, the live view display with poor visibility as shown by the display Im shown in FIG. 6 is obtained. According to the camera 10 according to the present embodiment, the visual view is shown as shown in the live view image D3. Live view display with good characteristics. Therefore, it is possible to provide a live view display with good visibility for the subject S and the branches B and clouds C constituting the scenery behind the window W.

前記ステップS6をYESに分岐する場合(レリーズスイッチがオンされた場合)、ボディCPU2201は、ステップS1乃至ステップS5において実行したライブビュー表示に係る動作を終了させ、撮影動作を実行するよう当該カメラ10の各部を制御する(ステップS7)。なお、このステップS7の撮影動作に係る処理については、図11を参照して後述する。   When step S6 is branched to YES (when the release switch is turned on), the body CPU 2201 ends the operation related to the live view display executed in steps S1 to S5 and executes the shooting operation. Are controlled (step S7). The processing relating to the photographing operation in step S7 will be described later with reference to FIG.

一方、前記ステップS6をNOに分岐する場合(レリーズスイッチがオフとなっている場合)、及び、前記ステップS7の処理を完了した後、ボディCPU2201は、“情報表示演算”を行って“設定状態情報(後述する)”を算出し、SDRAM207に格納する(ステップS8)。   On the other hand, when step S6 is branched to NO (when the release switch is OFF) and after the processing of step S7 is completed, the body CPU 2201 performs “information display calculation” to perform “setting state”. Information (to be described later) "is calculated and stored in the SDRAM 207 (step S8).

この“情報表示演算”とは、ボディCPU2201が当該カメラ10の設定状態を検出し、該検出結果を示すモニタ表示用のデータである“設定状態情報”を生成する処理である。なお、この“設定状態情報”の具体例としては、例えば“ISO感度”、“プログラムモード”、“絞り値”、及び“シャッター速度”等の当該カメラ10の状態を示す各種情報を挙げることができる。   This “information display calculation” is a process in which the body CPU 2201 detects the setting state of the camera 10 and generates “setting state information” which is monitor display data indicating the detection result. Specific examples of the “setting state information” include various information indicating the state of the camera 10 such as “ISO sensitivity”, “program mode”, “aperture value”, and “shutter speed”. it can.

前記ステップS8における処理を終えると、ボディCPU2201は、接眼センサー213の出力に基づいて、ユーザがファインダー液晶モニタ211を利用した撮影(以下、ファインダー撮影と称する)を行おうとしているか否か、即ち、ユーザがファインダー液晶モニタ211を覗き込んでいるか否かを判定する(ステップS9)。   When the processing in step S8 is completed, the body CPU 2201 determines whether or not the user is going to perform shooting using the finder liquid crystal monitor 211 (hereinafter referred to as finder shooting) based on the output of the eye sensor 213. It is determined whether or not the user is looking into the finder liquid crystal monitor 211 (step S9).

ここで、該ステップS9における判定に係る具体的な状況を、図7乃至図9を参照して説明する。
図7は、ステップS9をYESに分岐する場合(ユーザが内蔵ファインダーユニット200uを用いて撮影を行おうとしている場合)における、当該カメラ10の使用態様を示す図である。図7に示す例では、ユーザの眼Eは内蔵ファインダーユニット200uに近接されており(接眼状態となっており)、この状態が接眼センサー213によって検出される。この接眼センサー213から出力された検出信号に基づいて、ボディCPU2201はステップS9をYESに分岐する。
Here, a specific situation relating to the determination in step S9 will be described with reference to FIGS.
FIG. 7 is a diagram showing how the camera 10 is used when step S9 is branched to YES (when the user is going to take a picture using the built-in finder unit 200u). In the example shown in FIG. 7, the user's eye E is close to the built-in finder unit 200 u (in an eyepiece state), and this state is detected by the eyepiece sensor 213. Based on the detection signal output from the eye sensor 213, the body CPU 2201 branches step S9 to YES.

図8は、ステップS9をNOに分岐する場合(ユーザが当該カメラ10の設定確認/変更を、背面液晶モニタ214を用いて行おうとしている場合)における、当該カメラ10の使用態様を示す図である。図8に示す例では、ユーザの眼Eは内蔵ファインダーユニット200uから離間しており(接眼状態となっておらず)、この状態が接眼センサー213によって検出される。この接眼センサー213から出力された検出信号に基づいて、ボディCPU2201はステップS9をNOに分岐する。   FIG. 8 is a diagram showing how the camera 10 is used when step S9 is branched to NO (when the user is about to confirm / change the setting of the camera 10 using the rear liquid crystal monitor 214). is there. In the example shown in FIG. 8, the user's eye E is separated from the built-in finder unit 200u (not in an eyepiece state), and this state is detected by the eyepiece sensor 213. Based on the detection signal output from the eye sensor 213, the body CPU 2201 branches step S9 to NO.

図9は、ステップS9をNOに分岐する場合(ユーザが背面液晶モニタ214をファインダーとして用いて撮影を行おうとしている場合)における、当該カメラ10の使用態様を示す図である。図9に示す例では、ユーザの眼Eは内蔵ファインダーユニット200uから離間しており(接眼状態となっておらず)、この状態が接眼センサー213によって検出される。この接眼センサー213から出力された検出信号に基づいて、ボディCPU2201はステップS9をNOに分岐する。   FIG. 9 is a diagram showing how the camera 10 is used when step S9 is branched to NO (when the user is going to take a picture using the rear liquid crystal monitor 214 as a viewfinder). In the example shown in FIG. 9, the user's eye E is separated from the built-in finder unit 200u (not in an eyepiece state), and this state is detected by the eyepiece sensor 213. Based on the detection signal output from the eye sensor 213, the body CPU 2201 branches step S9 to NO.

ところで、前記ステップS9をYESに分岐する場合(ユーザがファインダー撮影を行おうとしている場合)、ボディCPU2201は、ビデオ信号出力回路2208を介してモニタ駆動回路210−1を制御し、ファインダー液晶モニタ211の表示をオンさせる(ステップS10)。この際、ボディCPU2201は、入出力回路2211を介して撮像素子駆動回路205を制御することによって撮像素子2041を駆動させる。そして、撮像素子2041を介して得られた画像データを画像処理回路2206において処理し、その後、処理した画像データに基づく画像をファインダー液晶モニタ211に表示させる。   By the way, when step S9 is branched to YES (when the user intends to perform viewfinder shooting), the body CPU 2201 controls the monitor driving circuit 210-1 via the video signal output circuit 2208, and the viewfinder liquid crystal monitor 211. Is turned on (step S10). At this time, the body CPU 2201 drives the image sensor 2041 by controlling the image sensor drive circuit 205 via the input / output circuit 2211. Then, the image data obtained via the image sensor 2041 is processed in the image processing circuit 2206, and then an image based on the processed image data is displayed on the finder liquid crystal monitor 211.

前記ステップS10においてファインダー液晶モニタ211の表示をオンさせた際に、ボディCPU2201は、ステップS8において生成した“設定状態情報”のファインダー液晶モニタ211における表示も開始させる(ステップS11)。
上述したステップS10及びステップS11における処理の際に、ボディCPU2201は、モニタ駆動回路210−2を介して背面液晶モニタ214を消灯制御する(ステップS12)。
When the display of the finder liquid crystal monitor 211 is turned on in step S10, the body CPU 2201 also starts displaying the “setting state information” generated in step S8 on the finder liquid crystal monitor 211 (step S11).
During the processing in step S10 and step S11 described above, the body CPU 2201 controls to turn off the rear liquid crystal monitor 214 via the monitor drive circuit 210-2 (step S12).

ステップS10乃至ステップS12における表示制御により、図4の下段左側に示されるように当該カメラ10は、ファインダー液晶モニタ211によって被写体の観察を行うことが可能となると共に、設定状態情報dの表示によって当該カメラ10の状態も同時に確認することが可能となる。さらに、背面液晶モニタ214が消灯制御されている為、背面液晶モニタ214の点灯によるファインダー液晶モニタ211の視認性の悪化もなく、且つ、省電力及び処理負担の軽減も達成している。   The display control in steps S10 to S12 allows the camera 10 to observe the subject with the finder liquid crystal monitor 211 as shown in the lower left side of FIG. The state of the camera 10 can be confirmed at the same time. Further, since the rear liquid crystal monitor 214 is controlled to be turned off, the visibility of the finder liquid crystal monitor 211 due to the lighting of the rear liquid crystal monitor 214 is not deteriorated, and the power saving and the processing load are reduced.

ところで、前記ステップS9をNOに分岐する場合(ユーザがファインダー撮影を行わない場合)、ボディCPU2201は、ビデオ信号出力回路2208を介してモニタ駆動回路210−2を制御し、背面液晶モニタ214の表示をオンさせる(ステップS13)。この際、ボディCPU2201は、入出力回路2211を介して撮像素子駆動回路205を制御することによって撮像素子2041を駆動させる。そして、撮像素子2041を介して得られた画像データを画像処理回路2206において処理し、その後、処理した画像データに基づく画像を背面液晶モニタ214に表示させる。   When step S9 is branched to NO (when the user does not perform viewfinder shooting), the body CPU 2201 controls the monitor drive circuit 210-2 via the video signal output circuit 2208 to display on the rear liquid crystal monitor 214. Is turned on (step S13). At this time, the body CPU 2201 drives the image sensor 2041 by controlling the image sensor drive circuit 205 via the input / output circuit 2211. Then, image data obtained via the image sensor 2041 is processed in the image processing circuit 2206, and then an image based on the processed image data is displayed on the rear liquid crystal monitor 214.

前記ステップS13において背面液晶モニタ214の表示をオンさせた際に、ボディCPU2201は、ステップS8において生成した“設定状態情報”の背面液晶モニタ214における表示も開始させる(ステップS14)。
上述したステップS13及びステップS14における処理の際に、ボディCPU2201は、モニタ駆動回路210−1を介してファインダー液晶モニタ211を消灯制御する(ステップS15)。なお、この消灯制御の際に、ボディCPU2201は、当該ファインダー液晶モニタ211における輝度を漸次低下させていく制御を行うことで、フェードアウト表示としてもよい。
When the display on the rear liquid crystal monitor 214 is turned on in step S13, the body CPU 2201 also starts displaying the “setting state information” generated in step S8 on the rear liquid crystal monitor 214 (step S14).
During the processing in steps S13 and S14 described above, the body CPU 2201 controls the viewfinder liquid crystal monitor 211 to be turned off via the monitor drive circuit 210-1 (step S15). Note that the body CPU 2201 may perform fade-out display by performing control to gradually reduce the luminance in the finder liquid crystal monitor 211 during the turn-off control.

ステップS13乃至ステップS15における表示制御により、図4の下段右側に示されるように当該カメラ10は、背面液晶モニタ214によって被写体の観察を行うことが可能となると共に、設定状態情報dの表示によって当該カメラ10の状態も同時に確認することが可能となる。さらに、ファインダー液晶モニタ211が消灯制御されている為、省電力及び処理負担の軽減も達成している。   As a result of the display control in steps S13 to S15, the camera 10 can observe the subject with the rear liquid crystal monitor 214 as shown in the lower right side of FIG. The state of the camera 10 can be confirmed at the same time. Further, since the viewfinder liquid crystal monitor 211 is controlled to be turned off, power saving and a reduction in processing load are also achieved.

ここで、図4の下段右側に示されている当該カメラ10の3つの表示モードは、左側から順に、所謂古典一眼レフレックススタイルの表示を行う“第1の表示モード”、通常のデジタル一眼レフレックススタイルの表示を行う“第2の表示モード”、所謂EVF付きミラーレス一眼レフレックススタイルの表示を行う“第3の表示モード”によるモニタ表示例を示している。   Here, the three display modes of the camera 10 shown on the lower right side of FIG. 4 are “first display mode” in which so-called classical single-lens reflex style display is performed in order from the left side. A monitor display example is shown in “second display mode” for displaying flex-style display, “third display mode” for displaying so-called mirrorless single-lens reflex style with EVF.

ところで、ステップS12またはステップS15における処理を完了した後、ボディCPU2201は、シャッターボタン301bが操作されたか否か(レリーズスイッチがオンされたか否か)を判定する(ステップS17)。
前記ステップS17をYESに分岐する場合(1stまたは2ndレリーズスイッチがオンされた場合)、ボディCPU2201は、ステップS10乃至ステップS15において実行したライブビュー表示に係る動作を終了させ、撮影動作を実行するよう当該カメラ10の各部を制御する(ステップS7)。なお、このステップS7の撮影動作に係る処理については、図11を参照して後述する。
By the way, after completing the processing in step S12 or step S15, the body CPU 2201 determines whether or not the shutter button 301b has been operated (whether or not the release switch has been turned on) (step S17).
When step S17 is branched to YES (when the 1st or 2nd release switch is turned on), the body CPU 2201 ends the operation related to the live view display executed in steps S10 to S15 and executes the shooting operation. Each part of the camera 10 is controlled (step S7). The processing relating to the photographing operation in step S7 will be described later with reference to FIG.

一方、前記ステップS17をNOに分岐する場合(レリーズスイッチがオフとなっている場合)、及び、前記ステップS7の処理を完了した後、ボディCPU2201は、電源スイッチがオフにされたか否かを判定する(ステップS19)。このステップS19をYESに分岐する場合、ボディCPU2201は、当該カメラ10をパワーオフする(ステップS29)。このステップS29において実行するパワーオフに係る一連の処理は、図12に示すフローチャートを参照して後述する。   On the other hand, when step S17 is branched to NO (when the release switch is off) and after the processing of step S7 is completed, the body CPU 2201 determines whether the power switch is turned off. (Step S19). When step S19 is branched to YES, the body CPU 2201 powers off the camera 10 (step S29). A series of processing relating to the power-off executed in step S29 will be described later with reference to the flowchart shown in FIG.

前記ステップS19をNOに分岐する場合、ボディCPU2201は、所定のスリープタイマがタイムアップしたか否かを判定する(ステップS20)。このステップS21をNOに分岐する場合(スリープタイマがタイムアップしていない場合)、前記ステップS9へ移行する。他方、ステップS21をYESに分岐する場合(スリープタイマがタイムアップした場合)、ボディCPU2201は、当該カメラ10を、省電力モードである“スリープモード”に設定する(ステップS21)。このスリープモードにおいては、当該カメラ10の主要各部は省電力状態で保持され、且つ、SDRAM207の記録内容も保持される。   When step S19 is branched to NO, the body CPU 2201 determines whether or not a predetermined sleep timer has expired (step S20). When this step S21 is branched to NO (when the sleep timer is not up), the process proceeds to step S9. On the other hand, when step S21 is branched to YES (when the sleep timer expires), the body CPU 2201 sets the camera 10 to the “sleep mode” that is the power saving mode (step S21). In this sleep mode, the main components of the camera 10 are held in a power saving state, and the recorded contents of the SDRAM 207 are also held.

図10は、本一実施形態に係るカメラ10がスリープモードに設定されている場合の接眼センサー213の検出間隔の一例を示す図である。同図に示す一例では、接眼センサー213による検出間隔を、スリープモード時には通常状態におけるそれよりも長い時間間隔に設定している。このように設定することで、例えば接眼センサー213による接眼状態の検出を当該カメラ10のパワーオンのトリガーとして用いる場合に、短時間(例えば接眼センサー213の検出間隔未満の時間)の接眼状態では当該カメラ10はパワーオンにならない為、ユーザに撮影を行う意図が実際にあるか否かを判定することが可能となる。   FIG. 10 is a diagram illustrating an example of the detection interval of the eye sensor 213 when the camera 10 according to the present embodiment is set to the sleep mode. In the example shown in the figure, the detection interval by the eye sensor 213 is set to a longer time interval than that in the normal state in the sleep mode. By setting in this way, for example, when detection of the eyepiece state by the eyepiece sensor 213 is used as a power-on trigger of the camera 10, the eyepiece state in a short time (for example, a time shorter than the detection interval of the eyepiece sensor 213) Since the camera 10 is not powered on, it is possible to determine whether or not the user actually intends to shoot.

当該カメラ10がスリープモードに設定された後、ボディCPU2201は、電源スイッチがオフにされたか否かを判定する(ステップS22)。このステップS22をYESに分岐する場合(電源スイッチ301aがオフにされた場合)、ボディCPU2201は、当該カメラ10をパワーオフする(ステップS29)。換言すれば、スリープモードの解除要因が“電源スイッチ301aのオフ”であった場合には当該カメラ10をそのままパワーオフする。   After the camera 10 is set to the sleep mode, the body CPU 2201 determines whether or not the power switch is turned off (step S22). When step S22 is branched to YES (when the power switch 301a is turned off), the body CPU 2201 powers off the camera 10 (step S29). In other words, if the sleep mode canceling factor is “power switch 301a off”, the camera 10 is powered off as it is.

一方、ステップS22をNOに分岐する場合(例えばユーザにより操作部301等の操作で割り込み処理が為された場合)、ボディCPU2201はスリープモードを解除し、当該カメラ10を通常状態に復帰させる。なお、スリープモードの解除要因としては、操作部301等の操作以外にも、例えば接眼センサー213による接眼状態の検出を挙げることができる。すなわち、接眼センサー213によって接眼状態が検出された場合にも、当該カメラ10を通常状態に復帰させるとしてもよい。   On the other hand, when step S22 is branched to NO (for example, when an interrupt process is performed by an operation of the operation unit 301 or the like by the user), the body CPU 2201 cancels the sleep mode and returns the camera 10 to the normal state. In addition to the operation of the operation unit 301 and the like, the factor of canceling the sleep mode includes, for example, detection of an eyepiece state by the eyepiece sensor 213. That is, even when the eyepiece state is detected by the eyepiece sensor 213, the camera 10 may be returned to the normal state.

割り込み処理によってスリープモードが解除されると、ボディCPU2201は、入出力回路2211を介して撮像素子駆動回路205を制御することによって撮像素子2041を駆動させ、撮像動作を開始させる(ステップS23)。
続いて、ボディCPU2201は、撮像素子2041によって取得され前処理回路206を経て画像処理回路2206に取り込まれた画像データについて、当該画像処理回路2206に測光処理(ライブビュー用測光処理)を開始させる(ステップS24)。そして、ボディCPU2201は、画像処理回路2206による当該画像データの各種画像処理を開始させる(ステップS25)。
When the sleep mode is canceled by the interrupt process, the body CPU 2201 drives the image sensor 2041 by controlling the image sensor drive circuit 205 via the input / output circuit 2211 to start an imaging operation (step S23).
Subsequently, the body CPU 2201 causes the image processing circuit 2206 to start photometric processing (live view photometric processing) for the image data acquired by the image sensor 2041 and captured by the image processing circuit 2206 via the preprocessing circuit 206 ( Step S24). Then, the body CPU 2201 starts various image processing of the image data by the image processing circuit 2206 (step S25).

さらに、ボディCPU2201は、モニタ駆動回路210−1を制御して、ファインダー液晶モニタ211を駆動させ、モニタの画面上における画像表示を開始させる(ステップS26)。その後、ステップS9へ戻る。
以下、図3A,3Bに示されているフローチャートにおけるステップS7の“撮影動作”のサブルーチンについて説明する。図11は、図3A,3Bに示されているフローチャートにおけるステップS7の“撮影動作”のサブルーチンのフローチャートを示す図である。
Further, the body CPU 2201 controls the monitor driving circuit 210-1 to drive the finder liquid crystal monitor 211 to start image display on the monitor screen (step S26). Thereafter, the process returns to step S9.
Hereinafter, the “shooting operation” subroutine of step S7 in the flowcharts shown in FIGS. 3A and 3B will be described. FIG. 11 is a flowchart of the “shooting operation” subroutine of step S7 in the flowcharts shown in FIGS. 3A and 3B.

まず、ボディCPU2201は、所謂コントラストAFを実行する(ステップS31)。すなわち、ボディCPU2201は、通信回路2212及び通信端子106を介してレンズCPU105を制御し、フォーカス駆動機構103によって、フォーカシングレンズ101をコントラストピーク位置(撮像により取得した画像データのコントラストが最大となるレンズ位置)に移動させる。   First, the body CPU 2201 performs so-called contrast AF (step S31). That is, the body CPU 2201 controls the lens CPU 105 via the communication circuit 2212 and the communication terminal 106, and the focus driving mechanism 103 moves the focusing lens 101 to the contrast peak position (the lens position at which the contrast of image data acquired by imaging is maximized). ).

続いて、ボディCPU2201は、撮像素子2041によって取得され前処理回路206を経て画像処理回路2206に取り込まれた画像データについて、当該画像処理回路2206に測光処理を実行させ、該測光処理結果に基づいて適正露出を得られるシャッタースピード、絞り値、感度等を算出する(ステップS32)。   Subsequently, the body CPU 2201 causes the image processing circuit 2206 to perform photometric processing on the image data acquired by the image sensor 2041 and captured by the image processing circuit 2206 via the preprocessing circuit 206, and based on the photometric processing result. The shutter speed, aperture value, sensitivity, and the like that can obtain appropriate exposure are calculated (step S32).

そして、ボディCPU2201は、2ndレリーズスイッチがオン(シャッターボタン301bが全押し)されたか否かを判定する(ステップS33)。このステップS33をNOに分岐する場合(2ndレリーズスイッチがオンされていないと判定した場合)、CPU2201は、1stレリーズスイッチがオン(シャッターボタン301bが半押し)されたか否かを判定する(ステップS34)。   Then, the body CPU 2201 determines whether or not the 2nd release switch is turned on (the shutter button 301b is fully pressed) (step S33). When step S33 is branched to NO (when it is determined that the 2nd release switch is not turned on), the CPU 2201 determines whether or not the first release switch is turned on (the shutter button 301b is half-pressed) (step S34). ).

前記ステップS34をYESに分岐する場合、前記ステップS33へ戻る。一方、前記ステップS34をNOに分岐する場合、その時点においてシャッターボタン301bが解放されている(1stレリーズスイッチ及び2ndレリーズスイッチがオフされている)状態であるので、図3A,3Bに示すフローチャートへ戻る。   When step S34 is branched to YES, the process returns to step S33. On the other hand, when step S34 is branched to NO, the shutter button 301b is in a released state (the 1st release switch and the 2nd release switch are turned off) at that time, so that the flowcharts shown in FIGS. 3A and 3B are performed. Return.

ところで、前記ステップS33をYESに分岐する場合、ボディCPU2201は、シャッター駆動機構202を制御して、シャッター201を閉じる。その後、ボディCPU2201は、絞り駆動機構104を制御して、絞り機構102を前記ステップS32で算出した絞り値まで絞り込む(ステップS35)。   By the way, when step S33 is branched to YES, the body CPU 2201 controls the shutter drive mechanism 202 to close the shutter 201. Thereafter, the body CPU 2201 controls the aperture driving mechanism 104 to narrow the aperture mechanism 102 to the aperture value calculated in step S32 (step S35).

続いて、ボディCPU2201は、シャッター駆動機構202を制御して、シャッター201を前記ステップS32で算出した開放時間だけ開放しつつ、撮像素子2041による撮像(露光)を行う(ステップS36)。そして、ボディCPU2201は、シャッター駆動機構202を制御し、前記ステップS35において絞り込んだ絞り機構102を開放させる(ステップS37)。   Subsequently, the body CPU 2201 controls the shutter drive mechanism 202 to perform imaging (exposure) with the imaging element 2041 while opening the shutter 201 for the opening time calculated in step S32 (step S36). Then, the body CPU 2201 controls the shutter drive mechanism 202 to open the aperture mechanism 102 that has been apertured in step S35 (step S37).

その後、ボディCPU2201は、撮像素子2041によって得られた画像データを画像処理回路2206に読み込み(ステップS38)、当該画像処理回路2206によって所定の画像処理を施し且つ所定のフォーマットデータ(例えばJPEG等)に変換する(ステップS39)。そして、ボディCPU2201は、画像処理回路2206によって処理された画像データを記録媒体208に記録する(ステップS40)。   Thereafter, the body CPU 2201 reads the image data obtained by the image sensor 2041 into the image processing circuit 2206 (step S38), performs predetermined image processing by the image processing circuit 2206, and converts it into predetermined format data (for example, JPEG). Conversion is performed (step S39). The body CPU 2201 records the image data processed by the image processing circuit 2206 on the recording medium 208 (step S40).

以下、図3Bに示されているフローチャートにおけるステップS29の“パワーオフ”のサブルーチンについて説明する。図12は、図3Bに示されているフローチャートにおけるステップS29の“パワーオフ”のサブルーチンのフローチャートを示す図である。   The “power off” subroutine in step S29 in the flowchart shown in FIG. 3B will be described below. FIG. 12 is a flowchart of the “power off” subroutine of step S29 in the flowchart shown in FIG. 3B.

まず、ボディCPU2201は、モニタ駆動回路210−2を介して背面液晶モニタ214を消灯制御する(ステップS51)。
続いて、ボディCPU2201は、内蔵ファインダーユニット200uを用いてライブビュー画像の表示を行っているか否かを判定する(ステップS52)。このステップS52をYESに分岐する場合、ボディCPU2201は、上述のステップS11において開始させたファインダー液晶モニタ211における“設定状態情報”の表示を終了させる(ステップS53)。
First, the body CPU 2201 controls to turn off the rear liquid crystal monitor 214 via the monitor drive circuit 210-2 (step S51).
Subsequently, the body CPU 2201 determines whether or not the live view image is displayed using the built-in finder unit 200u (step S52). When step S52 is branched to YES, the body CPU 2201 ends the display of “setting state information” on the finder liquid crystal monitor 211 started in step S11 described above (step S53).

ここで、ボディCPU2201は、所定時間のファインダータイマの計時を開始させ(ステップS54)、当該ファインダータイマがタイムアップするのを待つ(ステップS55)。ボディCPU2201は、このステップS55においてタイムアップしたと判定した時点で、内蔵ファインダーユニット200uを用いたライブビュー画像の表示を終了させる(ステップS56)。   Here, the body CPU 2201 starts measuring the finder timer for a predetermined time (step S54), and waits for the finder timer to expire (step S55). The body CPU 2201 ends the display of the live view image using the built-in finder unit 200u when it is determined in step S55 that the time is up (step S56).

ところで、前記ステップS52をNOに分岐する場合、及び、前記ステップS56における処理を完了した後、ボディCPU2201は、モニタ駆動回路210−1の動作を停止させる制御をし(ステップS57)、撮像ユニット204の動作を停止させる制御をし(ステップS58)、当該カメラ10の各部への給電を停止させる制御をする(ステップS59)。   By the way, when step S52 is branched to NO and after the processing in step S56 is completed, the body CPU 2201 performs control to stop the operation of the monitor drive circuit 210-1 (step S57), and the imaging unit 204. (Step S58), and control to stop the power supply to each part of the camera 10 (step S59).

パワーオフの際に上述したステップS51乃至ステップS59の一連の処理を実行することによって、内蔵ファインダーユニット200uにおけるライブビュー画像の表示を突然消灯させず、所定時間だけ当該表示を続行させた後に、当該表示を消灯させることができる。つまり、ユーザにとって、より自然な態様で当該カメラ10をパワーオフさせることができる。   By executing the above-described series of processing from step S51 to step S59 when the power is turned off, the display of the live view image in the built-in finder unit 200u is not suddenly turned off, and the display is continued for a predetermined time. The display can be turned off. That is, the camera 10 can be powered off in a more natural manner for the user.

以上説明したように、本一実施形態によれば、撮像装置の起動時におけるEVFへのライブビュー画像の表示に要する時間を短縮化した撮像装置及び撮像方法を提供することができる。
以上、一実施形態に基づいて本発明を説明したが、本発明は上述した各実施形態に限定されるものではなく、本発明の要旨の範囲内で、種々の変形及び応用が可能なことは勿論である。
《第1変形例》
以下、前記一実施形態の第1変形例に係る撮像装置及び撮像方法について説明する。説明の重複を避ける為、前記一実施形態との相違点について説明する。
As described above, according to the present embodiment, it is possible to provide an imaging apparatus and an imaging method in which the time required for displaying the live view image on the EVF when the imaging apparatus is activated can be shortened.
As mentioned above, although this invention was demonstrated based on one Embodiment, this invention is not limited to each embodiment mentioned above, A various deformation | transformation and application are possible within the range of the summary of this invention. Of course.
<< First Modification >>
Hereinafter, an imaging device and an imaging method according to a first modification of the embodiment will be described. In order to avoid duplication of explanation, differences from the one embodiment will be described.

本第1変形例においては、カメラ10に実際に外部ファインダーユニット300uが装着されて用いられることを想定している。
図13は、カメラ10に装着されて実際に用いられる外部ファインダーユニット300uの使用態様の一例を示す図である。同図に示すように、外部ファインダーユニット300uは、例えばカメラ10の上面側に装着される。ユーザは、被写体Sをフレーミングする際に、図13に示すように当該外部ファインダーユニット300uを所謂ウエストレベルファインダーとして用いることが可能となる。
In the first modified example, it is assumed that the external finder unit 300u is actually attached to the camera 10 and used.
FIG. 13 is a diagram illustrating an example of a usage mode of the external finder unit 300u that is mounted on the camera 10 and actually used. As shown in the figure, the external viewfinder unit 300u is mounted on the upper surface side of the camera 10, for example. When framing the subject S, the user can use the external finder unit 300u as a so-called waist level finder as shown in FIG.

以下、本第1変形例に係るカメラ10の主動作に係る一連の処理について説明する。図14A及び図14Bは、本第1変形例に係るカメラ10の主動作に係る一連の処理のフローチャートを示す図である。
まず、電源スイッチ301aがオンに設定されると、ボディCPU2201は、入出力回路2211を介して撮像素子駆動回路205を制御することによって撮像素子2041を駆動させ、撮像動作を開始させる(ステップS101)。続いて、ボディCPU2201は、撮像素子2041によって取得され前処理回路206を経て画像処理回路2206に取り込まれた画像データについて、当該画像処理回路2206に測光処理(ライブビュー用測光処理)を開始させる(ステップS102)。そして、ボディCPU2201は、画像処理回路2206による当該画像データの各種画像処理を開始させる(ステップS103)。さらに、ボディCPU2201は、モニタ駆動回路210−1の動作を開始させる(ステップS104)。
Hereinafter, a series of processes related to the main operation of the camera 10 according to the first modification will be described. 14A and 14B are flowcharts illustrating a series of processes related to the main operation of the camera 10 according to the first modification.
First, when the power switch 301a is set to ON, the body CPU 2201 drives the image sensor 2041 by controlling the image sensor drive circuit 205 via the input / output circuit 2211 and starts an imaging operation (step S101). . Subsequently, the body CPU 2201 causes the image processing circuit 2206 to start photometric processing (live view photometric processing) for the image data acquired by the image sensor 2041 and captured by the image processing circuit 2206 via the preprocessing circuit 206 ( Step S102). Then, the body CPU 2201 starts various image processing of the image data by the image processing circuit 2206 (step S103). Furthermore, the body CPU 2201 starts the operation of the monitor drive circuit 210-1 (step S104).

ここにおいて、ボディCPU2201は、当該カメラ10に外部ファインダーユニット300uが装着されているか否かを判定する(ステップS105)。このステップS105をYESに分岐する場合(外部ファインダーユニット300uが装着されている場合)、ボディCPU2201は、外部ファインダーユニット300uが備えるファインダー液晶モニタ311においてライブビュー表示を開始させる(ステップS106)。   Here, the body CPU 2201 determines whether or not the external finder unit 300u is attached to the camera 10 (step S105). When step S105 is branched to YES (when the external finder unit 300u is attached), the body CPU 2201 starts live view display on the finder liquid crystal monitor 311 provided in the external finder unit 300u (step S106).

一方、ステップS105をNOに分岐する場合(外部ファインダーユニット300uが装着されていない場合)、ボディCPU2201は、内蔵ファインダーユニット200uが備えるファインダー液晶モニタ211においてライブビュー表示を開始させる(ステップS107)。   On the other hand, when step S105 is branched to NO (when the external finder unit 300u is not attached), the body CPU 2201 starts live view display on the finder liquid crystal monitor 211 provided in the built-in finder unit 200u (step S107).

上述のステップS106またはステップS107においてライブビュー表示を開始させた後、ボディCPU2201は、レリーズスイッチをオンすることにつき受け付けを開始するよう制御する。すなわち、ボディCPU2201は、シャッターボタン301bが操作されたか否か(1stまたは2ndレリーズスイッチがオンされたか否か)を判定する(ステップS108)。   After starting the live view display in step S106 or step S107 described above, the body CPU 2201 controls to start accepting when the release switch is turned on. That is, the body CPU 2201 determines whether or not the shutter button 301b has been operated (whether the 1st or 2nd release switch has been turned on) (step S108).

本第1変形例に係るカメラ10においては、このように電源スイッチ301aがオンに設定されて当該カメラ10が起動される際に、外部ファインダーユニット300uが装着されている場合には、強制的に外部ファインダーユニット300uのファインダー液晶モニタ311のみにライブビュー画像を表示させるよう制御する。これにより、敢えて当該カメラ10に外部ファインダーユニット300uを装着させたユーザの意思を尊重した表示態様となる。また、背面液晶モニタ214の表示に係る処理や各種演算に要する処理/時間を省くことができ、起動後すぐにシャッターチャンスが訪れたとしても当該シャッターチャンスを逃がしてしまうことを防止することができる。   In the camera 10 according to the first modified example, when the external viewfinder unit 300u is attached when the power switch 301a is set to ON and the camera 10 is activated as described above, Control is performed so that the live view image is displayed only on the finder liquid crystal monitor 311 of the external finder unit 300u. Thereby, it becomes a display mode in which the intention of the user who dares to attach the external finder unit 300u to the camera 10 is respected. In addition, it is possible to omit processing related to display on the rear liquid crystal monitor 214 and processing / time required for various calculations, and even if a photo opportunity comes immediately after activation, it is possible to prevent the photo opportunity from being missed. .

前記ステップS108をYESに分岐する場合(レリーズスイッチがオンされた場合)、ボディCPU2201は、ライブビュー表示に係る動作を終了させ、撮影動作を実行するよう当該カメラ10の各部を制御する(ステップS7)。なお、このステップS7の撮影動作に係る処理については、図11を参照して上述した通りである。   When step S108 is branched to YES (when the release switch is turned on), the body CPU 2201 ends the operation related to the live view display and controls each part of the camera 10 to execute the photographing operation (step S7). ). The processing relating to the photographing operation in step S7 is as described above with reference to FIG.

一方、前記ステップS108をNOに分岐する場合(レリーズスイッチがオフとなっている場合)、及び、前記ステップS7の処理を完了した後、ボディCPU2201は、“情報表示演算”を行って“設定状態情報(後述する)”を算出し、SDRAM207に格納する(ステップS110)。   On the other hand, when step S108 is branched to NO (when the release switch is OFF) and after the processing of step S7 is completed, the body CPU 2201 performs “information display calculation” to perform “setting state”. Information (to be described later) "is calculated and stored in the SDRAM 207 (step S110).

ここで、ボディCPU2201は、当該カメラ10に外部ファインダーユニット300uが装着されているか否かを判定する(ステップS111)。このステップS111をYESに分岐する場合(外部ファインダーユニット300uが装着されている場合)、ボディCPU2201は、外部ファインダーユニット300uの接眼センサー313の出力に基づいて、ユーザがファインダー液晶モニタ311を利用した撮影を行おうとしているか否か、即ち、ユーザがファインダー液晶モニタ311を覗き込んでいるか否かを判定する(ステップS112)。   Here, the body CPU 2201 determines whether or not the external finder unit 300u is attached to the camera 10 (step S111). When step S111 is branched to YES (when the external finder unit 300u is attached), the body CPU 2201 takes a picture using the finder liquid crystal monitor 311 based on the output of the eye sensor 313 of the external finder unit 300u. Whether or not the user is looking into the viewfinder liquid crystal monitor 311 is determined (step S112).

前記ステップS112をYESに分岐する場合(ユーザが外部ファインダーユニット300uによるファインダー撮影を行おうとしている場合)、ボディCPU2201は、ビデオ信号出力回路2208を介してモニタ駆動回路210−1を制御し、ファインダー液晶モニタ311の表示をオンさせる(ステップS113)。   When step S112 is branched to YES (when the user intends to perform viewfinder shooting using the external viewfinder unit 300u), the body CPU 2201 controls the monitor drive circuit 210-1 via the video signal output circuit 2208, and the viewfinder. The display on the liquid crystal monitor 311 is turned on (step S113).

前記ステップS113においてファインダー液晶モニタ311の表示をオンさせた際に、ボディCPU2201は、ステップS110において生成した“設定状態情報”のファインダー液晶モニタ311における表示も開始させる(ステップS114)。
上述したステップS113及びステップS114における処理の際に、ボディCPU2201は、モニタ駆動回路210−1を介してファインダー液晶モニタ211を消灯制御し(ステップS115)、且つ、モニタ駆動回路210−2を介して背面液晶モニタ214を消灯制御する(ステップS116)。
When the display of the finder liquid crystal monitor 311 is turned on in step S113, the body CPU 2201 also starts to display the “setting state information” generated in step S110 on the finder liquid crystal monitor 311 (step S114).
During the processing in step S113 and step S114 described above, the body CPU 2201 controls to turn off the finder liquid crystal monitor 211 via the monitor drive circuit 210-1 (step S115), and via the monitor drive circuit 210-2. The rear liquid crystal monitor 214 is controlled to be turned off (step S116).

ところで、ステップS111をNOに分岐した場合、及び、ステップS112をNOに分岐した場合には、ボディCPU2201は、接眼センサー213の出力に基づいて、ユーザがファインダー液晶モニタ211を利用した撮影を行おうとしているか否か、即ち、ユーザがファインダー液晶モニタ211を覗き込んでいるか否かを判定する(ステップS117)。   By the way, when step S111 is branched to NO and when step S112 is branched to NO, the body CPU 2201 performs shooting using the finder liquid crystal monitor 211 based on the output of the eye sensor 213. Whether or not the user is looking into the finder liquid crystal monitor 211 is determined (step S117).

前記ステップS117をYESに分岐する場合(ユーザが内蔵ファインダーユニット200uによるファインダー撮影を行おうとしている場合)、ボディCPU2201は、ビデオ信号出力回路2208を介してモニタ駆動回路210−1を制御し、ファインダー液晶モニタ211の表示をオンさせる(ステップS118)。   When step S117 is branched to YES (when the user is going to perform finder shooting with the built-in finder unit 200u), the body CPU 2201 controls the monitor drive circuit 210-1 via the video signal output circuit 2208, and the finder. The display on the liquid crystal monitor 211 is turned on (step S118).

前記ステップS118においてファインダー液晶モニタ211の表示をオンさせた際に、ボディCPU2201は、ステップS110において生成した“設定状態情報”のファインダー液晶モニタ211における表示も開始させる(ステップS119)。
上述したステップS118及びステップS119における処理の際に、ボディCPU2201は、モニタ駆動回路210−1を介してファインダー液晶モニタ311を消灯制御し(ステップS120)、且つ、モニタ駆動回路210−2を介して背面液晶モニタ214を消灯制御する(ステップS121)。
When the display of the finder liquid crystal monitor 211 is turned on in step S118, the body CPU 2201 also starts displaying the “setting state information” generated in step S110 on the finder liquid crystal monitor 211 (step S119).
During the processing in step S118 and step S119 described above, the body CPU 2201 controls the finder liquid crystal monitor 311 to be turned off via the monitor drive circuit 210-1 (step S120), and via the monitor drive circuit 210-2. The rear liquid crystal monitor 214 is controlled to be turned off (step S121).

ところで、前記ステップS117をNOに分岐する場合(ユーザが背面液晶モニタ214によるファインダー撮影を行おうとしている場合)、ボディCPU2201は、ビデオ信号出力回路2208を介してモニタ駆動回路210−2を制御し、背面液晶モニタ214の表示をオンさせる(ステップS123)。   By the way, when step S117 is branched to NO (when the user intends to perform viewfinder shooting using the rear liquid crystal monitor 214), the body CPU 2201 controls the monitor driving circuit 210-2 via the video signal output circuit 2208. Then, the display on the rear liquid crystal monitor 214 is turned on (step S123).

前記ステップS123において背面液晶モニタ214の表示をオンさせた際に、ボディCPU2201は、ステップS110において生成した“設定状態情報”の背面液晶モニタ214における表示も開始させる(ステップS124)。
上述したステップS123及びステップS124における処理の際に、ボディCPU2201は、モニタ駆動回路210−1を介してファインダー液晶モニタ311及びファインダー液晶モニタ211を消灯制御する(ステップS125,ステップS126)。
When the display on the rear liquid crystal monitor 214 is turned on in step S123, the body CPU 2201 also starts displaying the “setting state information” generated in step S110 on the rear liquid crystal monitor 214 (step S124).
During the processing in step S123 and step S124 described above, the body CPU 2201 controls to turn off the finder liquid crystal monitor 311 and the finder liquid crystal monitor 211 via the monitor driving circuit 210-1 (steps S125 and S126).

ところで、ステップS116、ステップS121、またはステップS126における処理を完了した後、ボディCPU2201は、シャッターボタン301bが操作されたか否か(1stまたは2ndレリーズスイッチがオンされたか否か)を判定する(ステップS127)。   By the way, after completing the processing in step S116, step S121, or step S126, the body CPU 2201 determines whether the shutter button 301b has been operated (whether the 1st or 2nd release switch has been turned on) (step S127). ).

前記ステップS127をYESに分岐する場合(レリーズスイッチがオンされた場合)、ボディCPU2201は、ライブビュー表示に係る動作を終了させ、撮影動作を実行するよう当該カメラ10の各部を制御する(ステップS7)。なお、このステップS7の撮影動作に係る処理については、図11を参照して上述した通りである。   When step S127 is branched to YES (when the release switch is turned on), the body CPU 2201 ends the operation related to the live view display and controls each part of the camera 10 to execute the shooting operation (step S7). ). The processing relating to the photographing operation in step S7 is as described above with reference to FIG.

一方、前記ステップS127をNOに分岐する場合(レリーズスイッチがオフとなっている場合)、及び、前記ステップS7の処理を完了した後、ボディCPU2201は、電源スイッチ301aがオフにされたか否かを判定する(ステップS129)。このステップS129をYESに分岐する場合、ボディCPU2201は、当該カメラ10をパワーオフする(ステップS29)。   On the other hand, when step S127 is branched to NO (when the release switch is off) and after the processing of step S7 is completed, the body CPU 2201 determines whether the power switch 301a is turned off. Determination is made (step S129). When step S129 is branched to YES, the body CPU 2201 powers off the camera 10 (step S29).

前記ステップS129をNOに分岐する場合、ボディCPU2201は、所定のスリープタイマがタイムアップしたか否かを判定する(ステップS130)。このステップS130をNOに分岐する場合(スリープタイマがタイムアップしていない場合)、前記ステップS111へ移行する。他方、ステップS130をYESに分岐する場合(スリープタイマがタイムアップした場合)、ボディCPU2201は、当該カメラ10を、省電力モードである“スリープモード”に設定する(ステップS131)。   When step S129 is branched to NO, the body CPU 2201 determines whether or not a predetermined sleep timer has expired (step S130). When step S130 is branched to NO (when the sleep timer is not up), the process proceeds to step S111. On the other hand, when step S130 is branched to YES (when the sleep timer expires), the body CPU 2201 sets the camera 10 to the “sleep mode” that is the power saving mode (step S131).

当該カメラ10がスリープモードに設定された後、ボディCPU2201は、電源スイッチ301aがオフにされたか否かを判定する(ステップS132)。このステップS132をYESに分岐する場合、ボディCPU2201は、当該カメラ10をパワーオフする(ステップS29)。換言すれば、スリープモードの解除要因が“電源スイッチ301aのオフ”であった場合には当該カメラ10をそのままパワーオフする。   After the camera 10 is set to the sleep mode, the body CPU 2201 determines whether or not the power switch 301a is turned off (step S132). When step S132 is branched to YES, the body CPU 2201 powers off the camera 10 (step S29). In other words, if the sleep mode canceling factor is “power switch 301a off”, the camera 10 is powered off as it is.

一方、ステップS132をNOに分岐する場合は、ユーザにより操作部301等の操作で割り込み処理が為された場合である。このような場合に、ボディCPU2201はスリープモードを解除し、当該カメラ10を通常状態に復帰させる。
割り込み処理によってスリープモードが解除されると、ボディCPU2201は、入出力回路2211を介して撮像素子駆動回路205を制御することによって撮像素子2041を駆動させ、撮像動作を開始させる(ステップS133)。
On the other hand, the case where step S132 is branched to NO is a case where an interrupt process is performed by the user by operating the operation unit 301 or the like. In such a case, the body CPU 2201 cancels the sleep mode and returns the camera 10 to the normal state.
When the sleep mode is canceled by the interrupt process, the body CPU 2201 drives the image sensor 2041 by controlling the image sensor drive circuit 205 via the input / output circuit 2211 to start an imaging operation (step S133).

続いて、ボディCPU2201は、撮像素子2041によって取得され前処理回路206を経て画像処理回路2206に取り込まれた画像データについて、当該画像処理回路2206に測光処理(ライブビュー用測光処理)を開始させる(ステップS134)。そして、ボディCPU2201は、画像処理回路2206による当該画像データの各種画像処理を開始させる(ステップS135)。   Subsequently, the body CPU 2201 causes the image processing circuit 2206 to start photometric processing (live view photometric processing) for the image data acquired by the image sensor 2041 and captured by the image processing circuit 2206 via the preprocessing circuit 206 ( Step S134). Then, the body CPU 2201 starts various image processing of the image data by the image processing circuit 2206 (step S135).

さらに、ボディCPU2201は、モニタ駆動回路210−1を制御して、ファインダー液晶モニタ211を駆動させ、モニタの画面上における画像表示を開始させる(ステップS136)。その後、ステップS111へ戻る。
以上説明したように、本第1変形例によれば、上述の一実施形態に係る撮像装置及び撮像方法と同様の効果を奏する上に、例えば外部ファインダーユニット300u等の外部装置が装着された際には当該外部装置が最優先でEVFに利用される。このように、敢えて当該カメラ10に外部ファインダーユニット300uを装着させたユーザの意図を反映させた制御を行うことで、ユーザが外部ファインダーユニット300uをEVFに使用する為の設定操作を行う必要を省くことができる。
なお、ボディCPU2201は、外部ファインダーユニット300uが当該カメラ10に装着されたことを検出した場合に、当該カメラ10を起動させてもよい。このように構成した場合、電源スイッチ301aがオンされた場合、または、外部ファインダーユニット300uが当該カメラ10に装着された場合に、当該カメラ10は起動されることとなる。
《第2変形例》
以下、前記一実施形態の第2変形例に係る撮像装置及び撮像方法について説明する。説明の重複を避ける為、前記一実施形態との相違点について説明する。
Further, the body CPU 2201 controls the monitor driving circuit 210-1 to drive the finder liquid crystal monitor 211 to start image display on the monitor screen (step S136). Then, it returns to step S111.
As described above, according to the first modified example, the same effects as those of the imaging apparatus and imaging method according to the above-described embodiment can be obtained, and when an external apparatus such as the external viewfinder unit 300u is attached. The external device is used for EVF with the highest priority. In this way, by performing control that reflects the intention of the user who dares to attach the external finder unit 300u to the camera 10, it is unnecessary for the user to perform a setting operation for using the external finder unit 300u for EVF. be able to.
The body CPU 2201 may activate the camera 10 when detecting that the external finder unit 300u is attached to the camera 10. In such a configuration, the camera 10 is activated when the power switch 301a is turned on or when the external viewfinder unit 300u is attached to the camera 10.
<< Second Modification >>
Hereinafter, an imaging apparatus and an imaging method according to the second modification of the embodiment will be described. In order to avoid duplication of explanation, differences from the one embodiment will be described.

本第2変形例においては、接眼センサー213による検出結果に基づいて、ライブビュー画像を表示するモニタをファインダー液晶モニタ211から背面液晶モニタ214に切り替えた場合であっても、ファインダー液晶モニタ211には所定時間だけライブビュー画像の表示を継続させる。   In the second modification, even when the monitor that displays the live view image is switched from the finder liquid crystal monitor 211 to the rear liquid crystal monitor 214 based on the detection result by the eye sensor 213, The display of the live view image is continued for a predetermined time.

以下、本第2変形例に係るカメラ10の主動作に係る一連の処理について説明する。図15A及び図15Bは、本第2変形例に係るカメラ10の主動作に係る一連の処理のフローチャートを示す図である。
まず、電源スイッチ301aがオンに設定されると、ボディCPU2201は、入出力回路2211を介して撮像素子駆動回路205を制御することによって撮像素子2041を駆動させ、撮像動作を開始させる(ステップS201)。続いて、ボディCPU2201は、撮像素子2041によって取得され前処理回路206を経て画像処理回路2206に取り込まれた画像データについて、当該画像処理回路2206に測光処理(ライブビュー用測光処理)を開始させる(ステップS202)。そして、ボディCPU2201は、画像処理回路2206による当該画像データの各種画像処理を開始させる(ステップS203)。
Hereinafter, a series of processes related to the main operation of the camera 10 according to the second modification will be described. 15A and 15B are flowcharts showing a series of processes related to the main operation of the camera 10 according to the second modification.
First, when the power switch 301a is set to ON, the body CPU 2201 drives the image sensor 2041 by controlling the image sensor drive circuit 205 via the input / output circuit 2211 and starts an imaging operation (step S201). . Subsequently, the body CPU 2201 causes the image processing circuit 2206 to start photometric processing (live view photometric processing) for the image data acquired by the image sensor 2041 and captured by the image processing circuit 2206 via the preprocessing circuit 206 ( Step S202). Then, the body CPU 2201 starts various image processing of the image data by the image processing circuit 2206 (step S203).

さらに、ボディCPU2201は、モニタ駆動回路210−1を制御して、ファインダー液晶モニタ211を駆動させ、モニタの画面上における画像表示を開始させる(ステップS204)。
ここにおいて、ファインダー液晶モニタ211におけるライブビュー表示が開始され(ステップS205)、ボディCPU2201はレリーズスイッチをオンすることにつき受け付けを開始するよう制御する。すなわち、ボディCPU2201は、シャッターボタン301bが操作されたか否か(1stまたは2ndレリーズスイッチがオンされたか否か)を判定する(ステップS206)。
Further, the body CPU 2201 controls the monitor driving circuit 210-1 to drive the finder liquid crystal monitor 211 to start image display on the monitor screen (step S204).
Here, live view display on the finder liquid crystal monitor 211 is started (step S205), and the body CPU 2201 controls to start acceptance when the release switch is turned on. That is, the body CPU 2201 determines whether or not the shutter button 301b has been operated (whether or not the 1st or 2nd release switch has been turned on) (step S206).

前記ステップS206をYESに分岐する場合(レリーズスイッチがオンされた場合)、ボディCPU2201は、ステップS201乃至ステップS205において実行したライブビュー表示に係る動作を終了させ、撮影動作を実行するよう当該カメラ10の各部を制御する(ステップS7)。なお、このステップS7の撮影動作に係る処理については、図11を参照して上述した通りである。   When step S206 is branched to YES (when the release switch is turned on), the body CPU 2201 ends the operation related to the live view display executed in steps S201 to S205 and executes the shooting operation. Are controlled (step S7). The processing relating to the photographing operation in step S7 is as described above with reference to FIG.

一方、前記ステップS206をNOに分岐する場合(レリーズスイッチがオフとなっている場合)、及び、前記ステップS7の処理を完了した後、ボディCPU2201は、“情報表示演算”を行って“設定状態情報(後述する)”を算出し、SDRAM207に格納する(ステップS208)。   On the other hand, when step S206 is branched to NO (when the release switch is OFF), and after the processing of step S7 is completed, the body CPU 2201 performs “information display calculation” to perform “setting state”. Information (to be described later) "is calculated and stored in the SDRAM 207 (step S208).

ここで、ボディCPU2201は、所定のファインダータイマの計時を開始させる(ステップS209)。そして、ボディCPU2201は、接眼センサー213の出力に基づいて、ユーザがファインダー液晶モニタ211を利用した撮影を行おうとしているか否か、即ち、ユーザがファインダー液晶モニタ211を覗き込んでいるか否かを判定する(ステップS210)。   Here, the body CPU 2201 starts measuring a predetermined finder timer (step S209). Then, based on the output of the eye sensor 213, the body CPU 2201 determines whether or not the user is going to take a picture using the finder liquid crystal monitor 211, that is, whether or not the user is looking into the finder liquid crystal monitor 211. (Step S210).

このステップS210をYESに分岐する場合(ユーザがファインダー撮影を行おうとしている場合)、ボディCPU2201は、ビデオ信号出力回路2208を介してモニタ駆動回路210−1を制御し、ファインダー液晶モニタ211の表示をオンさせる(ステップS211)。   When step S210 is branched to YES (when the user intends to perform viewfinder shooting), the body CPU 2201 controls the monitor drive circuit 210-1 via the video signal output circuit 2208 to display on the viewfinder liquid crystal monitor 211. Is turned on (step S211).

前記ステップS211においてファインダー液晶モニタ211の表示をオンさせた際に、ボディCPU2201は、ステップS208において生成した“設定状態情報”のファインダー液晶モニタ211における表示も開始させる(ステップS222)。
ここで、ボディCPU2201は、所定のファインダータイマの計時を開始させる(ステップS223)。さらに、ボディCPU2201は、モニタ駆動回路210−2を介して背面液晶モニタ214を消灯制御する(ステップS224)。
When the display of the finder liquid crystal monitor 211 is turned on in step S211, the body CPU 2201 also starts displaying the “setting state information” generated in step S208 on the finder liquid crystal monitor 211 (step S222).
Here, the body CPU 2201 starts measuring a predetermined finder timer (step S223). Further, the body CPU 2201 controls to turn off the rear liquid crystal monitor 214 via the monitor drive circuit 210-2 (step S224).

ところで、前記ステップS210をNOに分岐する場合(ユーザがファインダー撮影を行わない場合)、ボディCPU2201は、ビデオ信号出力回路2208を介してモニタ駆動回路210−2を制御し、背面液晶モニタ214の表示をオンさせる(ステップS225)。   When step S210 is branched to NO (when the user does not perform viewfinder shooting), the body CPU 2201 controls the monitor drive circuit 210-2 via the video signal output circuit 2208 to display on the rear liquid crystal monitor 214. Is turned on (step S225).

前記ステップS225において背面液晶モニタ214の表示をオンさせた際に、ボディCPU2201は、ステップS208において生成した“設定状態情報”の背面液晶モニタ214における表示も開始させる(ステップS226)。
ここにおいて、ボディCPU2201は、ファインダータイマがタイムアップしたか否かを判定する(ステップS227)。このステップS227をYESに分岐する場合(ファインダータイマがタイムアップした場合)、ボディCPU2201は、モニタ駆動回路210−1を介してファインダー液晶モニタ211を消灯制御する(ステップS228)。
When the display on the rear liquid crystal monitor 214 is turned on in step S225, the body CPU 2201 also starts displaying the “setting state information” generated in step S208 on the rear liquid crystal monitor 214 (step S226).
Here, the body CPU 2201 determines whether or not the finder timer has timed up (step S227). When step S227 is branched to YES (when the finder timer has timed up), the body CPU 2201 controls the finder liquid crystal monitor 211 to be turned off via the monitor drive circuit 210-1 (step S228).

ところで、ステップS224またはステップS228における処理を完了した後、ボディCPU2201は、シャッターボタン301bが操作されたか否か(レリーズスイッチがオンされたか否か)を判定する(ステップS229)。
前記ステップS229をYESに分岐する場合(レリーズスイッチがオンされた場合)、ボディCPU2201は、ライブビュー表示に係る動作を終了させ、撮影動作を実行するよう当該カメラ10の各部を制御する(ステップS7)。なお、このステップS7の撮影動作に係る処理については、図11を参照して上述した通りである。
By the way, after completing the processing in step S224 or step S228, the body CPU 2201 determines whether or not the shutter button 301b has been operated (whether or not the release switch has been turned on) (step S229).
When step S229 is branched to YES (when the release switch is turned on), the body CPU 2201 ends the operation relating to the live view display and controls each part of the camera 10 to execute the photographing operation (step S7). ). The processing relating to the photographing operation in step S7 is as described above with reference to FIG.

一方、前記ステップS229をNOに分岐する場合(レリーズスイッチがオフとなっている場合)、及び、前記ステップS7の処理を完了した後、ボディCPU2201は、電源スイッチ301aがオフにされたか否かを判定する(ステップS231)。このステップS231をYESに分岐する場合、ボディCPU2201は、当該カメラ10をパワーオフする(ステップS29)。   On the other hand, when step S229 is branched to NO (when the release switch is turned off) and after the processing of step S7 is completed, the body CPU 2201 determines whether the power switch 301a is turned off. Determination is made (step S231). When step S231 is branched to YES, the body CPU 2201 powers off the camera 10 (step S29).

前記ステップS231をNOに分岐する場合、ボディCPU2201は、所定のスリープタイマがタイムアップしたか否かを判定する(ステップS232)。このステップS232をNOに分岐する場合(スリープタイマがタイムアップしていない場合)、前記ステップS210へ移行する。他方、ステップS232をYESに分岐する場合(スリープタイマがタイムアップした場合)、ボディCPU2201は、当該カメラ10を、省電力モードである“スリープモード”に設定する(ステップS233)。   When step S231 is branched to NO, the body CPU 2201 determines whether or not a predetermined sleep timer has expired (step S232). When step S232 is branched to NO (when the sleep timer is not up), the process proceeds to step S210. On the other hand, when step S232 is branched to YES (when the sleep timer expires), the body CPU 2201 sets the camera 10 to the “sleep mode” that is the power saving mode (step S233).

当該カメラ10がスリープモードに設定された後、ボディCPU2201は、電源スイッチ301aがオフにされたか否かを判定する(ステップS234)。このステップS22をYESに分岐する場合(電源スイッチ301aがオフにされた場合)、ボディCPU2201は、当該カメラ10をパワーオフする(ステップS29)。   After the camera 10 is set to the sleep mode, the body CPU 2201 determines whether or not the power switch 301a is turned off (step S234). When step S22 is branched to YES (when the power switch 301a is turned off), the body CPU 2201 powers off the camera 10 (step S29).

一方、ステップS231をNOに分岐する場合(例えばユーザにより操作部301等の操作で割り込み処理が為された場合)、ボディCPU2201はスリープモードを解除し、当該カメラ10を通常状態に復帰させる。割り込み処理によってスリープモードが解除されると、ボディCPU2201は、入出力回路2211を介して撮像素子駆動回路205を制御することによって撮像素子2041を駆動させ、撮像動作を開始させる(ステップS235)。   On the other hand, when step S231 is branched to NO (for example, when an interrupt process is performed by an operation of the operation unit 301 or the like by the user), the body CPU 2201 cancels the sleep mode and returns the camera 10 to the normal state. When the sleep mode is canceled by the interrupt process, the body CPU 2201 controls the image sensor driving circuit 205 via the input / output circuit 2211 to drive the image sensor 2041 and start an imaging operation (step S235).

続いて、ボディCPU2201は、撮像素子2041によって取得され前処理回路206を経て画像処理回路2206に取り込まれた画像データについて、当該画像処理回路2206に測光処理(ライブビュー用測光処理)を開始させる(ステップS236)。そして、ボディCPU2201は、画像処理回路2206による当該画像データの各種画像処理を開始させる(ステップS237)。   Subsequently, the body CPU 2201 causes the image processing circuit 2206 to start photometric processing (live view photometric processing) for the image data acquired by the image sensor 2041 and captured by the image processing circuit 2206 via the preprocessing circuit 206 ( Step S236). Then, the body CPU 2201 starts various image processing of the image data by the image processing circuit 2206 (step S237).

さらに、ボディCPU2201は、モニタ駆動回路210−1を制御して、ファインダー液晶モニタ211を駆動させ、モニタの画面上における画像表示を開始させる(ステップS238)。その後、ステップS210へ戻る。
以上説明したように、本第2変形例によれば、上述の一実施形態に係る撮像装置及び撮像方法と同様の効果を奏する上に、下記の効果を奏する撮像装置及び撮像方法を提供することができる。
Further, the body CPU 2201 controls the monitor driving circuit 210-1 to drive the finder liquid crystal monitor 211 to start image display on the monitor screen (step S238). Thereafter, the process returns to step S210.
As described above, according to the second modification, in addition to the same effects as the imaging apparatus and imaging method according to the above-described embodiment, an imaging apparatus and imaging method that provide the following effects are provided. Can do.

すなわち、本第2変形例に係る撮像装置及び撮像方法によれば、内蔵ファインダーユニット200uのファインダー液晶モニタ211において一旦ライブビュー画像の表示が行われると(ユーザが一旦、内蔵ファインダーユニット200uの接眼レンズ212を覗くと)、その後にライブビュー画像の表示が背面液晶モニタ214に切り替わったとしても、内蔵ファインダーユニット200uのファインダー液晶モニタ211におけるライブビュー画像の表示が所定時間(前記ファインダータイマがタイムアップするまでの時間)だけ継続する。   That is, according to the imaging apparatus and imaging method according to the second modification, once the live view image is displayed on the finder liquid crystal monitor 211 of the built-in finder unit 200u (the user once has the eyepiece of the built-in finder unit 200u). 212), even if the display of the live view image is subsequently switched to the rear liquid crystal monitor 214, the display of the live view image on the finder liquid crystal monitor 211 of the built-in finder unit 200u is timed up (the finder timer times out). Until the time).

これにより、例えばユーザが僅かな時間だけ内蔵ファインダーユニット200uから顔を離間させてしまい、ライブビュー画像の表示が背面液晶モニタ214へ切り替わってしまったとしても、当該ユーザはファインダー液晶モニタ211を利用したフレーミングを即座に再び行うことが可能となる。   Thereby, for example, even if the user moves his / her face away from the built-in finder unit 200u for a short time and the display of the live view image is switched to the rear liquid crystal monitor 214, the user uses the finder liquid crystal monitor 211. The framing can be performed again immediately.

さらに、上述した実施形態には種々の段階の発明が含まれており、開示した複数の構成要件の適当な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示す全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention can be achieved. In the case of being obtained, a configuration from which this configuration requirement is deleted can also be extracted as an invention.

10…カメラ、 100…交換レンズ、 101…フォーカシングレンズ、 102…絞り機構、 103…フォーカス駆動機構、 104…絞り駆動機構、 105…レンズCPU、 106…通信端子、 200…カメラボディ、 200u…内蔵ファインダーユニット、 201…シャッター、 202…シャッター駆動機構、 2041…撮像素子、 204…撮像ユニット、 205…撮像素子駆動回路、 206…前処理回路、 2206…画像処理回路、 207…SDRAM、 208…記録媒体、 209…フラッシュメモリ、 210…モニタ駆動回路、 211,311…ファインダー液晶モニタ、 212,312…接眼レンズ、 213,313…接眼センサー、 214…背面液晶モニタ、 217…着脱検知スイッチ、 220…制御回路、 251…ボディ振動センサー、 252…ボディ防振制御回路、 253…ボディ防振機構、 254…防塵フィルタ駆動回路、 300u…外部ファインダーユニット、 301…操作部、 301a…電源スイッチ、 301b…シャッターボタン、 306,308…通信端子、 311…ファインダー液晶モニタ、 312…接眼レンズ、 313…接眼センサー、 2041…撮像素子、 2042…フィルタ群、 2043…防塵フィルタ、 2043p…圧電素子、 2201…ボディCPU、 2202…AF回路、 2203…SDRAM制御回路、 2204…フラッシュメモリ制御回路、 2205…記録媒体制御回路、 2206…画像処理回路、 2208…ビデオ信号出力回路、 2207…圧縮伸長回路、 2210…スイッチ検知回路、 2211…入出力回路、 2212…通信回路、 2213…データバス。     DESCRIPTION OF SYMBOLS 10 ... Camera, 100 ... Interchangeable lens, 101 ... Focusing lens, 102 ... Aperture mechanism, 103 ... Focus drive mechanism, 104 ... Aperture drive mechanism, 105 ... Lens CPU, 106 ... Communication terminal, 200 ... Camera body, 200u ... Built-in finder Unit: 201 ... Shutter, 202 ... Shutter drive mechanism, 2041 ... Imaging device, 204 ... Imaging unit, 205 ... Imaging device driving circuit, 206 ... Preprocessing circuit, 2206 ... Image processing circuit, 207 ... SDRAM, 208 ... Recording medium, 209: Flash memory, 210: Monitor driving circuit, 211, 311: Viewfinder liquid crystal monitor, 212, 312 ... Eyepiece, 213, 313 ... Eye sensor, 214 ... Rear liquid crystal monitor, 217: Attachment / detachment detection switch, 220 ... Control circuit, 251 ... Body vibration sensor, 252 ... Body vibration isolation control circuit, 253 ... Body vibration isolation mechanism, 254 ... Dustproof filter drive circuit, 300u ... External viewfinder unit, 301 ... Operating section, 301a ... Power switch, 301b ... Shutter button, 306, 308 ... communication terminal, 311 ... finder liquid crystal monitor, 312 ... eyepiece lens, 313 ... eye sensor, 2041 ... imaging element, 2042 ... filter group, 2043 ... dust filter, 2043p ... piezoelectric element, 2201 ... body CPU 2202 ... AF circuit, 2203 ... SDRAM control circuit, 2204 ... flash memory control circuit, 2205 ... recording medium control circuit, 2206 ... image processing circuit, 2208 ... video signal output circuit, 2207 ... compression / decompression circuit, 2 10 ... the switch detection circuit, 2211 ... input and output circuit, 2212 ... communication circuit, 2213 ... data bus.

Claims (12)

画像データを表示する画像表示部を複数有する撮像装置であって、
当該撮像装置を起動する指示を行う起動指示部と、
撮像によって画像データを取得する撮像部と、
前記撮像部が取得した画像データを処理して表示用画像データを生成する画像処理部と、
前記複数の画像表示部のうち優先的に前記表示用画像データを表示させる画像表示部である優先画像表示部と、
前記起動指示部による起動指示に応答して前記撮像部及び前記優先画像表示部を起動し、且つ、前記表示用画像データを前記優先画像表示部のみに少なくとも所定時間表示させる制御を行う制御部と、
を具備することを特徴とする撮像装置。
An imaging apparatus having a plurality of image display units for displaying image data,
An activation instructing unit for instructing to activate the imaging apparatus;
An imaging unit that acquires image data by imaging;
An image processing unit that processes image data acquired by the imaging unit to generate display image data;
A priority image display unit that is an image display unit that preferentially displays the image data for display among the plurality of image display units;
A control unit configured to activate the imaging unit and the priority image display unit in response to an activation instruction by the activation instruction unit, and to control the display image data to be displayed only on the priority image display unit for at least a predetermined time; ,
An imaging apparatus comprising:
前記優先画像表示部は、操作者によって覗き込まれた状態で画像が視認される表示部であり、
当該撮像装置は、前記優先画像表示部が覗き込まれている状態を検出する覗き込み検出部を更に具備し、
前記起動指示部は、前記覗き込み検出部によって前記覗き込まれている状態が検出された場合、または、当該撮像装置の電源スイッチがオンされた場合に、当該撮像装置を起動する指示を行う
ことを特徴とする請求項1に記載の撮像装置。
The priority image display unit is a display unit that allows an image to be viewed while being looked into by an operator,
The imaging apparatus further includes a peep detection unit that detects a state in which the priority image display unit is peeped,
The activation instructing unit gives an instruction to activate the imaging device when the state of being viewed is detected by the peeping detection unit or when a power switch of the imaging device is turned on. The imaging apparatus according to claim 1.
前記表示用画像データを表示する画像表示部を備えた外部表示装置を、前記表示用画像データを伝送可能に当該撮像装置に接続する為の外部装置接続部と、
前記外部装置接続部に前記外部表示装置が接続されたことを検出する装置接続検出部と、
を更に具備し、
前記起動指示部は、当該撮像装置の電源スイッチがオンされた場合、または、前記装置接続検出部によって前記外部表示装置が前記外部装置接続部に接続されたことが検出された場合、当該撮像装置を起動する指示を行い、
前記装置接続検出部によって前記外部表示装置が前記外部装置接続部に接続されたことが検出された場合、前記優先画像表示部は、前記外部表示装置が備える前記画像表示部である
ことを特徴とする請求項1に記載の撮像装置。
An external display device including an image display unit for displaying the display image data; an external device connection unit for connecting the display image data to the imaging device so as to be able to transmit;
A device connection detection unit for detecting that the external display device is connected to the external device connection unit;
Further comprising
When the power switch of the imaging device is turned on, or when the device connection detection unit detects that the external display device is connected to the external device connection unit, the activation instruction unit Instructions to start
When the device connection detection unit detects that the external display device is connected to the external device connection unit, the priority image display unit is the image display unit included in the external display device. The imaging device according to claim 1.
前記制御部は、当該撮像装置がパワーオフ状態になった場合またはスリープ状態になった場合には、前記覗き検出部による検出の時間間隔を、通常状態の場合におけるそれよりも長い間隔とする
ことを特徴とする請求項2に記載の撮像装置。
When the imaging device is in a power-off state or in a sleep state, the control unit sets a time interval for detection by the peeping detection unit to be longer than that in a normal state. The imaging apparatus according to claim 2.
当該撮像装置の設定状態を示す設定情報を生成する情報生成部を更に具備し、
前記制御部は、前記起動指示に応答して前記表示用画像データを前記優先画像表示部に表示させる際に、前記情報生成部に前記設定情報を生成させ、該設定情報を前記優先画像表示部に表示させる制御を行う
ことを特徴とする請求項1に記載の撮像装置。
An information generation unit that generates setting information indicating the setting state of the imaging apparatus;
The control unit causes the information generation unit to generate the setting information when the display image data is displayed on the priority image display unit in response to the activation instruction, and the setting information is displayed on the priority image display unit. The image pickup apparatus according to claim 1, wherein the image display device is controlled to be displayed.
前記起動指示部により起動指示が為された際に、前記撮像部による撮像における蓄積時間を複数設定する蓄積時間設定部を更に具備し、
前記画像処理部は、前記蓄積時間設定部により設定された複数の蓄積時間の各々で取得された複数の画像データから画像処理内容を決定し、該決定した画像処理内容の画像処理を実行して表示用画像データを生成する
ことを特徴とする請求項1に記載の撮像装置。
When an activation instruction is made by the activation instruction unit, the image acquisition unit further includes an accumulation time setting unit that sets a plurality of accumulation times in imaging by the imaging unit,
The image processing unit determines image processing content from a plurality of image data acquired at each of a plurality of storage times set by the storage time setting unit, and executes image processing of the determined image processing content The image pickup apparatus according to claim 1, wherein display image data is generated.
スリープタイマを更に具備し、
前記制御部は、前記優先画像表示部に前記表示用画像データが表示されている状態で、当該撮像装置のパワーオフ操作が為された場合または前記スリープタイマがタイムアップした場合には、前記優先画像表示部以外の前記画像表示部を消灯させ、その後に所定時間が経過した時点で、前記優先画像表示部を消灯させる
ことを特徴とする請求項1に記載の撮像装置。
A sleep timer;
The control unit, when the display image data is displayed on the priority image display unit, when the power-off operation of the imaging apparatus is performed or when the sleep timer times out, The imaging apparatus according to claim 1, wherein the image display units other than the image display unit are turned off, and the priority image display unit is turned off when a predetermined time has elapsed thereafter.
前記制御部は、前記優先画像表示部を消灯させる際には、前記優先画像表示部における表示をフェードアウトさせるよう制御する
ことを特徴とする請求項6に記載の撮像装置。
The imaging apparatus according to claim 6, wherein when the priority image display unit is turned off, the control unit controls to fade out the display on the priority image display unit.
スリープタイマを更に具備し、
前記制御部は、前記スリープタイマのタイムアップで当該撮像装置をスリープ状態に設定した後に、当該撮像装置をスリープ状態から復帰させる際には、前記覗き検出部による検出結果に応じて、前記優先画像表示部または他の画像表示部に、表示用画像データを表示させるように制御する
ことを特徴とする請求項1に記載の撮像装置。
A sleep timer;
The controller sets the priority image according to a detection result by the peep detection unit when returning the imaging device from the sleep state after setting the imaging device to the sleep state due to the time-up of the sleep timer. The image pickup apparatus according to claim 1, wherein the display device or the other image display unit is controlled to display the display image data.
所定の表示部を備える外部装置と当該撮像装置とを、前記表示画像データを伝送可能に接続する接続手段を更に具備し、
前記制御部は、前記接続手段を介して、前記外部装置と当該撮像装置とが接続された場合には、前記外部装置が備える前記表示部を、前記優先画像表示部として設定する
ことを特徴とする請求項1に記載の撮像装置。
Further comprising a connection means for connecting the external device having the predetermined display unit and the imaging device so that the display image data can be transmitted,
The control unit sets the display unit included in the external device as the priority image display unit when the external device and the imaging device are connected via the connection unit. The imaging device according to claim 1.
画像データを表示する画像表示部を複数有する撮像装置を用いた撮像方法であって、
前記撮像装置を起動する指示を行い、
前記指示に従って起動された後、撮像によって画像データを取得し、
前記撮像で取得した画像データを画像処理して表示用画像データを生成し、
前記指示に応答して前記撮像部及び前記所定の画像表示部を起動し、且つ、前記表示用画像データを、前記複数の画像表示部のうち所定の画像表示部のみに少なくとも所定時間表示させる、
ことを特徴とする撮像方法。
An imaging method using an imaging device having a plurality of image display units for displaying image data,
Instructing to start the imaging device,
After being activated according to the instructions, obtain image data by imaging,
The image data acquired by the imaging is subjected to image processing to generate display image data,
In response to the instruction, the imaging unit and the predetermined image display unit are activated, and the display image data is displayed only on the predetermined image display unit among the plurality of image display units for at least a predetermined time.
An imaging method characterized by the above.
スリープタイマによって計時し、
前記所定の画像表示部に前記表示用画像データが表示されている状態で、前記撮像装置のパワーオフ操作が為された場合または前記スリープタイマがタイムアップした場合には、前記所定の画像表示部以外の前記画像表示部を消灯させ、その後に所定時間が経過した時点で、前記所定の画像表示部を消灯させる
ことを特徴とする請求項11に記載の撮像方法。
Clocked by a sleep timer,
In a state where the display image data is displayed on the predetermined image display unit, when the power-off operation of the imaging apparatus is performed or when the sleep timer times out, the predetermined image display unit The imaging method according to claim 11, wherein the other image display units are turned off, and the predetermined image display unit is turned off when a predetermined time elapses thereafter.
JP2012024419A 2012-02-07 2012-02-07 Imaging apparatus and imaging method Active JP6032901B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012024419A JP6032901B2 (en) 2012-02-07 2012-02-07 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012024419A JP6032901B2 (en) 2012-02-07 2012-02-07 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2013162415A true JP2013162415A (en) 2013-08-19
JP6032901B2 JP6032901B2 (en) 2016-11-30

Family

ID=49174313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012024419A Active JP6032901B2 (en) 2012-02-07 2012-02-07 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP6032901B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017073758A (en) * 2015-10-09 2017-04-13 キヤノン株式会社 Imaging device, control method of the same, program, and recording medium
JP2020003602A (en) * 2018-06-27 2020-01-09 キヤノン株式会社 Imaging device, accessory device, and control method of the imaging device and the accessory device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0456935A (en) * 1990-06-26 1992-02-24 Minolta Camera Co Ltd Camera with ocular detecting function
JPH0536980U (en) * 1991-10-18 1993-05-18 ミノルタカメラ株式会社 Camera device
JPH09270944A (en) * 1996-04-02 1997-10-14 Canon Inc Electronic still camera
JPH10186964A (en) * 1996-12-24 1998-07-14 Canon Inc Image processor
JP2004201104A (en) * 2002-12-19 2004-07-15 Minolta Co Ltd Imaging apparatus
JP2006033737A (en) * 2004-07-21 2006-02-02 Nikon Corp Electronic camera
JP2007279553A (en) * 2006-04-11 2007-10-25 Pentax Corp Imaging apparatus
JP2010093787A (en) * 2008-09-11 2010-04-22 Panasonic Corp Display device and image capturing apparatus
JP2012010307A (en) * 2010-05-26 2012-01-12 Olympus Imaging Corp Imaging apparatus and imaging method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0456935A (en) * 1990-06-26 1992-02-24 Minolta Camera Co Ltd Camera with ocular detecting function
JPH0536980U (en) * 1991-10-18 1993-05-18 ミノルタカメラ株式会社 Camera device
JPH09270944A (en) * 1996-04-02 1997-10-14 Canon Inc Electronic still camera
JPH10186964A (en) * 1996-12-24 1998-07-14 Canon Inc Image processor
JP2004201104A (en) * 2002-12-19 2004-07-15 Minolta Co Ltd Imaging apparatus
JP2006033737A (en) * 2004-07-21 2006-02-02 Nikon Corp Electronic camera
JP2007279553A (en) * 2006-04-11 2007-10-25 Pentax Corp Imaging apparatus
JP2010093787A (en) * 2008-09-11 2010-04-22 Panasonic Corp Display device and image capturing apparatus
JP2012010307A (en) * 2010-05-26 2012-01-12 Olympus Imaging Corp Imaging apparatus and imaging method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017073758A (en) * 2015-10-09 2017-04-13 キヤノン株式会社 Imaging device, control method of the same, program, and recording medium
JP2020003602A (en) * 2018-06-27 2020-01-09 キヤノン株式会社 Imaging device, accessory device, and control method of the imaging device and the accessory device
JP7191556B2 (en) 2018-06-27 2022-12-19 キヤノン株式会社 IMAGING DEVICE, ACCESSORY DEVICE AND CONTROL METHOD THEREOF

Also Published As

Publication number Publication date
JP6032901B2 (en) 2016-11-30

Similar Documents

Publication Publication Date Title
JP5203018B2 (en) Imaging device and camera
US8223242B2 (en) Digital camera which switches the displays of images with respect to a plurality of display portions
US20100066845A1 (en) Digital camera
US20100066890A1 (en) Digital camera
US20100066895A1 (en) Digital camera
JP5052389B2 (en) Imaging device
JP2008053845A (en) Lens interchangeable camera
JP5161443B2 (en) camera
JP2009251491A (en) Imaging apparatus and control method for imaging apparatus
JP2010103599A (en) Digital camera system, digital camera, and interchangeable lens
JP6032901B2 (en) Imaging apparatus and imaging method
JP2004126242A (en) Camera
JP5478677B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2009284117A (en) Imaging device and method of controlling imaging device
JP2009171006A (en) Imaging apparatus and control method of thereof
JP6057529B2 (en) Imaging apparatus and imaging method
JP5363063B2 (en) Digital camera and control method of digital camera
JP2007295401A (en) Imaging apparatus, and control method thereof
JP2009015184A (en) Imaging device
JP2010066495A (en) Camera
JP2012182700A (en) Camera
JP2008118569A (en) Imaging apparatus, control method thereof and program
JP2009237271A (en) Optical device
JP2013187719A (en) Control of imaging apparatus equipped with dust removal function
JP2009290787A (en) Camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150116

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161025

R151 Written notification of patent or utility model registration

Ref document number: 6032901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250