JP2013088559A - Imaging apparatus, imaging method, and finder device - Google Patents

Imaging apparatus, imaging method, and finder device Download PDF

Info

Publication number
JP2013088559A
JP2013088559A JP2011227790A JP2011227790A JP2013088559A JP 2013088559 A JP2013088559 A JP 2013088559A JP 2011227790 A JP2011227790 A JP 2011227790A JP 2011227790 A JP2011227790 A JP 2011227790A JP 2013088559 A JP2013088559 A JP 2013088559A
Authority
JP
Japan
Prior art keywords
image
finder
imaging
optical system
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011227790A
Other languages
Japanese (ja)
Inventor
Toshiyuki Tanaka
俊幸 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung R&D Institute Japan Co Ltd
Original Assignee
Samsung Yokohama Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Yokohama Research Institute filed Critical Samsung Yokohama Research Institute
Priority to JP2011227790A priority Critical patent/JP2013088559A/en
Publication of JP2013088559A publication Critical patent/JP2013088559A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To further accurately observe an image to be captured, through a finder without moving an entire finder unit.SOLUTION: The imaging apparatus includes: a first imaging element for capturing a first image; a finder optical system that has an optical axis different from that of an imaging optical system for guiding light to the first imaging element and forms an optical image observable through the finder; a second imaging element that acquires a second image from an optical image in a same range as the optical image observable through the finder; a control unit that performs a control such that an imaging range of the second imaging element includes the imaging range of the first imaging element; a detecting unit that detects an area in the second image corresponding to the first image; and a display unit that displays an image superimposed on the optical image, the image being generated based on the detection result of the area, corresponding to the first image, and representing the area within the optical image observable through the finder.

Description

本発明は、撮像装置、撮像方法、およびファインダ装置に関する。   The present invention relates to an imaging apparatus, an imaging method, and a finder apparatus.

近年、撮像素子により取得された画像データに画像処理を施した上で記録メディアや内蔵メモリに記憶するデジタルカメラが普及している。当該デジタルカメラで撮影する際に被写体を観察するためのファインダの方式として、レフレックスファインダ、電子ビューファインダ、レンジファインダ等の方式がある。   In recent years, digital cameras that perform image processing on image data acquired by an image sensor and store the data in a recording medium or a built-in memory have become widespread. There are methods such as a reflex finder, an electronic view finder, and a range finder as a finder method for observing a subject when photographing with the digital camera.

上記ファインダの方式の中でも、レンジファインダは、一眼レフカメラ(レフレックスファインダ)でのブラックアウトや、電子ファインダでの画像表示の遅延のような短所をもたないので、特に動く被写体の連写撮影に有効である。しかし、レンジファインダでは、撮影用の光学系とは異なる光軸を持つファインダ用の光学系が用いられるので、ファインダで観察可能な光学像と撮影される画像との間のずれ、すなわちパララックスが発生する恐れがある。そのため、当該パララックスを抑えるための技術も存在する。   Among the above-mentioned finder methods, the range finder does not have the disadvantages of blackout with a single-lens reflex camera (reflex finder) or image display delay with an electronic finder. It is effective for. However, in the range finder, since a finder optical system having an optical axis different from that of the photographing optical system is used, a deviation between the optical image observable by the finder and the photographed image, that is, parallax is not generated. May occur. Therefore, there is a technique for suppressing the parallax.

例えば、特許文献1では、撮影用の光学系から取得される画像とファインダ光学系から撮像される画像との共通部分を抽出し、両画像内の共通部分の座標が合うように、ファインダユニット全体を回転させてファインダ光学系の光軸調整を行う技術が開示されている。   For example, in Patent Document 1, a common part between an image acquired from an imaging optical system and an image captured from a finder optical system is extracted, and the coordinates of the common part in both images are matched so that the entire finder unit is matched. A technique for adjusting the optical axis of a finder optical system by rotating the lens is disclosed.

特開特開2007−116271号公報JP, 2007-116271, A

しかし、上記特許文献1の技術は、パララックスを抑え、撮影される画像に近い光学像をファインダで観察できるようにするものの、ファインダユニット全体を動かすための駆動機構が必要となるので、ファインダユニットのサイズを大幅に増大させ、またコストも増加させる。また、上記特許文献1の技術は、撮影される画像とファインダで観察可能な光学像を完全に一致させるわけではない。すなわち、当該技術では、利用者は、撮影される画像を正確に観察することはできない。   However, although the technique of the above-mentioned Patent Document 1 suppresses parallax and enables an optical image close to a photographed image to be observed with a finder, a driving mechanism for moving the entire finder unit is necessary. Greatly increases the size and cost. Further, the technique disclosed in Patent Document 1 does not completely match a photographed image with an optical image that can be observed with a viewfinder. That is, with this technique, the user cannot accurately observe the captured image.

そこで、本発明では、ファインダユニット全体を動かすことなく、撮影される画像をファインダでより正確に観察することを可能にする、新規かつ改良された撮像装置、撮像方法、およびファインダ装置を提案する。   Therefore, the present invention proposes a new and improved imaging apparatus, imaging method, and finder apparatus that allow a photographed image to be more accurately observed without moving the entire finder unit.

本発明によれば、第1の画像を取得する撮影用の第1の撮像素子と、上記第1の撮像素子に光を導く撮影光学系とは異なる光軸を持ち、ファインダで観察可能な光学像を結像するファインダ光学系と、上記ファインダで観察可能な光学像と同じ範囲の光学像から第2の画像を取得する第2の撮像素子と、上記第2の撮像素子の撮像範囲が上記第1の撮像素子の撮像範囲を包含するための制御を行う制御部と、上記第1の画像に対応する上記第2の画像内の領域を検出する検出部と、上記領域の検出結果に基づき生成される、上記第1の画像に対応する上記ファインダで観察可能な光学像内の領域を示す画像を、当該光学像に重畳して表示する表示部と、を備える撮像装置が提供される。   According to the present invention, the first imaging element for photographing that acquires the first image and the optical that has an optical axis different from that of the photographing optical system that guides light to the first imaging element and that can be observed with the viewfinder A finder optical system that forms an image, a second imaging element that acquires a second image from an optical image in the same range as an optical image that can be observed by the finder, and an imaging range of the second imaging element Based on a control unit that performs control to include the imaging range of the first imaging device, a detection unit that detects a region in the second image corresponding to the first image, and a detection result of the region An image pickup apparatus is provided that includes a display unit that superimposes and displays an image showing a region in an optical image that can be observed with the viewfinder corresponding to the first image.

上記ファインダ光学系は、画角の変更を可能にするズーム機能を有し、上記制御部は、上記撮影光学系の画角よりも大きくなるように上記ファインダ光学系の画角を調整することにより、上記制御を行ってもよい。   The finder optical system has a zoom function that allows the angle of view to be changed, and the control unit adjusts the angle of view of the finder optical system so as to be larger than the angle of view of the photographing optical system. The above control may be performed.

上記制御部は、上記撮影光学系の画角に関する情報を取得し、当該情報に基づいて上記ファインダ光学系の画角を調整してもよい。   The control unit may acquire information related to the angle of view of the photographing optical system and adjust the angle of view of the finder optical system based on the information.

上記制御部は、上記撮影光学系の最近接距離に関する情報も取得し、上記画角に関する情報と上記最近接距離に関する情報とに基づいて上記ファインダ光学系の画角を調整してもよい。   The control unit may also acquire information on the closest distance of the photographing optical system and adjust the angle of view of the finder optical system based on the information on the field angle and the information on the closest distance.

上記制御部は、上記第2の画像内の上記領域の検出結果に基づいて、上記ファインダ光学系の画角を調整してもよい。   The control unit may adjust an angle of view of the finder optical system based on a detection result of the region in the second image.

上記制御部は、上記第2の画像内の上記領域が上記第1の画像の一部に対応する場合に、上記ファインダ光学系の画角をより大きい画角に調整してもよい。   The control unit may adjust the field angle of the finder optical system to a larger field angle when the region in the second image corresponds to a part of the first image.

上記表示部は、上記ファインダ光学系の画角をより大きい画角に調整できない場合に、警告を示す画像を表示してもよい。   The display unit may display an image indicating a warning when the angle of view of the finder optical system cannot be adjusted to a larger angle of view.

上記制御部は、上記第2の画像内の上記領域の大きさに対する当該第2の画像の大きさの比率が所定の閾値以上である場合に、上記ファインダ光学系の画角をより小さい画角に調整してもよい。   When the ratio of the size of the second image to the size of the region in the second image is equal to or greater than a predetermined threshold, the control unit reduces the angle of view of the finder optical system to a smaller angle of view. You may adjust it.

上記撮像装置は、上記第2の画像内の上記領域に含まれる画素の情報を用いて、上記撮像装置の動作に関する制御値を変更する変更部をさらに備えてもよい。   The imaging apparatus may further include a changing unit that changes a control value related to the operation of the imaging apparatus using information on pixels included in the region in the second image.

上記変更部は、連写撮影を行う場合に上記制御値を変更してもよい。   The change unit may change the control value when performing continuous shooting.

上記制御値は、上記撮像装置の露出制御値であってもよい。   The control value may be an exposure control value of the imaging apparatus.

上記制御値は、上記第1の画像の画像処理に用いる制御値であってもよい。   The control value may be a control value used for image processing of the first image.

上記画像処理に用いる制御値は、上記第1の画像のホワイトバランス調整に用いるホワイトバランスゲインであってもよい。   The control value used for the image processing may be a white balance gain used for white balance adjustment of the first image.

上記画像処理に用いる制御値は、上記第1の画像のエッジ強調処理に用いる強調係数であってもよい。   The control value used for the image processing may be an enhancement coefficient used for the edge enhancement processing of the first image.

また、本発明によれば、第1の画像を取得する撮影用の第1の撮像素子と、上記第1の撮像素子に光を導く撮影光学系とは異なる光軸を持ち、ファインダで観察可能な光学像を結像するファインダ光学系と、上記ファインダで観察可能な光学像と同じ範囲の光学像から第2の画像を取得する第2の撮像素子とを備える撮像装置における撮像方法であって、上記第2の撮像素子の撮像範囲が上記第1の撮像素子の撮像範囲を包含するための制御を行うステップと、上記第1の画像に対応する上記第2の画像内の領域を検出するステップと、上記領域の検出結果に基づき生成される、上記第1の画像に対応する上記ファインダで観察可能な光学像内の領域を示す画像を、当該光学像に重畳して表示するステップと、を含む撮像方法が提供される。   In addition, according to the present invention, the first imaging device for photographing that acquires the first image has an optical axis different from that of the photographing optical system that guides light to the first imaging device, and can be observed with a finder. An imaging method in an imaging apparatus, comprising: a finder optical system that forms a simple optical image; and a second imaging element that acquires a second image from an optical image in the same range as the optical image that can be observed by the finder. , A step of performing control so that the imaging range of the second imaging element includes the imaging range of the first imaging element, and detecting a region in the second image corresponding to the first image A step of superimposing and displaying on the optical image an image showing a region in the optical image that can be observed with the finder corresponding to the first image, generated based on the detection result of the region; An imaging method is provided.

また、本発明によれば、第1の画像を取得する撮影用の第1の撮像素子を有する撮像装置に着脱可能なファインダ装置であって、上記第1の撮像素子に光を導く撮影光学系とは異なる光軸を持ち、ファインダで観察可能な光学像を結像するファインダ光学系と、上記ファインダで観察可能な光学像と同じ範囲の光学像から第2の画像を取得する第2の撮像素子と、上記第2の撮像素子の撮像範囲が上記第1の撮像素子の撮像範囲を包含するための制御に応じて、上記ファインダ光学系を駆動する駆動部と、上記第1の画像に対応する上記第2の画像内の領域の検出結果に基づき生成される、上記第1の画像に対応する上記ファインダで観察可能な光学像内の領域を示す画像を、当該光学像に重畳して表示する表示部と、を備えるファインダ装置が提供される。   According to the present invention, there is provided a finder device that can be attached to and detached from an imaging apparatus having a first imaging element for imaging to acquire a first image, and that is an imaging optical system that guides light to the first imaging element. A finder optical system that forms an optical image that can be observed by the finder, and a second imaging that acquires a second image from an optical image in the same range as the optical image that can be observed by the finder. Corresponding to the first image, a drive unit that drives the finder optical system in accordance with a control for including an image pickup range of the first image pickup element, an image pickup range of the element, and the second image pickup element An image showing a region in the optical image that can be observed with the finder corresponding to the first image, generated based on the detection result of the region in the second image, is superimposed and displayed on the optical image. And a finder device comprising: There is provided.

また、本発明によれば、第1の画像を取得する撮影用の第1の撮像素子に光を導く撮影光学系とは異なる光軸を持ち、ファインダで観察可能な光学像を結像するファインダ光学系と、上記ファインダで観察可能な光学像と同じ範囲の光学像から第2の画像を取得する第2の撮像素子と、上記ファインダで観察可能な光学像に重畳して画像を表示する表示部と、を有するファインダ装置を着脱可能な撮像装置であって、上記第1の撮像素子と、上記第2の撮像素子の撮像範囲が上記第1の撮像素子の撮像範囲を包含するための制御を行う制御部と、上記第1の画像に対応する上記第2の画像内の領域を検出する検出部と、上記領域の検出結果に基づき生成される、上記第1の画像に対応する上記ファインダで観察可能な光学像内の領域を示す画像を、当該光学像に重畳して上記ファインダ装置の表示部に表示させる表示制御部と、を備える撮像装置が提供される。   In addition, according to the present invention, a finder that forms an optical image that has an optical axis different from that of the photographic optical system that guides light to the first imaging element for capturing the first image and that can be observed by the finder. An optical system, a second image sensor that acquires a second image from an optical image in the same range as the optical image that can be observed by the finder, and a display that displays the image superimposed on the optical image that can be observed by the finder And a finder device that can be attached to and detached from the imaging device, wherein the imaging range of the first imaging device and the second imaging device includes the imaging range of the first imaging device. A control unit for performing detection, a detection unit for detecting a region in the second image corresponding to the first image, and the finder corresponding to the first image generated based on a detection result of the region. Image showing the area in the optical image that can be observed with And a display control unit that superimposes to the optical image is displayed on the display unit of the finder, an imaging apparatus equipped with is provided.

以上説明したように本発明に係る撮像装置、撮像方法、およびファインダ装置によれば、ファインダユニット全体を動かすことなく、撮影される画像をファインダでより正確に観察することが可能となる。   As described above, according to the imaging apparatus, the imaging method, and the finder apparatus according to the present invention, it is possible to more accurately observe a photographed image with the finder without moving the entire finder unit.

一実施形態に係る撮像システムの概略的な構成の第1の例を示す説明図である。It is explanatory drawing which shows the 1st example of the schematic structure of the imaging system which concerns on one Embodiment. 一実施形態に係る撮像システムの概略的な構成の第2の例を示す説明図である。It is explanatory drawing which shows the 2nd example of schematic structure of the imaging system which concerns on one Embodiment. パララックスの発生の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of generation | occurrence | production of parallax. 一実施形態に係るデジタルカメラの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the digital camera which concerns on one Embodiment. 一実施形態に係るファインダユニットの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the finder unit which concerns on one Embodiment. ファインダユニット200の配置の第1の例を説明するための説明図である。5 is an explanatory diagram for describing a first example of an arrangement of a finder unit 200. FIG. ファインダユニット200の配置の第2の例を説明するための説明図である。It is explanatory drawing for demonstrating the 2nd example of arrangement | positioning of the finder unit 200. FIG. 一実施形態に係る処理部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the process part which concerns on one Embodiment. 特徴点の抽出および画像の照合の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the extraction of a feature point, and collation of an image. 撮影対応領域の第1の例を説明するための説明図である。It is explanatory drawing for demonstrating the 1st example of imaging | photography corresponding | compatible area | region. 撮影対応領域の第2の例を説明するための説明図である。It is explanatory drawing for demonstrating the 2nd example of imaging | photography corresponding | compatible area | region. 撮影対応領域の第3の例を説明するための説明図である。It is explanatory drawing for demonstrating the 3rd example of an imaging | photography corresponding | compatible area | region. 撮影対応領域の第4の例を説明するための説明図である。It is explanatory drawing for demonstrating the 4th example of an imaging | photography corresponding | compatible area | region. 画角調整後の撮影対応領域の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the imaging | photography corresponding | compatible area | region after a view angle adjustment. 領域画像の第1の例を説明するための説明図である。It is explanatory drawing for demonstrating the 1st example of a region image. 領域画像の第2の例を説明するための説明図である。It is explanatory drawing for demonstrating the 2nd example of a region image. 領域画像の第3の例を説明するための説明図である。It is explanatory drawing for demonstrating the 3rd example of a region image. 警告画像の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of a warning image. 撮影対応領域の分割ブロックの一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the division | segmentation block of an imaging | photography corresponding area. 撮影対応領域に基づく露出制御値の変更の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the change of the exposure control value based on an imaging | photography corresponding | compatible area | region. 一実施形態に係るにおける撮像処理の概略的な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the schematic flow of the imaging process in one Embodiment. 一実施形態に係るにおける制御値変更処理の概略的な流れの一例を示すフローチャートである。It is a flowchart which shows an example of the schematic flow of the control value change process in one Embodiment.

以下に添付の図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

以降、<1.はじめに>、<2.デジタルカメラの構成>、<3.処理部の構成>、<4.処理の流れ>という順序で本発明の実施形態を説明する。   Thereafter, <1. Introduction>, <2. Configuration of digital camera>, <3. Configuration of processing unit>, <4. Embodiments of the present invention will be described in the order of processing flow>.

<1.はじめに>
まず、図1〜図3を参照して、本実施形態に係る撮像システムの概略的な構成の例、および撮像装置の利点と技術的課題を説明する。
<1. Introduction>
First, an example of a schematic configuration of an imaging system according to the present embodiment, and advantages and technical problems of the imaging apparatus will be described with reference to FIGS.

(撮像システムの概略的な構成)
図1および図2を参照して、本発明の実施形態に係る撮像システム1の概略的な構成の例について説明する。
(Schematic configuration of imaging system)
With reference to FIG. 1 and FIG. 2, an example of a schematic configuration of an imaging system 1 according to an embodiment of the present invention will be described.

図1は、本実施形態に係る撮像システム1の概略的な構成の第1の例を示す説明図である。図1を参照すると、撮像システム1aは、デジタルカメラ100aおよび撮影用レンズ300aを含む。本実施形態において、デジタルカメラ100aは撮像装置の一例である。   FIG. 1 is an explanatory diagram illustrating a first example of a schematic configuration of an imaging system 1 according to the present embodiment. Referring to FIG. 1, the imaging system 1a includes a digital camera 100a and a photographing lens 300a. In the present embodiment, the digital camera 100a is an example of an imaging device.

撮像システム1aにおいて、撮影用レンズ300aは、デジタルカメラ100aに着脱可能なレンズである。撮影用レンズ300aは、デジタルカメラ100aに装着されると、撮影用レンズ300aに入射する光をデジタルカメラ100a内の撮像素子に導く。換言すると、撮影用レンズ300aは、デジタルカメラ100a内の撮像素子の撮像面に被写体の光学像を結像する。そして、デジタルカメラ100aは、撮像素子に導かれる光を電気信号に変換し、当該電気信号への各種処理を行うことにより、記録用のデジタル画像を生成する。   In the imaging system 1a, the photographing lens 300a is a lens that can be attached to and detached from the digital camera 100a. When the photographic lens 300a is attached to the digital camera 100a, the photographic lens 300a guides light incident on the photographic lens 300a to an image sensor in the digital camera 100a. In other words, the imaging lens 300a forms an optical image of the subject on the imaging surface of the imaging element in the digital camera 100a. The digital camera 100a converts the light guided to the image sensor into an electrical signal, and performs various processes on the electrical signal, thereby generating a digital image for recording.

また、撮像システム1aにおいて、ファインダユニット200aは、レンジファインダ式のファインダユニットであり、デジタルカメラ100aに内蔵されている。ファインダユニット200aは、ファインダ窓201aに入射する光をファインダ接眼窓(図示せず)に導く。換言すると、ファインダユニット200aは、ファインダ接眼窓に被写体の光学像を結像する。これにより、利用者は、ファインダ接眼窓を覗き込むと、当該光学像を観察することができる。   In the imaging system 1a, the finder unit 200a is a range finder type finder unit and is built in the digital camera 100a. The finder unit 200a guides light incident on the finder window 201a to a finder eyepiece window (not shown). In other words, the finder unit 200a forms an optical image of the subject on the finder eyepiece window. Thereby, the user can observe the optical image when looking into the viewfinder eyepiece window.

図2は、本実施形態におけるデジタルカメラ100の外観の第2の例を示す模式図である。図2を参照すると、撮像システム1bは、デジタルカメラ100b、ファインダユニット200bおよび撮影用レンズ300bを含む。本実施形態において、デジタルカメラ100bは撮像装置の一例であり、ファインダユニット200bはファインダ装置の一例である。   FIG. 2 is a schematic diagram showing a second example of the appearance of the digital camera 100 in the present embodiment. Referring to FIG. 2, the imaging system 1b includes a digital camera 100b, a finder unit 200b, and a photographing lens 300b. In the present embodiment, the digital camera 100b is an example of an imaging device, and the finder unit 200b is an example of a finder device.

撮像システム1bは、ファインダユニット200bがデジタルカメラ100bに着脱可能な独立したファインダユニットであるという点で、撮像システム1aと異なる。しかし、デジタルカメラ100b、ファインダユニット200bおよび撮影用レンズ300bは、基本的には、デジタルカメラ100a、ファインダユニット200aおよび撮影用レンズ300aと同様に動作する。なお、デジタルカメラ100bとファインダユニット200bとは、必要に応じてインターフェースを介して情報を送受信することができる。   The imaging system 1b differs from the imaging system 1a in that the finder unit 200b is an independent finder unit that can be attached to and detached from the digital camera 100b. However, the digital camera 100b, the finder unit 200b, and the photographing lens 300b basically operate in the same manner as the digital camera 100a, the finder unit 200a, and the photographing lens 300a. The digital camera 100b and the finder unit 200b can transmit and receive information via an interface as necessary.

(撮像装置の利点と技術的課題)
以上、図1および図2を参照して本実施形態に係る撮像システム1の概略的な構成の一例を説明したが、次に、図3を参照して、撮像システム1の利点と技術的課題について説明する。
(Advantages and technical issues of imaging devices)
The example of the schematic configuration of the imaging system 1 according to the present embodiment has been described above with reference to FIGS. 1 and 2. Next, the advantages and technical problems of the imaging system 1 will be described with reference to FIG. 3. Will be described.

まず、利点を挙げると、当該撮像システム1は、レンジファインダ式のファインダユニット200を備えるので、特に動く被写体の連写撮影に有効である。なぜならば、一眼レフカメラでは、シャッタ時のミラーの駆動によりファインダへの光が遮断される現象、すなわちブラックアウト現象が発生するが、撮像システム1では、ファインダユニットが独立した光軸を持つので、このようなブラックアウト現象は発生しない。そのため、撮像システム1では、連写撮影において連続してシャッタが切られるとしても、利用者は、光を遮断されることなく被写体を観察し続けることができる。また、電子ビューファインダでは、撮像素子での光電変換から当該ファインダでの表示までに要する画像処理に起因して画像表示の遅延が発生するが、撮像システム1のファインダユニット200では、光学像を結像するので遅延が発生しない。そのため、撮像システム1では、利用者は、動く被写体を遅延なく観察することができる。   First, as an advantage, since the imaging system 1 includes the range finder type finder unit 200, the imaging system 1 is particularly effective for continuous shooting of a moving subject. This is because, in a single-lens reflex camera, a phenomenon in which light to the finder is blocked by driving a mirror at the time of shutter, that is, a blackout phenomenon occurs, but in the imaging system 1, the finder unit has an independent optical axis. Such a blackout phenomenon does not occur. Therefore, in the imaging system 1, even if the shutter is continuously released in continuous shooting, the user can continue to observe the subject without blocking the light. In the electronic viewfinder, image display delay occurs due to image processing required from photoelectric conversion in the image sensor to display in the finder. In the finder unit 200 of the imaging system 1, an optical image is formed. No delay occurs. Therefore, in the imaging system 1, the user can observe the moving subject without delay.

撮像システム1にはこのような利点が存在するが、解決すべき技術的課題が存在する。より詳細に説明すると、一般的に、レンジファインダでは、撮影用の光学系とは異なる光軸を持つファインダ用の光学系が用いられるので、ファインダで観察可能な光学像と撮影される画像との間のずれ、すなわちパララックスが発生する恐れがある。当該パララックスが発生すると、利用者は、撮影される画像全体をファインダで観察することができなくなってしまう。また、偶然にも、撮影される画像全体をファインダで観察できたとしても、利用者は、ファインダで観察可能な光学像のうちのどこまでが撮影される画像に対応しているかを知ることができない。以下、この点について図3を参照してより具体的に説明する。   The imaging system 1 has such advantages, but there are technical problems to be solved. More specifically, a range finder generally uses an optical system for a finder having an optical axis different from that of a photographing optical system. There is a possibility that a gap between them, that is, a parallax occurs. When the parallax occurs, the user cannot observe the entire photographed image with the viewfinder. In addition, even if the entire image to be photographed can be observed with the viewfinder, the user cannot know how much of the optical image that can be observed with the viewfinder corresponds to the image to be photographed. . Hereinafter, this point will be described more specifically with reference to FIG.

図3は、パララックスの発生の一例を説明するための説明図である。図3を参照すると、撮影される画像の範囲、すなわち撮影用の撮像素子の撮像範囲10(以下、撮影範囲10)と、ファインダで観察可能な光学像の範囲20(以下、ファインダ観察範囲20)との間にずれが生じている。この場合に、利用者は、ファインダ接眼窓を覗き込むと、ファインダ観察範囲20を観察することができる。しかし、利用者は、撮影範囲10全体を観察することができない。また、利用者は、撮影範囲10全体を観察できないということも、ファインダ観察範囲20のうちのどこまでが撮影範囲10に対応しているかも、知ることができない。このように、レンジファインダを採用される場合には、一般的に、利用者は、撮影される画像をファインダで正確に観察することができない。   FIG. 3 is an explanatory diagram for explaining an example of occurrence of parallax. Referring to FIG. 3, a range of images to be captured, that is, an imaging range 10 (hereinafter referred to as imaging range 10) of an imaging element for imaging, and an optical image range 20 that can be observed with a finder (hereinafter referred to as finder observation range 20). There is a gap between In this case, the user can observe the finder observation range 20 when looking into the finder eyepiece window. However, the user cannot observe the entire photographing range 10. Further, the user cannot observe the entire photographing range 10 and cannot know how much of the finder observation range 20 corresponds to the photographing range 10. As described above, when the range finder is employed, generally, the user cannot accurately observe the photographed image with the finder.

そこで、本実施形態では、ファインダユニット全体を動かすことなく、撮影される画像をより正確にファインダで観察することを可能にする。以降、<2.デジタルカメラの構成>、<3.処理部の構成>および<4.処理の流れ>において、その具体的な内容を説明する。   Therefore, in the present embodiment, it is possible to observe a photographed image with a finder more accurately without moving the entire finder unit. Thereafter, <2. Configuration of Digital Camera>, <3. Configuration of processing unit> and <4. The specific contents of the processing flow> will be described.

<2.デジタルカメラの構成>
図4〜図7を参照して、本実施形態に係るデジタルカメラ100の構成の一例について説明する。図4は、第1の実施形態に係るデジタルカメラ100の構成の一例を示すブロック図である。図4を参照すると、デジタルカメラ100が示されると共に、デジタルカメラ100の説明のために撮影用レンズ300が示されている。また、一例として、デジタルカメラ100の一部として、デジタルカメラ100に内蔵されるファインダユニット200が示されている。より分かりやすく説明するために、以下では、ファインダユニット200、撮影用レンズ300、デジタルカメラ100の本体部101の順序で説明する。
<2. Digital camera configuration>
An example of the configuration of the digital camera 100 according to the present embodiment will be described with reference to FIGS. FIG. 4 is a block diagram illustrating an example of the configuration of the digital camera 100 according to the first embodiment. Referring to FIG. 4, a digital camera 100 is shown, and a photographing lens 300 is shown for explaining the digital camera 100. As an example, a finder unit 200 built in the digital camera 100 is shown as a part of the digital camera 100. In order to make the description easier to understand, the following description will be made in the order of the finder unit 200, the photographing lens 300, and the main body 101 of the digital camera 100.

(ファインダユニット200)
図5は、本実施形態に係るファインダユニット200の構成の一例を示すブロック図である。図5を参照すると、ファインダユニット200は、ファインダ窓201、ファインダ光学系210、ファインダ接眼窓221、モータ223、ドライバ225、CMOSイメージセンサ(以下、CMOS)230、画像入力コントローラ235、液晶ディスプレイ(以下、LCD)240およびLCDドライバ241を備える。ここで、モータ223は駆動部の一例であり、CMOS230は第2の撮像素子の一例であり、LCD240は表示部の一例である。
(Finder unit 200)
FIG. 5 is a block diagram illustrating an example of the configuration of the finder unit 200 according to the present embodiment. Referring to FIG. 5, the finder unit 200 includes a finder window 201, a finder optical system 210, a finder eyepiece window 221, a motor 223, a driver 225, a CMOS image sensor (hereinafter referred to as CMOS) 230, an image input controller 235, a liquid crystal display (hereinafter referred to as “liquid crystal display”). , LCD) 240 and LCD driver 241. Here, the motor 223 is an example of a drive unit, the CMOS 230 is an example of a second image sensor, and the LCD 240 is an example of a display unit.

ファインダ窓201は、ファインダユニット200内に光を入射させる窓である。ファインダ窓201と撮影用レンズ300との位置がずれているため、上記のように、撮影範囲10とファインダ観察範囲20との間のずれが生じる。   The finder window 201 is a window through which light enters the finder unit 200. Since the positions of the finder window 201 and the photographing lens 300 are deviated, a deviation between the photographing range 10 and the finder observation range 20 occurs as described above.

ファインダ光学系210は、本体部101内に位置する後述のCMOS120に光を導く光学系とは異なる光軸を持ち、ファインダで観察可能な光学像(以下、ファインダ光学像)を結像する。より具体的には、例えば、ファインダ光学系210は、ファインダ窓201から入射した光を屈折させることにより、ファインダ接眼窓221を通して利用者が観察できる光学像を結像する。また、ファインダ光学系210は、ファインダ光学像と同じ範囲の光学像をCMOS230の撮像面に結像する。   The finder optical system 210 has an optical axis different from that of an optical system that guides light to a CMOS 120 (described later) located in the main body 101 and forms an optical image (hereinafter referred to as a finder optical image) that can be observed with the finder. More specifically, for example, the finder optical system 210 forms an optical image that can be observed by the user through the finder eyepiece window 221 by refracting light incident from the finder window 201. The finder optical system 210 forms an optical image in the same range as the finder optical image on the imaging surface of the CMOS 230.

より具体的には、例えば、ファインダ光学系210は、ズームレンズ211、プリズム213、接眼レンズ215、および集光レンズ217を含む。   More specifically, for example, the finder optical system 210 includes a zoom lens 211, a prism 213, an eyepiece lens 215, and a condenser lens 217.

まず、ズームレンズ211は、ファインダ光学系210の画角の調整を可能にする。より具体的には、例えば、ズームレンズ211は、光軸方向に前後して移動することで焦点距離を連続的に変化させることにより、ファインダ光学系210の画角を調整する。この画角の調整により、ファインダ観察範囲20を変えることができる。例えば、ズームレンズ211は、焦点距離をより長くすることによって画角をより小さくし、焦点距離をより短くすることによって画角をより大きくする。すなわち、ファインダ光学系210は、画角の変更を可能にするズーム機能を有する。   First, the zoom lens 211 enables adjustment of the angle of view of the finder optical system 210. More specifically, for example, the zoom lens 211 adjusts the angle of view of the finder optical system 210 by continuously changing the focal length by moving back and forth in the optical axis direction. The viewfinder observation range 20 can be changed by adjusting the angle of view. For example, the zoom lens 211 reduces the angle of view by increasing the focal length, and increases the angle of view by decreasing the focal length. In other words, the finder optical system 210 has a zoom function that allows the angle of view to be changed.

また、プリズム213は、ズームレンズ211からの光をファインダ接眼窓221の方向およびCMOS230の方向に導く。また、プリズム213は、LCD240からの光をファインダ接眼窓221の方向に導く。   The prism 213 guides the light from the zoom lens 211 toward the viewfinder eyepiece window 221 and the CMOS 230. The prism 213 guides light from the LCD 240 toward the viewfinder eyepiece window 221.

また、接眼レンズ215は、プリズム213からの光をファインダ接眼窓221に向けて集光する。また、集光レンズ217は、プリズム213からの光をCMOS230の撮像面に向けて集光する。   The eyepiece lens 215 condenses the light from the prism 213 toward the viewfinder eyepiece window 221. The condensing lens 217 condenses the light from the prism 213 toward the imaging surface of the CMOS 230.

次に、ファインダ接眼窓221は、デジタルカメラ100の利用者が被写体の光学像を観察するための窓である。より具体的には、ファインダ接眼窓221は、ズームレンズ211、プリズム213および接眼レンズ215を通った光をファインダユニット200の外に通過させる。ファインダ接眼窓221は、例えば、接眼用の保護ガラスにより実装される。   Next, the viewfinder eyepiece window 221 is a window for the user of the digital camera 100 to observe the optical image of the subject. More specifically, the finder eyepiece window 221 allows the light that has passed through the zoom lens 211, the prism 213, and the eyepiece lens 215 to pass outside the finder unit 200. The finder eyepiece window 221 is mounted with, for example, protective glasses for eyepieces.

モータ223は、ファインダ光学系220のズームレンズ211を駆動する。すなわち、モータ223は、ズームレンズ211を光軸方向に前後に移動させる。また、ドライバ225は、後述の処理部170のファインダ制御部187による制御に応じて、モータ223にズームレンズ211を駆動させる。なお、モータ223は、CMOS230の撮像範囲が後述のCMOS120の撮像範囲を包含するための制御に応じて、ファインダ光学系220を駆動する。この点については、ファインダ制御部187と共に後に詳細に説明する。   The motor 223 drives the zoom lens 211 of the finder optical system 220. That is, the motor 223 moves the zoom lens 211 back and forth in the optical axis direction. Further, the driver 225 causes the motor 223 to drive the zoom lens 211 in accordance with control by a finder control unit 187 of the processing unit 170 described later. The motor 223 drives the finder optical system 220 in accordance with control for allowing the imaging range of the CMOS 230 to include the imaging range of the CMOS 120 described later. This point will be described in detail later together with the finder control unit 187.

CMOS230は、上記ファインダ光学像と同じ範囲の光学像から第2の画像(以下、ファインダ側画像)を取得する。より具体的には、例えば、CMOS230は、ズームレンズ211、プリズム213および集光レンズ217を通った光を電気信号に変換する。次に、CMOS230は、内蔵する相関二重サンプリング/アンプ回路(以下、CDS/AMP)231により、上記電気信号の雑音を除去し、雑音除去後の電気信号を所定のゲインで増幅する。そして、CMOS230は、内蔵するアナログ/デジタル変換器(以下、ADC)233により、増幅後の電気信号をデジタル変換することで、RAWデータの画像を取得する。   The CMOS 230 acquires a second image (hereinafter referred to as a finder side image) from an optical image in the same range as the finder optical image. More specifically, for example, the CMOS 230 converts light that has passed through the zoom lens 211, the prism 213, and the condenser lens 217 into an electrical signal. Next, the CMOS 230 removes the noise of the electric signal by a built-in correlated double sampling / amplifier circuit (hereinafter, CDS / AMP) 231 and amplifies the electric signal after the noise removal with a predetermined gain. Then, the CMOS 230 acquires an image of RAW data by digitally converting the amplified electric signal by an internal analog / digital converter (hereinafter referred to as ADC) 233.

なお、CDS/AMP231およびADC233は、CMOS230に内蔵されずに、CMOS230に外部接続される回路であってもよい。この場合に、CDS/AMP231は、相関二重サンプリング回路とアンプ回路にさらに分離されていてもよい。また、CMOS230は、電子シャッタによって電気信号を調整してもよい。   Note that the CDS / AMP 231 and the ADC 233 may be circuits externally connected to the CMOS 230 without being built in the CMOS 230. In this case, the CDS / AMP 231 may be further separated into a correlated double sampling circuit and an amplifier circuit. In addition, the CMOS 230 may adjust the electrical signal using an electronic shutter.

画像入力コントローラ235は、CMOS230からのファインダ側画像を後述のSDRAM139に書き込む。   The image input controller 235 writes the finder side image from the CMOS 230 into the SDRAM 139 described later.

LCD240は、上記ファインダ光学像に重畳して画像を表示する。例えば、LCD240は、後述の処理部170の表示制御部191による制御に応じて画像を表示する。表示される画像の具体的な内容は、表示制御部191と共に後に詳細に説明する。
であってもよい。
The LCD 240 displays an image superimposed on the finder optical image. For example, the LCD 240 displays an image in accordance with control by a display control unit 191 of the processing unit 170 described later. Specific contents of the displayed image will be described in detail later together with the display control unit 191.
It may be.

LCDドライバ241は、画像信号に基づいてLCD240の表示セルに電圧を与えることにより、LCD240に画像を表示させる。LCDドライバ241は、例えば、後述の処理部170の表示制御部191により出力される画像信号を取得する。   The LCD driver 241 displays an image on the LCD 240 by applying a voltage to the display cell of the LCD 240 based on the image signal. For example, the LCD driver 241 acquires an image signal output by a display control unit 191 of the processing unit 170 described later.

−ファインダユニット200の配置−
以上、ファインダユニット200の構成を説明したが、次に図6および図7を参照して、ファインダユニット200の配置の第1の例および第2の例について説明する。
-Arrangement of viewfinder unit 200-
The configuration of the finder unit 200 has been described above. Next, a first example and a second example of the arrangement of the finder unit 200 will be described with reference to FIGS. 6 and 7.

まず、図6は、ファインダユニット200の配置の第1の例を説明するための説明図である。図6を参照すると、ファインダユニット200において、ファインダ窓201、ズームレンズ211、プリズム213、接眼レンズ215およびファインダ接眼窓221が一方向に直線的に配置される。また、当該一方向と垂直の方向に、LCD240、プリズム213、集光レンズ217およびCMOS230が直線的に配置される。   First, FIG. 6 is an explanatory diagram for explaining a first example of the arrangement of the finder unit 200. Referring to FIG. 6, in the finder unit 200, a finder window 201, a zoom lens 211, a prism 213, an eyepiece lens 215, and a finder eyepiece window 221 are linearly arranged in one direction. In addition, the LCD 240, the prism 213, the condenser lens 217, and the CMOS 230 are linearly arranged in a direction perpendicular to the one direction.

この場合に、ファインダ窓201から入射した光51は、まず、ズームレンズ211を通過する。そして、光51の一部は、プリズム213および接眼レンズ215を通過して、ファインダ接眼窓221に到達する。一方、光51の残りは、プリズム213で屈折し、集光レンズ217を通過して、CMOS230に到達する。このように、ファインダ光学系210は、ファインダ接眼窓221に上記ファインダ光学像を結像し、CMOS230は、ファインダ光学系と同じ範囲の光学像から画像を取得することができる。   In this case, the light 51 incident from the finder window 201 first passes through the zoom lens 211. A part of the light 51 passes through the prism 213 and the eyepiece lens 215 and reaches the finder eyepiece window 221. On the other hand, the remainder of the light 51 is refracted by the prism 213, passes through the condenser lens 217, and reaches the CMOS 230. Thus, the finder optical system 210 forms the finder optical image on the finder eyepiece window 221, and the CMOS 230 can acquire an image from the optical image in the same range as the finder optical system.

また、LCD240に表示される画像の光53は、プリズム213で屈折し、接眼レンズ215を通過して、ファインダ接眼窓221に到達する。このように、LCD240は、光51によるファインダ光学像と重畳して、画像を表示することができる。   The light 53 of the image displayed on the LCD 240 is refracted by the prism 213, passes through the eyepiece lens 215, and reaches the viewfinder eyepiece window 221. In this manner, the LCD 240 can display an image superimposed on the viewfinder optical image by the light 51.

次に、図7は、ファインダユニット200の配置の第2の例を説明するための説明図である。図7を参照すると、ファインダユニット200において、ズームレンズ211、プリズム213、集光レンズ217およびCMOS230が一方向に直線的に配置される。また、当該一方向と垂直の方向に、LCD240、プリズム213、接眼レンズ215およびファインダ接眼窓221が直線的に配置される。   Next, FIG. 7 is an explanatory diagram for explaining a second example of the arrangement of the finder unit 200. Referring to FIG. 7, in the finder unit 200, the zoom lens 211, the prism 213, the condenser lens 217, and the CMOS 230 are linearly arranged in one direction. In addition, the LCD 240, the prism 213, the eyepiece lens 215, and the viewfinder eyepiece window 221 are linearly arranged in a direction perpendicular to the one direction.

この場合に、ファインダ窓201から入射した光51は、ミラーにより反射された上で、まず、ズームレンズ211を通過する。そして、光51の一部は、プリズム213および集光レンズ217を通過して、CMOS230に到達する。一方、光51の残りは、プリズム213で屈折し、接眼レンズ215を通過して、ファインダ接眼窓221に到達する。このように、ファインダ光学系210は、ファインダ接眼窓221に上記ファインダ光学像を結像し、CMOS230は、ファインダ光学系と同じ範囲の光学像から画像を取得することができる。   In this case, the light 51 incident from the finder window 201 is reflected by the mirror and first passes through the zoom lens 211. A part of the light 51 passes through the prism 213 and the condenser lens 217 and reaches the CMOS 230. On the other hand, the remainder of the light 51 is refracted by the prism 213, passes through the eyepiece lens 215, and reaches the viewfinder eyepiece window 221. Thus, the finder optical system 210 forms the finder optical image on the finder eyepiece window 221, and the CMOS 230 can acquire an image from the optical image in the same range as the finder optical system.

また、LCD240に表示される画像の光53は、プリズム213および接眼レンズ215を通過して、ファインダ接眼窓221に到達する。このように、LCD240は、光51によるファインダ光学像と重畳して、画像を表示することができる。   The light 53 of the image displayed on the LCD 240 passes through the prism 213 and the eyepiece lens 215 and reaches the viewfinder eyepiece window 221. In this manner, the LCD 240 can display an image superimposed on the viewfinder optical image by the light 51.

(撮影用レンズ300)
次に、撮影用レンズ300の構成について説明する。図4を参照すると、撮影用レンズ300は、撮影系光学系310、ADC321、モータ323、325、ドライバ327、329、レンズ処理部330、ROM340およびRAM350を備える。
(Shooting lens 300)
Next, the configuration of the photographing lens 300 will be described. Referring to FIG. 4, the photographing lens 300 includes a photographing system optical system 310, an ADC 321, motors 323 and 325, drivers 327 and 329, a lens processing unit 330, a ROM 340 and a RAM 350.

撮影系光学系310は、デジタルカメラ100の本体部101内に位置する後述のCMOS120に光を導く。すなわち、撮影系光学系310は、CMOS120の撮像面に光学像を結像する。   The imaging optical system 310 guides light to a CMOS 120 (described later) located in the main body 101 of the digital camera 100. That is, the imaging system optical system 310 forms an optical image on the imaging surface of the CMOS 120.

より具体的には、例えば、撮影系光学系310は、ズームレンズ311、絞り313、およびフォーカスレンズ315を含む。   More specifically, for example, the photographing system optical system 310 includes a zoom lens 311, a diaphragm 313, and a focus lens 315.

まず、ズームレンズ311は、撮影光学系310の画角の調整を可能にする。より具体的には、例えば、ズームレンズ311は、光軸方向に前後に移動することで焦点距離を連続的に変化させることにより、撮影光学系310の画角を調整する。この画角の調整により、撮影用のCMOS120の撮像範囲、すなわち撮影範囲10を変えることができる。例えば、ズームレンズ311は、焦点距離をより長くすることによって画角をより小さくし、焦点距離をより短くすることによって画角をより大きくする。ここでは、ズームレンズ311は、例えば、手動により光軸方向に前後して移動する。なお、ズームレンズ311は、デジタルカメラ100の制御により、光軸方向への前後移動を駆動されてもよい。   First, the zoom lens 311 enables adjustment of the angle of view of the photographing optical system 310. More specifically, for example, the zoom lens 311 adjusts the angle of view of the photographing optical system 310 by continuously changing the focal length by moving back and forth in the optical axis direction. By adjusting the angle of view, the imaging range of the imaging CMOS 120, that is, the imaging range 10 can be changed. For example, the zoom lens 311 reduces the angle of view by increasing the focal length, and increases the angle of view by decreasing the focal length. Here, the zoom lens 311 is moved back and forth in the optical axis direction manually, for example. The zoom lens 311 may be driven to move back and forth in the optical axis direction under the control of the digital camera 100.

また、絞り313は、開閉動作で穴の大きさを変えることにより、CMOS120に導かれる光の量を調節する。   The diaphragm 313 adjusts the amount of light guided to the CMOS 120 by changing the size of the hole by opening and closing operations.

また、フォーカスレンズ315は、光軸方向に前後に移動することにより、被写体のピントを調節する。   The focus lens 315 adjusts the focus of the subject by moving back and forth in the optical axis direction.

次に、ADC321は、ズームレンズ311の光軸方向への前後移動に応じて電気信号を取得し、当該電気信号をデジタル変換することにより、焦点距離に関する情報をレンズ処理部330へ出力する。   Next, the ADC 321 acquires an electrical signal according to the back-and-forth movement of the zoom lens 311 in the optical axis direction, converts the electrical signal to digital, and outputs information related to the focal length to the lens processing unit 330.

モータ323は、絞り313を駆動する。すなわち、モータ323は、絞り313を開閉させる。また、モータ325は、フォーカスレンズ315を駆動する。すなわち、モータ323は、フォーカスレンズ315を光軸方向に前後に移動させる。   The motor 323 drives the diaphragm 313. That is, the motor 323 opens and closes the diaphragm 313. The motor 325 drives the focus lens 315. That is, the motor 323 moves the focus lens 315 back and forth in the optical axis direction.

ドライバ327は、後述のレンズ処理部330による制御に応じて、モータ323に絞り313を駆動させる。また、ドライバ329は、後述のレンズ処理部330による制御に応じて、モータ325にフォーカスレンズ315を駆動させる。   The driver 327 causes the motor 323 to drive the diaphragm 313 in accordance with control by a lens processing unit 330 described later. The driver 329 causes the motor 325 to drive the focus lens 315 in accordance with control by a lens processing unit 330 described later.

レンズ処理部330は、撮影用レンズ300における制御、演算等の様々な情報処理を行う。   The lens processing unit 330 performs various information processing such as control and calculation in the photographing lens 300.

例えば、レンズ処理部330は、デジタルカメラ100に撮影光学系310に関する情報を送信する。より具体的には、例えば、レンズ処理部330は、ADC321により出力される焦点距離に関する情報を取得し、ズームレンズ311の焦点距離を特定する。そして、レンズ処理部330は、撮影光学系310の画角に関する情報として、ズームレンズ311の焦点距離をデジタルカメラ100に送信する。また、レンズ処理部330は、例えば、撮影光学系310の最近接距離、最新の絞り値、最新のピントの位置等をデジタルカメラ100に送信する。なお、レンズ処理部330は、SIO(Serial Input/Output)331を介してデジタルカメラと通信する。当該SIO331は、レンズ処理部330とデジタルカメラ100との間において双方向で同時に通信することを可能にするインターフェースである。   For example, the lens processing unit 330 transmits information regarding the photographing optical system 310 to the digital camera 100. More specifically, for example, the lens processing unit 330 acquires information on the focal length output by the ADC 321 and specifies the focal length of the zoom lens 311. Then, the lens processing unit 330 transmits the focal length of the zoom lens 311 to the digital camera 100 as information regarding the angle of view of the photographing optical system 310. In addition, the lens processing unit 330 transmits, for example, the closest distance of the photographing optical system 310, the latest aperture value, the latest focus position, and the like to the digital camera 100. The lens processing unit 330 communicates with the digital camera via an SIO (Serial Input / Output) 331. The SIO 331 is an interface that enables two-way simultaneous communication between the lens processing unit 330 and the digital camera 100.

また、例えば、レンズ処理部330は、デジタルカメラ100による指示に応じて、撮影光学系310を制御する。より具体的には、レンズ処理部330は、例えば、デジタルカメラ100から、決定された絞り値(以下、F値)を受信する。そして、レンズ処理部330は、当該決定された絞り値とその時点での実際の絞り値とから、絞り313の開閉動作の必要量を算出し、当該必要量の開閉動作をドライバ327に指示する。また、レンズ処理部330は、例えば、デジタルカメラ100から、算出された適正なピントの位置を受信する。そして、レンズ処理部330は、当該算出された適正なピントの位置とその時点での実際のピントの位置とから、フォーカスレンズ315の前後移動の必要量を算出し、当該必要量の前後移動をドライバ329に指示する。   For example, the lens processing unit 330 controls the photographing optical system 310 in accordance with an instruction from the digital camera 100. More specifically, the lens processing unit 330 receives a determined aperture value (hereinafter, “F value”) from the digital camera 100, for example. Then, the lens processing unit 330 calculates a necessary amount of opening / closing operation of the aperture 313 from the determined aperture value and the actual aperture value at that time, and instructs the driver 327 to perform the opening / closing operation of the necessary amount. . The lens processing unit 330 receives the calculated proper focus position from the digital camera 100, for example. Then, the lens processing unit 330 calculates the necessary amount of forward and backward movement of the focus lens 315 from the calculated proper focus position and the actual focus position at that time, and moves the necessary amount forward and backward. The driver 329 is instructed.

なお、レンズ処理部330は、例えば、CPU(Central Processing Unit)により実装される。   The lens processing unit 330 is mounted by, for example, a CPU (Central Processing Unit).

ROM340は、レンズ処理部330が使用するプログラムや演算パラメータ等を記憶する。   The ROM 340 stores programs and calculation parameters used by the lens processing unit 330.

RAM350は、レンズ処理部330がプログラム実行時にプログラムを展開するためのワークメモリとして使用され、またデータを一時的に記録するためのバッファメモリとして使用される。   The RAM 350 is used as a work memory for the lens processing unit 330 to develop a program when the program is executed, and is also used as a buffer memory for temporarily recording data.

(デジタルカメラ100の本体部101)
次に、デジタルカメラ100の本体部101の構成について説明する。図4を参照すると、本体部101は、メカニカルシャッタ110、モータ111、ドライバ113、CMOS120、画像入力コントローラ125、バッテリ131、不揮発性メモリ133、圧縮処理部135、VRAM137、SDRAM139、操作部141、LCD150、LCDドライバ151、記録メディア160、メディアコントローラ161、および処理部170を備える。ここで、CMOS120は第1の撮像素子の一例である。
(Main body 101 of digital camera 100)
Next, the configuration of the main body 101 of the digital camera 100 will be described. Referring to FIG. 4, the main body 101 includes a mechanical shutter 110, a motor 111, a driver 113, a CMOS 120, an image input controller 125, a battery 131, a nonvolatile memory 133, a compression processing unit 135, a VRAM 137, an SDRAM 139, an operation unit 141, and an LCD 150. , An LCD driver 151, a recording medium 160, a media controller 161, and a processing unit 170. Here, the CMOS 120 is an example of a first image sensor.

メカニカルシャッタ110は、開閉動作により、撮影用レンズ300を通って入射した光を遮断し、または当該光をCMOS120の方向へ通過させる。   The mechanical shutter 110 blocks the light incident through the photographing lens 300 or allows the light to pass in the direction of the CMOS 120 by an opening / closing operation.

モータ111は、メカニカルシャッタ110を駆動する。すなわち、モータ111は、メカニカルシャッタ110を開閉させる。また、ドライバ113は、後述の処理部170による制御に応じて、モータ111にメカニカルシャッタ110を駆動させる。   The motor 111 drives the mechanical shutter 110. That is, the motor 111 opens and closes the mechanical shutter 110. Further, the driver 113 causes the motor 111 to drive the mechanical shutter 110 in accordance with control by the processing unit 170 described later.

CMOS120は、撮影用レンズ300の撮影光学系310により導かれた光から第1の画像(以下、撮影側画像)を取得する撮影用の撮像素子である。より具体的には、CMOS120は、撮影用レンズ300からの光を電気信号に変換する。ここで、CMOS120は、例えば、電子シャッタによって電気信号を調整する。次に、CMOS120は、内蔵するCDS/AMP121により、上記電気信号の雑音を除去し、雑音除去後の電気信号を所定のゲインで増幅する。そして、CMOS120は、ADC123により、増幅後の電気信号をデジタル変換することで、RAWデータの画像を取得する。   The CMOS 120 is an imaging element for imaging that acquires a first image (hereinafter referred to as an imaging side image) from light guided by the imaging optical system 310 of the imaging lens 300. More specifically, the CMOS 120 converts light from the photographing lens 300 into an electrical signal. Here, the CMOS 120 adjusts an electric signal by, for example, an electronic shutter. Next, the CMOS 120 removes the noise of the electric signal by the built-in CDS / AMP 121, and amplifies the electric signal after the noise removal with a predetermined gain. Then, the CMOS 120 acquires an image of the RAW data by digitally converting the amplified electric signal by the ADC 123.

画像入力コントローラ125は、CMOS120からの撮影側画像をSDRAM139に書き込む。   The image input controller 125 writes the photographing side image from the CMOS 120 into the SDRAM 139.

バッテリ131は、デジタルカメラ100および撮影用レンズ300に電力を供給する。   The battery 131 supplies power to the digital camera 100 and the photographing lens 300.

不揮発性メモリ133は、デジタルカメラ100において一時的にまたは恒久的に保持すべき情報を記憶する。例えば、不揮発性メモリ133は、記録用の撮影側画像、処理部170により実行されるソフトウェア等を記憶する。なお、不揮発性メモリ133は、例えば、フラッシュメモリ、MRAM(Magnetoresistive Random Access Memory)等により実装される。   The nonvolatile memory 133 stores information that should be temporarily or permanently stored in the digital camera 100. For example, the non-volatile memory 133 stores a recording-side image for recording, software executed by the processing unit 170, and the like. Note that the nonvolatile memory 133 is implemented by, for example, a flash memory, an MRAM (Magnetoresistive Random Access Memory), or the like.

圧縮処理部135は、処理部170の画像処理部195で処理を施された画像を適切な形式の画像データに圧縮する。画像の圧縮形式は可逆形式であっても非可逆形式であってもよい。適切な形式の例として、圧縮処理部135は、JPEG(Joint Photographic Experts Group)形式やJPEG2000形式に画像を変換してもよい。   The compression processing unit 135 compresses the image processed by the image processing unit 195 of the processing unit 170 into image data of an appropriate format. The image compression format may be a reversible format or an irreversible format. As an example of an appropriate format, the compression processing unit 135 may convert an image into a JPEG (Joint Photographic Experts Group) format or a JPEG2000 format.

VRAM137は、LCD150およびLCD240に表示する内容を一時的に記憶する。LCD150およびLCD240の解像度や最大発色数は、VRAM137の容量に依存する。なお、VRAM137は、LCD150用のVRAMとLCD240用のVRAMとに分離されていてもよい。   VRAM 137 temporarily stores the contents displayed on LCD 150 and LCD 240. The resolution and the maximum number of colors of the LCD 150 and LCD 240 depend on the capacity of the VRAM 137. The VRAM 137 may be separated into a VRAM for the LCD 150 and a VRAM for the LCD 240.

SDRAM139は、処理部170がプログラム実行時にプログラムを展開するためのワークメモリとして使用され、またデータを一時的に記録するためのバッファメモリとして使用される。例えば、SDRAM139は、撮影側画像およびファインダ側画像を一時的に記憶する。SDRAM139は、複数の画像を記憶できるだけの記憶容量を有している。SDRAM139への画像の書込みは、画像入力コントローラ125および235により制御される。   The SDRAM 139 is used as a work memory for the processing unit 170 to develop a program when the program is executed, and is also used as a buffer memory for temporarily recording data. For example, the SDRAM 139 temporarily stores a shooting side image and a viewfinder side image. The SDRAM 139 has a storage capacity sufficient to store a plurality of images. Writing of an image to the SDRAM 139 is controlled by the image input controllers 125 and 235.

操作部141は、デジタルカメラ100の操作、撮影に関する各種設定等を行うための部材を有する。操作部141が有する部材には、電源ボタン、撮影モードの選択する十字キーおよび選択ボタン、被写体の撮影動作を開始するシャッタボタン等が含まれていてもよい。操作部141は、操作結果を示す情報を処理部170に出力する。   The operation unit 141 includes members for performing various settings relating to operation of the digital camera 100 and photographing. Members of the operation unit 141 may include a power button, a cross key and a selection button for selecting a shooting mode, a shutter button for starting a shooting operation of the subject, and the like. The operation unit 141 outputs information indicating the operation result to the processing unit 170.

LCD150は、デジタルカメラ100の各種設定画面、撮影した画像(すなわち、記録した撮影側画像)等を表示する。また、LCD150は、電子ビューファインダとして、シャッタを切る前に継続して取得している撮影側画像をリアルタイムで表示してもよい。   The LCD 150 displays various setting screens of the digital camera 100, captured images (that is, recorded recording-side images), and the like. Further, the LCD 150 may display, as an electronic viewfinder, a shooting-side image that is continuously acquired before the shutter is released in real time.

LCDドライバ151は、画像信号に基づいてLCD150の表示セルに電圧を与えることにより、LCD150に画像を表示させる。LCDドライバ151は、例えば、後述の処理部170の表示制御部191により出力される画像信号を取得する。   The LCD driver 151 displays an image on the LCD 150 by applying a voltage to the display cell of the LCD 150 based on the image signal. For example, the LCD driver 151 acquires an image signal output by a display control unit 191 of the processing unit 170 described later.

記録メディア160は、撮影した画像(すなわち、記録した撮影側画像)を記録する。記録メディア160は、例えばメモリカードである。   The recording medium 160 records a photographed image (that is, a recorded photographing side image). The recording medium 160 is a memory card, for example.

メディアコントローラ161は、記録メディア160への画像の入出力を制御する。   The media controller 161 controls input / output of images to the recording medium 160.

処理部170は、デジタルカメラ100および撮影用レンズ300における制御、演算等の様々な情報処理を行う。   The processing unit 170 performs various information processing such as control and calculation in the digital camera 100 and the photographing lens 300.

以上、デジタルカメラ100の本体部101およびファインダユニット200、並びに撮影用レンズ300の構成について説明されたが、次に、本実施形態において重要な役割を果たす、本体部101に備えられる処理部170をより詳細に説明する。   The configuration of the main body 101, the finder unit 200, and the photographing lens 300 of the digital camera 100 has been described above. Next, the processing unit 170 provided in the main body 101 that plays an important role in the present embodiment will be described. This will be described in more detail.

<3.処理部の構成>
ここでは、図8〜20を参照して、デジタルカメラ100の本体部101に備えられる処理部170の構成の一例について説明する。図8は、本実施形態に係る処理部170の構成の一例を示すブロック図である。図8を参照すると、処理部170は、タイミングジェネレータ171(以下、TG171)、入出力インターフェース173(以下、I/O173)、SIO175、自動露出制御部177(以下、AE制御部177)、自動フォーカス制御部179(AF制御部179)、適性ホワイトバランス算出部181(以下、適正WB算出部181)、適性エッジ強度算出部183、領域検出部185、ファインダ制御部187、ファインダ画像生成部189、表示制御部191、制御値変更部193、画像処理部195を含む。
<3. Configuration of processing unit>
Here, an example of the configuration of the processing unit 170 provided in the main body unit 101 of the digital camera 100 will be described with reference to FIGS. FIG. 8 is a block diagram illustrating an example of the configuration of the processing unit 170 according to the present embodiment. Referring to FIG. 8, the processing unit 170 includes a timing generator 171 (hereinafter referred to as TG 171), an input / output interface 173 (hereinafter referred to as I / O 173), an SIO 175, an automatic exposure control unit 177 (hereinafter referred to as AE control unit 177), an automatic focus. A control unit 179 (AF control unit 179), an appropriate white balance calculation unit 181 (hereinafter, appropriate WB calculation unit 181), an appropriate edge strength calculation unit 183, an area detection unit 185, a finder control unit 187, a finder image generation unit 189, a display A control unit 191, a control value changing unit 193, and an image processing unit 195 are included.

ここで、ファインダ制御部187は制御部の一例であり、領域検出部185は検出部の一例であり、制御値変更部193は変更部の一例である。   Here, the finder control unit 187 is an example of a control unit, the region detection unit 185 is an example of a detection unit, and the control value change unit 193 is an example of a change unit.

(TG171)
TG171は、CMOS120の動作のタイミングを制御する。より具体的には、例えば、TG171は、CMOS120の電子シャッタのタイミング、すなわちCMOS120における電荷の読み出し、リセット等のタイミングを制御する。
(TG171)
The TG 171 controls the operation timing of the CMOS 120. More specifically, for example, the TG 171 controls the timing of the electronic shutter of the CMOS 120, that is, the timing of charge reading and resetting in the CMOS 120.

(I/O173)
I/O173は、処理部170とドライバ113およびCMOS120との間の入出力インターフェースである。例えば、I/O173は、AE制御部177によるドライバ113またはCMOS120への指示のために用いられる。
(I / O173)
The I / O 173 is an input / output interface between the processing unit 170, the driver 113, and the CMOS 120. For example, the I / O 173 is used for an instruction from the AE control unit 177 to the driver 113 or the CMOS 120.

(SIO175)
SIO175は、処理部170と撮影用レンズ300との間において双方向で同時に通信することを可能にするインターフェースである。
(SIO175)
The SIO 175 is an interface that enables simultaneous communication between the processing unit 170 and the photographing lens 300 in both directions.

(AE制御部177)
AE制御部177は、デジタルカメラ100の露出を自動制御する。より具体的には、例えば、AE制御部177は、撮影側画像の画素情報に基づいて、適正な露出値(以下、EV値)を算出する。一例として、当該適正なEV値は、撮影側画像の分割ブロック毎の輝度平均値をから算出される。そして、AE制御部177は、算出された適正なEV値に基づいて、新たな露出制御値を設定する。当該露出制御値は、EV値、F値、シャッタスピード、ISO感度を含む。
(AE control unit 177)
The AE control unit 177 automatically controls the exposure of the digital camera 100. More specifically, for example, the AE control unit 177 calculates an appropriate exposure value (hereinafter, EV value) based on the pixel information of the photographing side image. As an example, the appropriate EV value is calculated from the luminance average value for each divided block of the shooting-side image. Then, the AE control unit 177 sets a new exposure control value based on the calculated appropriate EV value. The exposure control value includes an EV value, an F value, a shutter speed, and ISO sensitivity.

ここで、F値が変わる場合に、AE制御部177は、例えば、SIO175を介して撮影用レンズ300に、決定された当該F値の実現を指示する。このように、AE制御部177は、絞り313を自動制御する。   Here, when the F value changes, the AE control unit 177 instructs the photographing lens 300 to realize the determined F value via the SIO 175, for example. As described above, the AE control unit 177 automatically controls the aperture 313.

また、シャッタスピードが変わる場合に、AE制御部177は、例えば、メカニカルシャッタ110を駆動させるドライバ113、およびCMOS120の電子シャッタのタイミングを制御するTG171に、決定されたシャッタスピードの実現を指示する。このように、AE制御部177は、メカニカルシャッタ110およびCMOS120における電子シャッタを自動制御する。   Further, when the shutter speed changes, the AE control unit 177 instructs, for example, the driver 113 that drives the mechanical shutter 110 and the TG 171 that controls the timing of the electronic shutter of the CMOS 120 to realize the determined shutter speed. As described above, the AE control unit 177 automatically controls the electronic shutter in the mechanical shutter 110 and the CMOS 120.

また、ISO感度が変わる場合に、AE制御部177は、例えば、ISO感度に応じた、CMOS120のCDS/AMP121における電気信号のゲインを算出する。そして、AE制御部177は、I/O173を介してCMOS120に、算出されたゲインの実現を指示する。このように、AE制御部177は、ISO感度を決めるCDS/AMP121を自動制御する。   When the ISO sensitivity changes, the AE control unit 177 calculates the gain of the electric signal in the CDS / AMP 121 of the CMOS 120 according to the ISO sensitivity, for example. Then, the AE control unit 177 instructs the CMOS 120 via the I / O 173 to realize the calculated gain. As described above, the AE control unit 177 automatically controls the CDS / AMP 121 that determines the ISO sensitivity.

(AF制御部179)
AF制御部179は、デジタルカメラ100のピントを自動制御する。より具体的には、例えば、AF制御部179は、適正なピントの位置を算出する。そして、AF制御部179は、SIO175を介して撮影用レンズ300に、算出された適正なピントの位置の実現を指示する。
(AF control unit 179)
The AF control unit 179 automatically controls the focus of the digital camera 100. More specifically, for example, the AF control unit 179 calculates an appropriate focus position. Then, the AF control unit 179 instructs the photographing lens 300 to realize the calculated proper focus position via the SIO 175.

(適正WB算出部181)
適正WB算出部181は、記録される撮影側画像のホワイトバランス(以下、WB)調整に用いる適正なWBゲインを自動算出する。より具体的には、例えば、適正WB算出部181は、撮影側画像の分割ブロック毎のR/G/B平均値から、適正なWBゲインを算出する。そして、適正WB算出部181は、WBゲインを当該適正なWBゲインに設定するように画像処理部195に指示する。
(Appropriate WB calculation unit 181)
The appropriate WB calculation unit 181 automatically calculates an appropriate WB gain used for white balance (hereinafter referred to as WB) adjustment of the recording-side image to be recorded. More specifically, for example, the appropriate WB calculation unit 181 calculates an appropriate WB gain from the R / G / B average value for each divided block of the shooting-side image. Then, the appropriate WB calculation unit 181 instructs the image processing unit 195 to set the WB gain to the appropriate WB gain.

(適性エッジ強度算出部183)
適性エッジ強度算出部183は、記録される撮影側画像のエッジ強調処理に用いる適正な強調係数を自動算出する。より具体的には、例えば、適性エッジ強度算出部183は、撮影側画像の周波数特性から、適正な強調係数を算出する。そして、適性エッジ強度算出部183は、強調係数を当該適正な強調係数に設定するように画像処理部195に指示する。
(Adaptive edge strength calculation unit 183)
The appropriate edge strength calculation unit 183 automatically calculates an appropriate enhancement coefficient used for edge enhancement processing of the recorded image on the photographing side. More specifically, for example, the appropriate edge strength calculation unit 183 calculates an appropriate enhancement coefficient from the frequency characteristics of the shooting-side image. Then, the appropriate edge strength calculation unit 183 instructs the image processing unit 195 to set the enhancement coefficient to the appropriate enhancement coefficient.

(領域検出部185)
領域検出部185は、撮影側画像に対応するファインダ側画像内の領域(以下、撮影対応領域)を検出する。ここで、上記のとおり、CMOS230により取得されるファインダ側画像は、ファインダ光学像と同じ範囲の光学像から取得されるため、ファインダ光学像の範囲、すなわちファインダ観察範囲20を示す画像であると言える。したがって、撮影側画像に対応するファインダ側画像内の領域を検出することにより、撮影側画像に対応するファインダ光学像内の領域を特定することができる。
(Area detection unit 185)
The area detection unit 185 detects an area in the finder side image corresponding to the shooting side image (hereinafter referred to as a shooting corresponding area). Here, as described above, the viewfinder-side image acquired by the CMOS 230 is acquired from an optical image in the same range as the viewfinder optical image, and thus can be said to be an image showing the range of the viewfinder optical image, that is, the viewfinder observation range 20. . Therefore, the region in the finder optical image corresponding to the photographing side image can be specified by detecting the region in the finder side image corresponding to the photographing side image.

より具体的に、例えば、領域検出部185は、まず、撮影側画像とファインダ側画像との間で共通する複数の特徴点を抽出し、当該複数の特徴点に基づいて両画像を照合することにより、撮影対応領域を検出する。当該検出は、一例として、SIFT(Scale-Invariant Feature Transform)アルゴリズムを用いて実現される。SIFTアルゴリズムによれば、画像間の倍率や角度が異なっていたとしても、両画像の照合を的確に行うことができる。以下、図9を参照して、特徴点の抽出および画像の照合の一例について説明する。   More specifically, for example, the region detection unit 185 first extracts a plurality of feature points common to the shooting-side image and the viewfinder-side image, and collates both images based on the plurality of feature points. Thus, the photographing corresponding area is detected. The detection is realized by using, for example, a SIFT (Scale-Invariant Feature Transform) algorithm. According to the SIFT algorithm, even if the magnification and angle between images are different, both images can be accurately verified. Hereinafter, an example of feature point extraction and image matching will be described with reference to FIG.

図9は、特徴点の抽出および画像の照合の一例を説明するための説明図である。図9を参照すると、撮影側画像30とファインダ側画像40とが示されている。領域検出部185は、例えば、画像間で共通する複数の特徴点31および41を抽出する。ここで、撮影側画像30の特徴点31a、31b、31c、31dおよび31eと、ファインダ側画像40の特徴点41a、41b、41c、41dおよび41eとが、画像間でそれぞれ共通している。そして、領域検出部185は、特徴点31および特徴点41に基づいて、両画像を照合する。その結果、撮影対応領域が得られる。   FIG. 9 is an explanatory diagram for explaining an example of feature point extraction and image matching. Referring to FIG. 9, a shooting side image 30 and a viewfinder side image 40 are shown. The area detection unit 185 extracts, for example, a plurality of feature points 31 and 41 that are common between images. Here, the feature points 31a, 31b, 31c, 31d and 31e of the photographing side image 30 and the feature points 41a, 41b, 41c, 41d and 41e of the finder side image 40 are common between the images. Then, the area detection unit 185 collates both images based on the feature point 31 and the feature point 41. As a result, an imaging corresponding area is obtained.

次に、図10〜図13を参照して、撮影対応領域の具体的な例を説明する。   Next, a specific example of the imaging corresponding area will be described with reference to FIGS.

図10は、撮影対応領域43の第1の例を説明するための説明図である。図10を参照すると、ファインダ側画像40a内に撮影対応領域43aが示されている。当該撮影対応領域43aは、撮影側画像30全体に対応している。よって、検出された当該撮影対応領域43aから、ファインダ光学像の範囲、すなわちファインダ観察範囲20が、撮影用のCMOS120の撮像範囲、すなわち撮影範囲10を包含していることが分かる。   FIG. 10 is an explanatory diagram for describing a first example of the imaging corresponding region 43. Referring to FIG. 10, a shooting corresponding area 43a is shown in the finder side image 40a. The photographing corresponding region 43a corresponds to the entire photographing side image 30. Therefore, it can be seen from the detected photographing corresponding region 43a that the range of the finder optical image, that is, the finder observation range 20, includes the imaging range of the photographing CMOS 120, that is, the photographing range 10.

図11は、撮影対応領域43の第2の例を説明するための説明図である。図11を参照すると、ファインダ側画像40bにほぼ一致する撮影対応領域43bが示されている。よって、検出された当該撮影対応領域43bから、ファインダ観察範囲20が撮影範囲10とほぼ一致していることが分かる。   FIG. 11 is an explanatory diagram for describing a second example of the imaging corresponding area 43. Referring to FIG. 11, a shooting corresponding region 43b that substantially matches the viewfinder side image 40b is shown. Therefore, it can be seen from the detected photographing corresponding region 43b that the finder observation range 20 substantially matches the photographing range 10.

図12は、撮影対応領域43の第3の例を説明するための説明図である。図12を参照すると、ファインダ側画像40c内に撮影対応領域43cが示されている。ただし、当該撮影対応領域43cは、撮影側画像30の一部にのみ対応している。よって、検出された当該撮影対応領域43cから、ファインダ観察範囲20が撮影範囲10を包含できていないことが分かる。すなわち、ファインダで撮像側画像30全体を観察できないことが分かる。   FIG. 12 is an explanatory diagram for describing a third example of the imaging corresponding area 43. Referring to FIG. 12, a shooting corresponding area 43c is shown in the finder side image 40c. However, the shooting corresponding area 43 c corresponds to only a part of the shooting side image 30. Therefore, it can be seen from the detected photographing corresponding region 43 c that the finder observation range 20 does not include the photographing range 10. That is, it can be seen that the entire imaging-side image 30 cannot be observed with the finder.

図13は、撮影対応領域43の第3の例を説明するための説明図である。図13を参照すると、ファインダ側画像40d内に撮影対応領域43dが示されている。ただし、当該撮影対応領域43dの大きさは、ファインダ側画像40dの大きさに比べると非常に小さい。すなわち、撮影対応領域43dの大きさに対するファインダ側画像40dの大きさの比率が、所定の閾値以上である。よって、検出された当該撮影対応領域43dから、ファインダ視野率(撮影用のCMOS120の撮像範囲の大きさに対する、ファインダ光学像の範囲の大きさの比率)が大きくなりすぎていることが分かる。すなわち、ファインダで撮像側画像30を観察しにくくなっていることが分かる。   FIG. 13 is an explanatory diagram for describing a third example of the imaging corresponding area 43. Referring to FIG. 13, a shooting corresponding area 43d is shown in the viewfinder side image 40d. However, the size of the photographing corresponding area 43d is very small compared to the size of the viewfinder side image 40d. That is, the ratio of the size of the viewfinder side image 40d to the size of the shooting corresponding area 43d is equal to or greater than a predetermined threshold. Therefore, it can be seen from the detected photographing corresponding region 43d that the finder field ratio (ratio of the size of the finder optical image range to the size of the imaging range of the photographing CMOS 120) is too large. That is, it can be seen that it is difficult to observe the imaging-side image 30 with the viewfinder.

以上のように、領域検出部185は、撮影対応領域43を検出する。そして、領域検出部185は、ファインダ制御部187、ファインダ画像生成部189および制御値変更部193に、検出結果として、検出された撮影対応領域43を出力する。また、領域検出部185は、図12のように撮影対応領域43が撮影側画像30の一部に対応する場合に、例えば、ファインダ制御部187に、撮影側画像30全体とファインダ側画像40との位置関係も出力する。また、領域検出部185は、図13のように、撮影対応領域43dの大きさに対するファインダ側画像40dの大きさの比率が所定の閾値以上である場合に、ファインダ制御部187に、上記比率が閾値以上であったことを示す情報も出力する。   As described above, the area detection unit 185 detects the imaging corresponding area 43. Then, the area detection unit 185 outputs the detected shooting corresponding area 43 as a detection result to the finder control unit 187, the finder image generation unit 189, and the control value change unit 193. Further, when the shooting corresponding area 43 corresponds to a part of the shooting side image 30 as shown in FIG. 12, for example, the area detection unit 185 causes the finder control unit 187 to send the entire shooting side image 30 and the viewfinder side image 40. The positional relationship is also output. Further, as shown in FIG. 13, when the ratio of the size of the finder-side image 40d to the size of the shooting-corresponding region 43d is equal to or larger than a predetermined threshold, the area detection unit 185 causes the finder control unit 187 to set the above ratio. Information indicating that the threshold was exceeded is also output.

(ファインダ制御部187)
ファインダ制御部187は、CMOS230の撮像範囲が撮影用のCMOS120の撮像範囲を包含するための制御を行う。すなわち、当該制御は、図3を参照すると、ファインダ光学像の範囲であるファインダ観察範囲20が、撮影用のCMOS120の撮像範囲である撮影範囲10を包含するための制御である。より具体的には、ファインダ光学系210は、画角の変更を可能にするズーム機能を有するため、ファインダ制御部187は、例えば、撮影光学系310の画角よりも大きくなるようにファインダ光学系210の画角を調整することにより、上記制御を行う。このような制御によれば、ファインダユニット200全体を動かすことなく、ファインダ観察範囲20に撮影範囲10を包含させることが可能になる。以降、ファインダ制御部187による制御の具体例を説明する。
(Finder control unit 187)
The finder control unit 187 performs control so that the imaging range of the CMOS 230 includes the imaging range of the CMOS 120 for photographing. That is, with reference to FIG. 3, the control is for the viewfinder observation range 20 that is the range of the viewfinder optical image to include the shooting range 10 that is the shooting range of the CMOS 120 for shooting. More specifically, since the finder optical system 210 has a zoom function that enables the change of the angle of view, the finder control unit 187 has, for example, a finder optical system that is larger than the angle of view of the photographing optical system 310. The above control is performed by adjusting the angle of view 210. According to such control, it is possible to include the photographing range 10 in the finder observation range 20 without moving the finder unit 200 as a whole. Hereinafter, a specific example of control by the finder control unit 187 will be described.

例えば、ファインダ制御部187は、撮影光学系310の画角に関する情報を取得し、当該情報に基づいてファインダ光学系210の画角を調整する。より具体的には、例えば、ファインダ制御部187は、SIO175を介して撮影用レンズ300から、撮影光学系310の画角に関する情報としてズームレンズ311の焦点距離を取得する。次に、ファインダ制御部187は、例えば、撮影光学系310の画角よりもファインダ光学系210の画角の方が少し大きくなるように予め定められた、ズームレンズ311の焦点距離とズームレンズ211の焦点距離と対応関係を参照する。そして、ファインダ制御部187は、当該対応関係に基づいて、ズームレンズ211の焦点距離を決定する。ここで、ファインダ制御部187は、算出された焦点距離とその時点での実際の焦点距離とから、ズームレンズ211の前後移動の必要量を算出し、当該必要量の前後移動をファインダユニット200のドライバ225に指示する。このような画角の調整によれば、撮影光学系310の画角に関する情報の取得という簡易な処理により、ある程度の精度で、ファインダ観察範囲20に撮影範囲10を包含させることができる。また、例えば、ファインダ光学系210の焦点距離または画角が未調整であるために所望の値とかけはなれている場合、撮影光学系310の焦点距離または画角が急激に変化する場合等であっても、素早く、ある程度の精度で、ファインダ観察範囲20に撮影範囲10を包含させることができる。   For example, the finder control unit 187 acquires information related to the angle of view of the photographing optical system 310 and adjusts the angle of view of the finder optical system 210 based on the information. More specifically, for example, the finder control unit 187 acquires the focal length of the zoom lens 311 as information related to the angle of view of the photographing optical system 310 from the photographing lens 300 via the SIO 175. Next, for example, the finder control unit 187 determines the focal length of the zoom lens 311 and the zoom lens 211 that are set in advance so that the field angle of the finder optical system 210 is slightly larger than the field angle of the photographing optical system 310. Refer to the focal length and correspondence relationship. Then, the finder control unit 187 determines the focal length of the zoom lens 211 based on the correspondence relationship. Here, the finder control unit 187 calculates the required amount of forward / backward movement of the zoom lens 211 from the calculated focal length and the actual focal length at that time, and performs the required forward / backward movement of the finder unit 200. The driver 225 is instructed. According to such adjustment of the angle of view, the photographing range 10 can be included in the finder observation range 20 with a certain degree of accuracy by a simple process of acquiring information related to the angle of view of the photographing optical system 310. In addition, for example, when the focal length or angle of view of the finder optical system 210 is not adjusted, it is different from a desired value, or when the focal length or angle of view of the photographing optical system 310 changes abruptly. However, the imaging range 10 can be included in the finder observation range 20 quickly and with a certain degree of accuracy.

なお、両ズームレンズの焦点距離の上記対応関係は、以下のように定めることができる。まず、ズームレンズ311の焦点距離とCMOS120のサイズから、撮影光学系310の画角を算出する。次に、撮影光学系310の画角よりも少し大きい画角を、ファインダ光学系210の画角として決定する。そして、決定されたファインダ光学系210の画角に対応するズームレンズ211の焦点距離を算出する。このように、ズームレンズ311の焦点距離とズームレンズ211の焦点距離との対応関係を定めることができる。なお、焦点距離の対応関係が予め定められている場合を説明したが、ファインダ制御部187がズームレンズ311の焦点距離からズームレンズ211の焦点距離を都度算出してもよい。   The correspondence relationship between the focal lengths of both zoom lenses can be determined as follows. First, the angle of view of the photographing optical system 310 is calculated from the focal length of the zoom lens 311 and the size of the CMOS 120. Next, an angle of view slightly larger than the angle of view of the photographing optical system 310 is determined as the angle of view of the finder optical system 210. Then, the focal length of the zoom lens 211 corresponding to the determined angle of view of the finder optical system 210 is calculated. In this manner, the correspondence between the focal length of the zoom lens 311 and the focal length of the zoom lens 211 can be determined. In addition, although the case where the correspondence relationship of the focal length is determined in advance has been described, the finder control unit 187 may calculate the focal length of the zoom lens 211 from the focal length of the zoom lens 311 each time.

また、ファインダ制御部187は、例えば、撮影光学系310の最近接距離に関する情報も取得し、上記画角に関する情報と上記最近接距離に関する情報とに基づいて、ファインダ光学系210の画角を調整する。より具体的には、例えば、ファインダ制御部187は、最近接距離がより小さい場合に、ファインダ光学系210の画角をより大きくし、最近接距離がより大きい場合に、ファインダ光学系210の画角をより小さくする。すなわち、ズームレンズ311の焦点距離とズームレンズ211の焦点距離との上記対応関係では、ズームレンズ311の焦点距離が同一であれば、最近接距離がより小さい程、ズームレンズ211の焦点距離が短くなる。以下に、最近接距離毎の上記対応関係の一部の例を示す。   The finder control unit 187 also acquires, for example, information related to the closest distance of the photographing optical system 310 and adjusts the angle of view of the finder optical system 210 based on the information related to the angle of view and the information related to the closest distance. To do. More specifically, for example, the finder control unit 187 increases the angle of view of the finder optical system 210 when the closest distance is smaller, and displays the image of the finder optical system 210 when the closest distance is larger. Make the corner smaller. That is, in the above correspondence relationship between the focal length of the zoom lens 311 and the focal length of the zoom lens 211, if the focal length of the zoom lens 311 is the same, the shorter the closest distance, the shorter the focal length of the zoom lens 211. Become. The following is an example of a part of the correspondence relationship for each closest distance.

Figure 2013088559
Figure 2013088559

このような画角の調整によれば、ファインダ光学系210の画角をより適切な画角に調整することが可能となる。すなわち、最近接距離がより短い場合に、ファインダ光学系210の画角をより大きくしておくことができる。その結果、最近接距離が短いためにより近い被写体を撮影することがあったとしても、ファインダ光学系210の画角が最近接距離に応じて大きくなっているので、より高い精度で、ファインダ観察範囲20が撮影範囲10を包含することができる。また、最近接距離がより長い場合に、ファインダ光学系210の画角をより小さくしておくことができる。その結果、最近接距離が長いためにより近い被写体を撮影することがないにも関わらず、ファインダ光学系210の画角が必要以上に大きな画角に調整されることにより、ファインダ視野率が必要以上に大きくなることを回避することができる。   According to such adjustment of the angle of view, the angle of view of the finder optical system 210 can be adjusted to a more appropriate angle of view. That is, when the closest distance is shorter, the angle of view of the finder optical system 210 can be increased. As a result, even if a closer subject may be photographed because the closest distance is short, the view angle of the finder optical system 210 is increased according to the closest distance, so that the finder observation range can be obtained with higher accuracy. 20 can include the imaging range 10. Further, when the closest distance is longer, the field angle of the finder optical system 210 can be made smaller. As a result, the view angle of the finder optical system 210 is adjusted to an unnecessarily large angle of view even though the closest subject is not photographed because the closest distance is long, so that the viewfinder field ratio is more than necessary. Can be avoided.

以上のように、撮影光学系310の画角に関する情報に基づくファインダ光学系210の画角調整手法について説明した。次に、当該画角調整手法と併せてまたは当該調整手法の代わりに用いる調整手法について説明する。   As described above, the field angle adjustment method of the finder optical system 210 based on the information related to the field angle of the photographing optical system 310 has been described. Next, an adjustment method used in combination with or instead of the angle-of-view adjustment method will be described.

ファインダ制御部187は、例えば、ファインダ側画像40内の撮影対応領域43の検出結果に基づいて、ファインダ光学系210の画角を調整する。このような検出結果に基づく画角調整手法の第1の例および第2の例を以下に説明する。   The finder control unit 187 adjusts the angle of view of the finder optical system 210 based on, for example, the detection result of the shooting corresponding area 43 in the finder side image 40. A first example and a second example of the angle of view adjustment method based on such a detection result will be described below.

まず、第1の例として、ファインダ制御部187は、ファインダ側画像40内の撮影対応領域43が撮影側画像30の一部に対応する場合に、ファインダ光学系210の画角をより大きい画角に調整する。すなわち、ファインダ制御部187は、ファインダ観察範囲20が撮影範囲10を包含しない場合に、ファインダ光学系210の画角をより大きい画角に調整する。   First, as a first example, the finder control unit 187 increases the angle of view of the finder optical system 210 when the shooting corresponding area 43 in the finder side image 40 corresponds to a part of the shooting side image 30. Adjust to. That is, the viewfinder control unit 187 adjusts the angle of view of the viewfinder optical system 210 to a larger angle of view when the viewfinder observation range 20 does not include the shooting range 10.

より具体的には、例えば、ファインダ側画像40内の撮影対応領域43が撮影側画像30の一部に対応する場合に、ファインダ制御部187は、領域検出部185から、撮影側画像30全体とファインダ側画像40との位置関係を取得する。すると、ファインダ制御部187は、撮影側画像30全体とファインダ側画像40との位置関係、およびその時点でのファインダ光学系210の画角から、ファインダ観察範囲20が撮影範囲10を包含可能な、ファインダ光学系210の適正な画角を算出する。当該適正な画角は、一例として、ファインダ光学系210の画角をその時点での画角から徐々に大きくしていった場合の撮影対応領域43の変化をシミュレーションすることにより算出可能である。そして、ファインダ制御部187は、その時点でのファインダ光学系210の画角から上記適正な画角に調整するために必要な焦点距離のシフト量を算出する。その後、ファインダ制御部187は、ファインダ光学系210の焦点距離を当該シフト量だけ変化させるように、ファインダユニット200のドライバ225に指示する。このような画角の調整の結果について、図14を参照して説明する。   More specifically, for example, when the shooting-corresponding region 43 in the finder-side image 40 corresponds to a part of the shooting-side image 30, the finder control unit 187 determines the entire shooting-side image 30 from the region detection unit 185. The positional relationship with the viewfinder side image 40 is acquired. Then, the finder control unit 187 can include the photographing range 10 in the finder observation range 20 based on the positional relationship between the entire photographing side image 30 and the finder side image 40 and the angle of view of the finder optical system 210 at that time. An appropriate angle of view of the finder optical system 210 is calculated. For example, the appropriate angle of view can be calculated by simulating a change in the photographing corresponding region 43 when the angle of view of the finder optical system 210 is gradually increased from the angle of view at that time. Then, the finder control unit 187 calculates the shift amount of the focal length necessary for adjusting the angle of view of the finder optical system 210 at that time to the appropriate angle of view. Thereafter, the finder control unit 187 instructs the driver 225 of the finder unit 200 to change the focal length of the finder optical system 210 by the shift amount. The result of the adjustment of the angle of view will be described with reference to FIG.

図14は、画角調整後の撮影対応領域43の一例を説明するための説明図である。前提として、図12には、画角調整前の撮影対応領域43が示されている。図12を参照すると、撮影対応領域43cは、撮影用画像30の一部にのみ対応している。すなわち、ファインダ観察範囲20が撮影範囲10を包含できていない。そして、図14を参照すると、ファインダ光学系210の画角が適正な画角に調整された結果、撮影対応領域43cは、撮影用画像30全体に対応している。すなわち、ファインダ観察範囲20が撮影範囲10全体を包含している。   FIG. 14 is an explanatory diagram for explaining an example of the photographing corresponding region 43 after the angle of view adjustment. As a premise, FIG. 12 shows a shooting corresponding area 43 before the angle of view adjustment. Referring to FIG. 12, the shooting corresponding area 43 c corresponds to only a part of the shooting image 30. That is, the finder observation range 20 cannot include the shooting range 10. Referring to FIG. 14, as a result of adjusting the angle of view of the finder optical system 210 to an appropriate angle of view, the shooting corresponding region 43 c corresponds to the entire shooting image 30. That is, the finder observation range 20 includes the entire shooting range 10.

このような画角の調整により、ファインダ観察範囲20に撮影範囲10をより確実に包含させることができる。その結果、ファインダ光学像を観察することにより、撮影光学系310のピントの位置にかかわらず撮影側画像30全体をより確実に観察することが可能になる。   By adjusting the angle of view as described above, the shooting range 10 can be more reliably included in the finder observation range 20. As a result, by observing the viewfinder optical image, it is possible to more reliably observe the entire photographing side image 30 regardless of the focus position of the photographing optical system 310.

なお、ファインダ光学系210の画角をより大きい画角に調整できない場合に、ファインダ制御部187は、画角調整が不可であることを示す情報を表示制御部191に出力する。   When the angle of view of the viewfinder optical system 210 cannot be adjusted to a larger angle of view, the viewfinder control unit 187 outputs information indicating that the angle of view adjustment is impossible to the display control unit 191.

次に、第2の例として、ファインダ制御部187は、ファインダ側画像40内の撮影対応領域43の大きさに対するファインダ側画像40大きさの比率が所定の閾値以上である場合に、ファインダ光学系210の画角をより小さい画角に調整する。すなわち、ファインダ制御部187は、ファインダ視野率(撮影範囲10の大きさに対するファインダ観察範囲20の大きさの比率)が所定の閾値以上である場合に、ファインダ光学系210の画角をより小さい画角に調整する。   Next, as a second example, when the ratio of the size of the finder side image 40 to the size of the shooting corresponding region 43 in the finder side image 40 is equal to or greater than a predetermined threshold, the finder control unit 187 The angle of view 210 is adjusted to a smaller angle of view. That is, the viewfinder control unit 187 reduces the angle of view of the viewfinder optical system 210 when the viewfinder field ratio (ratio of the size of the viewfinder observation range 20 to the size of the shooting range 10) is equal to or greater than a predetermined threshold. Adjust to the corner.

より具体的には、例えば、撮影対応領域43の大きさに対するファインダ側画像40大きさの比率が所定の閾値以上である場合に、ファインダ制御部187は、領域検出部185から、上記比率が閾値以上であったことを示す情報と検出された撮影対応領域43とを取得する。すると、ファインダ制御部187は、ファインダ側画像40および撮影対応領域43、並びにその時点でのファインダ光学系210の画角から、ファインダ観察範囲20に撮影範囲10を包含させつつファインダ視野率を最小化する、ファインダ光学系210の適正な画角を算出する。当該適正な画角は、一例として、ファインダ光学系210の画角をその時点での画角から徐々に小さくしていった場合の撮影対応領域43の変化をシミュレーションすることにより算出可能である。そして、ファインダ制御部187は、その時点でのファインダ光学系210の画角から上記適正な画角に調整するために必要な焦点距離のシフト量を算出する。その後、ファインダ制御部187は、ファインダ光学系210の焦点距離を当該シフト量だけ変化させるように、ファインダユニット200のドライバ225に指示する。   More specifically, for example, when the ratio of the size of the finder-side image 40 to the size of the shooting-corresponding region 43 is equal to or greater than a predetermined threshold, the finder control unit 187 determines that the ratio is the threshold Information indicating the above and the detected photographing corresponding region 43 are acquired. Then, the finder control unit 187 minimizes the finder field ratio while including the shooting range 10 in the finder observation range 20 from the viewfinder side image 40 and the shooting corresponding area 43 and the angle of view of the finder optical system 210 at that time. An appropriate angle of view of the finder optical system 210 is calculated. For example, the appropriate angle of view can be calculated by simulating a change in the photographing corresponding region 43 when the angle of view of the finder optical system 210 is gradually reduced from the angle of view at that time. Then, the finder control unit 187 calculates the shift amount of the focal length necessary for adjusting the angle of view of the finder optical system 210 at that time to the appropriate angle of view. Thereafter, the finder control unit 187 instructs the driver 225 of the finder unit 200 to change the focal length of the finder optical system 210 by the shift amount.

再び図13を参照すると、撮影対応領域43dの大きさはファインダ側画像40dの大きさに比べると非常に小さく、撮影対応領域43dの大きさに対するファインダ側画像40dの大きさの比率が所定の閾値以上である。すなわち、ファインダ視野率が大きくなりすぎている。そして、図11を参照すると、ファインダ光学系210の画角が適正な画角に調整された結果、撮影対応領域43bは、ファインダ側画像40bとほぼ一致している。すなわち、ファインダ視野率が100%強となっている。   Referring to FIG. 13 again, the size of the shooting corresponding region 43d is very small compared to the size of the finder side image 40d, and the ratio of the size of the finder side image 40d to the size of the shooting corresponding region 43d is a predetermined threshold value. That's it. That is, the viewfinder field ratio is too large. Then, referring to FIG. 11, as a result of adjusting the angle of view of the finder optical system 210 to an appropriate angle of view, the photographing corresponding region 43b substantially coincides with the finder side image 40b. That is, the viewfinder field ratio is slightly over 100%.

このような画角の調整により、ファインダ観察範囲20に撮影範囲10を包含させつつ、ファインダ視野率を最小化することができる。その結果、ファインダ光学像において撮影側画像30をより確認しやすくなる。また、個体ごとに発生する製造誤差の補正もなされることから、製造コスト削減にも寄与する。   By adjusting the angle of view, it is possible to minimize the finder field ratio while including the shooting range 10 in the finder observation range 20. As a result, it is easier to confirm the shooting side image 30 in the finder optical image. Further, since the manufacturing error generated for each individual is corrected, it contributes to the reduction of the manufacturing cost.

(ファインダ画像生成部189)
ファインダ画像生成部189は、検出された撮影対応領域43に基づいて、撮影側画像30に対応するファインダ光学像内の領域を示す画像(以下、領域画像)を生成する。当該領域画像は、ファインダユニット200のLCD240に表示され、ファインダ光学像に重畳される。ファインダ画像生成部189は、LCD240およびファインダ光学像60の大きさを踏まえて、ファインダ側画像40と撮影対応領域43との関係から、LCD240に表示されると撮影側画像30に対応するファインダ光学像40内の領域を示す画像を生成することができる。以下、図15〜図17を参照して、当該領域画像の具体例を説明する。
(Finder image generation unit 189)
The finder image generation unit 189 generates an image (hereinafter referred to as a region image) indicating a region in the finder optical image corresponding to the shooting-side image 30 based on the detected shooting-corresponding region 43. The region image is displayed on the LCD 240 of the finder unit 200 and superimposed on the finder optical image. Based on the size of the LCD 240 and the viewfinder optical image 60, the viewfinder image generation unit 189 determines the viewfinder optical image corresponding to the shooting-side image 30 when displayed on the LCD 240 from the relationship between the viewfinder-side image 40 and the shooting corresponding region 43. An image showing the area within 40 can be generated. Hereinafter, a specific example of the region image will be described with reference to FIGS. 15 to 17.

図15は、領域画像70の第1の例を説明するための説明図である。当該第1の例は、図10のように撮影対応領域43aが検出された場合の例である。図15を参照すると、ファインダ接眼窓221を覗き込んだ際に観察されるファインダ光学像60aと領域画像70aとが示されている。領域画像70aは、ファインダ光学像内の撮影側画像30に対応する領域61aを示すためのマスク画像である。   FIG. 15 is an explanatory diagram for describing a first example of the region image 70. The first example is an example in the case where the shooting corresponding area 43a is detected as shown in FIG. Referring to FIG. 15, a finder optical image 60a and a region image 70a observed when looking through the finder eyepiece window 221 are shown. The region image 70a is a mask image for showing a region 61a corresponding to the photographing side image 30 in the finder optical image.

図16は、領域画像70の第2の例を説明するための説明図である。当該第2の例は、図14のように撮影対応領域43cが検出された場合の例である。図16を参照すると、ファインダ接眼窓221を覗き込んだ際に観察されるファインダ光学像60bと領域画像70bとが示されている。領域画像70bは、図15と同様に、ファインダ光学像内の撮影側画像30に対応する領域61bを示すためのマスク画像である。ここでは、領域画像70bのマスクの明るさとファインダ光学像60の明るさが近くなっている。   FIG. 16 is an explanatory diagram for describing a second example of the region image 70. The second example is an example in the case where the shooting corresponding area 43c is detected as shown in FIG. Referring to FIG. 16, a viewfinder optical image 60b and a region image 70b that are observed when looking through the viewfinder eyepiece window 221 are shown. Similar to FIG. 15, the region image 70 b is a mask image for indicating a region 61 b corresponding to the shooting-side image 30 in the finder optical image. Here, the brightness of the mask of the area image 70b and the brightness of the finder optical image 60 are close to each other.

図17は、領域画像70の第3の例を説明するための説明図である。当該第3の例は、第2の例のマスクの明るさを改善した例である。図17を参照すると、領域画像70bのマスクの明るさがファインダ光学像60の明るさとの差が大きい。そのため、図16の場合よりも領域画像70bの存在および領域61bをより確認しやすくなっている。   FIG. 17 is an explanatory diagram for describing a third example of the region image 70. The third example is an example in which the brightness of the mask of the second example is improved. Referring to FIG. 17, the difference between the brightness of the mask of the area image 70b and the brightness of the finder optical image 60 is large. Therefore, it is easier to confirm the presence of the area image 70b and the area 61b than in the case of FIG.

なお、領域画像70は、図15〜図17のようなマスクに限られない。領域画像70は、ファインダ光学像60内の撮影側画像30に対応する領域61を確認可能な任意の画像であってもよい。例えば、領域画像70は、領域61を囲う線のみの画像であってもよい。   The region image 70 is not limited to the masks as shown in FIGS. The area image 70 may be an arbitrary image in which the area 61 corresponding to the shooting-side image 30 in the finder optical image 60 can be confirmed. For example, the region image 70 may be an image of only a line surrounding the region 61.

(表示制御部191)
表示制御部191は、撮影対応領域43の検出結果に基づき生成される、撮影側画像30に対応するファインダ光学像60内の領域を示す画像(すなわち、領域画像70)を、ファインダ光学像60に重畳してファインダユニット200のLCD240に表示させる。すなわち、表示制御部191は、ファインダ画像生成部189により生成された領域画像70を、ファインダ光学像に重畳してLCD240に表示させる。表示制御部191は、例えば、図15〜図17のような領域画像70をLCD240に表示させる。このように、領域画像70の表示により、ファインダユニット200で撮影側画像を正確に観察することが可能になる。すなわち、利用者は、ファインダ光学像60を観察する際に、領域画像70を見れば、どこからどこまでが撮影範囲10であるかを正確に把握することができる。また、上記のとおり、ファインダ光学系210の画角の調整によって、ファインダ観察範囲20に撮影範囲10を包含させるため、ファインダユニット200全体を動かす必要もない。
(Display control unit 191)
The display control unit 191 generates an image indicating the area in the finder optical image 60 corresponding to the shooting-side image 30 (that is, the area image 70) generated based on the detection result of the shooting corresponding area 43 in the finder optical image 60. The images are superimposed and displayed on the LCD 240 of the finder unit 200. That is, the display control unit 191 causes the LCD 240 to display the region image 70 generated by the finder image generation unit 189 on the finder optical image. For example, the display control unit 191 causes the LCD 240 to display the region image 70 as illustrated in FIGS. 15 to 17. Thus, the display of the area image 70 enables the finder unit 200 to accurately observe the shooting side image. That is, when observing the finder optical image 60, the user can accurately grasp from where to where is the imaging range 10 by looking at the region image 70. Further, as described above, since the finder observation range 20 includes the photographing range 10 by adjusting the angle of view of the finder optical system 210, it is not necessary to move the entire finder unit 200.

また、表示制御部191は、ファインダ光学系210の画角をより大きい画角に調整できない場合に、警告を示す画像(以下、警告画像)をLCD240に表示させる。例えば、表示制御部191は、ファインダ制御部187から画角調整が不可であることを示す情報を取得すると、所定の警告画像をLCD240に表示させる。この点について、図18を参照して説明する。   The display control unit 191 displays an image indicating a warning (hereinafter, a warning image) on the LCD 240 when the angle of view of the finder optical system 210 cannot be adjusted to a larger angle of view. For example, when the display control unit 191 acquires information indicating that the angle of view is not adjustable from the finder control unit 187, the display control unit 191 displays a predetermined warning image on the LCD 240. This point will be described with reference to FIG.

図18は、警告画像80の一例を説明するための説明図である。図18を参照すると、ファインダ接眼窓221を覗き込んだ際に観察されるファインダ光学像60cと警告画像80とが示されている。警告画像80として、「ZOOM連動外 LCDを利用してください」という画像が表示されている。   FIG. 18 is an explanatory diagram for explaining an example of the warning image 80. Referring to FIG. 18, a finder optical image 60c and a warning image 80 that are observed when looking into the finder eyepiece window 221 are shown. As the warning image 80, an image “Please use LCD outside ZOOM interlocking” is displayed.

このような警告画像80の表示により、画角調整の次善の策として、ファインダ観察範囲20が撮影範囲10を包含できないことを利用者に知らせることができる。   By displaying the warning image 80 as described above, it is possible to notify the user that the finder observation range 20 cannot include the shooting range 10 as a second best measure for adjusting the angle of view.

また、表示制御部191は、例えば、画像処理部195による画像処理後の撮影側画像30をLCD150に表示させる。   In addition, the display control unit 191 causes the LCD 150 to display the shooting-side image 30 after image processing by the image processing unit 195, for example.

(制御値変更部193)
制御値変更部193は、ファインダ側画像40内の撮影対応領域43に含まれる画素の情報を用いて、デジタルカメラ100の動作に関する制御値を変更する。上記制御値変更部193は、例えば、連写撮影を行う場合に上記制御値を変更する。以下、当該制御値の変更について、より具体的に説明する。
(Control value changing unit 193)
The control value changing unit 193 changes the control value related to the operation of the digital camera 100 using the information on the pixels included in the shooting corresponding area 43 in the finder side image 40. The control value changing unit 193 changes the control value when performing continuous shooting, for example. Hereinafter, the change of the control value will be described more specifically.

第1の例として、上記制御値は、例えば、デジタルカメラ100の露出制御値である。すなわち、制御値変更部193は、撮影対応領域43に含まれる画素の情報を用いて、露出制御値を変更する。当該露出制御値は、例えば、EV値、F値、シャッタスピード、またはISO感度を含む。   As a first example, the control value is an exposure control value of the digital camera 100, for example. That is, the control value changing unit 193 changes the exposure control value using the information on the pixels included in the shooting corresponding area 43. The exposure control value includes, for example, an EV value, an F value, a shutter speed, or ISO sensitivity.

例えば、制御値変更部193は、撮影対応領域43に含まれる画素の情報を用いて適正なEV値を算出し、当該適正なEV値に基づいて露出制御値を変更する。より具体的には、例えば、制御値変更部193は、連写撮影の開始の際に、撮影対応領域43をブロックに分割し、ブロック毎の輝度平均値を算出する。次に、制御値変更部193は、当該分割ブロック毎の輝度平均値に基づいて、適正なEV値を算出する。そして、制御値変更部193は、当該適正なEV値を基準値として記憶する。このような適正なEV値の算出について、図19を参照してより具体的に説明する。   For example, the control value changing unit 193 calculates an appropriate EV value using information on the pixels included in the imaging corresponding area 43, and changes the exposure control value based on the appropriate EV value. More specifically, for example, the control value changing unit 193 divides the shooting corresponding region 43 into blocks when starting continuous shooting, and calculates a luminance average value for each block. Next, the control value changing unit 193 calculates an appropriate EV value based on the luminance average value for each divided block. Then, the control value changing unit 193 stores the appropriate EV value as a reference value. The calculation of such an appropriate EV value will be described more specifically with reference to FIG.

図19は、撮影対応領域43の分割ブロックの一例を説明するための説明図である。図19を参照すると、例えば、ファインダ側画像40c内の撮影対応領域43cは、5×5のブロック45に分割される。そして、ブロック45毎の輝度平均値が算出され、当該輝度平均値に基づいて適正なEV値が算出される。   FIG. 19 is an explanatory diagram for explaining an example of a divided block of the photographing corresponding area 43. Referring to FIG. 19, for example, the photographing corresponding area 43 c in the finder side image 40 c is divided into 5 × 5 blocks 45. Then, a luminance average value for each block 45 is calculated, and an appropriate EV value is calculated based on the luminance average value.

上記適正なEV値を基準値として記憶した後に、制御値変更部193は、継続して適正なEV値を算出し、算出したEV値と基準値との差(すなわち、算出したEV値−基準値)を算出する。そして、当該EV値の差の大きさが所定の閾値以上である場合に、制御値変更部193は、AE制御部177により設定されているEV値に当該差を加えた値を、新たなEV値としてAE制御部177に設定させる。また、当該設定に併せて、制御値変更部193は、自ら算出した最新の適正なEV値を新たな基準値として記憶する。このように、設定されているEV値に上記差を加えることにより、時間経過によるEV値の相対的な変化量を、設定されているEV値に反映させることができる。このようなEV値の変更について、図20を参照してより具体的に説明する。   After storing the appropriate EV value as the reference value, the control value changing unit 193 continuously calculates the appropriate EV value, and the difference between the calculated EV value and the reference value (ie, the calculated EV value−reference value). Value). Then, when the magnitude of the difference between the EV values is equal to or greater than a predetermined threshold value, the control value changing unit 193 adds a value obtained by adding the difference to the EV value set by the AE control unit 177 to a new EV. The value is set in the AE control unit 177 as a value. In addition to the setting, the control value changing unit 193 stores the latest appropriate EV value calculated by itself as a new reference value. In this way, by adding the above difference to the set EV value, it is possible to reflect the relative change amount of the EV value over time in the set EV value. Such a change in the EV value will be described more specifically with reference to FIG.

図20は、撮影対応領域43に基づく露出制御値の変更の一例を説明するための説明図である。図20を参照すると、撮影側画像30について、垂直同期(VD)信号によるフレームF毎に、露出制御値Eによる露出が行われる。また、当該露出により入射した光からCMOS120により取得されたRAWデータの画像Iが、次のフレームFで、画像入力コントローラ125によりSDRAM139に入力される。そして、次のフレームFで、AE制御部177は、適正な露出制御値AEの算出および設定を行う。例えば、フレームF1では、露出制御値E−1による露出が行われる。次に、フレームF2では、フレームF1での露出制御値E−1による露出に応じて取得された画像I−1が、SDRAM139に入力される。そして、フレームF3では、フレームF2で入力された画像に基づいて、適正な露出制御値AE−1の算出および設定が行われる。そして、フレームF4から、設定された新たな露出制御値E−2による露出が行われる。このように、3フレーム毎に露出制御値が設定される。なお、図20では明示されていないが、フレームF2、F5、F8のみではなく、各フレームFで、画像入力が行われる。例えば、フレームF2では、露出制御値E−1による露出が行われ、フレームF4では、フレームF2での露出制御値E−1による露出に応じて取得された画像が、SDRAM139に入力される。   FIG. 20 is an explanatory diagram for explaining an example of changing the exposure control value based on the imaging corresponding area 43. Referring to FIG. 20, the exposure side image 30 is exposed with the exposure control value E for each frame F based on the vertical synchronization (VD) signal. In addition, the image I of the RAW data acquired by the CMOS 120 from the light incident by the exposure is input to the SDRAM 139 by the image input controller 125 in the next frame F. In the next frame F, the AE control unit 177 calculates and sets an appropriate exposure control value AE. For example, in the frame F1, exposure is performed with the exposure control value E-1. Next, in the frame F2, the image I-1 acquired according to the exposure by the exposure control value E-1 in the frame F1 is input to the SDRAM 139. In the frame F3, an appropriate exposure control value AE-1 is calculated and set based on the image input in the frame F2. Then, exposure is performed from the frame F4 with the set new exposure control value E-2. Thus, the exposure control value is set every three frames. Although not explicitly shown in FIG. 20, image input is performed not only in the frames F2, F5, and F8 but also in each frame F. For example, in the frame F2, exposure is performed with the exposure control value E-1, and in the frame F4, an image acquired according to the exposure with the exposure control value E-1 in the frame F2 is input to the SDRAM 139.

一方で、ファインダ側画像40について、上記VD信号よりも短い周期のVD信号を用いて、例えばフレームFの半分の長さのフレームfが設定されている。ファインダ光学系210およびCMOS230は、撮影側画像30から独立しているため、このようにフレームfの長さを自由に設定することができる。当該フレームf毎に露出制御値eによる露出が行われる。また、当該露出により入射した光からCMOS230により取得されたRAWデータの画像iが、次のフレームfで、画像入力コントローラ235によりSDRAM139に入力される。そして、次のフレームfで、制御値変更部193は、適正な露出制御値aeの算出、適正な露出制御値aeと基準値との差の算出、当該差と閾値との比較を行う。そして、閾値との比較結果に応じて、露出制御値Eが変更される。その結果、制御値変更部193は、同じ時点での露出に基づく適正な露出制御値の算出を、AE制御部177よりもより早く完了させることができる。なお、図20では明示されていないが、フレームFと同様に、各フレームfでも、RAWデータの画像入力が行われる。   On the other hand, for the finder side image 40, for example, a frame f having a length half that of the frame F is set using a VD signal having a shorter cycle than the VD signal. Since the finder optical system 210 and the CMOS 230 are independent from the photographing side image 30, the length of the frame f can be freely set in this way. Exposure is performed with the exposure control value e for each frame f. Also, an image i of RAW data acquired by the CMOS 230 from the light incident by the exposure is input to the SDRAM 139 by the image input controller 235 in the next frame f. Then, in the next frame f, the control value changing unit 193 calculates a proper exposure control value ae, calculates a difference between the proper exposure control value ae and the reference value, and compares the difference with a threshold value. Then, the exposure control value E is changed according to the comparison result with the threshold value. As a result, the control value changing unit 193 can complete the calculation of an appropriate exposure control value based on the exposure at the same time earlier than the AE control unit 177. Although not explicitly shown in FIG. 20, the image input of RAW data is performed in each frame f as well as the frame F.

例えば、フレームF3とフレームF4の間に被写体の明るさが変化した場合に、AE制御部177は、当該変化後に露出制御値E−2による露出をフレームF4で行い、画像I−2の入力をフレームF5で行い、適正な露出制御値AE−2の算出および設定をフレームF6で行う。そのため、明るさの変化を反映した露出は、フレームF7以降に行われる。一方で、制御値変更部193は、当該変化後に露出制御値e−3による露出をフレームf7で行い、画像i−3の入力をフレームf8で行い、適正な露出制御値ae−3の算出および新たな露出制御値Eの設定をフレームf9で行う。そのため、明るさの変化を反映した露出は、フレームf10以降、すなわちフレームF6以降に行われる。   For example, when the brightness of the subject changes between the frames F3 and F4, the AE control unit 177 performs exposure with the exposure control value E-2 in the frame F4 after the change, and inputs the image I-2. In frame F5, an appropriate exposure control value AE-2 is calculated and set in frame F6. Therefore, the exposure reflecting the change in brightness is performed after the frame F7. On the other hand, the control value changing unit 193 performs exposure with the exposure control value e-3 after the change in the frame f7, inputs the image i-3 with the frame f8, calculates the appropriate exposure control value ae-3, and A new exposure control value E is set at frame f9. Therefore, the exposure reflecting the change in brightness is performed after the frame f10, that is, after the frame F6.

以上のように、撮影対応領域43に含まれる画素を用いた露出制御によれば、連写撮影時に、被写体の明るさの変化に応じてより素早く露出制御値を変更することができる。その結果、連写撮影において、被写体の明るさに合わない露出により撮影される画像をより少なくすることができる。   As described above, according to the exposure control using the pixels included in the shooting corresponding area 43, the exposure control value can be changed more quickly according to the change in the brightness of the subject during continuous shooting. As a result, in continuous shooting, it is possible to reduce the number of images shot with exposure that does not match the brightness of the subject.

次に、第2の例として、上記制御値は、撮影側画像30の画像処理に用いる制御値である。   Next, as a second example, the control value is a control value used for image processing of the shooting-side image 30.

例えば、上記画像処理に用いる制御値は、撮影側画像30のWB調整に用いるWBゲインである。すなわち、制御値変更部193は、撮影対応領域43に含まれる画素の情報を用いて、撮影側画像30のWB調整に用いるWBゲインを変更する。   For example, the control value used for the image processing is a WB gain used for WB adjustment of the shooting-side image 30. That is, the control value changing unit 193 changes the WB gain used for the WB adjustment of the shooting-side image 30 using the pixel information included in the shooting corresponding area 43.

より具体的には、例えば、制御値変更部193は、連写撮影の開始の際に、撮影対応領域43をブロックに分割し、ブロック毎のR/G/B平均値を算出する。次に、制御値変更部193は、当該分割ブロック毎のR/G/B平均値に基づいて、適正なWBゲインを算出する。当該算出は、図19を参照して説明した輝度平均値の算出と同様である。そして、制御値変更部193は、当該適正なWBゲインを基準値として記憶する。   More specifically, for example, when the continuous shooting is started, the control value changing unit 193 divides the shooting corresponding area 43 into blocks, and calculates an R / G / B average value for each block. Next, the control value changing unit 193 calculates an appropriate WB gain based on the R / G / B average value for each divided block. The calculation is the same as the calculation of the luminance average value described with reference to FIG. Then, the control value changing unit 193 stores the appropriate WB gain as a reference value.

上記適正なWBゲインを基準値として記憶した後に、制御値変更部193は、継続して適正なWBゲイン値を算出し、基準値に対する算出したWBゲインの割合いを算出する。そして、当該割合いが所定の閾値以上である場合に、制御値変更部193は、画像処理部195により設定されているWBゲインに当該割合いを乗じた値を、新たなWBゲインとして設定するように画像処理部195に指示する。また、当該設定に併せて、制御値変更部193は、自ら算出した最新の適正なWBゲインを新たな基準値として記憶する。このような設定により、上記露出制御値の変更と同様に、時間経過によるWBゲインの相対的な変化量を、設定されているWBゲインに反映させることができる。   After storing the appropriate WB gain as a reference value, the control value changing unit 193 continuously calculates an appropriate WB gain value and calculates a ratio of the calculated WB gain to the reference value. When the ratio is equal to or greater than a predetermined threshold, the control value changing unit 193 sets a value obtained by multiplying the WB gain set by the image processing unit 195 by the ratio as a new WB gain. Instruct the image processing unit 195 as follows. In addition to the setting, the control value changing unit 193 stores the latest appropriate WB gain calculated by itself as a new reference value. With such a setting, the relative change amount of the WB gain over time can be reflected in the set WB gain, similarly to the change of the exposure control value.

また、例えば、上記画像処理に用いる制御値は、撮影側画像30エッジ強調処理に用いる強調係数である。すなわち、制御値変更部193は、撮影対応領域43に含まれる画素の情報を用いて、撮影側画像30エッジ強調処理に用いる強調係数を変更する。   Further, for example, the control value used for the image processing is an enhancement coefficient used for the photographing side image 30 edge enhancement processing. That is, the control value changing unit 193 changes the enhancement coefficient used for the edge enhancement process on the shooting-side image 30 using the pixel information included in the shooting corresponding area 43.

より具体的には、例えば、制御値変更部193は、連写撮影の開始の際に、撮影対応領域43の周波数特性を算出する。次に、制御値変更部193は、当該周波数特性に基づいて、適正な強調係数を算出する。そして、制御値変更部193は、当該適正な強調係数を基準値として記憶する。   More specifically, for example, the control value changing unit 193 calculates the frequency characteristics of the shooting corresponding region 43 when starting continuous shooting. Next, the control value changing unit 193 calculates an appropriate enhancement coefficient based on the frequency characteristic. Then, the control value changing unit 193 stores the appropriate enhancement coefficient as a reference value.

上記適正な強調係数を基準値として記憶した後に、制御値変更部193は、継続して適正な強調係数を算出し、算出した強調係数と基準値との差(すなわち、算出した強調係数−基準値)を算出する。そして、当該差の大きさが所定の閾値以上である場合に、制御値変更部193は、画像処理部195により設定されている強調係数に当該差を加えた値を、新たな強調係数として設定するように画像処理部195に指示する。また、当該設定に併せて、制御値変更部193は、自ら算出した最新の適正な強調係数を新たな基準値として記憶する。このような設定により、上記露出制御値およびWBゲインの変更と同様に、時間経過による強調係数の相対的な変化量を、設定されている強調係数に反映させることができる。   After storing the appropriate enhancement coefficient as a reference value, the control value changing unit 193 continuously calculates the appropriate enhancement coefficient, and the difference between the calculated enhancement coefficient and the reference value (that is, the calculated enhancement coefficient−reference Value). When the magnitude of the difference is equal to or greater than a predetermined threshold, the control value changing unit 193 sets a value obtained by adding the difference to the enhancement coefficient set by the image processing unit 195 as a new enhancement coefficient. The image processing unit 195 is instructed to do so. In addition to the setting, the control value changing unit 193 stores the latest proper enhancement coefficient calculated by itself as a new reference value. With such a setting, as with the change in the exposure control value and the WB gain, the relative change amount of the enhancement coefficient over time can be reflected in the set enhancement coefficient.

以上のように、WB調整のWBゲイン、エッジ強調処理の強調係数を例示して、画像処理に用いる制御値の変更について説明した。このような制御値の変更により、例えば、連写撮影のフレームが極めて短く、画像処理に用いる制御値を固定して撮影せざるを得ない場合であっても、撮影対応領域43に含まれる画素の情報を用いて、連写撮影中に上記制御値をより適正なものに変更することができる。   As described above, the WB gain for the WB adjustment and the enhancement coefficient for the edge enhancement process are exemplified, and the change of the control value used for the image processing has been described. Due to such a change in the control value, for example, even if the frame for continuous shooting is extremely short and the control value used for image processing has to be fixed, the pixels included in the shooting corresponding region 43 By using this information, the control value can be changed to a more appropriate value during continuous shooting.

(画像処理部195)
画像処理部195は、CMOS120により取得される撮影側画像30に対する各種画像処理を行う。例えば、画像処理部195は、撮影側画像30に対するWB調整およびエッジ強調処理を行う。
(Image processing unit 195)
The image processing unit 195 performs various types of image processing on the shooting side image 30 acquired by the CMOS 120. For example, the image processing unit 195 performs WB adjustment and edge enhancement processing on the shooting-side image 30.

また、画像処理部195は、適正WB算出部181による指示に従って、WBゲインを設定する。また、画像処理部195は、適正エッジ強度算出部183による指示に従って、エッジ強調処理の強調係数を設定する。   Further, the image processing unit 195 sets the WB gain in accordance with an instruction from the appropriate WB calculation unit 181. Further, the image processing unit 195 sets an enhancement coefficient for edge enhancement processing in accordance with instructions from the appropriate edge strength calculation unit 183.

また、画像処理部195は、制御値変更部193による指示に従って、画像処理に用いる制御値を変更する。例えば、画像処理部195は、制御値変更部193による指示に従って、WBゲインおよびエッジ強調処理の強調係数を設定する。   Further, the image processing unit 195 changes the control value used for image processing in accordance with the instruction from the control value changing unit 193. For example, the image processing unit 195 sets a WB gain and an enhancement coefficient for edge enhancement processing in accordance with an instruction from the control value changing unit 193.

以上、処理部170の構成の一例について説明したが、処理部170は、例えば、CPUおよびDSP(Digital Signal Processor)により実装される。   Although an example of the configuration of the processing unit 170 has been described above, the processing unit 170 is implemented by, for example, a CPU and a DSP (Digital Signal Processor).

<4.処理の流れ>
次に、図21および図22を参照して、本実施形態に係る撮影処理の一例について説明する。
<4. Process flow>
Next, with reference to FIG. 21 and FIG. 22, an example of the photographing process according to the present embodiment will be described.

(撮影処理全体の流れ)
図21は、本実施形態に係るにおける撮像処理の概略的な流れの一例を示すフローチャートである。
(Flow of the entire shooting process)
FIG. 21 is a flowchart illustrating an example of a schematic flow of an imaging process according to the present embodiment.

(制御値変更処理の流れ)
まず、ステップS301で、ファインダ制御部187は、撮影光学系310の画角に関する情報を取得する。次に、ステップS303で、ファインダ制御部187は、撮影光学系310の画角に関する情報に基づいて、ファインダ光学系210の画角を調整する
(Control value change processing flow)
First, in step S301, the finder control unit 187 acquires information related to the angle of view of the photographing optical system 310. Next, in step S <b> 303, the finder control unit 187 adjusts the angle of view of the finder optical system 210 based on information regarding the angle of view of the photographing optical system 310.

次に、ステップS305で、CMOS120は、撮影用レンズ300の撮影光学系310により導かれた光から撮影側画像30を取得する。また、ステップS307で、CMOS230は、ファインダ光学像60と同じ範囲の光学像からファインダ側画像40を取得する。そして、ステップS309で、領域検出部185は、撮影側画像30に対応するファインダ側画像40内の領域、すなわち撮影対応領域43を検出する。   Next, in step S <b> 305, the CMOS 120 acquires the photographing side image 30 from the light guided by the photographing optical system 310 of the photographing lens 300. In step S <b> 307, the CMOS 230 acquires the finder side image 40 from the optical image in the same range as the finder optical image 60. In step S 309, the region detection unit 185 detects a region in the finder side image 40 corresponding to the shooting side image 30, that is, the shooting corresponding region 43.

次に、ステップ311で、ファインダ制御部187は、撮影対応領域43が撮影側画像30の一部に対応するか否かを判定する。撮影対応領域43が撮影側画像30の一部に対応する場合に、処理はステップS315へ進む。一方、撮影対応領域43が撮影側画像30全体に対応する場合に、処理はステップS313へ進む。   Next, in step 311, the finder control unit 187 determines whether or not the shooting corresponding area 43 corresponds to a part of the shooting side image 30. If the shooting corresponding area 43 corresponds to a part of the shooting-side image 30, the process proceeds to step S315. On the other hand, when the shooting corresponding area 43 corresponds to the entire shooting side image 30, the process proceeds to step S313.

ステップS313で、LCD240は、撮影対応領域43の検出結果に基づき生成される、撮影側画像30に対応するファインダ光学像60内の領域を示す画像(すなわち、領域画像70)を、ファインダ光学像60に重畳して表示する。   In step S <b> 313, the LCD 240 generates an image indicating the area in the finder optical image 60 corresponding to the shooting-side image 30 (that is, the area image 70) generated based on the detection result of the shooting corresponding area 43. Superimposed on the display.

ステップS315で、ファインダ制御部187は、撮影側画像30全体とファインダ側画像40との位置関係、およびその時点でのファインダ光学系210の画角から、ファインダ観察範囲20が撮影範囲10を包含可能な、ファインダ光学系210の適正な画角を算出する。次に、ステップS317で、ファインダ制御部187は、その時点でのファインダ光学系210の画角から上記適正な画角に調整するために必要な焦点距離のシフト量を算出する。   In step S315, the finder control unit 187 allows the finder observation range 20 to include the shooting range 10 based on the positional relationship between the entire shooting side image 30 and the viewfinder side image 40 and the angle of view of the finder optical system 210 at that time. In addition, an appropriate angle of view of the finder optical system 210 is calculated. Next, in step S317, the finder control unit 187 calculates the shift amount of the focal length necessary for adjusting the angle of view of the finder optical system 210 at that time to the appropriate angle of view.

ステップS319で、ファインダ制御部187は、ファインダ側画像40内の撮影対応領域43の大きさに対するファインダ側画像40大きさの比率(すなわち、ファインダ視野率)が所定の閾値以上であるか否かを判定する。上記比率が所定の閾値以上であれば、処理はステップS321へ進む。一方、上記比率が所定の閾値未満であれば、処理はステップS331へ進む。   In step S319, the finder control unit 187 determines whether or not the ratio of the size of the finder side image 40 to the size of the shooting-corresponding region 43 in the finder side image 40 (that is, the finder field ratio) is equal to or greater than a predetermined threshold. judge. If the ratio is equal to or greater than the predetermined threshold, the process proceeds to step S321. On the other hand, if the ratio is less than the predetermined threshold, the process proceeds to step S331.

ステップS321で、ファインダ制御部187は、ファインダ側画像40および撮影対応領域43、並びにその時点でのファインダ光学系210の画角から、ファインダ観察範囲20に撮影範囲10を包含させつつファインダ視野率を最小化する、ファインダ光学系210の適正な画角を算出する。そして、次に、ステップS323で、ファインダ制御部187は、その時点でのファインダ光学系210の画角から上記適正な画角に調整するために必要な焦点距離のシフト量を算出する。   In step S321, the viewfinder control unit 187 sets the viewfinder field ratio while including the shooting range 10 in the viewfinder observation range 20, based on the viewfinder side image 40, the shooting corresponding region 43, and the angle of view of the viewfinder optical system 210 at that time. An appropriate angle of view of the finder optical system 210 to be minimized is calculated. Next, in step S323, the finder control unit 187 calculates the focal length shift amount necessary for adjusting the angle of view of the finder optical system 210 at that time to the appropriate angle of view.

ステップS325で、ファインダ制御部187は、画角を設定可能か否かを判定する。すなわち、ファインダ制御部187は、算出したシフト量だけ焦点距離を変えることができるか否かを判定する。画角の設定が可能であれば、処理はステップS327へ進む。一方、画角の設定が不可であれば、処理はステップS329へ進む。   In step S325, the finder control unit 187 determines whether the angle of view can be set. That is, the finder control unit 187 determines whether or not the focal length can be changed by the calculated shift amount. If the angle of view can be set, the process proceeds to step S327. On the other hand, if the angle of view cannot be set, the process proceeds to step S329.

ステップS327で、ファインダユニット200のドライバ225は、算出されたシフト量だけファインダ光学系210の焦点距離を変化させることにより、ファインダ光学系210の画角を調整する。   In step S327, the driver 225 of the finder unit 200 adjusts the angle of view of the finder optical system 210 by changing the focal length of the finder optical system 210 by the calculated shift amount.

ステップS329で、LCD240は、警告画像80を表示する。   In step S329, the LCD 240 displays the warning image 80.

ステップS331で、制御値変更部193は、撮影モードが連写撮影モードであるか否かを判定する。連写撮影モードであれば、処理はステップS400へ進む。連写撮影モードでなければ、処理はステップS333へ進む。   In step S331, the control value changing unit 193 determines whether or not the shooting mode is the continuous shooting mode. If it is the continuous shooting mode, the process proceeds to step S400. If it is not the continuous shooting mode, the process proceeds to step S333.

ステップS400で、制御値変更部193は、ファインダ側画像40内の撮影対応領域43に含まれる画素の情報を用いて、デジタルカメラ100の動作に関する制御値を変更する。   In step S <b> 400, the control value changing unit 193 changes the control value related to the operation of the digital camera 100 using the information on the pixels included in the shooting corresponding area 43 in the finder side image 40.

ステップS333で、撮影を終了するか否かが判定される。撮影を終了する場合に、処理は終了する。一方、撮影を終了しない場合に、処理はステップ305へ戻る。   In step S333, it is determined whether or not to end shooting. When the shooting is finished, the process is finished. On the other hand, if the shooting is not finished, the process returns to step 305.

以上、図21を参照して、撮像処理の概略的な流れの一例を説明したが、次に、図22を参照して、上記ステップS400の制御値変更処理をより詳細に説明する。   The example of the schematic flow of the imaging process has been described above with reference to FIG. 21. Next, the control value change process in step S400 will be described in more detail with reference to FIG.

(制御値変更処理の流れ)
図22は、本実施形態に係るにおける制御値変更処理の概略的な流れの一例を示すフローチャートである。
(Control value change processing flow)
FIG. 22 is a flowchart showing an example of a schematic flow of the control value change process according to the present embodiment.

まず、ステップS401で、制御値変更部193は、撮影対応領域43を確認する。次に、ステップS403で、制御値変更部193は、撮影対応領域43をブロック45に分割する。そして、ステップS405で、制御値変更部193は、ブロック45毎にR/G/B平均値を算出する。また、ステップS407で、制御値変更部193は、ブロック45毎に輝度平均値を算出する。また、ステップS409で、制御値変更部193は、撮影対応領域43の周波数特性を算出する。   First, in step S <b> 401, the control value changing unit 193 confirms the shooting corresponding area 43. Next, in step S <b> 403, the control value changing unit 193 divides the shooting corresponding area 43 into blocks 45. In step S <b> 405, the control value changing unit 193 calculates an R / G / B average value for each block 45. In step S <b> 407, the control value changing unit 193 calculates a luminance average value for each block 45. In step S409, the control value changing unit 193 calculates the frequency characteristic of the imaging corresponding region 43.

次に、ステップS411で。ファインダ側画像40が連写撮影における1枚目のファインダ側画像40であるか否かが判定される。ファインダ側画像40が1枚目のファインダ側画像40であれば、処理はステップS413へ進む。一方、そうでなければ、処理はステップS421へ進む。   Next, in step S411. It is determined whether or not the finder side image 40 is the first finder side image 40 in continuous shooting. If the finder side image 40 is the first finder side image 40, the process proceeds to step S413. On the other hand, otherwise, the process proceeds to step S421.

ステップS413で、制御値変更部193は、ブロック45毎のR/G/B平均値から適正なWBゲインを算出し、当該適正なWBゲインを基準値として記憶する。また、ステップS415で、制御値変更部193は、ブロック45毎の輝度平均値から適正なEV値を算出し、当該適正なEV値を基準値として記憶する。また、ステップS417で、制御値変更部193は、撮影対応領域43の周波数特性から、エッジ強調処理における適正な強調係数を算出し、当該適正なエッジ強調係数を基準値として記憶する。   In step S413, the control value changing unit 193 calculates an appropriate WB gain from the R / G / B average value for each block 45, and stores the appropriate WB gain as a reference value. In step S415, the control value changing unit 193 calculates an appropriate EV value from the luminance average value for each block 45, and stores the appropriate EV value as a reference value. In step S417, the control value changing unit 193 calculates an appropriate enhancement coefficient in the edge enhancement process from the frequency characteristics of the imaging corresponding region 43, and stores the appropriate edge enhancement coefficient as a reference value.

ステップS421で、制御値変更部193は、適正なWBゲインの最新値を算出する。次に、ステップS423で、制御値変更部193は、基準値に対する最新値の割合いを算出する。そして、ステップS425で、当該割合の大きさが閾値Tよりも小さければ、処理はステップS431へ進む。当該割合の大きさが閾値T以上であれば、処理はステップS427へ進む。 In step S421, the control value changing unit 193 calculates the latest value of the appropriate WB gain. Next, in step S423, the control value changing unit 193 calculates the ratio of the latest value to the reference value. Then, in step S425, if the magnitude of the ratio is smaller than the threshold value T 1, the process proceeds to step S431. If the magnitude of the ratio is a threshold value above T 1, the process proceeds to step S427.

ステップS427で、制御値変更部193は、画像処理部195により設定されているWBゲインに上記割合いを乗じた値を、新たなWBゲインとして画像処理部195に設定させる。すなわち、撮影側画像30用のWBゲインが変更される。そして、ステップS429で、制御値変更部193は、自ら算出した上記最新値を新たな基準値として記憶する。   In step S427, the control value changing unit 193 causes the image processing unit 195 to set a value obtained by multiplying the WB gain set by the image processing unit 195 by the above ratio as a new WB gain. That is, the WB gain for the shooting side image 30 is changed. In step S429, the control value changing unit 193 stores the latest value calculated by itself as a new reference value.

次に、ステップS431で、制御値変更部193は、適正なEV値の最新値を算出する。次に、ステップS433で、制御値変更部193は、最新値と基準値との差を算出する。そして、ステップS435で、当該差の大きさが閾値Tよりも小さければ、処理はステップS441へ進む。当該差の大きさが閾値T以上であれば、処理はステップS437へ進む。 Next, in step S431, the control value changing unit 193 calculates the latest value of the appropriate EV value. Next, in step S433, the control value changing unit 193 calculates the difference between the latest value and the reference value. Then, in step S435, if the magnitude of the difference is smaller than the threshold value T 2, the process proceeds to step S441. If the magnitude of the difference is the threshold value T 2 or more, the process proceeds to step S437.

ステップS437で、制御値変更部193は、AE制御部177により設定されているEV値に上記差を加えた値を、新たなEV値としてAE制御部177に設定させる。すなわち、撮影側画像30用のEV値が変更される。そして、ステップS439で、制御値変更部193は、自ら算出した上記最新値を新たな基準値として記憶する。   In step S437, the control value changing unit 193 causes the AE control unit 177 to set a value obtained by adding the above difference to the EV value set by the AE control unit 177 as a new EV value. That is, the EV value for the shooting side image 30 is changed. In step S439, the control value changing unit 193 stores the latest value calculated by itself as a new reference value.

次に、ステップS441で、制御値変更部193は、適正な強調係数の最新値を算出する。次に、ステップS443で、制御値変更部193は、最新値と基準値との差を算出する。そして、ステップS445で、当該差の大きさが閾値Tよりも小さければ、処理は終了する。当該差の大きさが閾値T以上であれば、処理はステップS447へ進む。 Next, in step S441, the control value changing unit 193 calculates the latest value of the appropriate enhancement coefficient. Next, in step S443, the control value changing unit 193 calculates the difference between the latest value and the reference value. Then, in step S445, if the magnitude of the difference is smaller than the threshold value T 3, the process ends. If the magnitude of the difference is the threshold value T 3 or more, the process proceeds to step S447.

ステップS447で、制御値変更部193は、画像処理部195により設定されている強調係数に上記差を加えた値を、新たな強調係数として画像処理部195に設定させる。すなわち、撮影側画像30用の強調係数が変更される。そして、ステップS449で、制御値変更部193は、自ら算出した上記最新値を新たな基準値として記憶する。そして、処理は終了する。   In step S447, the control value changing unit 193 causes the image processing unit 195 to set a value obtained by adding the difference to the enhancement coefficient set by the image processing unit 195 as a new enhancement coefficient. That is, the enhancement coefficient for the shooting side image 30 is changed. In step S449, the control value changing unit 193 stores the latest value calculated by itself as a new reference value. Then, the process ends.

以上、本実施形態について説明したが、本実施形態によれば、ファインダユニット全体を動かすことなく、撮影される画像をファインダでより正確に観察することが可能となる。   Although the present embodiment has been described above, according to the present embodiment, a photographed image can be more accurately observed with the finder without moving the entire finder unit.

より具体的には、撮影光学系310の画角よりも大きくなるようにファインダ光学系210の画角が調整される。これにより、ファインダユニット200全体を動かすことなく、ファインダ観察範囲20に撮影範囲10を包含させることが可能になる。   More specifically, the field angle of the finder optical system 210 is adjusted to be larger than the field angle of the photographing optical system 310. Thereby, it is possible to include the photographing range 10 in the finder observation range 20 without moving the entire finder unit 200.

また、取得した撮影光学系310の画角に関する情報に応じて、ファインダ光学系210の画角が調整される。このような画角の調整によれば、撮影光学系310の画角に関する情報の取得という簡易な処理により、ある程度の精度で、ファインダ観察範囲20に撮影範囲10を包含させることができる。また、例えば、ファインダ光学系210の焦点距離または画角が未調整であるために所望の値とかけはなれている場合、撮影光学系310の焦点距離または画角が急激に変化する場合等であっても、素早く、ある程度の精度で、ファインダ観察範囲20に撮影範囲10を包含させることができる。   Further, the angle of view of the finder optical system 210 is adjusted according to the acquired information regarding the angle of view of the photographing optical system 310. According to such adjustment of the angle of view, the photographing range 10 can be included in the finder observation range 20 with a certain degree of accuracy by a simple process of acquiring information related to the angle of view of the photographing optical system 310. In addition, for example, when the focal length or angle of view of the finder optical system 210 is not adjusted, it is different from a desired value, or when the focal length or angle of view of the photographing optical system 310 changes abruptly. However, the imaging range 10 can be included in the finder observation range 20 quickly and with a certain degree of accuracy.

また、最近接距離にも応じて、ファインダ光学系210の画角が調整される。このような画角の調整によれば、最近接距離がより短い場合に、ファインダ光学系210の画角をより大きくし、最近接距離がより長い場合に、ファインダ光学系210の画角をより小さくしておくことが可能になる。   Further, the angle of view of the finder optical system 210 is adjusted according to the closest distance. According to such adjustment of the angle of view, when the closest distance is shorter, the angle of view of the finder optical system 210 is increased, and when the closest distance is longer, the angle of view of the finder optical system 210 is further increased. It becomes possible to keep it small.

また、撮影対応領域43の検出結果に応じて、ファインダ光学系210の画角が調整される。このような画角の調整により、ファインダ観察範囲20に撮影範囲10をより確実に包含させることができる。また、ファインダ観察範囲20に撮影範囲10を包含させつつ、ファインダ視野率を最小化することが可能になる。   Further, the angle of view of the finder optical system 210 is adjusted according to the detection result of the photographing corresponding area 43. By adjusting the angle of view as described above, the shooting range 10 can be more reliably included in the finder observation range 20. In addition, it is possible to minimize the finder field ratio while including the photographing range 10 in the finder observation range 20.

また、画角を調整できない場合には、警告画像80が表示される。このような警告画像80の表示により、画角調整の次善の策として、ファインダ観察範囲20が撮影範囲10を包含できないことを利用者に知らせることができる。   When the angle of view cannot be adjusted, a warning image 80 is displayed. By displaying the warning image 80 as described above, it is possible to notify the user that the finder observation range 20 cannot include the shooting range 10 as a second best measure for adjusting the angle of view.

また、撮影対応領域43の画素の情報を用いて、各種制御値が変更される。これにより、例えば、被写体の明るさの変化に応じて連写撮影時により素早く露出制御値を変更することができる。また、例えば、連写撮影のフレームが極めて短く、画像処理の制御値を固定して撮影せざるを得ない場合であっても、撮影対応領域43に含まれる画素の情報を用いて、連写撮影中に画像処理の制御値をより適正なものに変更することができる。   In addition, various control values are changed using the pixel information of the imaging corresponding area 43. Thereby, for example, the exposure control value can be changed more quickly during continuous shooting according to the change in the brightness of the subject. Further, for example, even when the continuous shooting frame is very short and the image processing control value is fixed, it is necessary to use the pixel information included in the shooting corresponding area 43 to perform continuous shooting. It is possible to change the control value for image processing to a more appropriate value during shooting.

また、本実施形態によれば、撮影距離が明らかになっていない時点、すなわちピントを合わせる前の時点であっても、撮影対応領域43を特定し、撮影側画像30に対応するファインダ光学像40内の領域を示すことができる。このように、撮影距離を決める前に、撮影される画像をファインダで観察することが可能となる。   Further, according to the present embodiment, even when the shooting distance is not clear, that is, before the focus is achieved, the shooting corresponding region 43 is specified, and the finder optical image 40 corresponding to the shooting side image 30 is specified. The area inside can be shown. In this way, it is possible to observe the captured image with the viewfinder before determining the shooting distance.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to the example which concerns. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

例えば、撮像装置の一例としてデジタルカメラを説明したが、撮像装置はこれに限定されない。撮像装置は、デジタルカメラ機能を有する携帯電話端末、ビデオカメラ等の別の装置であってもよい。   For example, a digital camera has been described as an example of an imaging apparatus, but the imaging apparatus is not limited to this. The imaging device may be another device such as a mobile phone terminal or a video camera having a digital camera function.

また、主に撮像装置の中にファインダユニットが内蔵される例を説明したが、撮像装置およびファインダユニットはこれに限定されない。撮像装置は、ファインダユニットを着脱可能な撮像装置であってもよく、ファインダユニットは、撮像装置に着脱可能なファインダ装置であってもよい。   Moreover, although the example in which the finder unit is mainly incorporated in the imaging device has been described, the imaging device and the finder unit are not limited to this. The imaging device may be an imaging device to which the finder unit can be attached and detached, and the finder unit may be a finder device that can be attached to and detached from the imaging device.

また、本明細書の撮像処理における各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理する必要はない。例えば、撮像処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。   Further, each step in the imaging process of this specification does not necessarily have to be processed in time series in the order described in the flowchart. For example, each step in the imaging process may be processed in an order different from the order described in the flowchart, or may be processed in parallel.

1 撮像システム
10 撮影範囲
20 ファインダ観察範囲
30 撮影側画像
40 ファインダ側画像
41 特徴点
43 撮影対応領域
45 ブロック
60 ファインダ光学像
70 領域画像
80 警告画像
100 デジタルカメラ
110 メカニカルシャッタ
120 CMOS
170 処理部
177 AE制御部
181 適正WB算出部
183 適正エッジ強度算出部
185 領域検出部
187 ファインダ制御部
189 ファインダ画像生成部
191 表示制御部
193 制御値変更部
195 画像処理部
200 ファインダユニット
210 ファインダ光学系
211 ズームレンズ
223 モータ
230 CMOS
240 LCD
300 撮影用レンズ
310 撮影光学系
311 ズームレンズ
313 絞り
DESCRIPTION OF SYMBOLS 1 Imaging system 10 Shooting range 20 Viewfinder observation range 30 Shooting side image 40 Viewfinder side image 41 Feature point 43 Shooting corresponding area 45 Block 60 Viewfinder optical image 70 Area image 80 Warning image 100 Digital camera 110 Mechanical shutter 120 CMOS
170 Processing Unit 177 AE Control Unit 181 Appropriate WB Calculation Unit 183 Appropriate Edge Strength Calculation Unit 185 Region Detection Unit 187 Viewfinder Control Unit 189 Viewfinder Image Generation Unit 191 Display Control Unit 193 Control Value Change Unit 195 Image Processing Unit 200 Viewfinder Unit 210 Viewfinder Optical System 211 Zoom lens 223 Motor 230 CMOS
240 LCD
300 Shooting Lens 310 Shooting Optical System 311 Zoom Lens 313 Aperture

Claims (17)

第1の画像を取得する撮影用の第1の撮像素子と、
前記第1の撮像素子に光を導く撮影光学系とは異なる光軸を持ち、ファインダで観察可能な光学像を結像するファインダ光学系と、
前記ファインダで観察可能な光学像と同じ範囲の光学像から第2の画像を取得する第2の撮像素子と、
前記第2の撮像素子の撮像範囲が前記第1の撮像素子の撮像範囲を包含するための制御を行う制御部と、
前記第1の画像に対応する前記第2の画像内の領域を検出する検出部と、
前記領域の検出結果に基づき生成される、前記第1の画像に対応する前記ファインダで観察可能な光学像内の領域を示す画像を、当該光学像に重畳して表示する表示部と、
を備える撮像装置。
A first imaging element for taking a first image;
A finder optical system that forms an optical image that has an optical axis different from that of the photographic optical system that guides light to the first image sensor and is observable by the finder;
A second image sensor for acquiring a second image from an optical image in the same range as an optical image observable by the finder;
A control unit that performs control so that the imaging range of the second imaging element includes the imaging range of the first imaging element;
A detection unit for detecting a region in the second image corresponding to the first image;
A display unit, which is generated based on the detection result of the region, and displays an image indicating a region in the optical image observable with the finder corresponding to the first image, superimposed on the optical image;
An imaging apparatus comprising:
前記ファインダ光学系は、画角の変更を可能にするズーム機能を有し、
前記制御部は、前記撮影光学系の画角よりも大きくなるように前記ファインダ光学系の画角を調整することにより、前記制御を行う、請求項1に記載の撮像装置。
The finder optical system has a zoom function that enables changing the angle of view,
The imaging apparatus according to claim 1, wherein the control unit performs the control by adjusting an angle of view of the finder optical system so as to be larger than an angle of view of the photographing optical system.
前記制御部は、前記撮影光学系の画角に関する情報を取得し、当該情報に基づいて前記ファインダ光学系の画角を調整する、請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the control unit acquires information related to a field angle of the photographing optical system and adjusts a field angle of the finder optical system based on the information. 前記制御部は、前記撮影光学系の最近接距離に関する情報も取得し、前記画角に関する情報と前記最近接距離に関する情報とに基づいて前記ファインダ光学系の画角を調整する、請求項3に記載の撮像装置。   The control unit also acquires information on the closest distance of the photographing optical system, and adjusts the angle of view of the finder optical system based on the information on the angle of view and the information on the closest distance. The imaging device described. 前記制御部は、前記第2の画像内の前記領域の検出結果に基づいて、前記ファインダ光学系の画角を調整する、請求項2から5のいずれか1項に記載の撮像装置。   The imaging device according to claim 2, wherein the control unit adjusts an angle of view of the finder optical system based on a detection result of the region in the second image. 前記制御部は、前記第2の画像内の前記領域が前記第1の画像の一部に対応する場合に、前記ファインダ光学系の画角をより大きい画角に調整する、請求項5に記載の撮像装置。   The said control part adjusts the field angle of the said finder optical system to a larger field angle, when the said area | region in the said 2nd image respond | corresponds to a part of said 1st image. Imaging device. 前記表示部は、前記ファインダ光学系の画角をより大きい画角に調整できない場合に、警告を示す画像を表示する、請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the display unit displays an image indicating a warning when the angle of view of the finder optical system cannot be adjusted to a larger angle of view. 前記制御部は、前記第2の画像内の前記領域の大きさに対する当該第2の画像の大きさの比率が所定の閾値以上である場合に、前記ファインダ光学系の画角をより小さい画角に調整する、請求項5から7のいずれか1項に記載の撮像装置。   When the ratio of the size of the second image to the size of the region in the second image is equal to or greater than a predetermined threshold, the control unit reduces the angle of view of the finder optical system to a smaller angle of view. The imaging device according to any one of claims 5 to 7, wherein the imaging device is adjusted. 前記第2の画像内の前記領域に含まれる画素の情報を用いて、前記撮像装置の動作に関する制御値を変更する変更部をさらに備える、請求項1から8のいずれか1項に記載の撮像装置。   The imaging according to any one of claims 1 to 8, further comprising: a changing unit that changes a control value related to an operation of the imaging device using information on a pixel included in the region in the second image. apparatus. 前記変更部は、連写撮影を行う場合に前記制御値を変更する、請求項9に記載の撮像装置。   The imaging apparatus according to claim 9, wherein the changing unit changes the control value when performing continuous shooting. 前記制御値は、前記撮像装置の露出制御値である、請求項9または10に記載の撮像装置。   The imaging device according to claim 9 or 10, wherein the control value is an exposure control value of the imaging device. 前記制御値は、前記第1の画像の画像処理に用いる制御値である、請求項9から11のいずれか1項に記載の撮像装置。   The imaging device according to claim 9, wherein the control value is a control value used for image processing of the first image. 前記画像処理に用いる制御値は、前記第1の画像のホワイトバランス調整に用いるホワイトバランスゲインである、請求項12に記載の撮像装置。   The imaging apparatus according to claim 12, wherein the control value used for the image processing is a white balance gain used for white balance adjustment of the first image. 前記画像処理に用いる制御値は、前記第1の画像のエッジ強調処理に用いる強調係数である、請求項12または13に記載の撮像装置。   The imaging device according to claim 12 or 13, wherein the control value used for the image processing is an enhancement coefficient used for edge enhancement processing of the first image. 第1の画像を取得する撮影用の第1の撮像素子と、前記第1の撮像素子に光を導く撮影光学系とは異なる光軸を持ち、ファインダで観察可能な光学像を結像するファインダ光学系と、前記ファインダで観察可能な光学像と同じ範囲の光学像から第2の画像を取得する第2の撮像素子とを備える撮像装置における撮像方法であって、
前記第2の撮像素子の撮像範囲が前記第1の撮像素子の撮像範囲を包含するための制御を行うステップと、
前記第1の画像に対応する前記第2の画像内の領域を検出するステップと、
前記領域の検出結果に基づき生成される、前記第1の画像に対応する前記ファインダで観察可能な光学像内の領域を示す画像を、当該光学像に重畳して表示するステップと、
を含む撮像方法。
A first image pickup device for taking a first image and a viewfinder having an optical axis different from that of the taking optical system for guiding light to the first image pickup device and forming an optical image that can be observed with the viewfinder An imaging method in an imaging apparatus comprising: an optical system; and a second imaging element that acquires a second image from an optical image in the same range as an optical image observable with the finder,
Performing control so that the imaging range of the second imaging element includes the imaging range of the first imaging element;
Detecting a region in the second image corresponding to the first image;
An image generated based on the detection result of the area and indicating an area in the optical image that can be observed with the viewfinder corresponding to the first image, superimposed on the optical image;
An imaging method including:
第1の画像を取得する撮影用の第1の撮像素子を有する撮像装置に着脱可能なファインダ装置であって、
前記第1の撮像素子に光を導く撮影光学系とは異なる光軸を持ち、ファインダで観察可能な光学像を結像するファインダ光学系と、
前記ファインダで観察可能な光学像と同じ範囲の光学像から第2の画像を取得する第2の撮像素子と、
前記第2の撮像素子の撮像範囲が前記第1の撮像素子の撮像範囲を包含するための制御に応じて、前記ファインダ光学系を駆動する駆動部と、
前記第1の画像に対応する前記第2の画像内の領域の検出結果に基づき生成される、前記第1の画像に対応する前記ファインダで観察可能な光学像内の領域を示す画像を、当該光学像に重畳して表示する表示部と、
を備えるファインダ装置。
A finder device that can be attached to and detached from an imaging device having a first imaging element for photographing to acquire a first image,
A finder optical system that forms an optical image that has an optical axis different from that of the photographic optical system that guides light to the first image sensor and is observable by the finder;
A second image sensor for acquiring a second image from an optical image in the same range as an optical image observable by the finder;
A driving unit that drives the finder optical system in accordance with control for including an imaging range of the first imaging element by an imaging range of the second imaging element;
An image indicating a region in the optical image that can be observed with the viewfinder corresponding to the first image, generated based on the detection result of the region in the second image corresponding to the first image, A display unit that superimposes and displays the optical image;
A finder device comprising:
第1の画像を取得する撮影用の第1の撮像素子に光を導く撮影光学系とは異なる光軸を持ち、ファインダで観察可能な光学像を結像するファインダ光学系と、前記ファインダで観察可能な光学像と同じ範囲の光学像から第2の画像を取得する第2の撮像素子と、前記ファインダで観察可能な光学像に重畳して画像を表示する表示部と、を有するファインダ装置を着脱可能な撮像装置であって、
前記第1の撮像素子と、
前記第2の撮像素子の撮像範囲が前記第1の撮像素子の撮像範囲を包含するための制御を行う制御部と、
前記第1の画像に対応する前記第2の画像内の領域を検出する検出部と、
前記領域の検出結果に基づき生成される、前記第1の画像に対応する前記ファインダで観察可能な光学像内の領域を示す画像を、当該光学像に重畳して前記ファインダ装置の表示部に表示させる表示制御部と、
を備える撮像装置。
A finder optical system that forms an optical image that has an optical axis different from that of the photographic optical system that guides light to the first imaging element for photographing that acquires the first image, and is observed by the finder. A finder device comprising: a second imaging device that acquires a second image from an optical image in the same range as the possible optical image; and a display unit that displays an image superimposed on the optical image that can be observed by the finder. A detachable imaging device,
The first image sensor;
A control unit that performs control so that the imaging range of the second imaging element includes the imaging range of the first imaging element;
A detection unit for detecting a region in the second image corresponding to the first image;
An image indicating a region in the optical image that can be observed with the viewfinder corresponding to the first image, generated based on the detection result of the region, is superimposed on the optical image and displayed on the display unit of the viewfinder device. A display control unit
An imaging apparatus comprising:
JP2011227790A 2011-10-17 2011-10-17 Imaging apparatus, imaging method, and finder device Pending JP2013088559A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011227790A JP2013088559A (en) 2011-10-17 2011-10-17 Imaging apparatus, imaging method, and finder device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011227790A JP2013088559A (en) 2011-10-17 2011-10-17 Imaging apparatus, imaging method, and finder device

Publications (1)

Publication Number Publication Date
JP2013088559A true JP2013088559A (en) 2013-05-13

Family

ID=48532539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011227790A Pending JP2013088559A (en) 2011-10-17 2011-10-17 Imaging apparatus, imaging method, and finder device

Country Status (1)

Country Link
JP (1) JP2013088559A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10705666B2 (en) 2013-08-12 2020-07-07 Shanghai Yangfeng Jinqiao Automotive Trim Systems Co. Ltd. Vehicle interior component with user interface
US11454866B2 (en) * 2020-04-27 2022-09-27 Pixii Sas Electronic rangefinder

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10705666B2 (en) 2013-08-12 2020-07-07 Shanghai Yangfeng Jinqiao Automotive Trim Systems Co. Ltd. Vehicle interior component with user interface
US11454866B2 (en) * 2020-04-27 2022-09-27 Pixii Sas Electronic rangefinder

Similar Documents

Publication Publication Date Title
JP5054583B2 (en) Imaging device
US8345147B2 (en) Image pickup apparatus
JP2014056032A (en) Imaging apparatus
JP2009015185A (en) Image detection device, focusing device and image pickup apparatus
JP2008292894A (en) Image tracking device, image tracking method and imaging apparatus
JP2015216485A (en) Imaging device, control method of imaging device, program, and storage medium
US20100060748A1 (en) Image pickup apparatus and image pickup control method
JP2012226184A5 (en) Imaging apparatus and control method thereof
JP5925186B2 (en) Imaging apparatus and control method thereof
JP5432664B2 (en) Imaging device
JP2013008004A (en) Imaging apparatus
JP2017126035A (en) Imaging apparatus, control method, program, and storage medium
KR20160057965A (en) Device and method for burst shooting
JP2011007867A (en) Focus detecting means and camera
JP2008178062A (en) Camera and camera system
JP6529387B2 (en) Imaging device, control method therefor, program, storage medium
JP6508954B2 (en) Imaging device, lens unit, control method of imaging device, and program
JP4956403B2 (en) Imaging apparatus, control method thereof, and program
JP2013088559A (en) Imaging apparatus, imaging method, and finder device
JP5978620B2 (en) Imaging device
JP2014206711A (en) Imaging apparatus, and control method therefor
JP5590850B2 (en) Imaging device and focus control method of imaging device
JP2016142895A (en) Focusing control device, control method of the same, and control program thereof, as well as imaging device
JP2009267893A (en) Imaging apparatus
JP2006222883A (en) Digital camera