JP2013186293A - Image generation device and image display method - Google Patents

Image generation device and image display method Download PDF

Info

Publication number
JP2013186293A
JP2013186293A JP2012051326A JP2012051326A JP2013186293A JP 2013186293 A JP2013186293 A JP 2013186293A JP 2012051326 A JP2012051326 A JP 2012051326A JP 2012051326 A JP2012051326 A JP 2012051326A JP 2013186293 A JP2013186293 A JP 2013186293A
Authority
JP
Japan
Prior art keywords
subject
distance
light receiving
lens
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012051326A
Other languages
Japanese (ja)
Inventor
Tatsuya Ichikawa
達哉 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012051326A priority Critical patent/JP2013186293A/en
Publication of JP2013186293A publication Critical patent/JP2013186293A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology capable of accurately displaying a subject in a depth of field.SOLUTION: An image generation device comprises: a light-receiving sensor that receives light transmitted through a lens; a distance measuring sensor provided on the same substrate for the light-receiving sensor; and an image generation unit that generates image data according to the amount of light received by the light-receiving sensor. The image generation device measures a distance between a subject photographed by the light-receiving sensor and a reference position on the basis of the output of the distance measuring sensor; obtains lens information including diaphragm value, a focal distance, and a subject distance of the lens; specifies the subject included in a depth of field on the basis of the lens information, and the distance between the subject and the reference position; and displays information indicating the subject included in the depth of field, and an image indicated by the image data on a display unit.

Description

本発明は、画像生成装置および画像表示方法に関する。   The present invention relates to an image generation apparatus and an image display method.

従来、被写体を示す画像内で合焦領域を強調することにより、合焦している被写体を判別しやすくする技術が知られている。例えば、特許文献1には、被写体像の各領域のAF評価値を導出し、合焦領域と同レベルのAF評価値を持つ領域を合焦領域として強調する技術が開示されている。   2. Description of the Related Art Conventionally, a technique for facilitating discrimination of a focused subject by enhancing a focused region in an image showing the subject is known. For example, Patent Document 1 discloses a technique for deriving an AF evaluation value of each area of a subject image and emphasizing an area having an AF evaluation value at the same level as the in-focus area as the in-focus area.

特開2003−153043号公報JP 2003-153043 A

従来の技術においては、被写界深度によってピントが厳密に合っていなくてもピントが合っているように撮影できるが、このようにピントが合っているように撮影できる(本願では、これを「被写界深度に含まれる」というように呼ぶこととする。)被写体を正確に特定することができなかった。特許文献1に開示された技術においてはAF評価値によって合焦領域を特定しており、AF評価値は一般に被写体の位相差やコントラストに基づいて特定される。従って、AF評価値は被写体が被写界深度内に存在することを直接的に示しているわけではなく、被写体が被写界深度内に存在する可能性の高低を間接的に評価しているに過ぎない。このため、被写体のコントラストが小さい場合などにおいてはAF評価値によって合焦度合いを正確に判定することができない。
本発明は上記課題にかんがみてなされたもので、被写界深度内の被写体を正確に示すことが可能な技術を提供することを目的とする。
In the conventional technology, even if the focus is not exactly in accordance with the depth of field, it can be photographed so that it is in focus, but in this way, it can be photographed so that it is in focus (in this application, this is referred to as “ "It is included in the depth of field.") The subject could not be specified accurately. In the technique disclosed in Patent Document 1, an in-focus area is specified by an AF evaluation value, and the AF evaluation value is generally specified based on a phase difference or contrast of a subject. Therefore, the AF evaluation value does not directly indicate that the subject exists within the depth of field, but indirectly evaluates the possibility that the subject exists within the depth of field. Only. For this reason, when the contrast of the subject is small, the degree of focus cannot be accurately determined by the AF evaluation value.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of accurately showing a subject within the depth of field.

本発明にかかる画像生成装置は、受光センサーが受光した光量に応じて画像データを生成する画像生成装置であり、受光センサーと同一の基板に設けられた測距センサーの出力に基づいて受光センサーが撮影する被写体と基準位置との間の距離を測定する。そして、画像生成装置は、レンズの絞りと焦点距離と被写体距離とを含むレンズ情報と、被写体と基準位置との間の距離とに基づいて被写界深度に含まれる被写体を特定し、当該被写界深度に含まれる被写体を示す情報を画像データが示す画像とともにを表示部に表示させる。   An image generating apparatus according to the present invention is an image generating apparatus that generates image data according to the amount of light received by a light receiving sensor, and the light receiving sensor is based on the output of a distance measuring sensor provided on the same substrate as the light receiving sensor. Measure the distance between the subject to be photographed and the reference position. Then, the image generation device identifies the subject included in the depth of field based on the lens information including the lens aperture, the focal length, and the subject distance, and the distance between the subject and the reference position. Information indicating the subject included in the depth of field is displayed on the display unit together with the image indicated by the image data.

すなわち、画像生成装置においては受光センサーと同一の基板に設けられた測距センサーによって被写体と基準位置との間の距離を測定し、被写界深度内の被写体を特定する。また、測距センサーが受光センサーと同一の基板に設けられている構成においては、レンズを通過した光を受光する受光センサーと同様に測距センサーにおいてもレンズを通過した光を受光することになる。従って、測距センサーにおいては、受光センサーに向かう光路とほぼ同様の光路を進む光に基づいて被写体と基準位置との間の距離を測定することができる。このため、画像生成装置においては被写体が被写界深度内に存在するか否かを正確に特定することが可能であり、表示部において被写界深度内の被写体を正確に示すことが可能である。   That is, in the image generation apparatus, the distance between the subject and the reference position is measured by a distance measuring sensor provided on the same substrate as the light receiving sensor, and the subject within the depth of field is specified. In the configuration in which the distance measuring sensor is provided on the same substrate as the light receiving sensor, the distance measuring sensor receives the light that has passed through the lens as well as the light receiving sensor that receives the light that has passed through the lens. . Therefore, the distance measuring sensor can measure the distance between the subject and the reference position based on the light traveling on the optical path that is substantially the same as the optical path toward the light receiving sensor. For this reason, in the image generation apparatus, it is possible to accurately specify whether or not the subject exists within the depth of field, and the display unit can accurately indicate the subject within the depth of field. is there.

ここで、受光センサーは1枚以上のレンズを通過した光を受光するセンサーであれば良く、例えば、受光量に応じた情報を出力する受光素子が2次元的に配置されたセンサーによって構成可能である。   Here, the light receiving sensor may be a sensor that receives light that has passed through one or more lenses. For example, the light receiving sensor can be configured by a sensor in which light receiving elements that output information according to the amount of received light are two-dimensionally arranged. is there.

測距センサーは、受光センサーが撮影する被写体と基準位置との間の距離を測距センサーの出力に基づいて測定することができればよい。基準位置は、被写体と画像生成装置内の一点との距離を測定する際の基準となればよく、受光センサーの受光面の光軸方向の位置や主点の位置等を基準位置とすることができればよい。被写体と基準位置との間の距離は、直接的に測定されてもよいし、間接的に測定されてもよい。例えば、被写体と受光センサーとの距離を測定可能な構成において、受光センサーの受光面を基準位置とすれば被写体と基準位置との間の距離を直接的に測定可能である。一方、被写体と受光センサーとの距離を測定可能な構成において、主点を基準位置とすれば測定値に対して主点と受光センサーとの距離を加えることで被写体と基準位置との間の距離を間接的に測定可能である。   The distance measuring sensor only needs to be able to measure the distance between the subject photographed by the light receiving sensor and the reference position based on the output of the distance measuring sensor. The reference position only needs to be a reference when measuring the distance between the subject and one point in the image generating apparatus, and the position of the light receiving surface of the light receiving sensor in the optical axis direction, the position of the principal point, or the like may be used as the reference position. I can do it. The distance between the subject and the reference position may be measured directly or indirectly. For example, in a configuration in which the distance between the subject and the light receiving sensor can be measured, the distance between the subject and the reference position can be directly measured if the light receiving surface of the light receiving sensor is used as the reference position. On the other hand, in a configuration that can measure the distance between the subject and the light receiving sensor, if the principal point is the reference position, the distance between the subject and the reference position is obtained by adding the distance between the principal point and the light receiving sensor to the measured value. Can be measured indirectly.

また、測距センサーは、被写界深度内に存在するか否かを示す対象となる被写体と基準位置との距離を特定することができればよく、画像データが示す画像内で被写界深度内に存在するか否かを特定すべき被写体が存在する部分において、当該被写体と基準位置との距離を特定することができればよい。従って、画像内の特定の場所に存在する被写体について被写界深度内に存在するか否かを判定するためには、測距センサーは受光センサーと同一の基板上において当該特定の場所に存在する被写体と基準位置との距離を測定できるように設けられていればよい。また、各部分について一個の測距センサーによって被写体と基準位置との距離を測定するのであれば、部分の数と同数の測距センサーを受光センサーに設ければよい。   In addition, the distance measuring sensor only needs to be able to specify the distance between the target subject indicating whether or not it exists within the depth of field and the reference position, and within the depth of field in the image indicated by the image data. It is only necessary to be able to specify the distance between the subject and the reference position in the portion where the subject to be identified is present. Therefore, in order to determine whether or not a subject existing at a specific location in the image exists within the depth of field, the distance measuring sensor is present at the specific location on the same substrate as the light receiving sensor. It is only necessary that the distance between the subject and the reference position can be measured. In addition, if the distance between the subject and the reference position is to be measured with one distance measuring sensor for each part, the same number of distance measuring sensors as the number of parts may be provided in the light receiving sensor.

画像生成部は、受光センサーの受光量に応じて画像データを生成することができればよい。すなわち、受光センサーに対して被写体からの光が照射された状態で所定の露光時間内に各受光素子で受光した受光量に基づいて被写体の画像を示す画像データを生成することができればよい。むろん、当該画像データの生成に伴って各種の画像処理を実行しても良い。   The image generation unit only needs to be able to generate image data according to the amount of light received by the light receiving sensor. That is, it is only necessary to generate image data indicating an image of a subject based on the amount of light received by each light receiving element within a predetermined exposure time in a state where light from the subject is irradiated to the light receiving sensor. Of course, various types of image processing may be executed as the image data is generated.

レンズ情報取得部は、レンズ情報を取得することができればよい。すなわち、被写界深度を算出するためのパラメータとなるレンズに関する情報を取得することができればよい。当該レンズ情報はレンズの絞りと焦点距離と被写体距離とを含む情報であり、画像生成装置における設定値に基づいてレンズ情報を特定する構成であってもよいし、交換式レンズが出力する情報に基づいてレンズ情報を特定する構成であってもよい。むろん、焦点距離や被写体距離と同等の距離を算出可能な情報であればよく、各種の表現を採用可能である。すなわち、焦点距離や被写体距離と実質的に同等な距離を利用する限り、本発明の範囲である。例えば、ピントが合っている物体と主点との距離を被写体距離としたとき、当該ピントが合っている物体と受光センサーとの距離である撮影距離は被写体距離に主点から受光センサーまでの距離を加えた値であるため、実質的に同一である。   The lens information acquisition unit only needs to acquire lens information. That is, it is only necessary to acquire information regarding the lens that is a parameter for calculating the depth of field. The lens information is information including a lens aperture, a focal length, and a subject distance. The lens information may be configured to identify lens information based on a setting value in the image generation apparatus, or may be information output from an interchangeable lens. The lens information may be specified based on the lens information. Of course, any information that can calculate a distance equivalent to the focal length or the subject distance may be used, and various expressions can be adopted. That is, as long as a distance substantially equivalent to the focal length and the subject distance is used, it is within the scope of the present invention. For example, when the distance between the focused object and the principal point is the subject distance, the shooting distance that is the distance between the focused object and the light receiving sensor is the distance from the principal point to the light receiving sensor. Since the value is obtained by adding

被写体特定部は、被写体と基準位置との間の距離およびレンズ情報に基づいて被写界深度に含まれる被写体を特定することができればよい。被写界深度は、その光学上の定義により、レンズの絞りと焦点距離と許容錯乱円の直径とによって特定可能な過焦点距離とレンズの焦点距離と被写体距離とを含むレンズ情報によって特定可能である。許容錯乱円の直径を予め決められた固定値とすれば、レンズ情報と、被写体と基準位置との間の距離とに基づいて当該被写体が被写界深度内に存在するか否かを特定可能である。   The subject specifying unit only needs to be able to specify the subject included in the depth of field based on the distance between the subject and the reference position and the lens information. The depth of field can be specified by lens information including the hyperfocal length, the focal length of the lens, and the subject distance that can be specified by the lens aperture, the focal length, and the diameter of the allowable circle of confusion, according to its optical definition. is there. If the diameter of the permissible circle of confusion is a predetermined fixed value, whether or not the subject exists within the depth of field can be specified based on the lens information and the distance between the subject and the reference position. It is.

表示制御部は、被写界深度に含まれる被写体を示す情報と画像データが示す画像とを表示部に表示させることができればよい。すなわち、被写体の画像とともに被写界深度に含まれる被写体を視認できるように表示部に情報を表示する。被写界深度に含まれる被写体を示す情報の位置は限定されないが、被写界深度に含まれる被写体を示す情報は当該被写体の像の位置に表示されることが好ましい。例えば、被写界深度に含まれる被写体を強調表示することで被写界深度に含まれる被写体を示す情報を表示する構成等を採用可能である。   The display control unit only needs to display information indicating the subject included in the depth of field and an image indicated by the image data on the display unit. That is, information is displayed on the display unit so that the subject included in the depth of field can be visually recognized together with the subject image. The position of the information indicating the subject included in the depth of field is not limited, but the information indicating the subject included in the depth of field is preferably displayed at the position of the image of the subject. For example, it is possible to employ a configuration in which information indicating the subject included in the depth of field is displayed by highlighting the subject included in the depth of field.

さらに、測距センサーは、受光センサーが撮影する被写体と基準位置との間の距離を測定するための情報を出力することができればよく、被写体からの光であってレンズを通過した光に基づいて当該距離を測定するセンサー等を採用可能である。より具体的には、電磁波出力部によって電磁波を出力するように構成し、当該電磁波出力部が電磁波を出力した後、電磁波が被写体に反射されて測距センサーで測定されるまでの時間に基づいて距離を測定する構成としてもよい。すなわち、電磁波が空間を進行する速度が既知であるとすれば、電磁波の出力後、測距センサーで測定されるまでの時間に基づいて全光路の距離を特定可能である。そこで、当該全光路の距離の1/2の距離に基づいて被写体と基準位置との間の距離を取得することができる。   Further, the distance measuring sensor only needs to be able to output information for measuring the distance between the subject photographed by the light receiving sensor and the reference position, and is based on the light from the subject that has passed through the lens. A sensor or the like that measures the distance can be used. More specifically, the electromagnetic wave output unit is configured to output an electromagnetic wave, and after the electromagnetic wave output unit outputs the electromagnetic wave, the electromagnetic wave is reflected by the subject and is measured by the distance measuring sensor. It is good also as a structure which measures distance. That is, if the speed at which the electromagnetic wave travels in the space is known, the distance of the entire optical path can be specified based on the time from the output of the electromagnetic wave to the measurement by the distance measuring sensor. Therefore, the distance between the subject and the reference position can be acquired based on a distance that is ½ of the total optical path distance.

なお、電磁波は、画像生成装置が備える電磁波出力部から出力可能であり、被写体によって反射され、測距センサーで検出可能であればよく、受光センサーによって受光する画像データを生成するための光と異なる波長域の電磁波であることが好ましい。このような電磁波としては、例えば、赤外線が挙げられる。   The electromagnetic wave may be output from the electromagnetic wave output unit included in the image generation device, may be reflected by the subject and can be detected by the distance measuring sensor, and is different from light for generating image data received by the light receiving sensor. An electromagnetic wave in the wavelength range is preferable. Examples of such electromagnetic waves include infrared rays.

さらに、測距センサーを受光センサーの各画素に設けてもよい。この構成によれば、受光センサーの画素のそれぞれで撮影される被写体の部分と基準位置との間の距離を測定することが可能である。この結果、画像データが示す画像に含まれる全ての被写体において、被写体が被写界深度内に存在するか否かを詳細に示すことが可能である。   Further, a distance measuring sensor may be provided in each pixel of the light receiving sensor. According to this configuration, it is possible to measure the distance between the portion of the subject photographed by each pixel of the light receiving sensor and the reference position. As a result, it is possible to show in detail whether or not the subject exists within the depth of field in all the subjects included in the image indicated by the image data.

さらに、測距センサーを受光センサーの受光面を分割した分割領域毎に設けてもよい。この構成によれば、分割領域内の受光センサーで撮影された被写体と基準位置との間の距離を測定することが可能である。この結果、各分割領域の受光センサーで撮影された被写体毎に被写体が被写界深度内に存在するか否かを示すことが可能である。   Furthermore, a distance measuring sensor may be provided for each divided area obtained by dividing the light receiving surface of the light receiving sensor. According to this configuration, it is possible to measure the distance between the subject photographed by the light receiving sensor in the divided area and the reference position. As a result, it is possible to indicate whether or not the subject exists within the depth of field for each subject photographed by the light receiving sensor in each divided region.

さらに、本発明のように、受光センサーと同一の基板に設けられた測距センサーによって測定された、受光センサーが撮影する被写体と基準位置との間の距離に基づいて被写界深度に含まれる被写体を特定し、表示する手法は、プログラムや方法としても適用可能である。また、以上のような装置、プログラム、方法は、単独の装置として実現される場合もあれば、複合的な機能を有する装置において共有の部品を利用して実現される場合もあり、各種の態様を含むものである。   Further, as in the present invention, the depth of field is included based on the distance between the subject photographed by the light receiving sensor and the reference position, which is measured by the distance measuring sensor provided on the same substrate as the light receiving sensor. The method for specifying and displaying the subject can also be applied as a program or method. In addition, the apparatus, program, and method as described above may be realized as a single apparatus, or may be realized using a shared component in an apparatus having multiple functions. Is included.

本発明の実施形態にかかる画像生成装置を含む撮影装置のブロック図である。It is a block diagram of an imaging device including an image generation device according to an embodiment of the present invention. (2A)は撮像ユニットを示す模式図、(2B)は被写界深度を説明する説明図である。(2A) is a schematic diagram showing an imaging unit, and (2B) is an explanatory diagram for explaining the depth of field. 撮影処理を示すフローチャートである。It is a flowchart which shows an imaging | photography process.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)画像生成装置の構成:
(2)撮影処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of image generation apparatus:
(2) Shooting process:
(3) Other embodiments:

(1)画像生成装置の構成:
図1は本発明の一実施形態にかかる画像生成装置を含む撮影装置1を示しており、当該撮影装置1には、光学系10、撮像ユニット14、記憶部15、表示部20、記録部30、操作部40、絞り調整部45、シャッター制御部50、撮像ユニット制御部60、CPU70、画像生成部80、電磁波出力部90が備えられている。CPU70は、所定のプログラムに従って、絞り調整部45、シャッター制御部50、撮像ユニット制御部60、記憶部15、画像生成部80、電磁波出力部90、表示部20、記録部30、操作部40の動作を制御する。
(1) Configuration of image generation apparatus:
FIG. 1 shows an imaging apparatus 1 including an image generation apparatus according to an embodiment of the present invention. The imaging apparatus 1 includes an optical system 10, an imaging unit 14, a storage unit 15, a display unit 20, and a recording unit 30. , An operation unit 40, an aperture adjustment unit 45, a shutter control unit 50, an imaging unit control unit 60, a CPU 70, an image generation unit 80, and an electromagnetic wave output unit 90. The CPU 70 includes a diaphragm adjustment unit 45, a shutter control unit 50, an imaging unit control unit 60, a storage unit 15, an image generation unit 80, an electromagnetic wave output unit 90, a display unit 20, a recording unit 30, and an operation unit 40 according to a predetermined program. Control the behavior.

操作部40はシャッターボタンと、撮影モードを切り換えるための操作部と、絞りを切り替えるための操作部と、シャッター速度を切り換えるための操作部と、各種の設定メニューを操作するための操作部とを備えており、利用者は当該操作部40に対する操作によって撮影装置1に対して各種の指示を与えることができる。なお、本実施形態においてシャッターボタンのストローク量は2段階で検出可能である。すなわち、シャッターボタンが半押しされた状態と全押しされた状態とを区別して検出可能である。また、本実施形態においてシャッターボタンが半押しされた場合にはライブビュー表示を継続しながらピント調整を行う指示が行われたと見なされ、シャッターボタンが全押しされた場合には記録媒体に画像を記録する指示が行われたと見なされる。   The operation unit 40 includes a shutter button, an operation unit for switching a shooting mode, an operation unit for switching an aperture, an operation unit for switching a shutter speed, and an operation unit for operating various setting menus. The user can give various instructions to the photographing apparatus 1 by operating the operation unit 40. In this embodiment, the stroke amount of the shutter button can be detected in two stages. That is, it is possible to distinguish and detect a state where the shutter button is half-pressed and a state where the shutter button is fully pressed. In the present embodiment, when the shutter button is half-pressed, it is considered that an instruction to adjust the focus while continuing the live view display is given. When the shutter button is fully pressed, an image is recorded on the recording medium. The instruction to record is considered to have been given.

表示部20は、図示しないインターフェース回路、液晶パネルドライバー、液晶パネル、図示しない接眼レンズ等を備えている。本実施形態において、表示部20は、撮影対象となる被写体を示す画像を表示して利用者に撮影前の被写体の様子および撮影条件等の情報を把握させるEVF(Electronic View Finder)であり、本実施形態にかかる撮影装置1はEVFを備えたミラーレスデジタルカメラである。   The display unit 20 includes an interface circuit (not shown), a liquid crystal panel driver, a liquid crystal panel, an eyepiece (not shown), and the like. In the present embodiment, the display unit 20 is an EVF (Electronic View Finder) that displays an image showing a subject to be photographed and allows the user to grasp information such as the state of the subject before photographing and photographing conditions. The imaging device 1 according to the embodiment is a mirrorless digital camera provided with an EVF.

記録部30は、図示しない記録媒体を挿入することが可能であり、記録部30に記録媒体が挿入された状態で、記録媒体に対して情報を記録し、また、記録媒体から情報を読み出すことができる。すなわち、撮影した画像を示す画像データを記録媒体に記録することができる。   The recording unit 30 can insert a recording medium (not shown), and records information on the recording medium and reads information from the recording medium with the recording medium inserted in the recording unit 30. Can do. That is, the image data indicating the photographed image can be recorded on the recording medium.

光学系10は、受光センサーに被写体画像を結像させるレンズ11、絞り12、シャッター13を備えている。本実施形態においてレンズ11と絞り12とは鏡筒内に備えられており、当該鏡筒は図示しない筐体に交換可能に取り付けられる。本実施形態において、レンズ11は光軸に平行な方向に沿って並べられた複数枚のレンズを含むが、図1では簡便のために1枚のレンズのみを表現している。各レンズは外縁部で支持されるとともに、鏡筒に備えられたピントリングをユーザーが操作すること又は撮影装置1からのピント調整指示によって光軸方向に1部又は全部のレンズを移動可能とすることでピントの位置を調整可能である。また、鏡筒に備えられたズームリングをユーザーが操作すること又は撮影装置1からのズーム調整指示によって光軸方向に1部又は全部のレンズを移動可能とすることで光学的なズーム動作を行うことが可能である。すなわち、本例は、撮影装置1にマニュアルフォーカスレンズが取り付けられた状態である。なお、本実施形態におけるマニュアルフォーカスレンズはCPU70と通信を行うことで、焦点距離と被写体距離とを示す情報を出力可能である。ここで、被写体距離はレンズ11によってピントが合っている被写体と主点の撮影面との距離であり、ピントリングの回転角度に応じた値が出力される。従って、CPU70は、任意のタイミングでピントリングによって操作された後のレンズ11の状態に対応した被写体距離を焦点距離とともに特定可能である。また、光学系の構成は他の構成を採用しても良く、例えば、レンズを液体レンズによって構成し、レンズを変形させることでピントの位置を調整し、また、光学的なズーム動作を行う構成としてもよい。   The optical system 10 includes a lens 11 that forms a subject image on a light receiving sensor, an aperture 12, and a shutter 13. In the present embodiment, the lens 11 and the diaphragm 12 are provided in a lens barrel, and the lens barrel is attached to a housing (not shown) in a replaceable manner. In the present embodiment, the lens 11 includes a plurality of lenses arranged along a direction parallel to the optical axis, but in FIG. 1, only one lens is represented for the sake of simplicity. Each lens is supported by an outer edge portion, and one or all of the lenses can be moved in the optical axis direction by a user operating a focus ring provided in the lens barrel or by a focus adjustment instruction from the photographing apparatus 1. This makes it possible to adjust the focus position. Further, an optical zoom operation is performed by allowing the user to operate a zoom ring provided in the lens barrel or to move one or all of the lenses in the optical axis direction in response to a zoom adjustment instruction from the photographing apparatus 1. It is possible. That is, in this example, a manual focus lens is attached to the photographing apparatus 1. Note that the manual focus lens in the present embodiment can output information indicating the focal length and subject distance by communicating with the CPU 70. Here, the subject distance is the distance between the subject in focus by the lens 11 and the photographing surface of the principal point, and a value corresponding to the rotation angle of the focus ring is output. Therefore, the CPU 70 can specify the subject distance corresponding to the state of the lens 11 after being operated by the focus ring at an arbitrary timing together with the focal length. In addition, the configuration of the optical system may adopt other configurations, for example, a configuration in which the lens is configured by a liquid lens, the focus position is adjusted by deforming the lens, and an optical zoom operation is performed. It is good.

絞り12は、レンズ11の光軸に対して垂直な平面内で回動可能に支持された複数の遮蔽板によって構成され、複数の遮蔽板が連動して回動することによって光軸に対して垂直な平面内で遮蔽されていない部分の面積を変化させることが可能である。絞り12の開口径は絞り調整部45によって制御されるように構成されており、当該絞り調整部45が絞り12の開口径を指示されると、絞り調整部45が絞り12を駆動させて当該指示された開口径となるように設定する。   The diaphragm 12 is composed of a plurality of shielding plates that are rotatably supported in a plane perpendicular to the optical axis of the lens 11, and the plurality of shielding plates rotate in conjunction with each other to rotate relative to the optical axis. It is possible to change the area of the unshielded part in the vertical plane. The aperture diameter of the aperture 12 is configured to be controlled by an aperture adjuster 45. When the aperture adjuster 45 is instructed about the aperture diameter of the aperture 12, the aperture adjuster 45 drives the aperture 12 to Set to the indicated opening diameter.

本実施形態においてシャッター13は機械式のフォーカルプレーン型シャッターであり、受光センサーの受光面に対して平行な平面板状の遮光部としての開閉式(折り畳み式)の複数の遮光幕を備えている。この遮光幕はシャッター制御部50からの制御信号に応じて光軸に対して垂直な方向に移動するように構成されており、通常は遮光幕が光軸に平行な方向の光路を遮らない状態で保持されている。また、遮光幕が光路を遮らない状態で保持されている状態において、所定のトリガが与えられると当該遮光幕が光路を遮らない状態で保持された状態が解除され、遮光幕は光軸に対して垂直な方向に駆動して複数の羽根が光路を遮る状態となる。なお、図1においては、シャッター13の移動方向を破線の矢印Amで示している。   In this embodiment, the shutter 13 is a mechanical focal plane shutter, and includes a plurality of open / close (folding) light shielding curtains as planar plate-shaped light shielding portions parallel to the light receiving surface of the light receiving sensor. . The light-shielding curtain is configured to move in a direction perpendicular to the optical axis in accordance with a control signal from the shutter control unit 50. Normally, the light-shielding curtain does not block the optical path in the direction parallel to the optical axis. Is held by. In addition, in a state where the light shielding curtain is held without blocking the light path, when a predetermined trigger is given, the state where the light shielding curtain is held without blocking the light path is released, and the light shielding curtain is moved with respect to the optical axis. Thus, the blades are driven in the vertical direction, and the plurality of blades block the optical path. In FIG. 1, the moving direction of the shutter 13 is indicated by a dashed arrow Am.

撮像ユニット14は、RGBのカラーフィルターと光量に応じた電荷を光電変換によって画素ごとに蓄積する受光素子とを備えるRGB各色の受光センサーと、測距センサーとを備えている。本実施形態において、受光センサーと測距センサーとは画素毎に備えられている。撮像ユニット14において受光センサーと測距センサーとが形成された受光面は矩形の領域であり、図2Aの左側には、撮像ユニット14の受光面(レンズ11側に向けられた面)を見た場合に視認される矩形の領域を模式的に示している。   The imaging unit 14 includes RGB light receiving sensors each including an RGB color filter and a light receiving element that accumulates a charge corresponding to the amount of light for each pixel by photoelectric conversion, and a distance measuring sensor. In the present embodiment, a light receiving sensor and a distance measuring sensor are provided for each pixel. The light receiving surface on which the light receiving sensor and the distance measuring sensor are formed in the imaging unit 14 is a rectangular region, and the light receiving surface of the imaging unit 14 (the surface directed toward the lens 11) is seen on the left side of FIG. 2A. The rectangular area | region visually recognized in the case is shown typically.

図2Aの右側には、撮像ユニット14に形成された受光センサーと測距センサーとを拡大して示している。当該拡大においては矩形によって受光センサーと測距センサーとを示しており、図2Aに例示するように、撮像ユニット14は受光面においてRGB各色の受光センサー14a,14b,14cと測距センサー14dとを複数個備えており、RGB各色に対応する受光センサーと1個の測距センサーによって1画素を構成している。なお、図2Aの拡大図においては、1個の画素を太線の矩形で囲んで示している。受光センサー14a,14b,14cは、被写体から受けた光の強度をRGBのそれぞれについて示す情報を出力するセンサーであり、これらの受光センサー14a,14b,14cの出力に基づいて被写体の画像を示す画像データが生成される。生成された画像データは記憶部15に記憶される。   The right side of FIG. 2A shows an enlarged view of the light receiving sensor and the distance measuring sensor formed in the imaging unit 14. In this enlargement, the light receiving sensor and the distance measuring sensor are indicated by rectangles. As illustrated in FIG. 2A, the imaging unit 14 includes RGB light receiving sensors 14a, 14b, 14c and a distance measuring sensor 14d on the light receiving surface. A plurality of light receiving sensors corresponding to RGB colors and one distance measuring sensor constitute one pixel. In the enlarged view of FIG. 2A, one pixel is surrounded by a thick rectangle. The light receiving sensors 14a, 14b, and 14c are sensors that output information indicating the intensity of light received from the subject for each of RGB, and an image that indicates an image of the subject based on the outputs of the light receiving sensors 14a, 14b, and 14c. Data is generated. The generated image data is stored in the storage unit 15.

なお、記憶部15は、受光センサー14a,14b,14cが出力する画像データ(受光素子毎の受光量を示す情報)を一時的に記録しておくメモリである。また、本実施形態における受光センサーはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーであるが、むろん、受光センサーはCCD(Charge Coupled Device)イメージセンサー等の他のセンサーであってもよい。   The storage unit 15 is a memory that temporarily records image data (information indicating the amount of light received for each light receiving element) output from the light receiving sensors 14a, 14b, and 14c. The light receiving sensor in the present embodiment is a CMOS (Complementary Metal Oxide Semiconductor) image sensor, but the light receiving sensor may of course be another sensor such as a CCD (Charge Coupled Device) image sensor.

本実施形態にかかる受光センサー14a,14b,14cは、撮像ユニット制御部60がリセット指示を行うことによって受光素子の受光量に対応した蓄積電荷をリセットするリセット動作を行い、各受光素子での露光を開始することができる。また、受光センサー14a,14b,14cは、撮像ユニット制御部60が読出指示を行うことによって受光素子の受光量を示す情報の読出を行うことで露光を終了させることができる。さらに、受光センサー14a,14b,14cにおいて、これらの露光の開始および終了はライン毎あるいは一画面毎に制御することが可能である。   The light receiving sensors 14a, 14b, and 14c according to the present embodiment perform a reset operation for resetting the accumulated charge corresponding to the amount of light received by the light receiving element when the imaging unit control unit 60 issues a reset instruction, and exposure at each light receiving element. Can start. In addition, the light receiving sensors 14a, 14b, and 14c can end the exposure by reading out information indicating the amount of light received by the light receiving element when the imaging unit control unit 60 issues a reading instruction. Furthermore, in the light receiving sensors 14a, 14b, and 14c, the start and end of these exposures can be controlled for each line or for each screen.

本実施形態にかかる撮影装置1によって記録用の画像を撮影する際(通常の撮影)には、機械シャッターであるシャッター13と受光センサー14a,14b,14cの電子シャッターとの組み合わせによって露光時間を制御する。すなわち、本実施形態において通常の撮影の場合には、受光センサー14a,14b,14cにおける電子シャッターで露光を開始させ、シャッター13で露光を終了させる電子先幕−機械後幕シャッター方式によって露光時間が制御される。具体的には、通常の撮影の場合、電子シャッターによりライン順次で露光が開始され、ライン毎の露光時間が、設定されたシャッター速度となるタイミングで各ラインが遮光されるように機械シャッターによる遮光が開始される。また、撮影装置1においては表示部20においてライブビュー表示を行うことが可能であり、当該ライブビュー表示を行うための画像を撮影する際には、電子シャッター方式によって露光時間が制御される。すなわち、先幕も後幕も電子シャッターによって制御される。   When a recording image is captured by the imaging apparatus 1 according to the present embodiment (normal imaging), the exposure time is controlled by a combination of the shutter 13 that is a mechanical shutter and the electronic shutters of the light receiving sensors 14a, 14b, and 14c. To do. That is, in the case of normal shooting in the present embodiment, the exposure time is determined by the electronic front curtain-mechanical rear curtain shutter system in which exposure is started by the electronic shutters in the light receiving sensors 14a, 14b, and 14c and the exposure is ended by the shutter 13. Be controlled. Specifically, in the case of normal shooting, exposure is started in a line-sequential manner with an electronic shutter, and the light is shielded by a mechanical shutter so that each line is shielded at the timing at which the exposure time for each line reaches a set shutter speed. Is started. In the photographing apparatus 1, live view display can be performed on the display unit 20, and when an image for performing the live view display is photographed, the exposure time is controlled by an electronic shutter method. That is, both the front curtain and the rear curtain are controlled by the electronic shutter.

測距センサー14dは、被写体で反射された赤外線を受けて被写体と受光センサー14a,14b,14cとの距離を示す情報を出力するセンサーである。すなわち、撮影装置1が備える電磁波出力部90は、光学系10の視野方向に向けた広い範囲に赤外線(図1において一点鎖線で示すIr)を出力する装置であり、赤外線の出力口は、撮像ユニット14の受光面の延長線上に存在する。電磁波出力部90から周期的に出力された赤外線が被写体で反射されて測距センサー14dに到達すると、測距センサー14dは赤外線が到達したことを示す情報を撮像ユニット制御部60に対して出力する。撮像ユニット制御部60は、さらに、当該赤外線が到達したことを示す情報をCPU70に受け渡す。測距センサー14dと受光センサー14a,14b,14cとは同一基板上に形成されており、受光面に露出する部分が同一面となるように測距センサー14dと受光センサー14a,14b,14cとが形成されている。従って、本実施形態において、被写体から測距センサー14dまでの距離と被写体から受光センサー14a,14b,14cまでの距離とは同一距離と見なしている。   The distance measuring sensor 14d is a sensor that receives infrared rays reflected by the subject and outputs information indicating the distance between the subject and the light receiving sensors 14a, 14b, and 14c. That is, the electromagnetic wave output unit 90 included in the photographing apparatus 1 is an apparatus that outputs infrared rays (Ir indicated by a one-dot chain line in FIG. 1) over a wide range in the visual field direction of the optical system 10. It exists on the extended line of the light receiving surface of the unit 14. When the infrared light periodically output from the electromagnetic wave output unit 90 is reflected by the subject and reaches the distance measuring sensor 14d, the distance measuring sensor 14d outputs information indicating that the infrared light has arrived to the imaging unit control unit 60. . The imaging unit control unit 60 further passes information indicating that the infrared rays have arrived to the CPU 70. The distance measuring sensor 14d and the light receiving sensors 14a, 14b, and 14c are formed on the same substrate, and the distance measuring sensor 14d and the light receiving sensors 14a, 14b, and 14c are arranged so that the portions exposed to the light receiving surface are the same surface. Is formed. Therefore, in this embodiment, the distance from the subject to the distance measuring sensor 14d and the distance from the subject to the light receiving sensors 14a, 14b, and 14c are regarded as the same distance.

そこで、CPU70は、電磁波出力部90に対して赤外線を出力させる制御信号を出力するとともに、赤外線の出力後の経過時間を計測する。測距センサー14dによって赤外線が到達したことが検出されると、当該検出されたことを示す情報が撮像ユニット制御部60によってCPU70に出力される。そこで、CPU70は、電磁波出力部90から赤外線が出力された後、当該赤外線が被写体に反射されて測距センサー14dで測定されるまでの時間と赤外線が進行する速度とに基づいて被写体から受光センサー14a,14b,14cまでの距離を特定する。   Therefore, the CPU 70 outputs a control signal for outputting infrared rays to the electromagnetic wave output unit 90 and measures an elapsed time after the infrared rays are output. When it is detected by the distance measuring sensor 14d that infrared rays have arrived, information indicating the detection is output to the CPU 70 by the imaging unit control unit 60. Therefore, the CPU 70 receives the infrared sensor from the subject based on the time from when the infrared ray is output from the electromagnetic wave output unit 90 until the infrared ray is reflected by the subject and measured by the distance measuring sensor 14d and the speed at which the infrared ray travels. The distance to 14a, 14b, 14c is specified.

画像生成部80は、受光センサー14a,14b,14cが出力する画像データに対して予め決められた手順によって各種の処理を実行する回路によって構成されている。具体的には、画像生成部80は、CPU70の処理によって記憶部15に記憶された画像データを取得し、当該画像データが示す画像データに対してγ変換等の所定の画像処理を行って表示用の画像および記録用の画像を示すデータを生成する機能を備えている。表示用の画像を示すデータは表示部20に受け渡され、撮影された画像が表示部20に表示される。記録用の画像を示すデータは記録部30に受け渡され、記録部30に挿入された記録媒体に当該データが記録される。   The image generation unit 80 is configured by a circuit that executes various processes on image data output from the light receiving sensors 14a, 14b, and 14c according to a predetermined procedure. Specifically, the image generation unit 80 acquires the image data stored in the storage unit 15 by the processing of the CPU 70, performs predetermined image processing such as γ conversion on the image data indicated by the image data, and displays the image data. And a function of generating data indicating a recording image and a recording image. Data indicating the display image is transferred to the display unit 20, and the captured image is displayed on the display unit 20. Data indicating an image for recording is transferred to the recording unit 30, and the data is recorded on a recording medium inserted into the recording unit 30.

画像生成部80が実行する画像処理には、AE(Automatic Exposure)処理を行うための評価値を出力する処理が含まれる。すなわち、画像生成部80は、受光センサー14a,14b,14cによる撮影範囲内に設定された所定の測光エリアに含まれる画素の明るさを評価するための評価値(例えば、輝度の平均値等)を特定し、AE処理を行うための評価値として出力することが可能である。   The image processing executed by the image generation unit 80 includes processing for outputting an evaluation value for performing AE (Automatic Exposure) processing. That is, the image generation unit 80 evaluates the brightness of pixels included in a predetermined photometry area set within the photographing range by the light receiving sensors 14a, 14b, and 14c (for example, an average value of luminance). Can be specified and output as an evaluation value for performing the AE process.

CPU70は、AE処理を行うための評価値に基づいて絞り調整部45、シャッター制御部50、撮像ユニット制御部60に制御信号を出力し、適正露出となるように絞り12の開口径およびシャッター速度を調整する。すなわち、CPU70は、操作部40における指示やデフォルト設定に基づいて画像データを撮影する際の撮影条件を特定し、当該撮影条件通りに各部を設定する機能を備えている。具体的には、CPU70が上述のAE処理を行うための評価値に基づいて適正露出となるために必要な撮影条件を特定し、当該撮影条件通りに絞り12およびシャッター速度が設定されるように、絞り調整部45、シャッター制御部50、撮像ユニット制御部60に対して制御信号を出力する。なお、適正露出となるための必要な撮影条件は、各種の前提条件(例えば、絞り優先、シャッター速度優先等)において特定可能である。   The CPU 70 outputs a control signal to the aperture adjustment unit 45, the shutter control unit 50, and the imaging unit control unit 60 based on the evaluation value for performing the AE process, and the aperture diameter and the shutter speed of the aperture 12 so as to achieve proper exposure. Adjust. That is, the CPU 70 has a function of specifying shooting conditions when shooting image data based on an instruction or default setting in the operation unit 40 and setting each unit according to the shooting conditions. Specifically, the CPU 70 specifies shooting conditions necessary for achieving proper exposure based on the evaluation value for performing the above-described AE processing, and the aperture 12 and the shutter speed are set according to the shooting conditions. The control signal is output to the aperture adjustment unit 45, the shutter control unit 50, and the imaging unit control unit 60. Note that the shooting conditions necessary for achieving proper exposure can be specified under various preconditions (for example, aperture priority, shutter speed priority, etc.).

ここで、シャッター速度は受光センサー14a,14b,14cに光が当たっている時間を示しており、CPU70は、受光センサー14a,14b,14cの各ラインが当該シャッター速度に相当する時間だけ露光されているように受光センサー14a,14b,14cにおける露光開始タイミングを調整する。   Here, the shutter speed indicates the time during which the light receiving sensors 14a, 14b, and 14c are exposed to light, and the CPU 70 exposes each line of the light receiving sensors 14a, 14b, and 14c for a time corresponding to the shutter speed. The exposure start timing in the light receiving sensors 14a, 14b, and 14c is adjusted as shown.

本実施形態においては、マニュアルフォーカスレンズによって利用者自身がピントの位置を調整することができる。利用者自身が合焦対象として選択した被写体に合焦した状態とするためには、当該利用者自身が合焦対象として選択した被写体が被写界深度内に存在するようにピントリングが調整される必要がある。一般的な撮影装置においては、利用者自身の目によって被写体のエッジが適正な状態となるようにピントリングを操作することによってピントの位置が調整される。しかし、任意の被写体において表示部20を視認することによってエッジが適正な状態となっているか否かを判断することは一般に難しい。   In the present embodiment, the user can adjust the focus position by the manual focus lens. In order to focus on the subject selected by the user himself / herself as the focus target, the focus ring is adjusted so that the subject selected by the user himself / herself as the focus target exists within the depth of field. It is necessary to In a general photographing apparatus, the focus position is adjusted by operating the focus ring so that the edge of the subject is in an appropriate state by the user's own eyes. However, it is generally difficult to determine whether or not the edge is in an appropriate state by viewing the display unit 20 in an arbitrary subject.

そこで、本実施形態においてCPU70は、記録用の画像データが撮影される前にEVFで被写体が視認されている状態(ライブビュー表示を行っている状態)において、被写界深度内に存在する被写体を強調するための処理を行う。すなわち、本実施形態においてCPU70は、電磁波出力部90に対して赤外線を出力させる制御信号を出力するとともに、赤外線出力後の経過時間を計測することで、赤外線出力後、測距センサー14dによって赤外線が検出されるまでの時間を特定し、赤外線の速度によって被写体から受光センサー14a,14b,14cまでの距離を画素毎に特定する。この状態においては、各画素の受光センサー14a,14b,14cで撮影される被写体から受光センサー14a,14b,14cまでの距離が特定された状態となる。   Therefore, in the present embodiment, the CPU 70 is a subject existing within the depth of field in a state where the subject is visually recognized by the EVF (a state where live view display is performed) before the image data for recording is captured. Perform processing to emphasize. That is, in this embodiment, the CPU 70 outputs a control signal for outputting infrared rays to the electromagnetic wave output unit 90 and measures the elapsed time after the infrared rays are output, so that the infrared rays are output by the distance measuring sensor 14d after the infrared rays are output. The time until detection is specified, and the distance from the subject to the light receiving sensors 14a, 14b, and 14c is specified for each pixel by the speed of infrared rays. In this state, the distance from the subject photographed by the light receiving sensors 14a, 14b, and 14c of each pixel to the light receiving sensors 14a, 14b, and 14c is specified.

また、CPU70は、レンズ11の状態および撮影時に設定される絞り12の状態に応じてピントが合っているように撮影できる距離(被写体距離及び被写界深度でもよい)を特定し、画素毎の被写体毎に被写体が被写界深度に含まれるか否かを判定する。なお、被写界深度は、レンズ11の状態に対応した焦点距離と絞り12の開口径に対応したF値と予め特定された許容錯乱円の直径の値に基づいて特定される過焦点距離を利用して算出される。すなわち、CPU70は、当該過焦点距離と、焦点距離と、被写体距離とに基づいて被写界深度の前端と後端とを特定し、当該前端と後端との間の範囲が、被写界深度に含まれる物体と主点との距離の範囲であると見なす。そして、CPU70は、被写体から受光センサー14a,14b,14cまでの距離が、当該前端と後端との間に存在する場合に、当該被写体が被写界深度に含まれると判定する。当該被写界深度に関する計算は後に詳述する。当該判定は画素毎に行われ、被写界深度に含まれると判定された被写体を撮像した画素の画像データに対して、CPU70は当該被写体を強調する処理(例えば、2値化や縁取り)を行う。   Further, the CPU 70 specifies the distance (which may be the subject distance and the depth of field) that can be photographed so as to be in focus according to the state of the lens 11 and the state of the diaphragm 12 that is set at the time of photographing. It is determined for each subject whether or not the subject is included in the depth of field. The depth of field is a hyperfocal distance specified based on the focal length corresponding to the state of the lens 11, the F value corresponding to the aperture diameter of the stop 12, and the value of the diameter of the allowable circle of confusion specified in advance. It is calculated using. That is, the CPU 70 specifies the front end and the rear end of the depth of field based on the hyperfocal distance, the focal length, and the subject distance, and the range between the front end and the rear end is the object scene. It is regarded as the range of the distance between the object included in the depth and the principal point. Then, the CPU 70 determines that the subject is included in the depth of field when the distance from the subject to the light receiving sensors 14a, 14b, and 14c exists between the front end and the rear end. The calculation regarding the depth of field will be described in detail later. The determination is performed for each pixel, and the CPU 70 performs a process of emphasizing the subject (for example, binarization or bordering) on the image data of the pixel obtained by imaging the subject determined to be included in the depth of field. Do.

そして、CPU70は、当該被写体を強調する処理が行われた画像データを表示部20に出力し、当該画像データに基づいて表示部20に被写体を表示させる。この結果、被写界深度に含まれる被写体が強調された状態で光学系10の視野内の被写体が表示部20に表示される。利用者は、表示部20を視認することにより被写界深度内にある被写体を特定することができるため、自身が合焦させたいと望む被写体が表示部20にて強調されるまでピントリングを調整することにより、容易に当該被写体が被写界深度内に存在するようにピントの位置を調整することができる。   Then, the CPU 70 outputs the image data that has been subjected to the process of emphasizing the subject to the display unit 20, and causes the display unit 20 to display the subject based on the image data. As a result, the subject in the field of view of the optical system 10 is displayed on the display unit 20 in a state where the subject included in the depth of field is emphasized. The user can identify the subject within the depth of field by visually recognizing the display unit 20, and therefore focus until the subject that he wants to focus on is highlighted on the display unit 20. By adjusting, it is possible to easily adjust the focus position so that the subject exists within the depth of field.

利用者が記録用の画像データの撮影を指示すると、CPU70は、絞り調整部45に制御信号を出力して絞り12の開口径を撮影のための大きさに設定し、撮像ユニット制御部60に制御信号を出力して受光センサー14a,14b,14cのライン毎に露光を開始させ、設定通りのシャッター速度に相当する時間だけ露光するようなタイミングでシャッター制御部50に制御信号を出力して機械シャッターにより露光を終了させる。この結果、被写体の画像を示す画像データが記憶部15に出力され、CPU70は、当該画像データを記録部30に受け渡し、図示しない記録媒体に当該画像データを記録させる。   When the user gives an instruction to shoot image data for recording, the CPU 70 outputs a control signal to the aperture adjustment unit 45 to set the aperture diameter of the aperture 12 to a size for shooting, and to the imaging unit control unit 60. A control signal is output to start exposure for each line of the light receiving sensors 14a, 14b, and 14c, and the control signal is output to the shutter control unit 50 at a timing such that exposure is performed for a time corresponding to the set shutter speed. The exposure is terminated by the shutter. As a result, image data indicating the image of the subject is output to the storage unit 15, and the CPU 70 transfers the image data to the recording unit 30 and records the image data on a recording medium (not shown).

以上の構成においては、受光センサー14a,14b,14cと同一の基板に設けられた測距センサー14dによって被写体と受光センサー14a,14b,14cとの間の距離を画素毎に測定し、被写体が被写界深度内に存在するか否かを画素毎に特定する。また、レンズ11を通過した光を受光する受光センサー14a,14b,14cと同様に測距センサー14dにおいてもレンズ11を通過した光を受光する。従って、測距センサー14dにおいては、受光センサー14a,14b,14cに向かう光路とほぼ同様の光路を進む光に基づいて被写体と受光センサー14a,14b,14cとの間の距離を測定することができる。このため、測距センサーを全く別の場所に設ける場合と比べて、撮影装置1においてはどの被写体が被写界深度内に存在するか否かをより正確に特定することが可能であり、表示部20において被写界深度内の被写体をより正確に示すことが可能である。   In the above configuration, the distance between the subject and the light receiving sensors 14a, 14b, and 14c is measured for each pixel by the distance measuring sensor 14d provided on the same substrate as the light receiving sensors 14a, 14b, and 14c. Whether each pixel exists within the depth of field is specified for each pixel. Similarly to the light receiving sensors 14a, 14b, and 14c that receive the light that has passed through the lens 11, the distance measuring sensor 14d also receives the light that has passed through the lens 11. Accordingly, the distance measuring sensor 14d can measure the distance between the subject and the light receiving sensors 14a, 14b, and 14c based on the light that travels in substantially the same optical path as the light path toward the light receiving sensors 14a, 14b, and 14c. . For this reason, compared with the case where the distance measuring sensor is provided in a completely different place, in the photographing apparatus 1, it is possible to more accurately identify which subject is present within the depth of field. The unit 20 can more accurately indicate the subject within the depth of field.

(2)撮影処理:
次に、実例とともに本実施形態における撮影処理を詳細に説明する。図3は撮影処理のフローチャートである。CPU70は、通常、表示部20におけるライブビュー表示を行うための処理を実行している。ここでは、絞り優先モードによって撮影処理を行う場合の例を説明する。また、本実施形態においては、シャッターボタンを半押しすることによってAE処理と被写界深度に含まれる被写体を表示部20に表示する処理を実行する指示を行うように構成されている。このため、まず、CPU70は、シャッターボタンが半押しされたか否かを判定し、半押しされたと判定されるまで待機する(ステップS100)。本例のように絞り優先モードで撮影モードを開始する場合、CPU70は、次に、利用者によって設定された絞り12の設定値に応じた開口径となるように絞り12を調整する(ステップS105)。すなわち、利用者は操作部40によって予め絞り12のF値を設定する。CPU70は設定通りのF値に絞り12を調整させるための制御信号を調整部45に出力し、絞り調整部45は当該絞り12のF値に応じた開口径になるように絞り12を制御する。
(2) Shooting process:
Next, a photographing process in the present embodiment will be described in detail with an example. FIG. 3 is a flowchart of the photographing process. The CPU 70 normally executes processing for performing live view display on the display unit 20. Here, an example in which shooting processing is performed in the aperture priority mode will be described. In the present embodiment, an instruction to execute the AE process and the process of displaying the subject included in the depth of field on the display unit 20 is performed by pressing the shutter button halfway. Therefore, first, the CPU 70 determines whether or not the shutter button has been half-pressed, and waits until it is determined that the shutter button has been half-pressed (step S100). When the shooting mode is started in the aperture priority mode as in this example, the CPU 70 next adjusts the aperture 12 so that the aperture diameter according to the set value of the aperture 12 set by the user is obtained (step S105). ). That is, the user sets the F value of the diaphragm 12 in advance by the operation unit 40. The CPU 70 outputs a control signal for adjusting the diaphragm 12 to the set F value to the adjustment unit 45, and the diaphragm adjustment unit 45 controls the diaphragm 12 so that the aperture diameter corresponds to the F value of the diaphragm 12. .

絞り12の開口径が利用者によって設定された設定値となるように制御されると、次にAE処理が実行される。すなわち、CPU70は、絞り12の開口径が利用者によって設定された設定値となった状態において画像生成部80は、受光センサーの撮影範囲内に予め設定された測光エリアの画素の明るさを評価するための評価値を特定し、CPU70に対してAE処理を行うための評価値として出力する(ステップS110)。なお、この段階におけるシャッター速度はデフォルト値(あるいは、前回の撮影の際の設定値)である。   When the aperture diameter of the diaphragm 12 is controlled to be a set value set by the user, the AE process is executed next. That is, the CPU 70 evaluates the brightness of the pixels in the photometry area set in advance within the photographing range of the light receiving sensor in a state where the aperture diameter of the diaphragm 12 becomes the set value set by the user. An evaluation value for performing the AE processing is specified for the CPU 70 and output as an evaluation value for performing the AE process (step S110). Note that the shutter speed at this stage is a default value (or a set value at the time of the previous shooting).

次に、CPU70は、AE処理を行うための評価値に基づいて適正露出となるようにシャッター速度を調整する(ステップS115)。すなわち、CPU70は、AE処理を行うための評価値と予め決められた適正露出範囲とを比較し、AE処理を行うための評価値が適正露出範囲内に入るために必要なシャッター速度を特定する。そして、CPU70は、当該シャッター速度を示す制御信号を撮像ユニット制御部60に対して出力する。この結果、撮像ユニット制御部60が受光センサーにおける電子シャッターのシャッター速度を、AE処理を行うための評価値が適正露出範囲内に入るために必要なシャッター速度となるように調整する。   Next, the CPU 70 adjusts the shutter speed so as to achieve proper exposure based on the evaluation value for performing the AE process (step S115). That is, the CPU 70 compares the evaluation value for performing the AE process with a predetermined appropriate exposure range, and specifies the shutter speed necessary for the evaluation value for performing the AE process to fall within the proper exposure range. . Then, the CPU 70 outputs a control signal indicating the shutter speed to the imaging unit controller 60. As a result, the imaging unit control unit 60 adjusts the shutter speed of the electronic shutter in the light receiving sensor so that the evaluation value for performing the AE process becomes a shutter speed necessary for entering the appropriate exposure range.

以上のようなAE処理により、撮影される画像の露出が適正露出となった状態においてCPU70は、画像生成部80が生成する画像データを表示部20受け渡し、表示部20においてライブビュー表示を継続する。このようなライブビュー表示が行われた状態において、利用者がピントリングを調整することでピントの位置を調整することが可能であるが、表示部20において単に被写体の画像を表示するのみの状態では適正なピントの位置を判定することが困難になる場合も多いため、ここで、CPU70はピントの位置を明示するための処理を行う。   With the AE process as described above, the CPU 70 transfers the image data generated by the image generation unit 80 to the display unit 20 and continues the live view display on the display unit 20 in a state where the exposure of the photographed image is appropriate. . In such a live view display state, the user can adjust the focus position by adjusting the focus ring, but the display unit 20 simply displays the image of the subject. In this case, since it is often difficult to determine an appropriate focus position, the CPU 70 performs a process for clearly indicating the focus position.

すなわち、CPU70は、被写体と受光センサーとの距離Lを画素毎に取得する(ステップS120)。すなわち、CPU70は、電磁波出力部90に対して赤外線を出力させる制御信号を出力して、電磁波出力部90から光学系10の視野方向に赤外線を出力させる。また、CPU70は、これと同時に電磁波出力部90から赤外線が出力された後の経過時間の計測を開始する。なお、本実施形態における電磁波出力部90は、光学系10の視野内の被写体に赤外線が到達するように予め決められた広い範囲に赤外線を出力することが可能である。図2Bは、電磁波出力部90と撮像ユニット14と被写体Oとの位置関係を模式的に示しており、赤外線の出力範囲Rirを一点鎖線によって模式的に示している。   That is, the CPU 70 acquires the distance L between the subject and the light receiving sensor for each pixel (step S120). That is, the CPU 70 outputs a control signal that causes the electromagnetic wave output unit 90 to output infrared rays, and causes the electromagnetic wave output unit 90 to output infrared rays in the visual field direction of the optical system 10. At the same time, the CPU 70 starts measuring the elapsed time after infrared rays are output from the electromagnetic wave output unit 90. Note that the electromagnetic wave output unit 90 in the present embodiment can output infrared rays in a wide range determined in advance so that the infrared rays reach a subject within the field of view of the optical system 10. FIG. 2B schematically shows a positional relationship among the electromagnetic wave output unit 90, the imaging unit 14, and the subject O, and schematically shows an infrared output range Rir by a one-dot chain line.

さらに、CPU70は、測距センサー14dから赤外線を検出したことを示す情報が出力され、撮像ユニット制御部60から当該情報が受け渡されると、赤外線出力後、測距センサー14dによって赤外線が検出されるまでの時間と赤外線の速度(=光速)との積によって、赤外線が出力された後、測距センサー14dに到達するまでの全光路の距離を特定する。電磁波出力部90から出力された赤外線は、被写体Oによって反射されて光学系10を介して撮像ユニット14に到達するが、電磁波出力部90と撮像ユニット14との距離は、通常は被写体と撮像ユニット14との距離と比較して極めて短いため、本実施例では、被写体Oから撮像ユニット14に到達する光の光路は、水平方向にほぼ平行であると見なしている。また、電磁波出力部90における赤外線の出力口は撮像ユニット14の受光面の延長線上にある。従って、電磁波出力90から出力された赤外線が被写体Oに到達するまでの光路と、被写体Oで反射された赤外線が受光センサーに到達するまでの光路とはほぼ等しい。   Further, the CPU 70 outputs information indicating that infrared rays are detected from the distance measuring sensor 14d, and when the information is delivered from the imaging unit control unit 60, the infrared rays are output and then detected by the distance measuring sensor 14d. The distance of the entire optical path from when the infrared ray is output until it reaches the distance measuring sensor 14d is determined by the product of the time until and the velocity of the infrared ray (= light velocity). Infrared light output from the electromagnetic wave output unit 90 is reflected by the subject O and reaches the imaging unit 14 via the optical system 10, but the distance between the electromagnetic wave output unit 90 and the imaging unit 14 is usually the subject and the imaging unit. In this embodiment, the optical path of light reaching the imaging unit 14 from the subject O is considered to be substantially parallel to the horizontal direction. Further, the infrared ray output port of the electromagnetic wave output unit 90 is on an extension line of the light receiving surface of the imaging unit 14. Therefore, the optical path until the infrared ray output from the electromagnetic wave output 90 reaches the subject O is substantially equal to the optical path until the infrared ray reflected by the subject O reaches the light receiving sensor.

そこで、CPU70は、上述のようにして特定した全光路の1/2を被写体から受光センサー14a,14b,14cまでの距離Lとして特定する。当該処理は、測距センサー14dによって赤外線が到達したことが検出された全ての画素について行われる。   Therefore, the CPU 70 specifies 1/2 of all the optical paths specified as described above as the distance L from the subject to the light receiving sensors 14a, 14b, 14c. This process is performed for all pixels in which infrared rays have been detected by the distance measuring sensor 14d.

次に、CPU70は、レンズ情報を取得する(ステップS125)。すなわち、CPU70は、マニュアルフォーカスレンズと通信を行ってピントリングの回転角度に対応したピントが合っている被写体と主点との距離である被写体距離sを示す情報と、ズームリングの回転角度に対応したレンズの焦点距離fを示す情報とを取得する。また、CPU70は、操作部40を通じてユーザーによって設定された絞り12のF値を示す情報を取得する。   Next, the CPU 70 acquires lens information (step S125). That is, the CPU 70 communicates with the manual focus lens and corresponds to the information indicating the subject distance s which is the distance between the subject in focus and the principal point corresponding to the rotation angle of the focus ring, and the rotation angle of the zoom ring. And information indicating the focal length f of the obtained lens. In addition, the CPU 70 acquires information indicating the F value of the aperture 12 set by the user through the operation unit 40.

次に、CPU70は、被写界深度を特定する(ステップS130)。すなわち、被写界深度の前端DNと後端DFとを特定することによって被写界深度を特定する。なお、図2Bにおいては、被写界深度の前端DNおよび後端DFと受光センサーとの位置関係を図示している。すなわち、本例において、前端DNはピントが合っている範囲の最も撮影装置1側の点と主点との距離であり、後端DFはピントが合っている範囲の最も撮影装置1から遠い側の点と主点との距離である。 Next, the CPU 70 specifies the depth of field (step S130). That is, the depth of field is specified by specifying the front end DN and the rear end DF of the depth of field. 2B illustrates the positional relationship between the front end DN and rear end DF of the depth of field and the light receiving sensor. That is, in this example, the front end DN is the distance between the point closest to the photographing apparatus 1 and the principal point in the in-focus range, and the rear end DF is the distance from the photographing apparatus 1 in the most in-focus range. This is the distance between the far point and the principal point.

被写界深度を特定するため、CPU70は、まず以下の式に基づいて過焦点距離Hを特定する。
H=f2/Nc
ここで、fはレンズ11の焦点距離、Nは絞り12のF値、cは予め決められた許容錯乱円の直径である。なお、許容錯乱円の直径は、受光センサーの大きさやユーザーの指定に応じて決定すればよい。例えば、受光センサーの大きさが22.5mm×15.0mmであれば0.019mm、受光センサーの大きさが36mm×24mmであれば0.026mmなどの値を許容錯乱円の直径とすることができる。
次に、CPU70は、過焦点距離H、焦点距離f、被写体距離sに基づいて以下の式によって被写界深度の前端DNおよび後端DFを特定する。
N=sH/(H+s−f)
F=sH/(H+f−s)
In order to specify the depth of field, the CPU 70 first specifies the hyperfocal distance H based on the following equation.
H = f 2 / Nc
Here, f is the focal length of the lens 11, N is the F value of the diaphragm 12, and c is the diameter of a predetermined allowable circle of confusion. The diameter of the permissible circle of confusion may be determined according to the size of the light receiving sensor and the user's designation. For example, if the size of the light receiving sensor is 22.5 mm × 15.0 mm, the allowable confusion circle diameter may be set to 0.019 mm, and if the size of the light receiving sensor is 36 mm × 24 mm, the value of 0.026 mm may be used. it can.
Next, the CPU 70 specifies the front end DN and the rear end DF of the depth of field by the following formula based on the hyperfocal distance H, the focal distance f, and the subject distance s.
D N = sH / (H + s−f)
D F = sH / (H + fs)

次に、CPU70は、被写界深度に含まれる被写体を特定する(ステップS135)。すなわち、CPU70は各画素で撮影される被写体と受光センサー14a,14b,14cとの距離Lから、レンズ11における主点と受光センサー14a,14b,14cとの距離を減じることにより、被写体から主点までの距離Lsを取得する。そして、CPU70は、前端DNと後端DFとに基づいて、Ls>DNであるとともにLs<DFであるか否かを判定し、Ls>DNであるとともにLs<DFであると判定された場合、当該画素で撮影された被写体は被写界深度に含まれると判定する。例えば、図2Bに示すように、被写界深度の前端DNと後端DFとの間に距離Lsが存在するような画素で撮影された被写体は被写界深度に含まれると判定される。 Next, the CPU 70 identifies a subject included in the depth of field (step S135). That is, the CPU 70 reduces the distance between the principal point of the lens 11 and the light receiving sensors 14a, 14b, and 14c from the distance L between the subject photographed by each pixel and the light receiving sensors 14a, 14b, and 14c, thereby removing the principal point from the subject. To obtain the distance Ls. Then, the CPU 70 determines whether or not Ls> D N and Ls <D F based on the front end DN and the rear end D F, and Ls> D N and Ls <D F. When it is determined that there is a subject, it is determined that the subject photographed with the pixel is included in the depth of field. For example, as shown in FIG. 2B, it is determined that a subject photographed with a pixel having a distance Ls between the front end DN and the rear end DF of the depth of field is included in the depth of field. The

次に、CPU70は、被写界深度に含まれる被写体を示す情報を画像に重畳して表示する(ステップS140)。すなわち、CPU70は、ステップS135において、被写界深度に含まれると判定された被写体を撮影した画素の画像データを強調する処理を行うことで、被写界深度に含まれる被写体を示す情報が重畳された画像データを生成する。そして、CPU70は、当該生成された画像データを表示部20に受け渡す。この結果、表示部20においては、被写界深度に含まれる被写体が強調された画像を表示する。以上の処理は、シャッターボタンが半押しされている間、表示部20における画像の更新が行われる度に繰り返し実行される。この結果、撮影装置1においてライブビュー表示中にシャッターボタンを半押しすることで、被写界深度に含まれる被写体を強調した画像が表示部20にライブビュー表示されることになる。   Next, the CPU 70 superimposes and displays information indicating the subject included in the depth of field on the image (step S140). That is, in step S135, the CPU 70 performs a process of enhancing the image data of the pixel obtained by photographing the subject determined to be included in the depth of field, thereby superimposing information indicating the subject included in the depth of field. Generated image data is generated. Then, the CPU 70 delivers the generated image data to the display unit 20. As a result, the display unit 20 displays an image in which the subject included in the depth of field is emphasized. The above processing is repeatedly executed every time the image on the display unit 20 is updated while the shutter button is half-pressed. As a result, when the shutter button is pressed halfway during the live view display in the photographing apparatus 1, an image in which the subject included in the depth of field is emphasized is displayed in the live view on the display unit 20.

従って、利用者は、表示部20を視認することによって、利用者自身が合焦させることを望む被写体が強調されている場合に当該被写体が合焦しており、強調されていない場合に当該被写体が合焦していないと判断することができる。すなわち、利用者は、表示部20を視認することによって、被写体の合焦状態に基づいて記録用の画像を撮影するか、ピント調整を継続するかを判断することができる。   Therefore, the user visually recognizes the display unit 20 so that the subject is in focus when the subject that the user desires to focus is emphasized, and the subject when the subject is not emphasized. Can be determined to be out of focus. That is, by visually recognizing the display unit 20, the user can determine whether to shoot a recording image based on the focused state of the subject or to continue focus adjustment.

本実施形態においては、シャッターボタンを全押しすることによって記録用の画像を撮影する指示を行うように構成されているため、CPU70は、操作部40におけるシャッターボタンの半押しが解除され、あるいは、全押しされたか否かを判定する(ステップS145)。ステップS145にて、シャッターボタンの半押しが解除されたと判定された場合、ステップS100以降の処理を繰り返す。すなわち、画像の強調をキャンセルして表示部20におけるライブビュー表示を継続させる。   In the present embodiment, the CPU 70 is configured to issue an instruction to shoot a recording image by fully pressing the shutter button, so the CPU 70 releases the half-press of the shutter button in the operation unit 40, or It is determined whether or not it has been fully pressed (step S145). If it is determined in step S145 that the half-press of the shutter button has been released, the processes in and after step S100 are repeated. That is, the enhancement of the image is canceled and the live view display on the display unit 20 is continued.

一方、ステップS145において、シャッターボタンが全押しされたと判定された場合、CPU70は、記録用の画像を撮影して記録媒体に記録する(ステップS150)。すなわち、CPU70は、ピントの位置と、ステップS100にて設定された絞り12の開口径とが維持された状態で、撮像ユニット制御部60に制御信号を出力して受光センサーの露光をライン順次に開始させる。さらに、CPU70は、シャッター制御部50に制御信号を出力し、受光センサーの各ラインの露光時間がステップS110にて設定されたシャッター速度に対応した時間となるようなタイミングでシャッター13の駆動を開始させる。この結果、受光センサーから画像データが出力されて記憶部15に記憶されるので、CPU70は、当該画像データを記録部30に転送し、図示しない記録媒体に記録させる。そして、撮影が終了すると次の撮影に向けてS100に戻る。   On the other hand, if it is determined in step S145 that the shutter button has been fully pressed, the CPU 70 captures an image for recording and records it on the recording medium (step S150). That is, the CPU 70 outputs a control signal to the image pickup unit controller 60 in a state where the focus position and the aperture diameter of the diaphragm 12 set in step S100 are maintained, and the exposure of the light receiving sensor is sequentially performed line by line. Let it begin. Further, the CPU 70 outputs a control signal to the shutter control unit 50, and starts driving the shutter 13 at a timing such that the exposure time of each line of the light receiving sensor becomes a time corresponding to the shutter speed set in step S110. Let As a result, since the image data is output from the light receiving sensor and stored in the storage unit 15, the CPU 70 transfers the image data to the recording unit 30 and records it on a recording medium (not shown). When shooting is completed, the process returns to S100 for the next shooting.

(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、受光センサーと同一の基板に設けられた測距センサーによって測定された、受光センサーが撮影する被写体と基準位置との間の距離に基づいて被写界深度に含まれる被写体を特定し、表示する限りにおいて、下記の変形例を適宜組み合わせでも良いし、その他にも種々の実施形態を採用可能である。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention, and is based on a distance between a subject photographed by the light receiving sensor and a reference position measured by a distance measuring sensor provided on the same substrate as the light receiving sensor. As long as the subject included in the depth of field is specified and displayed, the following modifications may be combined as appropriate, and various other embodiments may be employed.

例えば、上述の実施形態において表示部20は液晶パネルを用いたEVFであったが、表示部20はEVF以外の表示部、例えば、撮影装置1の背面に取り付けられる液晶パネルを用いた表示部であっても良いし、液晶パネル以外の方式を用いたものであっても良い。また、撮影装置1はミラーを備えた一眼レフカメラでも良く、さらにムービーカメラであっても良いし、撮影機能を備えた携帯電話等の装置であっても良い。さらに、上述の受光センサー14a,14b,14cの配列は、図2Bに示す配列以外の配列であってもよい。また、3CCD方式や3層式センサーを利用した画像生成装置に本発明を適用しても良い。   For example, in the above-described embodiment, the display unit 20 is an EVF using a liquid crystal panel, but the display unit 20 is a display unit other than the EVF, for example, a display unit using a liquid crystal panel attached to the back of the photographing apparatus 1. It may be, or a system using a system other than the liquid crystal panel may be used. The photographing apparatus 1 may be a single-lens reflex camera provided with a mirror, a movie camera, or a device such as a mobile phone having a photographing function. Furthermore, the arrangement of the light receiving sensors 14a, 14b, and 14c described above may be an arrangement other than the arrangement shown in FIG. 2B. Further, the present invention may be applied to an image generation apparatus using a 3CCD system or a 3-layer type sensor.

さらに、上述の実施形態においては、マニュアルフォーカスレンズを利用していたが、撮影装置1にオートフォーカスレンズを取り付け、測距センサーの出力に基づいて被写体と基準位置との間の距離を特定し、当該距離とレンズ情報とに基づいて合焦対象の被写体が被写界深度に含まれるか否かを判定し、合焦対象の被写体が被写界深度に含まれるまでレンズの位置を自動で移動させる構成としてもよい。   Furthermore, in the above-described embodiment, the manual focus lens is used. However, the auto focus lens is attached to the photographing apparatus 1, the distance between the subject and the reference position is specified based on the output of the distance measuring sensor, Based on the distance and lens information, it is determined whether or not the subject to be focused is included in the depth of field, and the lens position is automatically moved until the subject to be focused is included in the depth of field. A configuration may be adopted.

さらに、測距センサーを画素毎ではなくN個の画素に1個の割合で測距センサーを設ける構成としてもよい。例えば、受光センサーが形成される基板と同一の基板上において、受光センサーの受光面を分割した分割領域毎に測距センサーを設け、各分割領域の受光センサーで撮影される被写体と受光センサーとの距離を、各分割領域の測距センサーで測定する構成としてもよい。この構成によれば、測距センサーの数を抑制することができる。   Further, the distance measuring sensor may be provided at a rate of one for every N pixels instead of every pixel. For example, a distance measuring sensor is provided for each divided region obtained by dividing the light receiving surface of the light receiving sensor on the same substrate as the substrate on which the light receiving sensor is formed. The distance may be measured by a distance measuring sensor in each divided area. According to this configuration, the number of distance measuring sensors can be suppressed.

さらに、受光センサーの受光面全域に均等に測距センサーを配置するのではなく、特定の領域に測距センサーを設け、他の領域には測距センサーを設けない構成としてもよい。特定の領域としては、受光面の中央や中央周辺の複数カ所など、フォーカス領域として予め決められた領域が挙げられる。
また、受光センサー14a,14b,14cのそれぞれを画素とし、複数の測距センサー14dが測定した距離に基づいて補間等の演算を行って、被写体から各受光センサーまでの距離を決定してもよい。
また、電磁波出力部90と撮像ユニット14との距離も計算に入れて被写体から各画素までの距離を決定してもよい。
また、上述の実施形態においては、赤外線を用いて距離の測定を行ったが、このほかの波長の電磁波を用いるなど、他の方式で距離の測定を行ってもよい。
また、被写体と受光センサーとの距離を画素毎に取得する処理(ステップS120)と、レンズ情報を取得し被写界深度を特定する処理(ステップS125とステップS130)とは、順番が逆でもよいし、並行処理をしてもよい。
また、測距センサー14dの出力に基づいて計算する距離は、被写体と受光センサーとの間の距離に限られず、被写体とレンズの取り付け位置との間の距離や、被写体と表示部20までの距離など他の距離でもよく、これらの距離を表示部20にS140での表示と切り替えて表示してもよい。表示方法は、表示部の中心に表示している被写体までの距離を数字で表示してもよいし、距離に応じた色を各被写体に付けて表示してもよい。
絞り12のF値の情報は、レンズから現在のF値を示す情報を取得してもよいし、ユーザーが設定した値をメモリから取得してもよいし、AE処理で絞りを決定する場合には、AE処理で決定した値をメモリから取得してもよい。
さらに、前端DNおよび後端DFを記述するための式は、上述の式の他、各種の近似等を用いて変形した結果得られる式を利用可能であるし、被写体距離と実質的に同一なパラメータ、例えば、撮影距離を利用して前端DNおよび後端DFを記述してもよい。すなわち、
前端DN=(過焦点距離×撮影距離)/(過焦点距離+撮影距離)
後端DF=(過焦点距離×撮影距離)/(過焦点距離−撮影距離)
として前端DNおよび後端DFを特定する構成を採用してもよい。
Further, the distance measuring sensors may not be arranged uniformly over the entire light receiving surface of the light receiving sensor, but the distance measuring sensor may be provided in a specific area and the distance measuring sensor may not be provided in other areas. Examples of the specific area include areas predetermined as the focus area, such as the center of the light receiving surface and a plurality of locations around the center.
Alternatively, each of the light receiving sensors 14a, 14b, and 14c may be a pixel, and an interpolation or the like may be performed based on the distances measured by the plurality of distance measuring sensors 14d to determine the distance from the subject to each light receiving sensor. .
Further, the distance from the subject to each pixel may be determined by taking into account the distance between the electromagnetic wave output unit 90 and the imaging unit 14.
In the above-described embodiment, the distance is measured using infrared rays. However, the distance may be measured by other methods such as using electromagnetic waves of other wavelengths.
In addition, the process of acquiring the distance between the subject and the light receiving sensor for each pixel (step S120) and the process of acquiring lens information and specifying the depth of field (step S125 and step S130) may be reversed in order. However, parallel processing may be performed.
The distance calculated based on the output of the distance measuring sensor 14d is not limited to the distance between the subject and the light receiving sensor, but the distance between the subject and the lens mounting position, or the distance between the subject and the display unit 20. Other distances may be used, and these distances may be displayed on the display unit 20 by switching from the display in S140. As a display method, the distance to the subject displayed at the center of the display unit may be displayed as a number, or a color corresponding to the distance may be displayed on each subject.
As information on the F value of the aperture 12, information indicating the current F value may be acquired from the lens, a value set by the user may be acquired from the memory, or the aperture may be determined by AE processing. May acquire the value determined by the AE process from the memory.
Further, as the equations for describing the front end DN and the rear end DF , in addition to the above-described equations, equations obtained as a result of deformation using various approximations can be used, and the subject distance and the object distance can be substantially used. The front end DN and the rear end DF may be described using the same parameter, for example, the shooting distance. That is,
Front end D N = (hyperfocal length × shooting distance) / (hyperfocal length + shooting distance)
Rear end D F = (hyperfocal distance × shooting distance) / (hyperfocal distance−shooting distance)
A configuration that specifies the front end DN and the rear end DF may be adopted.

1…撮影装置、10…光学系、11…レンズ、12…絞り、13…シャッター、14…撮像ユニット、14a,14b,14c…受光センサー、14d…測距センサー、15…記憶部、20…表示部、30…記録部、40…操作部、45…調整部、50…シャッター制御部、60…撮像ユニット制御部、70…CPU、80…画像生成部、90…電磁波出力部 DESCRIPTION OF SYMBOLS 1 ... Imaging device, 10 ... Optical system, 11 ... Lens, 12 ... Aperture, 13 ... Shutter, 14 ... Imaging unit, 14a, 14b, 14c ... Light receiving sensor, 14d ... Distance sensor, 15 ... Memory | storage part, 20 ... Display 30 ... Recording unit, 40 ... Operation unit, 45 ... Adjustment unit, 50 ... Shutter control unit, 60 ... Imaging unit control unit, 70 ... CPU, 80 ... Image generation unit, 90 ... Electromagnetic wave output unit

Claims (6)

レンズを通過した光を受光する受光センサーと、
前記受光センサーと同一の基板に設けられた測距センサーと、
前記受光センサーが受光した光量に応じて画像データを生成する画像生成部と、
前記受光センサーが撮影する被写体と基準位置との間の距離を前記測距センサーの出力に基づいて測定する距離測定部と、
前記レンズの絞りと焦点距離と被写体距離とを含むレンズ情報を取得するレンズ情報取得部と、
前記レンズ情報と、前記被写体と基準位置との間の距離とに基づいて被写界深度に含まれる前記被写体を特定する被写体特定部と、
被写界深度に含まれる前記被写体を示す情報と前記画像データが示す画像とを表示部に表示させる表示制御部と、
を備える画像生成装置。
A light receiving sensor that receives light passing through the lens;
A distance measuring sensor provided on the same substrate as the light receiving sensor;
An image generating unit that generates image data according to the amount of light received by the light receiving sensor;
A distance measuring unit that measures a distance between a subject photographed by the light receiving sensor and a reference position based on an output of the distance measuring sensor;
A lens information acquisition unit that acquires lens information including the aperture, focal length, and subject distance of the lens;
A subject identifying unit that identifies the subject included in the depth of field based on the lens information and a distance between the subject and a reference position;
A display control unit for displaying information indicating the subject included in the depth of field and an image indicated by the image data on a display unit;
An image generation apparatus comprising:
電磁波を出力する電磁波出力部をさらに備え、
前記距離測定部は、前記電磁波出力部が前記電磁波を出力した後、前記電磁波が前記被写体に反射されて前記測距センサーで測定されるまでの時間に基づいて前記被写体と基準位置との間の距離を測定する、
請求項1に記載の画像生成装置。
Further equipped with an electromagnetic wave output unit for outputting electromagnetic waves,
The distance measuring unit, between the subject and a reference position, is based on a time from when the electromagnetic wave output unit outputs the electromagnetic wave until the electromagnetic wave is reflected by the subject and measured by the distance measuring sensor. Measure distance,
The image generation apparatus according to claim 1.
前記測距センサーは、前記受光センサーの各画素に設けられている、
請求項1または請求項2のいずれかに記載の画像生成装置。
The distance measuring sensor is provided in each pixel of the light receiving sensor,
The image generation apparatus according to claim 1.
前記測距センサーは、前記受光センサーの受光面を分割した分割領域毎に設けられている、
請求項1または請求項2のいずれかに記載の画像生成装置。
The distance measuring sensor is provided for each divided region obtained by dividing the light receiving surface of the light receiving sensor.
The image generation apparatus according to claim 1.
前記受光センサーが撮影する被写体と基準位置との間の距離は、前記被写体から前記レンズの主点までの距離であり、
前記被写体特定部は、前記レンズの絞りと焦点距離と予め決められた許容錯乱円の直径とに基づいて過焦点距離を特定し、当該過焦点距離と前記レンズの焦点距離と前記被写体距離とに基づいて、被写界深度に含まれる物体と前記レンズの主点との距離の範囲に前記被写体から前記レンズの主点までの距離が含まれるか否かを特定する、
請求項1〜請求項4のいずれかに記載の画像生成装置。
The distance between the subject photographed by the light receiving sensor and the reference position is a distance from the subject to the principal point of the lens,
The subject specifying unit specifies a hyperfocal distance based on the aperture and focal length of the lens and a diameter of a predetermined allowable circle of confusion, and determines the hyperfocal distance, the focal length of the lens, and the subject distance. Based on whether the distance from the subject to the principal point of the lens is included in the range of the distance between the object included in the depth of field and the principal point of the lens,
The image generation apparatus according to claim 1.
レンズを通過した光を受光する受光センサーと、
前記受光センサーと同一の基板に設けられた測距センサーと、
前記受光センサーが受光した光量に応じて画像データを生成する画像生成部とを備える画像生成装置における画像表示方法であって、
前記受光センサーが撮影する被写体と基準位置との間の距離を前記測距センサーの出力に基づいて測定する距離測定工程と、
前記レンズの絞りと焦点距離と被写体距離とを含むレンズ情報を取得するレンズ情報取得工程と、
前記レンズ情報と、前記被写体と基準位置との間の距離とに基づいて被写界深度に含まれる前記被写体を特定する被写体特定工程と、
被写界深度に含まれる前記被写体を示す情報と前記画像データが示す画像とを表示部に表示させる表示制御工程と、
を含む画像生成方法。
A light receiving sensor that receives light passing through the lens;
A distance measuring sensor provided on the same substrate as the light receiving sensor;
An image display method in an image generation apparatus comprising an image generation unit that generates image data according to the amount of light received by the light receiving sensor,
A distance measuring step of measuring a distance between a subject photographed by the light receiving sensor and a reference position based on an output of the distance measuring sensor;
A lens information acquisition step of acquiring lens information including the lens aperture, focal length, and subject distance;
A subject specifying step of specifying the subject included in the depth of field based on the lens information and a distance between the subject and a reference position;
A display control step of displaying information indicating the subject included in the depth of field and an image indicated by the image data on a display unit;
An image generation method including:
JP2012051326A 2012-03-08 2012-03-08 Image generation device and image display method Withdrawn JP2013186293A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012051326A JP2013186293A (en) 2012-03-08 2012-03-08 Image generation device and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012051326A JP2013186293A (en) 2012-03-08 2012-03-08 Image generation device and image display method

Publications (1)

Publication Number Publication Date
JP2013186293A true JP2013186293A (en) 2013-09-19

Family

ID=49387768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012051326A Withdrawn JP2013186293A (en) 2012-03-08 2012-03-08 Image generation device and image display method

Country Status (1)

Country Link
JP (1) JP2013186293A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016203692A1 (en) * 2015-06-18 2016-12-22 ソニー株式会社 Display control apparatus, display control method, and display control program
KR20180026410A (en) * 2015-07-02 2018-03-12 퀄컴 인코포레이티드 Systems and methods for autofocus trigger
CN111990930A (en) * 2020-08-28 2020-11-27 北京石头世纪科技股份有限公司 Distance measuring method, device, robot and storage medium
CN113189603A (en) * 2021-04-27 2021-07-30 南昌虚拟现实研究院股份有限公司 Method and system for designing parameters of structured light depth camera

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05323447A (en) * 1992-05-20 1993-12-07 Kanto Auto Works Ltd Scale imprinting type autofocusing camera
JP2003078802A (en) * 2001-09-04 2003-03-14 Nippon Hoso Kyokai <Nhk> Imaging apparatus
JP2006074634A (en) * 2004-09-03 2006-03-16 Nippon Hoso Kyokai <Nhk> Imaging apparatus and method for displaying depth of field
JP2008145465A (en) * 2006-12-06 2008-06-26 Sigma Corp Method of adjusting depth of field and user interface for photographing apparatus
JP2008193514A (en) * 2007-02-06 2008-08-21 Casio Comput Co Ltd Imaging apparatus, and object tracking method and program thereof
JP2009015828A (en) * 2007-06-06 2009-01-22 Sony Corp Image processing device, image processing method, and image processing program
JP2011250133A (en) * 2010-05-27 2011-12-08 Canon Inc Imaging apparatus and control method of the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05323447A (en) * 1992-05-20 1993-12-07 Kanto Auto Works Ltd Scale imprinting type autofocusing camera
JP2003078802A (en) * 2001-09-04 2003-03-14 Nippon Hoso Kyokai <Nhk> Imaging apparatus
JP2006074634A (en) * 2004-09-03 2006-03-16 Nippon Hoso Kyokai <Nhk> Imaging apparatus and method for displaying depth of field
JP2008145465A (en) * 2006-12-06 2008-06-26 Sigma Corp Method of adjusting depth of field and user interface for photographing apparatus
JP2008193514A (en) * 2007-02-06 2008-08-21 Casio Comput Co Ltd Imaging apparatus, and object tracking method and program thereof
JP2009015828A (en) * 2007-06-06 2009-01-22 Sony Corp Image processing device, image processing method, and image processing program
JP2011250133A (en) * 2010-05-27 2011-12-08 Canon Inc Imaging apparatus and control method of the same

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016203692A1 (en) * 2015-06-18 2016-12-22 ソニー株式会社 Display control apparatus, display control method, and display control program
US10761294B2 (en) 2015-06-18 2020-09-01 Sony Corporation Display control device and display control method
US11500174B2 (en) 2015-06-18 2022-11-15 Sony Corporation Display control device and display control method
KR20180026410A (en) * 2015-07-02 2018-03-12 퀄컴 인코포레이티드 Systems and methods for autofocus trigger
JP2018525658A (en) * 2015-07-02 2018-09-06 クアルコム,インコーポレイテッド System and method for auto focus trigger
KR102299566B1 (en) 2015-07-02 2021-09-07 퀄컴 인코포레이티드 Systems and methods for autofocus trigger
CN111990930A (en) * 2020-08-28 2020-11-27 北京石头世纪科技股份有限公司 Distance measuring method, device, robot and storage medium
CN113189603A (en) * 2021-04-27 2021-07-30 南昌虚拟现实研究院股份有限公司 Method and system for designing parameters of structured light depth camera
CN113189603B (en) * 2021-04-27 2023-05-12 南昌虚拟现实研究院股份有限公司 Method and system for designing parameters of structured light depth camera

Similar Documents

Publication Publication Date Title
WO2018101092A1 (en) Imaging device and flicker determination method
JP5963552B2 (en) Imaging device
JP2013186293A (en) Image generation device and image display method
JP2015152749A (en) Imaging device and control method of the same
JP2009086030A (en) Imaging apparatus, method and program
JP2013205675A (en) Imaging apparatus
JP5217942B2 (en) Focus adjustment device and imaging device
JP5998820B2 (en) Imaging device, focus state display method, focus state display program
JP2013187883A (en) Imaging apparatus and imaging method
JP7071165B2 (en) Display control device and method, and image pickup device
JP5440585B2 (en) Digital camera
JP5423140B2 (en) Photometric device and imaging device
JP2015087494A (en) Imaging device
JP2010072559A (en) Imaging apparatus and object area extracting method
JP6149346B2 (en) Imaging device
JP6149345B2 (en) Image capturing apparatus and image quality adjustment method
JP2013186369A (en) Image display device and image display method
JP6005955B2 (en) Photometric device and imaging device
JP5968026B2 (en) Imaging apparatus and control method thereof
JP6299175B2 (en) camera
JP5927958B2 (en) Image generation apparatus and exposure start timing adjustment method
JP5938269B2 (en) Imaging apparatus and control method thereof
US10567662B2 (en) Imaging device and control method therefor using shift direction calculation
JP5927957B2 (en) Image generation apparatus and exposure start timing adjustment method
JP2016058983A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141119

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20150908