JP2013186293A - Image generation device and image display method - Google Patents
Image generation device and image display method Download PDFInfo
- Publication number
- JP2013186293A JP2013186293A JP2012051326A JP2012051326A JP2013186293A JP 2013186293 A JP2013186293 A JP 2013186293A JP 2012051326 A JP2012051326 A JP 2012051326A JP 2012051326 A JP2012051326 A JP 2012051326A JP 2013186293 A JP2013186293 A JP 2013186293A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- distance
- light receiving
- lens
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像生成装置および画像表示方法に関する。 The present invention relates to an image generation apparatus and an image display method.
従来、被写体を示す画像内で合焦領域を強調することにより、合焦している被写体を判別しやすくする技術が知られている。例えば、特許文献1には、被写体像の各領域のAF評価値を導出し、合焦領域と同レベルのAF評価値を持つ領域を合焦領域として強調する技術が開示されている。 2. Description of the Related Art Conventionally, a technique for facilitating discrimination of a focused subject by enhancing a focused region in an image showing the subject is known. For example, Patent Document 1 discloses a technique for deriving an AF evaluation value of each area of a subject image and emphasizing an area having an AF evaluation value at the same level as the in-focus area as the in-focus area.
従来の技術においては、被写界深度によってピントが厳密に合っていなくてもピントが合っているように撮影できるが、このようにピントが合っているように撮影できる(本願では、これを「被写界深度に含まれる」というように呼ぶこととする。)被写体を正確に特定することができなかった。特許文献1に開示された技術においてはAF評価値によって合焦領域を特定しており、AF評価値は一般に被写体の位相差やコントラストに基づいて特定される。従って、AF評価値は被写体が被写界深度内に存在することを直接的に示しているわけではなく、被写体が被写界深度内に存在する可能性の高低を間接的に評価しているに過ぎない。このため、被写体のコントラストが小さい場合などにおいてはAF評価値によって合焦度合いを正確に判定することができない。
本発明は上記課題にかんがみてなされたもので、被写界深度内の被写体を正確に示すことが可能な技術を提供することを目的とする。
In the conventional technology, even if the focus is not exactly in accordance with the depth of field, it can be photographed so that it is in focus, but in this way, it can be photographed so that it is in focus (in this application, this is referred to as “ "It is included in the depth of field.") The subject could not be specified accurately. In the technique disclosed in Patent Document 1, an in-focus area is specified by an AF evaluation value, and the AF evaluation value is generally specified based on a phase difference or contrast of a subject. Therefore, the AF evaluation value does not directly indicate that the subject exists within the depth of field, but indirectly evaluates the possibility that the subject exists within the depth of field. Only. For this reason, when the contrast of the subject is small, the degree of focus cannot be accurately determined by the AF evaluation value.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of accurately showing a subject within the depth of field.
本発明にかかる画像生成装置は、受光センサーが受光した光量に応じて画像データを生成する画像生成装置であり、受光センサーと同一の基板に設けられた測距センサーの出力に基づいて受光センサーが撮影する被写体と基準位置との間の距離を測定する。そして、画像生成装置は、レンズの絞りと焦点距離と被写体距離とを含むレンズ情報と、被写体と基準位置との間の距離とに基づいて被写界深度に含まれる被写体を特定し、当該被写界深度に含まれる被写体を示す情報を画像データが示す画像とともにを表示部に表示させる。 An image generating apparatus according to the present invention is an image generating apparatus that generates image data according to the amount of light received by a light receiving sensor, and the light receiving sensor is based on the output of a distance measuring sensor provided on the same substrate as the light receiving sensor. Measure the distance between the subject to be photographed and the reference position. Then, the image generation device identifies the subject included in the depth of field based on the lens information including the lens aperture, the focal length, and the subject distance, and the distance between the subject and the reference position. Information indicating the subject included in the depth of field is displayed on the display unit together with the image indicated by the image data.
すなわち、画像生成装置においては受光センサーと同一の基板に設けられた測距センサーによって被写体と基準位置との間の距離を測定し、被写界深度内の被写体を特定する。また、測距センサーが受光センサーと同一の基板に設けられている構成においては、レンズを通過した光を受光する受光センサーと同様に測距センサーにおいてもレンズを通過した光を受光することになる。従って、測距センサーにおいては、受光センサーに向かう光路とほぼ同様の光路を進む光に基づいて被写体と基準位置との間の距離を測定することができる。このため、画像生成装置においては被写体が被写界深度内に存在するか否かを正確に特定することが可能であり、表示部において被写界深度内の被写体を正確に示すことが可能である。 That is, in the image generation apparatus, the distance between the subject and the reference position is measured by a distance measuring sensor provided on the same substrate as the light receiving sensor, and the subject within the depth of field is specified. In the configuration in which the distance measuring sensor is provided on the same substrate as the light receiving sensor, the distance measuring sensor receives the light that has passed through the lens as well as the light receiving sensor that receives the light that has passed through the lens. . Therefore, the distance measuring sensor can measure the distance between the subject and the reference position based on the light traveling on the optical path that is substantially the same as the optical path toward the light receiving sensor. For this reason, in the image generation apparatus, it is possible to accurately specify whether or not the subject exists within the depth of field, and the display unit can accurately indicate the subject within the depth of field. is there.
ここで、受光センサーは1枚以上のレンズを通過した光を受光するセンサーであれば良く、例えば、受光量に応じた情報を出力する受光素子が2次元的に配置されたセンサーによって構成可能である。 Here, the light receiving sensor may be a sensor that receives light that has passed through one or more lenses. For example, the light receiving sensor can be configured by a sensor in which light receiving elements that output information according to the amount of received light are two-dimensionally arranged. is there.
測距センサーは、受光センサーが撮影する被写体と基準位置との間の距離を測距センサーの出力に基づいて測定することができればよい。基準位置は、被写体と画像生成装置内の一点との距離を測定する際の基準となればよく、受光センサーの受光面の光軸方向の位置や主点の位置等を基準位置とすることができればよい。被写体と基準位置との間の距離は、直接的に測定されてもよいし、間接的に測定されてもよい。例えば、被写体と受光センサーとの距離を測定可能な構成において、受光センサーの受光面を基準位置とすれば被写体と基準位置との間の距離を直接的に測定可能である。一方、被写体と受光センサーとの距離を測定可能な構成において、主点を基準位置とすれば測定値に対して主点と受光センサーとの距離を加えることで被写体と基準位置との間の距離を間接的に測定可能である。 The distance measuring sensor only needs to be able to measure the distance between the subject photographed by the light receiving sensor and the reference position based on the output of the distance measuring sensor. The reference position only needs to be a reference when measuring the distance between the subject and one point in the image generating apparatus, and the position of the light receiving surface of the light receiving sensor in the optical axis direction, the position of the principal point, or the like may be used as the reference position. I can do it. The distance between the subject and the reference position may be measured directly or indirectly. For example, in a configuration in which the distance between the subject and the light receiving sensor can be measured, the distance between the subject and the reference position can be directly measured if the light receiving surface of the light receiving sensor is used as the reference position. On the other hand, in a configuration that can measure the distance between the subject and the light receiving sensor, if the principal point is the reference position, the distance between the subject and the reference position is obtained by adding the distance between the principal point and the light receiving sensor to the measured value. Can be measured indirectly.
また、測距センサーは、被写界深度内に存在するか否かを示す対象となる被写体と基準位置との距離を特定することができればよく、画像データが示す画像内で被写界深度内に存在するか否かを特定すべき被写体が存在する部分において、当該被写体と基準位置との距離を特定することができればよい。従って、画像内の特定の場所に存在する被写体について被写界深度内に存在するか否かを判定するためには、測距センサーは受光センサーと同一の基板上において当該特定の場所に存在する被写体と基準位置との距離を測定できるように設けられていればよい。また、各部分について一個の測距センサーによって被写体と基準位置との距離を測定するのであれば、部分の数と同数の測距センサーを受光センサーに設ければよい。 In addition, the distance measuring sensor only needs to be able to specify the distance between the target subject indicating whether or not it exists within the depth of field and the reference position, and within the depth of field in the image indicated by the image data. It is only necessary to be able to specify the distance between the subject and the reference position in the portion where the subject to be identified is present. Therefore, in order to determine whether or not a subject existing at a specific location in the image exists within the depth of field, the distance measuring sensor is present at the specific location on the same substrate as the light receiving sensor. It is only necessary that the distance between the subject and the reference position can be measured. In addition, if the distance between the subject and the reference position is to be measured with one distance measuring sensor for each part, the same number of distance measuring sensors as the number of parts may be provided in the light receiving sensor.
画像生成部は、受光センサーの受光量に応じて画像データを生成することができればよい。すなわち、受光センサーに対して被写体からの光が照射された状態で所定の露光時間内に各受光素子で受光した受光量に基づいて被写体の画像を示す画像データを生成することができればよい。むろん、当該画像データの生成に伴って各種の画像処理を実行しても良い。 The image generation unit only needs to be able to generate image data according to the amount of light received by the light receiving sensor. That is, it is only necessary to generate image data indicating an image of a subject based on the amount of light received by each light receiving element within a predetermined exposure time in a state where light from the subject is irradiated to the light receiving sensor. Of course, various types of image processing may be executed as the image data is generated.
レンズ情報取得部は、レンズ情報を取得することができればよい。すなわち、被写界深度を算出するためのパラメータとなるレンズに関する情報を取得することができればよい。当該レンズ情報はレンズの絞りと焦点距離と被写体距離とを含む情報であり、画像生成装置における設定値に基づいてレンズ情報を特定する構成であってもよいし、交換式レンズが出力する情報に基づいてレンズ情報を特定する構成であってもよい。むろん、焦点距離や被写体距離と同等の距離を算出可能な情報であればよく、各種の表現を採用可能である。すなわち、焦点距離や被写体距離と実質的に同等な距離を利用する限り、本発明の範囲である。例えば、ピントが合っている物体と主点との距離を被写体距離としたとき、当該ピントが合っている物体と受光センサーとの距離である撮影距離は被写体距離に主点から受光センサーまでの距離を加えた値であるため、実質的に同一である。 The lens information acquisition unit only needs to acquire lens information. That is, it is only necessary to acquire information regarding the lens that is a parameter for calculating the depth of field. The lens information is information including a lens aperture, a focal length, and a subject distance. The lens information may be configured to identify lens information based on a setting value in the image generation apparatus, or may be information output from an interchangeable lens. The lens information may be specified based on the lens information. Of course, any information that can calculate a distance equivalent to the focal length or the subject distance may be used, and various expressions can be adopted. That is, as long as a distance substantially equivalent to the focal length and the subject distance is used, it is within the scope of the present invention. For example, when the distance between the focused object and the principal point is the subject distance, the shooting distance that is the distance between the focused object and the light receiving sensor is the distance from the principal point to the light receiving sensor. Since the value is obtained by adding
被写体特定部は、被写体と基準位置との間の距離およびレンズ情報に基づいて被写界深度に含まれる被写体を特定することができればよい。被写界深度は、その光学上の定義により、レンズの絞りと焦点距離と許容錯乱円の直径とによって特定可能な過焦点距離とレンズの焦点距離と被写体距離とを含むレンズ情報によって特定可能である。許容錯乱円の直径を予め決められた固定値とすれば、レンズ情報と、被写体と基準位置との間の距離とに基づいて当該被写体が被写界深度内に存在するか否かを特定可能である。 The subject specifying unit only needs to be able to specify the subject included in the depth of field based on the distance between the subject and the reference position and the lens information. The depth of field can be specified by lens information including the hyperfocal length, the focal length of the lens, and the subject distance that can be specified by the lens aperture, the focal length, and the diameter of the allowable circle of confusion, according to its optical definition. is there. If the diameter of the permissible circle of confusion is a predetermined fixed value, whether or not the subject exists within the depth of field can be specified based on the lens information and the distance between the subject and the reference position. It is.
表示制御部は、被写界深度に含まれる被写体を示す情報と画像データが示す画像とを表示部に表示させることができればよい。すなわち、被写体の画像とともに被写界深度に含まれる被写体を視認できるように表示部に情報を表示する。被写界深度に含まれる被写体を示す情報の位置は限定されないが、被写界深度に含まれる被写体を示す情報は当該被写体の像の位置に表示されることが好ましい。例えば、被写界深度に含まれる被写体を強調表示することで被写界深度に含まれる被写体を示す情報を表示する構成等を採用可能である。 The display control unit only needs to display information indicating the subject included in the depth of field and an image indicated by the image data on the display unit. That is, information is displayed on the display unit so that the subject included in the depth of field can be visually recognized together with the subject image. The position of the information indicating the subject included in the depth of field is not limited, but the information indicating the subject included in the depth of field is preferably displayed at the position of the image of the subject. For example, it is possible to employ a configuration in which information indicating the subject included in the depth of field is displayed by highlighting the subject included in the depth of field.
さらに、測距センサーは、受光センサーが撮影する被写体と基準位置との間の距離を測定するための情報を出力することができればよく、被写体からの光であってレンズを通過した光に基づいて当該距離を測定するセンサー等を採用可能である。より具体的には、電磁波出力部によって電磁波を出力するように構成し、当該電磁波出力部が電磁波を出力した後、電磁波が被写体に反射されて測距センサーで測定されるまでの時間に基づいて距離を測定する構成としてもよい。すなわち、電磁波が空間を進行する速度が既知であるとすれば、電磁波の出力後、測距センサーで測定されるまでの時間に基づいて全光路の距離を特定可能である。そこで、当該全光路の距離の1/2の距離に基づいて被写体と基準位置との間の距離を取得することができる。 Further, the distance measuring sensor only needs to be able to output information for measuring the distance between the subject photographed by the light receiving sensor and the reference position, and is based on the light from the subject that has passed through the lens. A sensor or the like that measures the distance can be used. More specifically, the electromagnetic wave output unit is configured to output an electromagnetic wave, and after the electromagnetic wave output unit outputs the electromagnetic wave, the electromagnetic wave is reflected by the subject and is measured by the distance measuring sensor. It is good also as a structure which measures distance. That is, if the speed at which the electromagnetic wave travels in the space is known, the distance of the entire optical path can be specified based on the time from the output of the electromagnetic wave to the measurement by the distance measuring sensor. Therefore, the distance between the subject and the reference position can be acquired based on a distance that is ½ of the total optical path distance.
なお、電磁波は、画像生成装置が備える電磁波出力部から出力可能であり、被写体によって反射され、測距センサーで検出可能であればよく、受光センサーによって受光する画像データを生成するための光と異なる波長域の電磁波であることが好ましい。このような電磁波としては、例えば、赤外線が挙げられる。 The electromagnetic wave may be output from the electromagnetic wave output unit included in the image generation device, may be reflected by the subject and can be detected by the distance measuring sensor, and is different from light for generating image data received by the light receiving sensor. An electromagnetic wave in the wavelength range is preferable. Examples of such electromagnetic waves include infrared rays.
さらに、測距センサーを受光センサーの各画素に設けてもよい。この構成によれば、受光センサーの画素のそれぞれで撮影される被写体の部分と基準位置との間の距離を測定することが可能である。この結果、画像データが示す画像に含まれる全ての被写体において、被写体が被写界深度内に存在するか否かを詳細に示すことが可能である。 Further, a distance measuring sensor may be provided in each pixel of the light receiving sensor. According to this configuration, it is possible to measure the distance between the portion of the subject photographed by each pixel of the light receiving sensor and the reference position. As a result, it is possible to show in detail whether or not the subject exists within the depth of field in all the subjects included in the image indicated by the image data.
さらに、測距センサーを受光センサーの受光面を分割した分割領域毎に設けてもよい。この構成によれば、分割領域内の受光センサーで撮影された被写体と基準位置との間の距離を測定することが可能である。この結果、各分割領域の受光センサーで撮影された被写体毎に被写体が被写界深度内に存在するか否かを示すことが可能である。 Furthermore, a distance measuring sensor may be provided for each divided area obtained by dividing the light receiving surface of the light receiving sensor. According to this configuration, it is possible to measure the distance between the subject photographed by the light receiving sensor in the divided area and the reference position. As a result, it is possible to indicate whether or not the subject exists within the depth of field for each subject photographed by the light receiving sensor in each divided region.
さらに、本発明のように、受光センサーと同一の基板に設けられた測距センサーによって測定された、受光センサーが撮影する被写体と基準位置との間の距離に基づいて被写界深度に含まれる被写体を特定し、表示する手法は、プログラムや方法としても適用可能である。また、以上のような装置、プログラム、方法は、単独の装置として実現される場合もあれば、複合的な機能を有する装置において共有の部品を利用して実現される場合もあり、各種の態様を含むものである。 Further, as in the present invention, the depth of field is included based on the distance between the subject photographed by the light receiving sensor and the reference position, which is measured by the distance measuring sensor provided on the same substrate as the light receiving sensor. The method for specifying and displaying the subject can also be applied as a program or method. In addition, the apparatus, program, and method as described above may be realized as a single apparatus, or may be realized using a shared component in an apparatus having multiple functions. Is included.
ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)画像生成装置の構成:
(2)撮影処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of image generation apparatus:
(2) Shooting process:
(3) Other embodiments:
(1)画像生成装置の構成:
図1は本発明の一実施形態にかかる画像生成装置を含む撮影装置1を示しており、当該撮影装置1には、光学系10、撮像ユニット14、記憶部15、表示部20、記録部30、操作部40、絞り調整部45、シャッター制御部50、撮像ユニット制御部60、CPU70、画像生成部80、電磁波出力部90が備えられている。CPU70は、所定のプログラムに従って、絞り調整部45、シャッター制御部50、撮像ユニット制御部60、記憶部15、画像生成部80、電磁波出力部90、表示部20、記録部30、操作部40の動作を制御する。
(1) Configuration of image generation apparatus:
FIG. 1 shows an imaging apparatus 1 including an image generation apparatus according to an embodiment of the present invention. The imaging apparatus 1 includes an
操作部40はシャッターボタンと、撮影モードを切り換えるための操作部と、絞りを切り替えるための操作部と、シャッター速度を切り換えるための操作部と、各種の設定メニューを操作するための操作部とを備えており、利用者は当該操作部40に対する操作によって撮影装置1に対して各種の指示を与えることができる。なお、本実施形態においてシャッターボタンのストローク量は2段階で検出可能である。すなわち、シャッターボタンが半押しされた状態と全押しされた状態とを区別して検出可能である。また、本実施形態においてシャッターボタンが半押しされた場合にはライブビュー表示を継続しながらピント調整を行う指示が行われたと見なされ、シャッターボタンが全押しされた場合には記録媒体に画像を記録する指示が行われたと見なされる。
The
表示部20は、図示しないインターフェース回路、液晶パネルドライバー、液晶パネル、図示しない接眼レンズ等を備えている。本実施形態において、表示部20は、撮影対象となる被写体を示す画像を表示して利用者に撮影前の被写体の様子および撮影条件等の情報を把握させるEVF(Electronic View Finder)であり、本実施形態にかかる撮影装置1はEVFを備えたミラーレスデジタルカメラである。
The
記録部30は、図示しない記録媒体を挿入することが可能であり、記録部30に記録媒体が挿入された状態で、記録媒体に対して情報を記録し、また、記録媒体から情報を読み出すことができる。すなわち、撮影した画像を示す画像データを記録媒体に記録することができる。
The
光学系10は、受光センサーに被写体画像を結像させるレンズ11、絞り12、シャッター13を備えている。本実施形態においてレンズ11と絞り12とは鏡筒内に備えられており、当該鏡筒は図示しない筐体に交換可能に取り付けられる。本実施形態において、レンズ11は光軸に平行な方向に沿って並べられた複数枚のレンズを含むが、図1では簡便のために1枚のレンズのみを表現している。各レンズは外縁部で支持されるとともに、鏡筒に備えられたピントリングをユーザーが操作すること又は撮影装置1からのピント調整指示によって光軸方向に1部又は全部のレンズを移動可能とすることでピントの位置を調整可能である。また、鏡筒に備えられたズームリングをユーザーが操作すること又は撮影装置1からのズーム調整指示によって光軸方向に1部又は全部のレンズを移動可能とすることで光学的なズーム動作を行うことが可能である。すなわち、本例は、撮影装置1にマニュアルフォーカスレンズが取り付けられた状態である。なお、本実施形態におけるマニュアルフォーカスレンズはCPU70と通信を行うことで、焦点距離と被写体距離とを示す情報を出力可能である。ここで、被写体距離はレンズ11によってピントが合っている被写体と主点の撮影面との距離であり、ピントリングの回転角度に応じた値が出力される。従って、CPU70は、任意のタイミングでピントリングによって操作された後のレンズ11の状態に対応した被写体距離を焦点距離とともに特定可能である。また、光学系の構成は他の構成を採用しても良く、例えば、レンズを液体レンズによって構成し、レンズを変形させることでピントの位置を調整し、また、光学的なズーム動作を行う構成としてもよい。
The
絞り12は、レンズ11の光軸に対して垂直な平面内で回動可能に支持された複数の遮蔽板によって構成され、複数の遮蔽板が連動して回動することによって光軸に対して垂直な平面内で遮蔽されていない部分の面積を変化させることが可能である。絞り12の開口径は絞り調整部45によって制御されるように構成されており、当該絞り調整部45が絞り12の開口径を指示されると、絞り調整部45が絞り12を駆動させて当該指示された開口径となるように設定する。
The
本実施形態においてシャッター13は機械式のフォーカルプレーン型シャッターであり、受光センサーの受光面に対して平行な平面板状の遮光部としての開閉式(折り畳み式)の複数の遮光幕を備えている。この遮光幕はシャッター制御部50からの制御信号に応じて光軸に対して垂直な方向に移動するように構成されており、通常は遮光幕が光軸に平行な方向の光路を遮らない状態で保持されている。また、遮光幕が光路を遮らない状態で保持されている状態において、所定のトリガが与えられると当該遮光幕が光路を遮らない状態で保持された状態が解除され、遮光幕は光軸に対して垂直な方向に駆動して複数の羽根が光路を遮る状態となる。なお、図1においては、シャッター13の移動方向を破線の矢印Amで示している。
In this embodiment, the
撮像ユニット14は、RGBのカラーフィルターと光量に応じた電荷を光電変換によって画素ごとに蓄積する受光素子とを備えるRGB各色の受光センサーと、測距センサーとを備えている。本実施形態において、受光センサーと測距センサーとは画素毎に備えられている。撮像ユニット14において受光センサーと測距センサーとが形成された受光面は矩形の領域であり、図2Aの左側には、撮像ユニット14の受光面(レンズ11側に向けられた面)を見た場合に視認される矩形の領域を模式的に示している。
The
図2Aの右側には、撮像ユニット14に形成された受光センサーと測距センサーとを拡大して示している。当該拡大においては矩形によって受光センサーと測距センサーとを示しており、図2Aに例示するように、撮像ユニット14は受光面においてRGB各色の受光センサー14a,14b,14cと測距センサー14dとを複数個備えており、RGB各色に対応する受光センサーと1個の測距センサーによって1画素を構成している。なお、図2Aの拡大図においては、1個の画素を太線の矩形で囲んで示している。受光センサー14a,14b,14cは、被写体から受けた光の強度をRGBのそれぞれについて示す情報を出力するセンサーであり、これらの受光センサー14a,14b,14cの出力に基づいて被写体の画像を示す画像データが生成される。生成された画像データは記憶部15に記憶される。
The right side of FIG. 2A shows an enlarged view of the light receiving sensor and the distance measuring sensor formed in the
なお、記憶部15は、受光センサー14a,14b,14cが出力する画像データ(受光素子毎の受光量を示す情報)を一時的に記録しておくメモリである。また、本実施形態における受光センサーはCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーであるが、むろん、受光センサーはCCD(Charge Coupled Device)イメージセンサー等の他のセンサーであってもよい。
The
本実施形態にかかる受光センサー14a,14b,14cは、撮像ユニット制御部60がリセット指示を行うことによって受光素子の受光量に対応した蓄積電荷をリセットするリセット動作を行い、各受光素子での露光を開始することができる。また、受光センサー14a,14b,14cは、撮像ユニット制御部60が読出指示を行うことによって受光素子の受光量を示す情報の読出を行うことで露光を終了させることができる。さらに、受光センサー14a,14b,14cにおいて、これらの露光の開始および終了はライン毎あるいは一画面毎に制御することが可能である。
The
本実施形態にかかる撮影装置1によって記録用の画像を撮影する際(通常の撮影)には、機械シャッターであるシャッター13と受光センサー14a,14b,14cの電子シャッターとの組み合わせによって露光時間を制御する。すなわち、本実施形態において通常の撮影の場合には、受光センサー14a,14b,14cにおける電子シャッターで露光を開始させ、シャッター13で露光を終了させる電子先幕−機械後幕シャッター方式によって露光時間が制御される。具体的には、通常の撮影の場合、電子シャッターによりライン順次で露光が開始され、ライン毎の露光時間が、設定されたシャッター速度となるタイミングで各ラインが遮光されるように機械シャッターによる遮光が開始される。また、撮影装置1においては表示部20においてライブビュー表示を行うことが可能であり、当該ライブビュー表示を行うための画像を撮影する際には、電子シャッター方式によって露光時間が制御される。すなわち、先幕も後幕も電子シャッターによって制御される。
When a recording image is captured by the imaging apparatus 1 according to the present embodiment (normal imaging), the exposure time is controlled by a combination of the
測距センサー14dは、被写体で反射された赤外線を受けて被写体と受光センサー14a,14b,14cとの距離を示す情報を出力するセンサーである。すなわち、撮影装置1が備える電磁波出力部90は、光学系10の視野方向に向けた広い範囲に赤外線(図1において一点鎖線で示すIr)を出力する装置であり、赤外線の出力口は、撮像ユニット14の受光面の延長線上に存在する。電磁波出力部90から周期的に出力された赤外線が被写体で反射されて測距センサー14dに到達すると、測距センサー14dは赤外線が到達したことを示す情報を撮像ユニット制御部60に対して出力する。撮像ユニット制御部60は、さらに、当該赤外線が到達したことを示す情報をCPU70に受け渡す。測距センサー14dと受光センサー14a,14b,14cとは同一基板上に形成されており、受光面に露出する部分が同一面となるように測距センサー14dと受光センサー14a,14b,14cとが形成されている。従って、本実施形態において、被写体から測距センサー14dまでの距離と被写体から受光センサー14a,14b,14cまでの距離とは同一距離と見なしている。
The
そこで、CPU70は、電磁波出力部90に対して赤外線を出力させる制御信号を出力するとともに、赤外線の出力後の経過時間を計測する。測距センサー14dによって赤外線が到達したことが検出されると、当該検出されたことを示す情報が撮像ユニット制御部60によってCPU70に出力される。そこで、CPU70は、電磁波出力部90から赤外線が出力された後、当該赤外線が被写体に反射されて測距センサー14dで測定されるまでの時間と赤外線が進行する速度とに基づいて被写体から受光センサー14a,14b,14cまでの距離を特定する。
Therefore, the
画像生成部80は、受光センサー14a,14b,14cが出力する画像データに対して予め決められた手順によって各種の処理を実行する回路によって構成されている。具体的には、画像生成部80は、CPU70の処理によって記憶部15に記憶された画像データを取得し、当該画像データが示す画像データに対してγ変換等の所定の画像処理を行って表示用の画像および記録用の画像を示すデータを生成する機能を備えている。表示用の画像を示すデータは表示部20に受け渡され、撮影された画像が表示部20に表示される。記録用の画像を示すデータは記録部30に受け渡され、記録部30に挿入された記録媒体に当該データが記録される。
The
画像生成部80が実行する画像処理には、AE(Automatic Exposure)処理を行うための評価値を出力する処理が含まれる。すなわち、画像生成部80は、受光センサー14a,14b,14cによる撮影範囲内に設定された所定の測光エリアに含まれる画素の明るさを評価するための評価値(例えば、輝度の平均値等)を特定し、AE処理を行うための評価値として出力することが可能である。
The image processing executed by the
CPU70は、AE処理を行うための評価値に基づいて絞り調整部45、シャッター制御部50、撮像ユニット制御部60に制御信号を出力し、適正露出となるように絞り12の開口径およびシャッター速度を調整する。すなわち、CPU70は、操作部40における指示やデフォルト設定に基づいて画像データを撮影する際の撮影条件を特定し、当該撮影条件通りに各部を設定する機能を備えている。具体的には、CPU70が上述のAE処理を行うための評価値に基づいて適正露出となるために必要な撮影条件を特定し、当該撮影条件通りに絞り12およびシャッター速度が設定されるように、絞り調整部45、シャッター制御部50、撮像ユニット制御部60に対して制御信号を出力する。なお、適正露出となるための必要な撮影条件は、各種の前提条件(例えば、絞り優先、シャッター速度優先等)において特定可能である。
The
ここで、シャッター速度は受光センサー14a,14b,14cに光が当たっている時間を示しており、CPU70は、受光センサー14a,14b,14cの各ラインが当該シャッター速度に相当する時間だけ露光されているように受光センサー14a,14b,14cにおける露光開始タイミングを調整する。
Here, the shutter speed indicates the time during which the
本実施形態においては、マニュアルフォーカスレンズによって利用者自身がピントの位置を調整することができる。利用者自身が合焦対象として選択した被写体に合焦した状態とするためには、当該利用者自身が合焦対象として選択した被写体が被写界深度内に存在するようにピントリングが調整される必要がある。一般的な撮影装置においては、利用者自身の目によって被写体のエッジが適正な状態となるようにピントリングを操作することによってピントの位置が調整される。しかし、任意の被写体において表示部20を視認することによってエッジが適正な状態となっているか否かを判断することは一般に難しい。
In the present embodiment, the user can adjust the focus position by the manual focus lens. In order to focus on the subject selected by the user himself / herself as the focus target, the focus ring is adjusted so that the subject selected by the user himself / herself as the focus target exists within the depth of field. It is necessary to In a general photographing apparatus, the focus position is adjusted by operating the focus ring so that the edge of the subject is in an appropriate state by the user's own eyes. However, it is generally difficult to determine whether or not the edge is in an appropriate state by viewing the
そこで、本実施形態においてCPU70は、記録用の画像データが撮影される前にEVFで被写体が視認されている状態(ライブビュー表示を行っている状態)において、被写界深度内に存在する被写体を強調するための処理を行う。すなわち、本実施形態においてCPU70は、電磁波出力部90に対して赤外線を出力させる制御信号を出力するとともに、赤外線出力後の経過時間を計測することで、赤外線出力後、測距センサー14dによって赤外線が検出されるまでの時間を特定し、赤外線の速度によって被写体から受光センサー14a,14b,14cまでの距離を画素毎に特定する。この状態においては、各画素の受光センサー14a,14b,14cで撮影される被写体から受光センサー14a,14b,14cまでの距離が特定された状態となる。
Therefore, in the present embodiment, the
また、CPU70は、レンズ11の状態および撮影時に設定される絞り12の状態に応じてピントが合っているように撮影できる距離(被写体距離及び被写界深度でもよい)を特定し、画素毎の被写体毎に被写体が被写界深度に含まれるか否かを判定する。なお、被写界深度は、レンズ11の状態に対応した焦点距離と絞り12の開口径に対応したF値と予め特定された許容錯乱円の直径の値に基づいて特定される過焦点距離を利用して算出される。すなわち、CPU70は、当該過焦点距離と、焦点距離と、被写体距離とに基づいて被写界深度の前端と後端とを特定し、当該前端と後端との間の範囲が、被写界深度に含まれる物体と主点との距離の範囲であると見なす。そして、CPU70は、被写体から受光センサー14a,14b,14cまでの距離が、当該前端と後端との間に存在する場合に、当該被写体が被写界深度に含まれると判定する。当該被写界深度に関する計算は後に詳述する。当該判定は画素毎に行われ、被写界深度に含まれると判定された被写体を撮像した画素の画像データに対して、CPU70は当該被写体を強調する処理(例えば、2値化や縁取り)を行う。
Further, the
そして、CPU70は、当該被写体を強調する処理が行われた画像データを表示部20に出力し、当該画像データに基づいて表示部20に被写体を表示させる。この結果、被写界深度に含まれる被写体が強調された状態で光学系10の視野内の被写体が表示部20に表示される。利用者は、表示部20を視認することにより被写界深度内にある被写体を特定することができるため、自身が合焦させたいと望む被写体が表示部20にて強調されるまでピントリングを調整することにより、容易に当該被写体が被写界深度内に存在するようにピントの位置を調整することができる。
Then, the
利用者が記録用の画像データの撮影を指示すると、CPU70は、絞り調整部45に制御信号を出力して絞り12の開口径を撮影のための大きさに設定し、撮像ユニット制御部60に制御信号を出力して受光センサー14a,14b,14cのライン毎に露光を開始させ、設定通りのシャッター速度に相当する時間だけ露光するようなタイミングでシャッター制御部50に制御信号を出力して機械シャッターにより露光を終了させる。この結果、被写体の画像を示す画像データが記憶部15に出力され、CPU70は、当該画像データを記録部30に受け渡し、図示しない記録媒体に当該画像データを記録させる。
When the user gives an instruction to shoot image data for recording, the
以上の構成においては、受光センサー14a,14b,14cと同一の基板に設けられた測距センサー14dによって被写体と受光センサー14a,14b,14cとの間の距離を画素毎に測定し、被写体が被写界深度内に存在するか否かを画素毎に特定する。また、レンズ11を通過した光を受光する受光センサー14a,14b,14cと同様に測距センサー14dにおいてもレンズ11を通過した光を受光する。従って、測距センサー14dにおいては、受光センサー14a,14b,14cに向かう光路とほぼ同様の光路を進む光に基づいて被写体と受光センサー14a,14b,14cとの間の距離を測定することができる。このため、測距センサーを全く別の場所に設ける場合と比べて、撮影装置1においてはどの被写体が被写界深度内に存在するか否かをより正確に特定することが可能であり、表示部20において被写界深度内の被写体をより正確に示すことが可能である。
In the above configuration, the distance between the subject and the
(2)撮影処理:
次に、実例とともに本実施形態における撮影処理を詳細に説明する。図3は撮影処理のフローチャートである。CPU70は、通常、表示部20におけるライブビュー表示を行うための処理を実行している。ここでは、絞り優先モードによって撮影処理を行う場合の例を説明する。また、本実施形態においては、シャッターボタンを半押しすることによってAE処理と被写界深度に含まれる被写体を表示部20に表示する処理を実行する指示を行うように構成されている。このため、まず、CPU70は、シャッターボタンが半押しされたか否かを判定し、半押しされたと判定されるまで待機する(ステップS100)。本例のように絞り優先モードで撮影モードを開始する場合、CPU70は、次に、利用者によって設定された絞り12の設定値に応じた開口径となるように絞り12を調整する(ステップS105)。すなわち、利用者は操作部40によって予め絞り12のF値を設定する。CPU70は設定通りのF値に絞り12を調整させるための制御信号を調整部45に出力し、絞り調整部45は当該絞り12のF値に応じた開口径になるように絞り12を制御する。
(2) Shooting process:
Next, a photographing process in the present embodiment will be described in detail with an example. FIG. 3 is a flowchart of the photographing process. The
絞り12の開口径が利用者によって設定された設定値となるように制御されると、次にAE処理が実行される。すなわち、CPU70は、絞り12の開口径が利用者によって設定された設定値となった状態において画像生成部80は、受光センサーの撮影範囲内に予め設定された測光エリアの画素の明るさを評価するための評価値を特定し、CPU70に対してAE処理を行うための評価値として出力する(ステップS110)。なお、この段階におけるシャッター速度はデフォルト値(あるいは、前回の撮影の際の設定値)である。
When the aperture diameter of the
次に、CPU70は、AE処理を行うための評価値に基づいて適正露出となるようにシャッター速度を調整する(ステップS115)。すなわち、CPU70は、AE処理を行うための評価値と予め決められた適正露出範囲とを比較し、AE処理を行うための評価値が適正露出範囲内に入るために必要なシャッター速度を特定する。そして、CPU70は、当該シャッター速度を示す制御信号を撮像ユニット制御部60に対して出力する。この結果、撮像ユニット制御部60が受光センサーにおける電子シャッターのシャッター速度を、AE処理を行うための評価値が適正露出範囲内に入るために必要なシャッター速度となるように調整する。
Next, the
以上のようなAE処理により、撮影される画像の露出が適正露出となった状態においてCPU70は、画像生成部80が生成する画像データを表示部20受け渡し、表示部20においてライブビュー表示を継続する。このようなライブビュー表示が行われた状態において、利用者がピントリングを調整することでピントの位置を調整することが可能であるが、表示部20において単に被写体の画像を表示するのみの状態では適正なピントの位置を判定することが困難になる場合も多いため、ここで、CPU70はピントの位置を明示するための処理を行う。
With the AE process as described above, the
すなわち、CPU70は、被写体と受光センサーとの距離Lを画素毎に取得する(ステップS120)。すなわち、CPU70は、電磁波出力部90に対して赤外線を出力させる制御信号を出力して、電磁波出力部90から光学系10の視野方向に赤外線を出力させる。また、CPU70は、これと同時に電磁波出力部90から赤外線が出力された後の経過時間の計測を開始する。なお、本実施形態における電磁波出力部90は、光学系10の視野内の被写体に赤外線が到達するように予め決められた広い範囲に赤外線を出力することが可能である。図2Bは、電磁波出力部90と撮像ユニット14と被写体Oとの位置関係を模式的に示しており、赤外線の出力範囲Rirを一点鎖線によって模式的に示している。
That is, the
さらに、CPU70は、測距センサー14dから赤外線を検出したことを示す情報が出力され、撮像ユニット制御部60から当該情報が受け渡されると、赤外線出力後、測距センサー14dによって赤外線が検出されるまでの時間と赤外線の速度(=光速)との積によって、赤外線が出力された後、測距センサー14dに到達するまでの全光路の距離を特定する。電磁波出力部90から出力された赤外線は、被写体Oによって反射されて光学系10を介して撮像ユニット14に到達するが、電磁波出力部90と撮像ユニット14との距離は、通常は被写体と撮像ユニット14との距離と比較して極めて短いため、本実施例では、被写体Oから撮像ユニット14に到達する光の光路は、水平方向にほぼ平行であると見なしている。また、電磁波出力部90における赤外線の出力口は撮像ユニット14の受光面の延長線上にある。従って、電磁波出力90から出力された赤外線が被写体Oに到達するまでの光路と、被写体Oで反射された赤外線が受光センサーに到達するまでの光路とはほぼ等しい。
Further, the
そこで、CPU70は、上述のようにして特定した全光路の1/2を被写体から受光センサー14a,14b,14cまでの距離Lとして特定する。当該処理は、測距センサー14dによって赤外線が到達したことが検出された全ての画素について行われる。
Therefore, the
次に、CPU70は、レンズ情報を取得する(ステップS125)。すなわち、CPU70は、マニュアルフォーカスレンズと通信を行ってピントリングの回転角度に対応したピントが合っている被写体と主点との距離である被写体距離sを示す情報と、ズームリングの回転角度に対応したレンズの焦点距離fを示す情報とを取得する。また、CPU70は、操作部40を通じてユーザーによって設定された絞り12のF値を示す情報を取得する。
Next, the
次に、CPU70は、被写界深度を特定する(ステップS130)。すなわち、被写界深度の前端DNと後端DFとを特定することによって被写界深度を特定する。なお、図2Bにおいては、被写界深度の前端DNおよび後端DFと受光センサーとの位置関係を図示している。すなわち、本例において、前端DNはピントが合っている範囲の最も撮影装置1側の点と主点との距離であり、後端DFはピントが合っている範囲の最も撮影装置1から遠い側の点と主点との距離である。
Next, the
被写界深度を特定するため、CPU70は、まず以下の式に基づいて過焦点距離Hを特定する。
H=f2/Nc
ここで、fはレンズ11の焦点距離、Nは絞り12のF値、cは予め決められた許容錯乱円の直径である。なお、許容錯乱円の直径は、受光センサーの大きさやユーザーの指定に応じて決定すればよい。例えば、受光センサーの大きさが22.5mm×15.0mmであれば0.019mm、受光センサーの大きさが36mm×24mmであれば0.026mmなどの値を許容錯乱円の直径とすることができる。
次に、CPU70は、過焦点距離H、焦点距離f、被写体距離sに基づいて以下の式によって被写界深度の前端DNおよび後端DFを特定する。
DN=sH/(H+s−f)
DF=sH/(H+f−s)
In order to specify the depth of field, the
H = f 2 / Nc
Here, f is the focal length of the
Next, the
D N = sH / (H + s−f)
D F = sH / (H + fs)
次に、CPU70は、被写界深度に含まれる被写体を特定する(ステップS135)。すなわち、CPU70は各画素で撮影される被写体と受光センサー14a,14b,14cとの距離Lから、レンズ11における主点と受光センサー14a,14b,14cとの距離を減じることにより、被写体から主点までの距離Lsを取得する。そして、CPU70は、前端DNと後端DFとに基づいて、Ls>DNであるとともにLs<DFであるか否かを判定し、Ls>DNであるとともにLs<DFであると判定された場合、当該画素で撮影された被写体は被写界深度に含まれると判定する。例えば、図2Bに示すように、被写界深度の前端DNと後端DFとの間に距離Lsが存在するような画素で撮影された被写体は被写界深度に含まれると判定される。
Next, the
次に、CPU70は、被写界深度に含まれる被写体を示す情報を画像に重畳して表示する(ステップS140)。すなわち、CPU70は、ステップS135において、被写界深度に含まれると判定された被写体を撮影した画素の画像データを強調する処理を行うことで、被写界深度に含まれる被写体を示す情報が重畳された画像データを生成する。そして、CPU70は、当該生成された画像データを表示部20に受け渡す。この結果、表示部20においては、被写界深度に含まれる被写体が強調された画像を表示する。以上の処理は、シャッターボタンが半押しされている間、表示部20における画像の更新が行われる度に繰り返し実行される。この結果、撮影装置1においてライブビュー表示中にシャッターボタンを半押しすることで、被写界深度に含まれる被写体を強調した画像が表示部20にライブビュー表示されることになる。
Next, the
従って、利用者は、表示部20を視認することによって、利用者自身が合焦させることを望む被写体が強調されている場合に当該被写体が合焦しており、強調されていない場合に当該被写体が合焦していないと判断することができる。すなわち、利用者は、表示部20を視認することによって、被写体の合焦状態に基づいて記録用の画像を撮影するか、ピント調整を継続するかを判断することができる。
Therefore, the user visually recognizes the
本実施形態においては、シャッターボタンを全押しすることによって記録用の画像を撮影する指示を行うように構成されているため、CPU70は、操作部40におけるシャッターボタンの半押しが解除され、あるいは、全押しされたか否かを判定する(ステップS145)。ステップS145にて、シャッターボタンの半押しが解除されたと判定された場合、ステップS100以降の処理を繰り返す。すなわち、画像の強調をキャンセルして表示部20におけるライブビュー表示を継続させる。
In the present embodiment, the
一方、ステップS145において、シャッターボタンが全押しされたと判定された場合、CPU70は、記録用の画像を撮影して記録媒体に記録する(ステップS150)。すなわち、CPU70は、ピントの位置と、ステップS100にて設定された絞り12の開口径とが維持された状態で、撮像ユニット制御部60に制御信号を出力して受光センサーの露光をライン順次に開始させる。さらに、CPU70は、シャッター制御部50に制御信号を出力し、受光センサーの各ラインの露光時間がステップS110にて設定されたシャッター速度に対応した時間となるようなタイミングでシャッター13の駆動を開始させる。この結果、受光センサーから画像データが出力されて記憶部15に記憶されるので、CPU70は、当該画像データを記録部30に転送し、図示しない記録媒体に記録させる。そして、撮影が終了すると次の撮影に向けてS100に戻る。
On the other hand, if it is determined in step S145 that the shutter button has been fully pressed, the
(3)他の実施形態:
以上の実施形態は本発明を実施するための一例であり、受光センサーと同一の基板に設けられた測距センサーによって測定された、受光センサーが撮影する被写体と基準位置との間の距離に基づいて被写界深度に含まれる被写体を特定し、表示する限りにおいて、下記の変形例を適宜組み合わせでも良いし、その他にも種々の実施形態を採用可能である。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention, and is based on a distance between a subject photographed by the light receiving sensor and a reference position measured by a distance measuring sensor provided on the same substrate as the light receiving sensor. As long as the subject included in the depth of field is specified and displayed, the following modifications may be combined as appropriate, and various other embodiments may be employed.
例えば、上述の実施形態において表示部20は液晶パネルを用いたEVFであったが、表示部20はEVF以外の表示部、例えば、撮影装置1の背面に取り付けられる液晶パネルを用いた表示部であっても良いし、液晶パネル以外の方式を用いたものであっても良い。また、撮影装置1はミラーを備えた一眼レフカメラでも良く、さらにムービーカメラであっても良いし、撮影機能を備えた携帯電話等の装置であっても良い。さらに、上述の受光センサー14a,14b,14cの配列は、図2Bに示す配列以外の配列であってもよい。また、3CCD方式や3層式センサーを利用した画像生成装置に本発明を適用しても良い。
For example, in the above-described embodiment, the
さらに、上述の実施形態においては、マニュアルフォーカスレンズを利用していたが、撮影装置1にオートフォーカスレンズを取り付け、測距センサーの出力に基づいて被写体と基準位置との間の距離を特定し、当該距離とレンズ情報とに基づいて合焦対象の被写体が被写界深度に含まれるか否かを判定し、合焦対象の被写体が被写界深度に含まれるまでレンズの位置を自動で移動させる構成としてもよい。 Furthermore, in the above-described embodiment, the manual focus lens is used. However, the auto focus lens is attached to the photographing apparatus 1, the distance between the subject and the reference position is specified based on the output of the distance measuring sensor, Based on the distance and lens information, it is determined whether or not the subject to be focused is included in the depth of field, and the lens position is automatically moved until the subject to be focused is included in the depth of field. A configuration may be adopted.
さらに、測距センサーを画素毎ではなくN個の画素に1個の割合で測距センサーを設ける構成としてもよい。例えば、受光センサーが形成される基板と同一の基板上において、受光センサーの受光面を分割した分割領域毎に測距センサーを設け、各分割領域の受光センサーで撮影される被写体と受光センサーとの距離を、各分割領域の測距センサーで測定する構成としてもよい。この構成によれば、測距センサーの数を抑制することができる。 Further, the distance measuring sensor may be provided at a rate of one for every N pixels instead of every pixel. For example, a distance measuring sensor is provided for each divided region obtained by dividing the light receiving surface of the light receiving sensor on the same substrate as the substrate on which the light receiving sensor is formed. The distance may be measured by a distance measuring sensor in each divided area. According to this configuration, the number of distance measuring sensors can be suppressed.
さらに、受光センサーの受光面全域に均等に測距センサーを配置するのではなく、特定の領域に測距センサーを設け、他の領域には測距センサーを設けない構成としてもよい。特定の領域としては、受光面の中央や中央周辺の複数カ所など、フォーカス領域として予め決められた領域が挙げられる。
また、受光センサー14a,14b,14cのそれぞれを画素とし、複数の測距センサー14dが測定した距離に基づいて補間等の演算を行って、被写体から各受光センサーまでの距離を決定してもよい。
また、電磁波出力部90と撮像ユニット14との距離も計算に入れて被写体から各画素までの距離を決定してもよい。
また、上述の実施形態においては、赤外線を用いて距離の測定を行ったが、このほかの波長の電磁波を用いるなど、他の方式で距離の測定を行ってもよい。
また、被写体と受光センサーとの距離を画素毎に取得する処理(ステップS120)と、レンズ情報を取得し被写界深度を特定する処理(ステップS125とステップS130)とは、順番が逆でもよいし、並行処理をしてもよい。
また、測距センサー14dの出力に基づいて計算する距離は、被写体と受光センサーとの間の距離に限られず、被写体とレンズの取り付け位置との間の距離や、被写体と表示部20までの距離など他の距離でもよく、これらの距離を表示部20にS140での表示と切り替えて表示してもよい。表示方法は、表示部の中心に表示している被写体までの距離を数字で表示してもよいし、距離に応じた色を各被写体に付けて表示してもよい。
絞り12のF値の情報は、レンズから現在のF値を示す情報を取得してもよいし、ユーザーが設定した値をメモリから取得してもよいし、AE処理で絞りを決定する場合には、AE処理で決定した値をメモリから取得してもよい。
さらに、前端DNおよび後端DFを記述するための式は、上述の式の他、各種の近似等を用いて変形した結果得られる式を利用可能であるし、被写体距離と実質的に同一なパラメータ、例えば、撮影距離を利用して前端DNおよび後端DFを記述してもよい。すなわち、
前端DN=(過焦点距離×撮影距離)/(過焦点距離+撮影距離)
後端DF=(過焦点距離×撮影距離)/(過焦点距離−撮影距離)
として前端DNおよび後端DFを特定する構成を採用してもよい。
Further, the distance measuring sensors may not be arranged uniformly over the entire light receiving surface of the light receiving sensor, but the distance measuring sensor may be provided in a specific area and the distance measuring sensor may not be provided in other areas. Examples of the specific area include areas predetermined as the focus area, such as the center of the light receiving surface and a plurality of locations around the center.
Alternatively, each of the
Further, the distance from the subject to each pixel may be determined by taking into account the distance between the electromagnetic
In the above-described embodiment, the distance is measured using infrared rays. However, the distance may be measured by other methods such as using electromagnetic waves of other wavelengths.
In addition, the process of acquiring the distance between the subject and the light receiving sensor for each pixel (step S120) and the process of acquiring lens information and specifying the depth of field (step S125 and step S130) may be reversed in order. However, parallel processing may be performed.
The distance calculated based on the output of the
As information on the F value of the
Further, as the equations for describing the front end DN and the rear end DF , in addition to the above-described equations, equations obtained as a result of deformation using various approximations can be used, and the subject distance and the object distance can be substantially used. The front end DN and the rear end DF may be described using the same parameter, for example, the shooting distance. That is,
Front end D N = (hyperfocal length × shooting distance) / (hyperfocal length + shooting distance)
Rear end D F = (hyperfocal distance × shooting distance) / (hyperfocal distance−shooting distance)
A configuration that specifies the front end DN and the rear end DF may be adopted.
1…撮影装置、10…光学系、11…レンズ、12…絞り、13…シャッター、14…撮像ユニット、14a,14b,14c…受光センサー、14d…測距センサー、15…記憶部、20…表示部、30…記録部、40…操作部、45…調整部、50…シャッター制御部、60…撮像ユニット制御部、70…CPU、80…画像生成部、90…電磁波出力部
DESCRIPTION OF SYMBOLS 1 ... Imaging device, 10 ... Optical system, 11 ... Lens, 12 ... Aperture, 13 ... Shutter, 14 ... Imaging unit, 14a, 14b, 14c ... Light receiving sensor, 14d ... Distance sensor, 15 ... Memory | storage part, 20 ...
Claims (6)
前記受光センサーと同一の基板に設けられた測距センサーと、
前記受光センサーが受光した光量に応じて画像データを生成する画像生成部と、
前記受光センサーが撮影する被写体と基準位置との間の距離を前記測距センサーの出力に基づいて測定する距離測定部と、
前記レンズの絞りと焦点距離と被写体距離とを含むレンズ情報を取得するレンズ情報取得部と、
前記レンズ情報と、前記被写体と基準位置との間の距離とに基づいて被写界深度に含まれる前記被写体を特定する被写体特定部と、
被写界深度に含まれる前記被写体を示す情報と前記画像データが示す画像とを表示部に表示させる表示制御部と、
を備える画像生成装置。 A light receiving sensor that receives light passing through the lens;
A distance measuring sensor provided on the same substrate as the light receiving sensor;
An image generating unit that generates image data according to the amount of light received by the light receiving sensor;
A distance measuring unit that measures a distance between a subject photographed by the light receiving sensor and a reference position based on an output of the distance measuring sensor;
A lens information acquisition unit that acquires lens information including the aperture, focal length, and subject distance of the lens;
A subject identifying unit that identifies the subject included in the depth of field based on the lens information and a distance between the subject and a reference position;
A display control unit for displaying information indicating the subject included in the depth of field and an image indicated by the image data on a display unit;
An image generation apparatus comprising:
前記距離測定部は、前記電磁波出力部が前記電磁波を出力した後、前記電磁波が前記被写体に反射されて前記測距センサーで測定されるまでの時間に基づいて前記被写体と基準位置との間の距離を測定する、
請求項1に記載の画像生成装置。 Further equipped with an electromagnetic wave output unit for outputting electromagnetic waves,
The distance measuring unit, between the subject and a reference position, is based on a time from when the electromagnetic wave output unit outputs the electromagnetic wave until the electromagnetic wave is reflected by the subject and measured by the distance measuring sensor. Measure distance,
The image generation apparatus according to claim 1.
請求項1または請求項2のいずれかに記載の画像生成装置。 The distance measuring sensor is provided in each pixel of the light receiving sensor,
The image generation apparatus according to claim 1.
請求項1または請求項2のいずれかに記載の画像生成装置。 The distance measuring sensor is provided for each divided region obtained by dividing the light receiving surface of the light receiving sensor.
The image generation apparatus according to claim 1.
前記被写体特定部は、前記レンズの絞りと焦点距離と予め決められた許容錯乱円の直径とに基づいて過焦点距離を特定し、当該過焦点距離と前記レンズの焦点距離と前記被写体距離とに基づいて、被写界深度に含まれる物体と前記レンズの主点との距離の範囲に前記被写体から前記レンズの主点までの距離が含まれるか否かを特定する、
請求項1〜請求項4のいずれかに記載の画像生成装置。 The distance between the subject photographed by the light receiving sensor and the reference position is a distance from the subject to the principal point of the lens,
The subject specifying unit specifies a hyperfocal distance based on the aperture and focal length of the lens and a diameter of a predetermined allowable circle of confusion, and determines the hyperfocal distance, the focal length of the lens, and the subject distance. Based on whether the distance from the subject to the principal point of the lens is included in the range of the distance between the object included in the depth of field and the principal point of the lens,
The image generation apparatus according to claim 1.
前記受光センサーと同一の基板に設けられた測距センサーと、
前記受光センサーが受光した光量に応じて画像データを生成する画像生成部とを備える画像生成装置における画像表示方法であって、
前記受光センサーが撮影する被写体と基準位置との間の距離を前記測距センサーの出力に基づいて測定する距離測定工程と、
前記レンズの絞りと焦点距離と被写体距離とを含むレンズ情報を取得するレンズ情報取得工程と、
前記レンズ情報と、前記被写体と基準位置との間の距離とに基づいて被写界深度に含まれる前記被写体を特定する被写体特定工程と、
被写界深度に含まれる前記被写体を示す情報と前記画像データが示す画像とを表示部に表示させる表示制御工程と、
を含む画像生成方法。 A light receiving sensor that receives light passing through the lens;
A distance measuring sensor provided on the same substrate as the light receiving sensor;
An image display method in an image generation apparatus comprising an image generation unit that generates image data according to the amount of light received by the light receiving sensor,
A distance measuring step of measuring a distance between a subject photographed by the light receiving sensor and a reference position based on an output of the distance measuring sensor;
A lens information acquisition step of acquiring lens information including the lens aperture, focal length, and subject distance;
A subject specifying step of specifying the subject included in the depth of field based on the lens information and a distance between the subject and a reference position;
A display control step of displaying information indicating the subject included in the depth of field and an image indicated by the image data on a display unit;
An image generation method including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012051326A JP2013186293A (en) | 2012-03-08 | 2012-03-08 | Image generation device and image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012051326A JP2013186293A (en) | 2012-03-08 | 2012-03-08 | Image generation device and image display method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013186293A true JP2013186293A (en) | 2013-09-19 |
Family
ID=49387768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012051326A Withdrawn JP2013186293A (en) | 2012-03-08 | 2012-03-08 | Image generation device and image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013186293A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016203692A1 (en) * | 2015-06-18 | 2016-12-22 | ソニー株式会社 | Display control apparatus, display control method, and display control program |
KR20180026410A (en) * | 2015-07-02 | 2018-03-12 | 퀄컴 인코포레이티드 | Systems and methods for autofocus trigger |
CN111990930A (en) * | 2020-08-28 | 2020-11-27 | 北京石头世纪科技股份有限公司 | Distance measuring method, device, robot and storage medium |
CN113189603A (en) * | 2021-04-27 | 2021-07-30 | 南昌虚拟现实研究院股份有限公司 | Method and system for designing parameters of structured light depth camera |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05323447A (en) * | 1992-05-20 | 1993-12-07 | Kanto Auto Works Ltd | Scale imprinting type autofocusing camera |
JP2003078802A (en) * | 2001-09-04 | 2003-03-14 | Nippon Hoso Kyokai <Nhk> | Imaging apparatus |
JP2006074634A (en) * | 2004-09-03 | 2006-03-16 | Nippon Hoso Kyokai <Nhk> | Imaging apparatus and method for displaying depth of field |
JP2008145465A (en) * | 2006-12-06 | 2008-06-26 | Sigma Corp | Method of adjusting depth of field and user interface for photographing apparatus |
JP2008193514A (en) * | 2007-02-06 | 2008-08-21 | Casio Comput Co Ltd | Imaging apparatus, and object tracking method and program thereof |
JP2009015828A (en) * | 2007-06-06 | 2009-01-22 | Sony Corp | Image processing device, image processing method, and image processing program |
JP2011250133A (en) * | 2010-05-27 | 2011-12-08 | Canon Inc | Imaging apparatus and control method of the same |
-
2012
- 2012-03-08 JP JP2012051326A patent/JP2013186293A/en not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05323447A (en) * | 1992-05-20 | 1993-12-07 | Kanto Auto Works Ltd | Scale imprinting type autofocusing camera |
JP2003078802A (en) * | 2001-09-04 | 2003-03-14 | Nippon Hoso Kyokai <Nhk> | Imaging apparatus |
JP2006074634A (en) * | 2004-09-03 | 2006-03-16 | Nippon Hoso Kyokai <Nhk> | Imaging apparatus and method for displaying depth of field |
JP2008145465A (en) * | 2006-12-06 | 2008-06-26 | Sigma Corp | Method of adjusting depth of field and user interface for photographing apparatus |
JP2008193514A (en) * | 2007-02-06 | 2008-08-21 | Casio Comput Co Ltd | Imaging apparatus, and object tracking method and program thereof |
JP2009015828A (en) * | 2007-06-06 | 2009-01-22 | Sony Corp | Image processing device, image processing method, and image processing program |
JP2011250133A (en) * | 2010-05-27 | 2011-12-08 | Canon Inc | Imaging apparatus and control method of the same |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016203692A1 (en) * | 2015-06-18 | 2016-12-22 | ソニー株式会社 | Display control apparatus, display control method, and display control program |
US10761294B2 (en) | 2015-06-18 | 2020-09-01 | Sony Corporation | Display control device and display control method |
US11500174B2 (en) | 2015-06-18 | 2022-11-15 | Sony Corporation | Display control device and display control method |
KR20180026410A (en) * | 2015-07-02 | 2018-03-12 | 퀄컴 인코포레이티드 | Systems and methods for autofocus trigger |
JP2018525658A (en) * | 2015-07-02 | 2018-09-06 | クアルコム,インコーポレイテッド | System and method for auto focus trigger |
KR102299566B1 (en) | 2015-07-02 | 2021-09-07 | 퀄컴 인코포레이티드 | Systems and methods for autofocus trigger |
CN111990930A (en) * | 2020-08-28 | 2020-11-27 | 北京石头世纪科技股份有限公司 | Distance measuring method, device, robot and storage medium |
CN113189603A (en) * | 2021-04-27 | 2021-07-30 | 南昌虚拟现实研究院股份有限公司 | Method and system for designing parameters of structured light depth camera |
CN113189603B (en) * | 2021-04-27 | 2023-05-12 | 南昌虚拟现实研究院股份有限公司 | Method and system for designing parameters of structured light depth camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018101092A1 (en) | Imaging device and flicker determination method | |
JP5963552B2 (en) | Imaging device | |
JP2013186293A (en) | Image generation device and image display method | |
JP2015152749A (en) | Imaging device and control method of the same | |
JP2009086030A (en) | Imaging apparatus, method and program | |
JP2013205675A (en) | Imaging apparatus | |
JP5217942B2 (en) | Focus adjustment device and imaging device | |
JP5998820B2 (en) | Imaging device, focus state display method, focus state display program | |
JP2013187883A (en) | Imaging apparatus and imaging method | |
JP7071165B2 (en) | Display control device and method, and image pickup device | |
JP5440585B2 (en) | Digital camera | |
JP5423140B2 (en) | Photometric device and imaging device | |
JP2015087494A (en) | Imaging device | |
JP2010072559A (en) | Imaging apparatus and object area extracting method | |
JP6149346B2 (en) | Imaging device | |
JP6149345B2 (en) | Image capturing apparatus and image quality adjustment method | |
JP2013186369A (en) | Image display device and image display method | |
JP6005955B2 (en) | Photometric device and imaging device | |
JP5968026B2 (en) | Imaging apparatus and control method thereof | |
JP6299175B2 (en) | camera | |
JP5927958B2 (en) | Image generation apparatus and exposure start timing adjustment method | |
JP5938269B2 (en) | Imaging apparatus and control method thereof | |
US10567662B2 (en) | Imaging device and control method therefor using shift direction calculation | |
JP5927957B2 (en) | Image generation apparatus and exposure start timing adjustment method | |
JP2016058983A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141119 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150812 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150818 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20150908 |