JP2016099322A - Imaging device, control method of imaging device, and program - Google Patents

Imaging device, control method of imaging device, and program Download PDF

Info

Publication number
JP2016099322A
JP2016099322A JP2014238960A JP2014238960A JP2016099322A JP 2016099322 A JP2016099322 A JP 2016099322A JP 2014238960 A JP2014238960 A JP 2014238960A JP 2014238960 A JP2014238960 A JP 2014238960A JP 2016099322 A JP2016099322 A JP 2016099322A
Authority
JP
Japan
Prior art keywords
subject
image
distance distribution
imaging
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014238960A
Other languages
Japanese (ja)
Inventor
悠一 野元
Yuichi Nomoto
悠一 野元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014238960A priority Critical patent/JP2016099322A/en
Publication of JP2016099322A publication Critical patent/JP2016099322A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To acquire, in an image including a subject close to an imaging device and a subject distant from the imaging device, accurate distance information for each of the subjects (areas) in a device that can acquire an image with parallax.SOLUTION: An imaging device includes: imaging means for photographing optical images of subjects formed in an imaging optical system to create a plurality of image signals with parallax; distance distribution creation means for acquiring distance information on the subjects from the plurality of image signals to create a distance distribution of the subjects on the basis of the distance information; and control means for controlling the imaging means and distance distribution creation means to create a distance distribution of images including the subjects. The control means sets the depth of field in imaging for creating the plurality of image signals with parallax to be as shallow as to allow acquisition of the distance information on the subject formed in the imaging optical system from the plurality of image signals.SELECTED DRAWING: Figure 1

Description

本発明は視差画像の撮影が可能な撮像装置に関し、特に視差画像から被写体の距離情報を取得することが可能な撮像装置に関する。   The present invention relates to an imaging apparatus capable of capturing a parallax image, and more particularly to an imaging apparatus capable of acquiring subject distance information from a parallax image.

従来、3Dレリーフのような凹凸を有する立体的な画像を印刷する印刷装置用の印刷データを生成する装置がある。例えば、特許文献1では画像の複数の領域毎の距離情報を取得し、領域毎の距離情報から画像情報に対応した印刷時の厚さ情報を生成し、画像情報と厚さ情報を関連付けて記録している。   2. Description of the Related Art Conventionally, there is an apparatus that generates print data for a printing apparatus that prints a three-dimensional image having unevenness such as a 3D relief. For example, Patent Document 1 acquires distance information for each of a plurality of regions of an image, generates thickness information at the time of printing corresponding to the image information from the distance information for each region, and records the image information and the thickness information in association with each other. doing.

例えば、パンフォーカスの様に近くの被写体から遠くの被写体までくっきり写っている画像を3Dレリーフとして印刷したい場合、くっきり写っている部分の凹凸を表現するために近くの被写体と遠くの被写体の両方の距離情報を正確に取得する必要がある。しかし、特許文献1では被写体と背景の前後関係がわかる印刷データを生成することは可能だが、被写体の凹凸がわかる印刷データを生成することは困難である。   For example, if you want to print a 3D relief image that clearly shows from a near subject to a far subject like pan focus, both near and far subjects can be used to express the unevenness of the clearly visible part. It is necessary to acquire distance information accurately. However, in Patent Document 1, it is possible to generate print data that understands the relationship between the subject and the background, but it is difficult to generate print data that understands the unevenness of the subject.

これに対し、特許文献2では特定の深度に合焦した画像からその画像の合焦範囲よりも広い範囲に合焦している全焦点画像を生成し、さらに全焦点画像から別途取得するぼけパラメータによりぼけ画像群を生成し、画像領域ごとに比較して距離情報を取得している。画像領域ごとにぼけ画像群の異なるぼけ画像を選別し、選別したぼけ画像から取得した距離情報に基づいて距離分布を作成している。   On the other hand, in Patent Document 2, an omnifocal image focused on a range wider than the focused range of the image is generated from an image focused on a specific depth, and a blur parameter separately obtained from the omnifocal image is further generated. Thus, a blurred image group is generated, and distance information is obtained by comparison for each image region. A blurred image having a different blurred image group is selected for each image area, and a distance distribution is created based on distance information acquired from the selected blurred image.

特許第4882823号公報Japanese Patent No. 4888223 国際公開第11/158515号International Publication No. 11/158515

しかしながら、上述の特許文献2に開示された処理では、特定の深度の画像を複数枚撮影し、それから全焦点画像を生成し、さらに全焦点画像からぼけパラメータにより複数のぼけ画像を生成してからそれらを用いて距離を算出している。そのため、最終的に距離マップを合成しているため処理の負荷が大きい。また、ぼけ画像の数が少なく深度のバリエーションが少ない場合、正しい距離情報が得られないという課題がある。   However, in the process disclosed in Patent Document 2 described above, a plurality of images of a specific depth are captured, an omnifocal image is generated therefrom, and a plurality of blurred images are generated from the omnifocal image using blur parameters. The distance is calculated using them. Therefore, the processing load is heavy because the distance map is finally synthesized. Further, there is a problem that correct distance information cannot be obtained when the number of blurred images is small and the depth variation is small.

ここで、近年視差のある画像を取得可能な撮像装置が開発されており、取得した視差から被写体までの距離を算出することが可能となっている。しかし、この方法でもパンフォーカス撮影を行った時は、近くの被写体も遠くの被写体も許容錯乱円の中に入って視差がほぼ存在しないため距離情報が得られない。また、大きくぼけている画像領域では得られる視差の信頼度が低く、収差による測距ずれも存在するため、合焦位置付近の焦点面以外では精度の高い距離情報を得ることは困難である。   Here, in recent years, an imaging device capable of acquiring an image with parallax has been developed, and a distance from the acquired parallax to a subject can be calculated. However, in this method, when pan-focus shooting is performed, distance information cannot be obtained because a near object and a distant object are in an allowable circle of confusion and there is almost no parallax. In addition, since the reliability of the parallax obtained is low in an image area that is largely blurred and there is a distance measurement deviation due to aberration, it is difficult to obtain highly accurate distance information other than the focal plane near the in-focus position.

本発明は上記の問題点に鑑み、視差のある画像を取得可能な撮像装置において、近い被写体と遠い被写体を含む画像の被写体(領域)ごとの正確な距離情報を取得することを可能にすることを目的とする。   In view of the above problems, the present invention makes it possible to acquire accurate distance information for each subject (region) of an image including a near subject and a far subject in an imaging apparatus capable of obtaining an image with parallax. With the goal.

上記目的を達成するために、本発明の撮像装置は、撮像光学系で結像された被写体の光学像を撮像して、視差を有する複数の画像信号を生成する撮像手段と、複数の画像信号から被写体の距離情報を取得し、距離情報に基づいて被写体の距離分布を生成する距離分布生成手段と、撮像手段および距離分布生成手段を制御し、被写体を含む画像の距離分布を生成する制御手段とを備え、制御手段は、視差を有する複数の画像信号を生成する撮像での被写界深度を、複数の画像信号から撮像光学系で結像された被写体の距離情報が取得できる浅さとする。   In order to achieve the above object, an imaging apparatus according to the present invention includes an imaging unit that captures an optical image of a subject formed by an imaging optical system and generates a plurality of image signals having parallax, and a plurality of image signals. A distance distribution generating means for acquiring distance information of the subject from the information, and generating a distance distribution of the subject based on the distance information, and a control means for controlling the imaging means and the distance distribution generating means to generate a distance distribution of the image including the subject And the control means sets the depth of field in imaging for generating a plurality of image signals having parallax to a shallow depth from which the distance information of the subject imaged by the imaging optical system can be acquired from the plurality of image signals. .

本発明によれば、視差画像を取得可能な撮像装置において、撮影画像の他にそれより被写界深度の浅い視差画像を撮像し、得られた視差画像から生成した距離情報を撮影画像の距離情報とするが可能となる。これにより、近い被写体と遠い被写体を含む画像において被写体(領域)ごとに正確な距離情報を取得することが可能となる。   According to the present invention, in an imaging device capable of acquiring a parallax image, in addition to a captured image, a parallax image having a shallower depth of field is captured, and distance information generated from the obtained parallax image is determined as the distance of the captured image. It can be information. This makes it possible to acquire accurate distance information for each subject (region) in an image including a near subject and a far subject.

本発明の第1の実施例に係わる撮像装置の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an imaging apparatus according to a first embodiment of the present invention. 本発明の第1の実施例に係わる撮像装置が有する撮像素子の画素の構造を示す図である。It is a figure which shows the structure of the pixel of the image pick-up element which the imaging device concerning 1st Example of this invention has. 本発明の第1の実施例に係わる撮像装置の動作のフローチャートを示す図である。It is a figure which shows the flowchart of operation | movement of the imaging device concerning 1st Example of this invention. 本発明の第1の実施例に係わる撮像装置の動作を説明するための図である。It is a figure for demonstrating operation | movement of the imaging device concerning 1st Example of this invention.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明の第1の実施例に係わるデジタルカメラ等の撮像装置100の構成例を示す図である。同図において、撮像装置100は撮像光学系101、撮像素子102、A/D変換器103、画像処理部104、一時記憶メモリ105、被写体検出部106、距離分布生成部107、距離分布合成部108、CPU109によって構成されている。撮像光学系101は、ズームレンズ、フォーカシングレンズ、絞りにより構成される。撮像素子102は、撮像光学系101にて結像された被写体の光学像を光電変換して画像信号(電気信号)を生成して出力する。   FIG. 1 is a diagram illustrating a configuration example of an imaging apparatus 100 such as a digital camera according to the first embodiment of the present invention. In FIG. 1, an imaging apparatus 100 includes an imaging optical system 101, an imaging element 102, an A / D converter 103, an image processing unit 104, a temporary storage memory 105, a subject detection unit 106, a distance distribution generation unit 107, and a distance distribution synthesis unit 108. The CPU 109 is configured. The imaging optical system 101 includes a zoom lens, a focusing lens, and a diaphragm. The image sensor 102 photoelectrically converts the optical image of the subject imaged by the imaging optical system 101 to generate and output an image signal (electric signal).

A/D変換部103は、撮像素子102が出力する画像信号を、アナログ信号からデジタル信号に変換する。画像処理部104は、A/D変換部103によりデジタル信号に変換された画像データに対して各種画像処理を行う。一時記憶メモリ105は、画像処理部104で処理された画像データや各種データを格納する。   The A / D conversion unit 103 converts the image signal output from the image sensor 102 from an analog signal to a digital signal. The image processing unit 104 performs various types of image processing on the image data converted into a digital signal by the A / D conversion unit 103. The temporary storage memory 105 stores image data processed by the image processing unit 104 and various data.

被写体検出部106は、画像処理部104で処理した画像を一時記憶メモリ105から読み出し、画像中に被写体が存在するか否かの検出を行う。距離分布生成部107は前記被写体検出部で検出した被写体領域について距離分布の生成を行う。距離分布合成部108は、距離分布生成部107で生成した複数の被写体領域の距離分布を合成し、複数の被写体領域の距離を示す距離分布を生成する。   The subject detection unit 106 reads the image processed by the image processing unit 104 from the temporary storage memory 105, and detects whether or not a subject exists in the image. The distance distribution generation unit 107 generates a distance distribution for the subject area detected by the subject detection unit. The distance distribution combining unit 108 combines the distance distributions of the plurality of subject areas generated by the distance distribution generation unit 107, and generates a distance distribution indicating the distances of the plurality of subject areas.

CPU109は、不図示のメモリに格納されているプログラムを実行することで、上述した撮像装置100の各部を制御して各種処理動作を実現する。   The CPU 109 executes a program stored in a memory (not shown), thereby controlling each unit of the above-described imaging device 100 to realize various processing operations.

なお、図1に示した撮像装置の構成は一例であり、これに限定されるものではなく、以下に説明する本実施例の動作を実行できる構成であればよい。   The configuration of the imaging apparatus illustrated in FIG. 1 is an example, and the configuration is not limited thereto, and any configuration that can execute the operation of the present embodiment described below is acceptable.

以下、撮影画像とそれより被写界深度の浅い画像を撮像し、被写界深度の浅い画像の撮像で得られる視差画像から生成した距離情報を撮影画像の距離情報として保存する構成を例にして本実施例を説明する。まず、本実施例に係わる撮像装置100における撮像素子102の構成について説明する。   The following is an example of a configuration in which a captured image and an image with a shallow depth of field are captured, and distance information generated from a parallax image obtained by capturing an image with a shallow depth of field is stored as the distance information of the captured image. This embodiment will be described. First, the configuration of the imaging element 102 in the imaging apparatus 100 according to the present embodiment will be described.

図2は撮像素子102の構造を示す図であり、一つの画素を側面から見たときの断面図である。同図において、被写体からの光はマイクロレンズ201によって光電変換部に効率的に集光され、その後カラーフィルター202で所望の波長域のみが選択的に通過される。203は半導体の配線層である。カラーフィルター202を通過した光は光電変換部であるフォトダイオード204で受光され、光電変換により電気信号に変換される。通常の撮像素子は一つのマイクロレンズ201に対して一つのフォトダイオードを有しているが、本実施例では、2つのフォトダイオード204が配置された構造になっている。このように2つのフォトダイオード204が1つのマイクロレンズ201を共有する構造にすることで瞳分割像を取得することが可能となる。   FIG. 2 is a diagram showing the structure of the image sensor 102, and is a cross-sectional view when one pixel is viewed from the side. In the figure, light from a subject is efficiently condensed on a photoelectric conversion unit by a microlens 201, and then only a desired wavelength region is selectively passed through a color filter 202. Reference numeral 203 denotes a semiconductor wiring layer. Light that has passed through the color filter 202 is received by a photodiode 204, which is a photoelectric conversion unit, and converted into an electrical signal by photoelectric conversion. A normal imaging device has one photodiode for one microlens 201, but in this embodiment, it has a structure in which two photodiodes 204 are arranged. Thus, it becomes possible to acquire a pupil division | segmentation image by setting it as the structure where two photodiodes 204 share one micro lens 201. FIG.

本実施例では、図1および図2に示した撮像装置100で静止画撮影を行い、取得された静止画から被写体を検出し、検出の結果に従って被写体ごとの撮影および距離分布生成を行い、被写体ごとの距離分布を合成する。この処理動作を、図3に示すフローチャートを用いて説明する。   In the present embodiment, still image shooting is performed with the imaging apparatus 100 illustrated in FIGS. 1 and 2, a subject is detected from the acquired still image, shooting is performed for each subject and distance distribution is generated according to the detection result, The distance distribution for each is synthesized. This processing operation will be described with reference to the flowchart shown in FIG.

ステップS301において、CPU109は撮像装置100を制御してパンフォーカス撮影を行い、撮影画像を取得する。ここで、パンフォーカス画像とは、撮像装置からの距離が近い被写体と遠い被写体の両方にピントが合っているように見える被写界深度の深い画像である。また、撮像装置100は図2に示すように、一つの画素に対して2つのフォトダイオード204が存在し、それぞれ独立に瞳分割像データを取得することができる。取得される2つの瞳分割像は厳密には視差を有する画像であるが、ピントが合っている部分については瞳分割像がぴったり重なって見えるため視差は無いとみなされる。図4に示す画像410は、ステップS301で撮影された撮影画像(パンフォーカス画像)の例を模式的に示している。   In step S301, the CPU 109 controls the imaging apparatus 100 to perform pan-focus imaging and acquire a captured image. Here, the pan-focus image is an image with a deep depth of field that appears to be focused on both a subject close to and a distant subject from the imaging device. In addition, as illustrated in FIG. 2, the imaging apparatus 100 includes two photodiodes 204 for one pixel, and can independently acquire pupil division image data. Strictly speaking, the two divided pupil images to be acquired are images having parallax, but it is considered that there is no parallax because the divided pupil images appear to be exactly overlapped with each other in a focused portion. An image 410 illustrated in FIG. 4 schematically illustrates an example of the captured image (pan focus image) captured in step S301.

ステップS302において、被写体検出部106が撮影画像410に対して被写体検出を行う。被写体検出部106は、画像中から、人物や顔、ペットやランドマークなどの画像パターンをテンプレートマッチングによって検出するように構成しても、また、1フレーム前の画像との比較により動き量や変化量の大きい領域を検出するように構成してもよい。このような検出方法は周知技術であるので、ここでは省略する。図4の撮影画像410の場合は、被写体検出部106は、人物401と人物401より遠い位置の被写体として建物402を検出する。   In step S <b> 302, the subject detection unit 106 performs subject detection on the captured image 410. The subject detection unit 106 may be configured to detect an image pattern such as a person, a face, a pet, a landmark, or the like from an image by template matching. You may comprise so that an area | region with a large quantity may be detected. Since such a detection method is a well-known technique, it is omitted here. In the case of the captured image 410 of FIG. 4, the subject detection unit 106 detects the building 402 as a subject at a position far from the person 401 and the person 401.

ステップS303において、CPU109は、ステップS302で検出した被写体に対してどのような順序で距離分布生成を行うかについて優先順位を決定する。なお、この決定処理は、距離分布生成部107で行ってもよい。優先順位の決定は、例えば、画像処理部104で導出した被写体の画像中における位置や大きさ、被写体の種類(人や移動する被写体の優先度を高くするなど)に基づいて行う。図4の撮影画像410の例では、人物401が建物402よりも高い優先度であるとする。   In step S303, the CPU 109 determines the priority order in which order the distance distribution is generated for the subject detected in step S302. This determination process may be performed by the distance distribution generation unit 107. The priority order is determined based on, for example, the position and size of the subject in the image derived by the image processing unit 104, and the type of subject (such as increasing the priority of a person or a moving subject). In the example of the captured image 410 in FIG. 4, it is assumed that the person 401 has a higher priority than the building 402.

ステップS304において、CPU109は撮像装置100を制御して、ステップS303で最優先とされた被写体に合焦して撮影を行い、瞳分割像を取得する。ここで、ステップS304ではステップS301のパンフォーカス撮影と比較して被写界深度を浅くして撮影を行う。撮影画像410では人物401が最優先の被写体であるため、まずは、人物401に合焦して撮影を行い、撮影画像411を取得する。   In step S304, the CPU 109 controls the imaging apparatus 100 to focus and shoot the subject that has been given the highest priority in step S303, thereby obtaining a pupil division image. Here, in step S304, shooting is performed with a shallow depth of field as compared to pan-focus shooting in step S301. Since the person 401 is the top-priority subject in the photographed image 410, first, the person 401 is focused and photographed to obtain the photographed image 411.

ステップS305において、ステップS304で撮影を行った被写体に関する距離分布を距離分布生成部107で生成する。ここで、距離分布生成部107が被写体に関する距離分布を生成する方法について述べる。   In step S <b> 305, the distance distribution generation unit 107 generates a distance distribution related to the subject imaged in step S <b> 304. Here, a method in which the distance distribution generation unit 107 generates a distance distribution related to the subject will be described.

ステップS304での撮影で取得した2枚の瞳分割画像には浅い被写界深度のために合焦点の近辺においても視差があり、この視差を用いて合焦位置から近い画像領域の距離を算出することが出来る。このように、瞳分割画像から合焦した被写体の距離分布を生成する。原理的には2枚の瞳分割像で視差がある部分については距離を算出することが出来るため、合焦した被写体についてだけでなく画像全体で距離分布を生成可能である。しかし、大きくぼけている部分では得られる視差の信頼度が低く、撮像光学系101の収差による測距ずれも存在するため、合焦位置付近の焦点面以外では精度の高い距離分布を得ることは困難である。そのため、本実施例における撮影画像411からは画像全体の距離分布ではなく、合焦被写体の領域での距離分布が生成される。その結果、ステップS305では図4の撮影画像410の人物401の領域についてのみの距離分布421が生成される。   The two pupil-divided images acquired by the shooting in step S304 have a parallax even near the focal point due to the shallow depth of field, and the distance of the image region close to the in-focus position is calculated using this parallax. I can do it. Thus, the distance distribution of the focused subject is generated from the pupil divided image. In principle, the distance can be calculated for a portion where there is parallax in the two pupil-divided images, so that it is possible to generate a distance distribution not only for the focused subject but also for the entire image. However, since the reliability of the parallax obtained is low in the portion that is greatly blurred and there is a distance measurement deviation due to the aberration of the imaging optical system 101, it is possible to obtain a highly accurate distance distribution other than the focal plane near the in-focus position. Have difficulty. For this reason, the distance distribution in the region of the focused subject is generated from the captured image 411 in this embodiment instead of the distance distribution of the entire image. As a result, in step S305, a distance distribution 421 is generated only for the area of the person 401 in the captured image 410 of FIG.

なお、ステップS304では距離分布算出のための瞳分割像を取得することが目的であり、ステップS304で撮影した撮影画像自体を画像データとして保存する必要は無く、ステップS305での距離分布生成を終えたら一時記憶メモリ105から消去しても良い。   Note that in step S304, the purpose is to obtain a pupil-divided image for calculating the distance distribution, and it is not necessary to store the captured image itself captured in step S304 as image data, and the distance distribution generation in step S305 is completed. If necessary, the temporary storage memory 105 may be deleted.

ステップS306において、CPU109は、距離分布が未生成である被写体があるかどうかを判定する。なお、この判定処理も、距離分布生成部107で行ってもよい。距離分布が未生成の被写体がある場合は、ステップS304へ進む。検出された全ての被写体について距離分布が生成されていれば、ステップS307へ進む。図4の撮影画像410の例では人物401の距離分布の生成が完了し、建物402の距離分布の生成がまだであるのでステップS304へ戻り、人物401と同様に、建物402に合焦した視差画像の撮影を行い、建物402についての距離分布422を生成する。人物401、建物402の距離分布がともに生成されたらステップS307へ進む。   In step S306, the CPU 109 determines whether there is a subject whose distance distribution has not been generated. This determination process may also be performed by the distance distribution generation unit 107. If there is a subject whose distance distribution has not been generated, the process proceeds to step S304. If the distance distribution has been generated for all detected subjects, the process proceeds to step S307. In the example of the captured image 410 in FIG. 4, the generation of the distance distribution of the person 401 is completed, and the generation of the distance distribution of the building 402 is not yet performed, so the process returns to step S304 and the parallax focused on the building 402 as in the case of the person 401. An image is taken and a distance distribution 422 for the building 402 is generated. When both the distance distributions of the person 401 and the building 402 are generated, the process proceeds to step S307.

ステップS307において、距離分布合成部108は、ステップS304からS305で生成された各被写体毎の距離分布を合成し、全ての被写体の距離情報を含む距離分布を生成する。図4の例では、距離分布421と距離分布422が距離分布合成部108によりが合成されて距離分布423が生成される。距離分布423には人物401と建物402の両方の被写体近辺の距離情報が含まれる。   In step S307, the distance distribution synthesis unit 108 synthesizes the distance distribution for each subject generated in steps S304 to S305, and generates a distance distribution including distance information of all subjects. In the example of FIG. 4, the distance distribution 421 and the distance distribution 422 are combined by the distance distribution combining unit 108 to generate the distance distribution 423. The distance distribution 423 includes distance information around the subjects of both the person 401 and the building 402.

ステップS308において、CPU109は、ステップS307で生成した距離分布をステップS301で撮影したパンフォーカス画像の距離分布として保存する。図4の撮影画像410の例では、画像中の被写体である人物401、建物402の距離情報を含む距離分布423が撮影画像410の画像データと関連付けられて保存される。   In step S308, the CPU 109 stores the distance distribution generated in step S307 as the distance distribution of the pan focus image captured in step S301. In the example of the captured image 410 in FIG. 4, a distance distribution 423 including distance information of the person 401 and the building 402 that are subjects in the image is stored in association with the image data of the captured image 410.

ところで、上述した本実施例では、距離分布を取得するための撮像素子102の構成を、視差のある2枚の画像の画像信号を出力する構成として説明した。しかし、異なる瞳領域を通過して結像された被写体像を撮像して複数の像信号を出力する構成でさえあれば、図2の構成に限らず、さらに多くの光電変換部204を一つのマイクロレンズ201下に配列する構成であってもよい。   In the above-described embodiment, the configuration of the image sensor 102 for acquiring the distance distribution has been described as a configuration for outputting image signals of two images with parallax. However, as long as the configuration is such that a subject image formed through different pupil regions is captured and a plurality of image signals are output, the configuration is not limited to the configuration of FIG. The structure arranged under the micro lens 201 may be sufficient.

また、本実施例の図4の例では、距離分布423では被写体の検出されなかった領域の距離情報は取得されていない。しかし、3Dレリーフのように被写体部分のみに凹凸を付けて印刷したい場合には被写体の検出されなかった領域の距離情報は無視されるためこのような構成でも良い。   Further, in the example of FIG. 4 of the present embodiment, distance information of an area where no subject is detected is not acquired in the distance distribution 423. However, in the case where it is desired to print with unevenness only on the subject portion as in the case of 3D relief, the distance information of the region where the subject is not detected is ignored, and such a configuration may be used.

一方、被写体検出時に撮影画像410を矩形領域に分割して、夫々の領域で距離分布を取得するようにしてもよい。例えば、輝度や色、空間周波数、隣接する領域との差異、差異の少ない領域同士を足し合わせた大きさなどから、空や草花、ビルなど被写体毎に予め定めておいた条件を満たすかを判定し、撮影画像の全ての領域がいずれかの被写体領域に含まれるよう分類してもよい。   On the other hand, when the subject is detected, the captured image 410 may be divided into rectangular regions, and the distance distribution may be acquired in each region. For example, from the brightness, color, spatial frequency, difference between adjacent areas, and the size of areas with small differences added together, it is determined whether the conditions set in advance for each subject such as the sky, flowers, buildings, etc. Then, all the areas of the captured image may be classified so as to be included in any one of the subject areas.

以上のように、本発明によれば、視差のある画像を取得可能な撮像装置において、撮影画像より被写界深度の浅い画像を撮像し、得られた視差画像から生成した距離情報を撮影画像の距離情報としている。これにより、近い被写体と遠い被写体を含む画像で被写体(領域)ごとに正確な距離情報を取得することが可能となり、3Dレリーフのような凹凸を有する立体的な画像を印刷する印刷装置用の印刷データを効率的かつ精度よく生成することが可能となる。   As described above, according to the present invention, in an imaging device capable of acquiring an image with parallax, an image having a shallower depth of field than the captured image is captured, and distance information generated from the obtained parallax image is captured. Distance information. This makes it possible to acquire accurate distance information for each subject (area) in an image including a near subject and a far subject, and printing for a printing apparatus that prints a three-dimensional image having unevenness like a 3D relief. Data can be generated efficiently and accurately.

[その他の実施例]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

Claims (10)

撮像光学系で結像された被写体の光学像を撮像して、視差を有する複数の画像信号を生成する撮像手段と、
前記複数の画像信号から前記被写体の距離情報を取得し、前記距離情報に基づいて前記被写体の距離分布を生成する距離分布生成手段と、
前記撮像手段および前記距離分布生成手段を制御し、前記被写体を含む画像の距離分布を生成する制御手段と、
を備え、
前記制御手段は、前記視差を有する複数の画像信号を生成する撮像での被写界深度を、前記複数の画像信号から前記撮像光学系で結像された被写体の距離情報が取得できる浅さとすることを特徴とする撮像装置。
Imaging means for capturing an optical image of a subject imaged by the imaging optical system and generating a plurality of image signals having parallax;
Distance distribution generating means for acquiring distance information of the subject from the plurality of image signals and generating a distance distribution of the subject based on the distance information;
Control means for controlling the imaging means and the distance distribution generating means to generate a distance distribution of an image including the subject;
With
The control means sets a depth of field in imaging for generating a plurality of image signals having the parallax as shallow as possible to obtain distance information of a subject imaged by the imaging optical system from the plurality of image signals. An imaging apparatus characterized by that.
前記撮像手段により撮像された画像から被写体を検出する検出手段をさらに備え、
前記制御手段は、前記検出手段による被写体検出の結果に従って前記撮像手段および前記距離分布生成手段を制御して前記各被写体の距離分布を生成し、各被写体の距離分布から前記画像の距離分布を生成することを特徴とする請求項1に記載の撮像装置。
A detection unit for detecting a subject from the image captured by the imaging unit;
The control means controls the imaging means and the distance distribution generation means according to the result of subject detection by the detection means to generate a distance distribution of each subject, and generates a distance distribution of the image from the distance distribution of each subject. The imaging apparatus according to claim 1, wherein:
前記検出手段が異なる被写体を検出した場合、各被写体の距離分布は、前記撮像光学系で結像された各被写体の光学像を前記撮像手段で撮像して生成された前記視差を有する複数の画像信号から前記距離分布生成手段により生成された距離分布であり、前記撮像手段により撮像された画像の距離分布は、各被写体の距離分布を合成した距離分布であることを特徴とする請求項2に記載の撮像装置。   When the detection unit detects different subjects, the distance distribution of each subject is a plurality of images having the parallax generated by imaging the optical image of each subject imaged by the imaging optical system with the imaging unit. 3. The distance distribution generated from the signal by the distance distribution generation unit, and the distance distribution of the image captured by the imaging unit is a distance distribution obtained by combining the distance distributions of the subjects. The imaging device described. 前記制御手段は、前記検出手段が検出した異なる被写体に対して、前記距離分布生成手段による距離分布の生成の優先順位を決定し、前記優先順位に従って前記撮像手段および距離分布生成手段を制御して各被写体の距離分布を生成することを特徴とする請求項3に記載の撮像装置。   The control means determines a priority of generation of distance distribution by the distance distribution generation means for different subjects detected by the detection means, and controls the imaging means and distance distribution generation means according to the priority. The imaging apparatus according to claim 3, wherein a distance distribution of each subject is generated. 前記距離分布生成手段は、前記検出手段の被写体検出の結果に従って、前記被写体の合焦位置から近い距離の画像領域における距離分布を生成することを特徴とする請求項3又は4に記載の撮像装置。   5. The imaging apparatus according to claim 3, wherein the distance distribution generation unit generates a distance distribution in an image region at a distance close to a focus position of the subject according to a result of subject detection by the detection unit. . 前記検出手段は、前記撮像手段により撮像された前記画像を矩形領域に分割し、前記分割された矩形領域を各被写体の領域として分類し、前記距離分布生成手段は、各矩形領域から取得された前記距離情報に基づいて各被写体の距離分布を生成することを特徴とする請求項3又は4に記載の撮像装置。   The detection unit divides the image captured by the imaging unit into rectangular regions, classifies the divided rectangular regions as regions of each subject, and the distance distribution generation unit is acquired from each rectangular region. The imaging apparatus according to claim 3 or 4, wherein a distance distribution of each subject is generated based on the distance information. 前記制御手段は、前記撮像手段により撮像された前記画像と前記画像の距離分布とを関連付けて記憶することを特徴とする請求項2から6のいずれか1項に記載の撮像装置。   The imaging device according to claim 2, wherein the control unit stores the image captured by the imaging unit and a distance distribution of the image in association with each other. 撮像光学系で結像された被写体の光学像を撮像して、視差を有する複数の画像信号を生成する撮像手段を有する撮像装置の制御方法であり、
前記複数の画像信号から前記被写体の距離情報を取得し、前記距離情報に基づいて前記被写体の距離分布を生成する距離分布生成工程と、
前記撮像手段および前記距離分布生成工程を制御し、前記被写体を含む画像の距離分布を生成する制御工程と、
を備え、
前記制御工程は、前記視差を有する複数の画像信号を生成する撮像での被写界深度を、前記複数の画像信号から前記撮像光学系で結像された被写体の距離情報が取得できる浅さとする工程を有することを特徴とする制御方法。
An image pickup apparatus control method comprising an image pickup means for picking up an optical image of a subject imaged by an image pickup optical system and generating a plurality of image signals having parallax,
A distance distribution generating step of acquiring distance information of the subject from the plurality of image signals, and generating a distance distribution of the subject based on the distance information;
A control step of controlling the imaging means and the distance distribution generation step to generate a distance distribution of an image including the subject;
With
In the control step, the depth of field in imaging for generating the plurality of image signals having the parallax is set to a shallow depth from which the distance information of the subject imaged by the imaging optical system can be acquired from the plurality of image signals. A control method comprising a step.
撮像光学系で結像された被写体の光学像を撮像して、視差を有する複数の画像信号を生成する撮像手段を有する撮像装置を制御するプログラムであり、
コンピュータを、
前記複数の画像信号から前記被写体の距離情報を取得し、前記距離情報に基づいて前記被写体の距離分布を生成する距離分布生成手段、
前記撮像手段および前記距離分布生成手段を制御して前記被写体を含む画像の距離分布を生成し、前記視差を有する複数の画像信号を生成する撮像での被写界深度を、前記複数の画像信号から前記撮像光学系で結像された被写体の距離情報が取得できる浅さとする制御手段
として機能させることを特徴とするプログラム。
A program for controlling an image pickup apparatus having an image pickup unit that picks up an optical image of a subject imaged by an image pickup optical system and generates a plurality of image signals having parallax,
Computer
Distance distribution generating means for acquiring distance information of the subject from the plurality of image signals, and generating a distance distribution of the subject based on the distance information;
Controlling the imaging means and the distance distribution generating means to generate a distance distribution of an image including the subject, and generating a plurality of image signals having the parallax; To function as a control means for making the distance information of the subject imaged by the imaging optical system shallow.
請求項9に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 9.
JP2014238960A 2014-11-26 2014-11-26 Imaging device, control method of imaging device, and program Pending JP2016099322A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014238960A JP2016099322A (en) 2014-11-26 2014-11-26 Imaging device, control method of imaging device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014238960A JP2016099322A (en) 2014-11-26 2014-11-26 Imaging device, control method of imaging device, and program

Publications (1)

Publication Number Publication Date
JP2016099322A true JP2016099322A (en) 2016-05-30

Family

ID=56077743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014238960A Pending JP2016099322A (en) 2014-11-26 2014-11-26 Imaging device, control method of imaging device, and program

Country Status (1)

Country Link
JP (1) JP2016099322A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018137648A (en) * 2017-02-22 2018-08-30 キヤノン株式会社 Imaging device, control method of imaging device, and program
US11347133B2 (en) 2019-04-12 2022-05-31 Canon Kabushiki Kaisha Image capturing apparatus, image processing apparatus, control method, and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018137648A (en) * 2017-02-22 2018-08-30 キヤノン株式会社 Imaging device, control method of imaging device, and program
US11347133B2 (en) 2019-04-12 2022-05-31 Canon Kabushiki Kaisha Image capturing apparatus, image processing apparatus, control method, and storage medium

Similar Documents

Publication Publication Date Title
JP4983905B2 (en) Imaging apparatus, 3D modeling data generation method, and program
JP4894939B2 (en) Imaging apparatus, display method, and program
KR20130083853A (en) Image processing apparatus, image sensing apparatus, control method, and recording medium
CN109255810B (en) Image processing apparatus and image processing method
US8648961B2 (en) Image capturing apparatus and image capturing method
JP6380972B2 (en) Image processing apparatus and imaging apparatus
JP5929037B2 (en) Imaging device
JP2017083427A (en) Confidence coefficient generation device, confidence coefficient generation method, and image-capturing device
CN114424516A (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP2016099322A (en) Imaging device, control method of imaging device, and program
JP6351105B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2014155071A5 (en)
JP2020194454A (en) Image processing device and image processing method, program, and storage medium
JP7373297B2 (en) Image processing device, image processing method and program
JP6648916B2 (en) Imaging device
JP2013118472A (en) Image processing apparatus, imaging apparatus and image processing program
JP5820831B2 (en) Imaging device
KR101599434B1 (en) Space detecting apparatus for image pickup apparatus using auto focusing and the method thereof
JP2018074362A (en) Image processing apparatus, image processing method, and program
JP2017215851A (en) Image processing device, image processing method, and molding system
JP6566800B2 (en) Imaging apparatus and imaging method
JP2015084518A (en) Image processing apparatus, image processing method, program and recording medium
JP6585890B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP6292785B2 (en) Image processing apparatus, image processing method, and program
JP6900228B2 (en) Imaging device, imaging system, imaging device control method, and program