JP2011237215A - Depth map output device - Google Patents

Depth map output device Download PDF

Info

Publication number
JP2011237215A
JP2011237215A JP2010107247A JP2010107247A JP2011237215A JP 2011237215 A JP2011237215 A JP 2011237215A JP 2010107247 A JP2010107247 A JP 2010107247A JP 2010107247 A JP2010107247 A JP 2010107247A JP 2011237215 A JP2011237215 A JP 2011237215A
Authority
JP
Japan
Prior art keywords
depth map
positive lens
light receiving
distance
positive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010107247A
Other languages
Japanese (ja)
Other versions
JP5633181B2 (en
Inventor
Tomoyuki Kuwata
知由己 桑田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010107247A priority Critical patent/JP5633181B2/en
Publication of JP2011237215A publication Critical patent/JP2011237215A/en
Application granted granted Critical
Publication of JP5633181B2 publication Critical patent/JP5633181B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Automatic Focus Adjustment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a depth map output device capable of calculating an accurate distance to a subject even in a position where the distance to the subject changes rapidly.SOLUTION: A stereo imaging device 1 comprises an imaging lens 11 for forming an image of a subject image on a predetermined imaging surface, a microlens array 12 having microlenses ML arranged in a two-dimensional pattern near the imaging surface, a light receiving element arrangement 30 arranged corresponding to each of the plurality of microlenses ML, and a control circuit 40 for performing synthesis processing by selecting a plurality of lateral lens arrays arranged in the lateral direction, calculating output of light receiving element arrangement 30 corresponding to each of the microlenses ML constituting the lateral lens arrays for each of the lateral lens arrays, calculating a defocus amount of the microlenses ML of the center part of the lateral lens arrays, creating a lateral derived depth map which is data in which the defocus amount is arranged in a two-dimensional pattern and similarly creating a longitudinal derived depth map for the longitudinal direction, and synthesizing the lateral derived depth map and the longitudinal derived depth map to output a final depth map.

Description

本発明は、被写体までの距離の分布情報であるデプスマップを出力するデプスマップ出力装置に関する。   The present invention relates to a depth map output device that outputs a depth map that is distribution information of a distance to a subject.

撮影光学系の射出瞳の異なる領域からの光束を個別に扱えるよう構成された撮像装置が知られている(例えば、特許文献1)。このような撮像装置は、マイクロレンズアレイを構成する各々のマイクロレンズの後方に、複数の画素から成る画素配列を配置する構成を採る。このような構成とすることにより、射出瞳の異なる領域からの光束がそれぞれ異なる画素に入射するので、これらの光束を個別に扱うことが可能である。これらの光束を個別に扱うことにより、例えば一度の撮像のみで任意の撮影距離に位置する被写体に焦点が合った画像データを合成することが可能となる。また別の例として、一度の撮像によって視差を有する複数の画像を得ることも可能である。   There has been known an imaging apparatus configured to individually handle light beams from different regions of an exit pupil of a photographing optical system (for example, Patent Document 1). Such an imaging apparatus employs a configuration in which a pixel array composed of a plurality of pixels is arranged behind each microlens constituting the microlens array. With such a configuration, light beams from different regions of the exit pupil are incident on different pixels, so that these light beams can be handled individually. By handling these luminous fluxes individually, it is possible to synthesize image data focused on a subject located at an arbitrary shooting distance, for example, by only one imaging. As another example, a plurality of images having parallax can be obtained by one imaging.

他方、特許文献2には、変形例4として、被写体までの距離の分布情報であるデプスマップを作成する撮像装置が記載されている。この撮像装置は、前述の特許文献1に記載されている撮像装置と同様の手法により、左視点画像と右視点画像を作成する。その後、公知のステレオマッチング処理により2つの画像の位相差を算出し、この位相差に基づいてデプスマップを作成する。   On the other hand, Patent Document 2 describes, as Modification 4, an imaging device that creates a depth map that is distribution information of distances to a subject. This imaging apparatus creates a left viewpoint image and a right viewpoint image by a method similar to that of the imaging apparatus described in Patent Document 1 described above. Thereafter, a phase difference between the two images is calculated by a known stereo matching process, and a depth map is created based on the phase difference.

特開2007−4471号公報JP 2007-4471 A 特開2009−165115号公報JP 2009-165115 A

特許文献2に記載の撮像装置には、被写体の遠近が変化する箇所(例えば近接被写体と背景との境目)の付近において、被写体までの正確な距離を算出できないという問題があった。   The imaging device described in Patent Document 2 has a problem in that an accurate distance to the subject cannot be calculated in the vicinity of a location where the perspective of the subject changes (for example, the boundary between the close subject and the background).

請求項1に係る発明は、被写体像を所定の結像面に結像させる結像光学系と、結像面の近傍に二次元状に配列された複数の正レンズと、複数の正レンズの各々に対応して当該正レンズの後側に少なくとも3つずつ配置される複数の受光素子であって、少なくとも3つの受光素子のうち少なくとも2つの受光素子は第1方向に並んで配置され、少なくとも3つの受光素子のうち少なくとも2つの受光素子は第1方向とは異なる第2方向に並んで配置される複数の受光素子と、複数の正レンズから、第1方向に配列された複数の第1正レンズ列を選択する第1選択手段と、第1選択手段により選択された複数の第1正レンズ列の各々について、当該第1正レンズ列を構成する正レンズの各々に対応する第1方向に並んだ少なくとも2つずつの受光素子の出力を演算し、当該第1正レンズ列の中央部の正レンズに像が結ばれた被写体までの距離を表す値を算出する第1距離算出手段と、第1距離算出手段により算出された複数の距離を表す値を、当該値に対応する正レンズの位置に応じて二次元状に配列したデータである第1のデプスマップを作成する第1デプスマップ作成手段と、複数の正レンズから、第2方向に配列された複数の第2正レンズ列を選択する第2選択手段と、第2選択手段により選択された複数の第2正レンズ列の各々について、当該第2正レンズ列を構成する正レンズの各々に対応する第2方向に並んだ少なくとも2つずつの受光素子の出力を演算し、当該第2正レンズ列の中央部の正レンズに像が結ばれた被写体までの距離を表す値を算出する第2距離算出手段と、第2距離算出手段により算出された複数の距離を表す値を、当該値に対応する正レンズの位置に応じて二次元状に配列したデータである第2のデプスマップを作成する第2デプスマップ作成手段と、第1のデプスマップと第2のデプスマップとを合成し第3のデプスマップを出力する合成処理を実行するデプスマップ出力手段とを備え、複数の正レンズの各々に対応する、第1方向に並んだ少なくとも2つずつの受光素子と第2方向に並んだ少なくとも2つずつの受光素子とは、当該正レンズを介して、結像光学系の射出瞳の異なる領域からの光束をそれぞれ受光することを特徴とするデプスマップ出力装置である。   The invention according to claim 1 includes an imaging optical system that forms an image of a subject on a predetermined imaging plane, a plurality of positive lenses arranged in a two-dimensional manner in the vicinity of the imaging plane, and a plurality of positive lenses. A plurality of light receiving elements arranged at the back of the positive lens corresponding to each of the light receiving elements, wherein at least two of the at least three light receiving elements are arranged in the first direction, and at least Among the three light receiving elements, at least two light receiving elements include a plurality of light receiving elements arranged in a second direction different from the first direction and a plurality of first lenses arranged in the first direction from a plurality of positive lenses. A first direction corresponding to each of the positive lenses constituting the first positive lens array for each of the first selection means for selecting the positive lens array and the plurality of first positive lens arrays selected by the first selection means Receive at least two lights in a row The first distance calculation means that calculates the output of the child and calculates a value representing the distance to the subject whose image is formed on the positive lens in the center of the first positive lens array, and the first distance calculation means. A first depth map creating means for creating a first depth map, which is data in which values representing a plurality of distances are two-dimensionally arranged in accordance with the positions of the positive lenses corresponding to the values, and a plurality of positive lenses Second selection means for selecting a plurality of second positive lens arrays arranged in the second direction, and for each of the plurality of second positive lens arrays selected by the second selection means, the second positive lens array The outputs of at least two light receiving elements arranged in the second direction corresponding to each of the positive lenses constituting the lens are calculated, and the image of the object connected to the positive lens at the center of the second positive lens array is obtained. A second distance calculating means for calculating a value representing the distance; A second depth map that creates a second depth map that is data in which values representing a plurality of distances calculated by the second distance calculating means are arranged two-dimensionally according to the positions of the positive lenses corresponding to the values. Creating means, and depth map output means for executing synthesis processing for synthesizing the first depth map and the second depth map and outputting a third depth map, corresponding to each of the plurality of positive lenses. At least two light receiving elements arranged in the first direction and at least two light receiving elements arranged in the second direction are light beams from different regions of the exit pupil of the imaging optical system via the positive lens. Is a depth map output device characterized by receiving light respectively.

本発明によれば、被写体の遠近が変化する箇所の付近においても、被写体までの正確な距離を表す値を算出することができる。   According to the present invention, a value representing an accurate distance to a subject can be calculated even in the vicinity of a portion where the perspective of the subject changes.

本発明の第1の実施の形態によるステレオ撮像装置の構成を示す図である。It is a figure which shows the structure of the stereo imaging device by the 1st Embodiment of this invention. 制御回路40による横選択機能を説明するための模式図である。3 is a schematic diagram for explaining a horizontal selection function by a control circuit 40. FIG. デフォーカス量の算出に用いる信号列を説明する図である。It is a figure explaining the signal sequence used for calculation of the defocus amount. 位相差を演算する様子を示す図である。It is a figure which shows a mode that a phase difference is calculated. 横由来距離算出機能および縦由来距離算出機能によりデフォーカス量が算出されるマイクロレンズMLを示す図である。It is a figure which shows micro lens ML from which the defocus amount is calculated by the horizontal origin distance calculation function and the vertical origin distance calculation function. 最終的に出力されるデプスマップの範囲を示す図である。It is a figure which shows the range of the depth map finally output. 横由来デプスマップにおけるデフォーカス量について説明する図である。It is a figure explaining the defocus amount in a horizontal origin depth map.

(第1の実施の形態)
図1は、本発明の第1の実施の形態によるステレオ撮像装置の構成を示す図である。ステレオ撮像装置1は、被写体を撮像する左側撮像ユニット100および右側撮像ユニット200と、これら2つの撮像ユニットを制御するマイクロプロセッサ等より成る制御回路40とを備える。
(First embodiment)
FIG. 1 is a diagram showing a configuration of a stereo imaging device according to the first embodiment of the present invention. The stereo imaging device 1 includes a left imaging unit 100 and a right imaging unit 200 that image a subject, and a control circuit 40 that includes a microprocessor or the like that controls the two imaging units.

左側撮像ユニット100は、撮影レンズ11と、撮影レンズの背後に配置されたマイクロレンズアレイ12と、マイクロレンズアレイ12の後側に配置された撮像素子13とを備える。通常、マイクロレンズアレイ12と撮像素子13との間隔はマイクロレンズアレイ12を構成するマイクロレンズMLの焦点位置近傍に撮像素子13の受光面があるように定められるが、図1では説明のため実際よりも広く描いている。   The left imaging unit 100 includes a photographic lens 11, a microlens array 12 disposed behind the photographic lens, and an imaging element 13 disposed on the rear side of the microlens array 12. Usually, the interval between the microlens array 12 and the image pickup device 13 is determined so that the light receiving surface of the image pickup device 13 is in the vicinity of the focal position of the microlens ML constituting the microlens array 12, but in FIG. It is drawn wider than.

マイクロレンズアレイ12は、二次元状に配列された複数のマイクロレンズMLを有する。撮像素子13のマイクロレンズアレイ12に相対する撮像面には、複数の受光素子が二次元状に配列されている。これらの受光素子は一定数毎にグループ化され、各々のグループ(受光素子配列30)が各マイクロレンズMLに対応する。以下、このグループを受光素子配列と呼ぶ。本実施形態では、5行5列に配列された25個の受光素子から成る受光素子配列30が、各々のマイクロレンズMLに対応する1つのグループとなっている。   The microlens array 12 has a plurality of microlenses ML arranged in a two-dimensional shape. A plurality of light receiving elements are two-dimensionally arranged on the imaging surface of the imaging element 13 facing the microlens array 12. These light receiving elements are grouped by a certain number, and each group (light receiving element array 30) corresponds to each microlens ML. Hereinafter, this group is called a light receiving element array. In the present embodiment, the light receiving element array 30 including 25 light receiving elements arranged in 5 rows and 5 columns forms one group corresponding to each microlens ML.

受光素子配列30を構成する個々の受光素子は、撮影レンズ11の射出瞳とほぼ共役な位置に配置されている。その結果、受光素子配列30を構成する個々の受光素子は当該受光素子配列30に対応するマイクロレンズMLを介して、撮影レンズ11の射出瞳の異なる領域からの光束をそれぞれ受光する。なお、あるマイクロレンズMLに入射した被写体光が、当該マイクロレンズMLに対応する受光素子配列30に隣接する他の受光素子配列30に迷光として入射することがある。このような迷光を防止するため、各マイクロレンズMLの間の境界部に遮光マスクを設けたり、マイクロレンズアレイ12と撮像素子13との間に各受光素子配列30を仕切る仕切部材を設けたりすることが望ましい。図1ではこのような部材の図示を省略している。   The individual light receiving elements constituting the light receiving element array 30 are arranged at a position substantially conjugate with the exit pupil of the photographing lens 11. As a result, each light receiving element constituting the light receiving element array 30 receives light beams from different regions of the exit pupil of the photographing lens 11 via the microlens ML corresponding to the light receiving element array 30. Note that subject light incident on a certain microlens ML may be incident as stray light on another light receiving element array 30 adjacent to the light receiving element array 30 corresponding to the microlens ML. In order to prevent such stray light, a light shielding mask is provided at the boundary between the microlenses ML, or a partition member for partitioning each light receiving element array 30 is provided between the microlens array 12 and the imaging element 13. It is desirable. In FIG. 1, illustration of such a member is omitted.

撮像素子13には、撮像制御回路14および映像回路15が接続されている。撮像制御回路14は、撮像素子13を駆動して、露光時間、光電変換などの制御を行う。映像回路15は、撮像素子13が出力する電気信号の増幅およびアナログ−デジタル変換を行い、デジタル信号を制御回路40に出力する。制御回路40はこのデジタル信号に基づいて、被写体像を表す画像データを作成する。なお、後述の任意焦点撮影モード等において、制御回路40により作成される画像データの分解能は、マイクロレンズアレイ12におけるマイクロレンズMLの数による制限を受ける。例えば、マイクロレンズアレイ12が横にK個、縦にM個のマイクロレンズMLから構成されている場合、制御回路40により作成される画像データの画素数は、最大でK×Mとなる。   An imaging control circuit 14 and a video circuit 15 are connected to the imaging element 13. The imaging control circuit 14 drives the imaging element 13 and controls exposure time, photoelectric conversion, and the like. The video circuit 15 performs amplification and analog-digital conversion of the electrical signal output from the image sensor 13 and outputs a digital signal to the control circuit 40. The control circuit 40 creates image data representing the subject image based on the digital signal. It should be noted that the resolution of the image data created by the control circuit 40 is limited by the number of microlenses ML in the microlens array 12 in an arbitrary focus photographing mode described later. For example, when the microlens array 12 includes K microlenses ML horizontally and M microlenses ML vertically, the number of pixels of the image data created by the control circuit 40 is K × M at the maximum.

右側撮像ユニット200は、撮影レンズ21と、撮影レンズ21の背後に配置された撮像素子23とを備える。撮像素子23を構成する個々の受光素子は撮像素子13の受光素子と同一の大きさとなっている。右側撮像ユニット200は左側撮像ユニット100とは異なり、複数の受光素子に対応するマイクロレンズMLを有さない。また、左側撮像ユニット100の撮影レンズ11とマイクロレンズアレイ12の前側主面との位置関係は、右側撮像ユニット200の撮影レンズ21と撮像素子23の撮像面(受光面)との位置関係と光学的に等価である。   The right imaging unit 200 includes a photographic lens 21 and an image sensor 23 disposed behind the photographic lens 21. The individual light receiving elements constituting the image sensor 23 have the same size as the light receiving elements of the image sensor 13. Unlike the left imaging unit 100, the right imaging unit 200 does not have microlenses ML corresponding to a plurality of light receiving elements. The positional relationship between the photographing lens 11 of the left imaging unit 100 and the front main surface of the microlens array 12 is the same as the positional relationship between the photographing lens 21 of the right imaging unit 200 and the imaging surface (light receiving surface) of the imaging element 23 and optical. Are equivalent.

撮像素子23には左側撮像ユニット100の撮像素子13と同様に、撮像制御回路24および映像回路25が接続されている。撮像制御回路24は、撮像素子23を駆動して、露光時間、光電変換などの制御を行う。映像回路25は、撮像素子23が出力する電気信号の増幅およびアナログ−デジタル変換を行い、デジタル信号を制御回路40に出力する。制御回路40はこのデジタル信号に基づいて、被写体像を表す画像データを作成することが可能である。なお、本実施形態では、左側撮像ユニット100から出力されるデジタル信号から合成される画像データよりも、右側撮像ユニット200から出力されるデジタル信号に基づいて作成される画像データの方が、画素数が多くなる。これは、前者の画像データの分解能がマイクロレンズMLの個数による制限を受けるのに対し、後者の画像データにはこのような制限がないためである。   An imaging control circuit 24 and a video circuit 25 are connected to the imaging element 23 as in the imaging element 13 of the left imaging unit 100. The imaging control circuit 24 drives the imaging device 23 to control exposure time, photoelectric conversion, and the like. The video circuit 25 performs amplification and analog-digital conversion of the electrical signal output from the image sensor 23 and outputs a digital signal to the control circuit 40. The control circuit 40 can create image data representing the subject image based on the digital signal. In the present embodiment, the number of pixels of the image data created based on the digital signal output from the right imaging unit 200 is larger than the image data synthesized from the digital signal output from the left imaging unit 100. Will increase. This is because the resolution of the former image data is limited by the number of microlenses ML, whereas the latter image data has no such limitation.

撮影レンズ11および撮影レンズ21は、光学的に同等の構成を有する。撮像素子13および撮像素子23の撮像面には、不図示の光学的ローパスフィルターや赤外線カットフィルター等が設けられている。なお、図1において撮影レンズ11および撮影レンズ21は1枚のレンズとして模式的に示しているが、これらを複数のレンズで構成するものとしてもよい。   The taking lens 11 and the taking lens 21 have an optically equivalent configuration. On the image pickup surfaces of the image pickup device 13 and the image pickup device 23, an optical low-pass filter (not shown), an infrared cut filter, and the like are provided. In FIG. 1, the photographic lens 11 and the photographic lens 21 are schematically shown as a single lens, but these may be constituted by a plurality of lenses.

以上で説明した左側撮像ユニット100と右側撮像ユニット200は、撮影レンズ11および撮影レンズ21の光軸が大人の平均的目幅よりやや短い60mmだけ離れるように配置される。すなわち、図1における基線長Sは60mmである。   The left imaging unit 100 and the right imaging unit 200 described above are arranged so that the optical axes of the photographing lens 11 and the photographing lens 21 are separated by 60 mm, which is slightly shorter than the average eye width of adults. That is, the base line length S in FIG. 1 is 60 mm.

制御回路40は、左側撮像ユニット100の撮像制御回路14および映像回路15と、右側撮像ユニット200の撮像制御回路24および映像回路25とに接続されており、これらの回路の制御を行う。制御回路40は更に、横選択機能と、横由来距離算出機能と、横由来デプスマップ作成機能と、縦選択機能と、縦由来距離算出機能と、縦由来デプスマップ作成機能と、デプスマップ合成機能と、の各機能を有する。これらの各機能については後に詳述する。   The control circuit 40 is connected to the imaging control circuit 14 and the video circuit 15 of the left imaging unit 100 and the imaging control circuit 24 and the video circuit 25 of the right imaging unit 200, and controls these circuits. The control circuit 40 further includes a horizontal selection function, a horizontal origin distance calculation function, a horizontal origin depth map creation function, a vertical selection function, a vertical origin distance calculation function, a vertical origin depth map creation function, and a depth map synthesis function. And each function. Each of these functions will be described in detail later.

(ステレオ撮像装置の動作モードの説明)
ステレオ撮像装置1は、例えばキーパッド等の不図示の入力装置を備える。ユーザはこの入力装置により、制御回路40に4種類の指示信号を送信することが可能である。4種類の指示信号とは、通常撮影指示信号、任意焦点撮影指示信号、ステレオ撮影指示信号、およびデプスマップ作成指示信号である。いずれかの種類の指示信号を受信した制御回路40は、当該指示信号に応じて左側撮像ユニット100および右側撮像ユニット200を制御する。
(Description of operation mode of stereo imaging device)
The stereo imaging device 1 includes an input device (not shown) such as a keypad. The user can transmit four types of instruction signals to the control circuit 40 using this input device. The four types of instruction signals are a normal shooting instruction signal, an arbitrary focus shooting instruction signal, a stereo shooting instruction signal, and a depth map creation instruction signal. The control circuit 40 that has received any kind of instruction signal controls the left imaging unit 100 and the right imaging unit 200 in accordance with the instruction signal.

通常撮影指示信号を受信した制御回路40は、通常撮影モードによる動作を開始する。このモードでは、制御回路40は右側撮像ユニット200または左側撮像ユニット100を制御し、当該撮像ユニットから出力されるデジタル信号(画像信号)を受信する。そして、この画像信号に対して公知の画像処理を適用することにより、1つの画像データを作成する。制御回路40はこのようにして作成された画像データを、例えばメモリーカード等の不図示の記憶媒体に記憶させたり、液晶モニタ等の不図示の表示装置に表示させたりする。このモードにおいて左側撮像ユニット100から得られた画像データは、後に特許文献1に記載された公知の処理をパーソナルコンピュータ等に実行させることにより、任意の焦点面に対応する画像データを合成させるのに適している。   The control circuit 40 that has received the normal shooting instruction signal starts an operation in the normal shooting mode. In this mode, the control circuit 40 controls the right imaging unit 200 or the left imaging unit 100 and receives a digital signal (image signal) output from the imaging unit. Then, one image data is created by applying known image processing to the image signal. The control circuit 40 stores the image data thus created in a storage medium (not shown) such as a memory card or displays it on a display device (not shown) such as a liquid crystal monitor. In this mode, the image data obtained from the left imaging unit 100 is used to synthesize image data corresponding to an arbitrary focal plane by causing a personal computer or the like to execute a known process described in Patent Document 1 later. Is suitable.

任意焦点撮影指示信号を受信した制御回路40は、任意焦点撮影モードによる動作を開始する。このモードでは、制御回路40は左側撮像ユニット100を制御し、当該撮像ユニットから出力されるデジタル信号を受信する。そして、このデジタル信号に対し、例えば特許文献1などに記載された公知の処理を適用することで、任意の絞り値および任意の焦点面に対応する画像データを作成する。制御回路40はこのようにして作成された画像データを通常撮影モードの場合と同様に、記憶媒体に記憶させたり表示装置に表示させたりする。   The control circuit 40 that has received the arbitrary focus shooting instruction signal starts an operation in the arbitrary focus shooting mode. In this mode, the control circuit 40 controls the left imaging unit 100 and receives a digital signal output from the imaging unit. For example, image data corresponding to an arbitrary aperture value and an arbitrary focal plane is created by applying a known process described in, for example, Patent Document 1 to the digital signal. The control circuit 40 stores the image data created in this way in a storage medium or displays it on a display device, as in the normal photographing mode.

ステレオ撮影指示信号を受信した制御回路40は、ステレオ撮影モードによる動作を開始する。このモードでは、制御回路40は左側撮像ユニット100および右側撮像ユニット200の両方を制御し、2つの撮像ユニットからそれぞれ出力されるデジタル信号を受信して2つの画像データを作成する。この2つの画像データは、視差を有する一対のステレオ画像データとなっている。制御回路40は、右側撮像ユニット200が出力したデジタル信号から通常撮影モードと同様に画像データを作成する。他方、左側撮像ユニット100が出力したデジタル信号から作成される画像データは、各受光素子配列30につき1つの受光素子の出力を抽出し、それを並べることにより形成される。その際、各受光素子配列30からは、受光素子配列30の中央部よりも右側撮像ユニット200の方向に近い受光素子の出力を抽出する。このように抽出することで、左側撮像ユニット100と右側撮像ユニット200との間隔Sよりも広い基線長のステレオ画像データが得られる。このステレオ画像データは、例えばスキャンバックライト方式の立体表示装置に表示させることにより、ユーザに立体視を行わせることが可能なデータである。   The control circuit 40 that has received the stereo shooting instruction signal starts operation in the stereo shooting mode. In this mode, the control circuit 40 controls both the left imaging unit 100 and the right imaging unit 200, receives digital signals output from the two imaging units, and creates two image data. These two image data are a pair of stereo image data having parallax. The control circuit 40 creates image data from the digital signal output from the right imaging unit 200 as in the normal shooting mode. On the other hand, the image data created from the digital signal output from the left imaging unit 100 is formed by extracting the outputs of one light receiving element for each light receiving element array 30 and arranging them. At that time, from each light receiving element array 30, the output of the light receiving element closer to the right imaging unit 200 than the central part of the light receiving element array 30 is extracted. By extracting in this way, stereo image data having a base length wider than the interval S between the left imaging unit 100 and the right imaging unit 200 is obtained. The stereo image data is data that allows the user to perform stereoscopic viewing by displaying the stereoscopic image data on, for example, a scan backlight type stereoscopic display device.

なお、こうして左側撮像ユニット100の出力に基づいて作成される画像データは、右側撮像ユニット200の出力に基づいて作成される画像データよりも画素数が少ない。制御回路40は前者に補間処理を適用したり後者に間引き処理を適用したりすることにより、これら2つの画像データの解像度を合致させる。   The image data created based on the output of the left imaging unit 100 in this way has fewer pixels than the image data created based on the output of the right imaging unit 200. The control circuit 40 matches the resolution of these two image data by applying interpolation processing to the former or applying thinning processing to the latter.

デプスマップ作成指示信号を受信した制御回路40は、デプスマップ作成モードによる動作を開始する。このモードでは、制御回路40は左側撮像ユニット100のみを制御し、当該撮像ユニットから出力されるデジタル信号を受信する。そして、任意焦点撮影モードの場合と同様に画像データを作成した後に、デプスマップ(後述)を作成する。制御回路40は上記の画像データおよびデプスマップを、例えば記憶媒体に記憶させたり表示装置に表示させたりする。   The control circuit 40 that has received the depth map creation instruction signal starts an operation in the depth map creation mode. In this mode, the control circuit 40 controls only the left imaging unit 100 and receives a digital signal output from the imaging unit. Then, after creating the image data as in the case of the arbitrary focus photographing mode, a depth map (described later) is created. The control circuit 40 stores the image data and the depth map in, for example, a storage medium or displays them on a display device.

(デプスマップの説明)
制御回路40は、左側撮像ユニット100から出力されるデジタル信号を用いて、デプスマップを作成する。デプスマップとは、被写体までの距離の分布情報である。本実施形態では、マイクロレンズアレイ12を構成する各々のマイクロレンズMLについて、当該マイクロレンズMLの前後に像が結ばれた被写体までの距離を表す値であるデフォーカス量を、当該マイクロレンズMLの位置に応じて二次元状に配列したデータをデプスマップと呼ぶ。被写体までの距離は、デフォーカス量と撮影レンズ11の焦点距離並びに焦点調節面情報により決まることは光学上明らかである。ここでデフォーカス量とは、被写体像の結像位置と所定の基準面(焦点検出面)との変位を表す数値である。
(Description of depth map)
The control circuit 40 creates a depth map using the digital signal output from the left imaging unit 100. The depth map is distribution information of the distance to the subject. In the present embodiment, for each microlens ML that constitutes the microlens array 12, a defocus amount that is a value representing a distance to a subject on which an image is formed before and after the microlens ML is set to the microlens ML. Data arranged two-dimensionally according to the position is called a depth map. It is optically clear that the distance to the subject is determined by the defocus amount, the focal length of the taking lens 11, and the focus adjustment plane information. Here, the defocus amount is a numerical value representing the displacement between the imaging position of the subject image and a predetermined reference plane (focus detection plane).

デプスマップは、制御回路40が有する横選択機能と、横由来距離算出機能と、横由来デプスマップ作成機能と、縦選択機能と、縦由来距離算出機能と、縦由来デプスマップ作成機能と、デプスマップ合成機能と、の各機能により作成される。以下では、これらの各機能について説明する。   The depth map includes a horizontal selection function, a horizontal-derived distance calculation function, a horizontal-derived depth map creation function, a vertical selection function, a vertical-derived distance calculation function, a vertical-derived depth map creation function, a depth, which the control circuit 40 has. It is created by each function of the map composition function. Hereinafter, each of these functions will be described.

(横選択機能の説明)
図2は、制御回路40による横選択機能を説明するための模式図である。以下の説明では、マイクロレンズアレイ12が横にK個、縦にM個のマイクロレンズMLから構成されているものとする。横選択機能とは、マイクロレンズアレイ12を構成するこれら複数のマイクロレンズMLから、横方向に配列された複数の横レンズ列を選択する機能である。
(Explanation of horizontal selection function)
FIG. 2 is a schematic diagram for explaining the horizontal selection function by the control circuit 40. In the following description, it is assumed that the microlens array 12 is composed of K microlenses ML horizontally and M microlenses ML vertically. The horizontal selection function is a function of selecting a plurality of horizontal lens rows arranged in the horizontal direction from the plurality of microlenses ML constituting the microlens array 12.

横選択機能においては、まずマイクロレンズアレイ12が制御回路40により図2(a)に示すように横一列ごとのグループ50に区切られる。これにより、M個のグループ50が作成される。なお図2では、このようにして区切られたグループ50を構成するマイクロレンズMLに対して、説明のため左から順に1から始まる番号を割り当てている。   In the horizontal selection function, the microlens array 12 is first partitioned into groups 50 for each horizontal row as shown in FIG. Thereby, M groups 50 are created. In FIG. 2, numbers starting from 1 are assigned in order from the left to the microlenses ML constituting the group 50 divided in this way for the sake of explanation.

次に制御回路40は、図2(b)に示すように、当該グループ50の左端より、後述のNの最小値によって決まるずらし代分右方からマイクロレンズMLを所定数だけ抽出する。本実施形態では、この所定数は5である。すなわち、制御回路40はグループ50の左端から3番目より5つのマイクロレンズML(3番目のマイクロレンズMLから7番目のマイクロレンズMLまで)を抽出する。横選択機能では、このようにして抽出された5つのマイクロレンズMLが、1つの横レンズ列50aとして選択される。制御回路40はその後、図2(c)に示すように、左から4番目のマイクロレンズMLから、左から7番目のマイクロレンズMLまで、5つのマイクロレンズMLを抽出し、新たな横レンズ列50bとして選択する。制御回路40は、対象とするマイクロレンズMLを1つずつ右へずらしながらこれを繰り返し、グループ50から複数の横レンズ列を横レンズ列同士で一部のマイクロレンズMLが重複し合うように選択する。   Next, as shown in FIG. 2B, the control circuit 40 extracts a predetermined number of microlenses ML from the left end of the group 50 from the right side of the shift amount determined by the minimum value of N described later. In the present embodiment, this predetermined number is five. That is, the control circuit 40 extracts five microlenses ML (from the third microlens ML to the seventh microlens ML) from the third from the left end of the group 50. In the horizontal selection function, the five microlenses ML extracted in this way are selected as one horizontal lens row 50a. The control circuit 40 then extracts five microlenses ML from the fourth microlens ML from the left to the seventh microlens ML from the left, as shown in FIG. Select as 50b. The control circuit 40 repeats this while shifting the target microlens ML to the right one by one, and selects a plurality of horizontal lens rows from the group 50 so that some microlenses ML overlap each other. To do.

なお、制御回路40は縦選択機能についても同様に、縦方向に配列された複数の縦レンズ列を選択する。横選択機能と縦選択機能との違いは、マイクロレンズMLおよび受光素子の配列方向が横方向か縦方向かの違いのみである。   The control circuit 40 selects a plurality of vertical lens rows arranged in the vertical direction in the same manner for the vertical selection function. The only difference between the horizontal selection function and the vertical selection function is whether the arrangement direction of the microlenses ML and the light receiving elements is the horizontal direction or the vertical direction.

(横由来距離算出機能の説明)
横由来距離算出機能は、横選択機能により選択された複数の横レンズ列の各々について、当該横レンズ列の中央部のマイクロレンズMLに像が結ばれた被写体までの距離を表す値を算出する機能である。前述の通り、本実施形態では被写体までの距離を表す値としてデフォーカス量を用いるので、横由来距離算出機能により算出されるのはデフォーカス量である。
(Explanation of lateral distance calculation function)
The lateral distance calculation function calculates, for each of a plurality of horizontal lens rows selected by the horizontal selection function, a value representing the distance to the subject whose image is formed on the microlens ML at the center of the horizontal lens row. It is a function. As described above, since the defocus amount is used as a value representing the distance to the subject in the present embodiment, the defocus amount is calculated by the lateral origin distance calculation function.

なお本実施形態では、実際の結像位置が焦点検出面より被写体側である場合にデフォーカス量が正になるよう、デフォーカス量の算出手順を定める。従って、被写体がステレオ撮像装置1から遠ざかる方向が、デフォーカス量が増大する方向である。   In the present embodiment, the defocus amount calculation procedure is determined so that the defocus amount becomes positive when the actual imaging position is closer to the subject side than the focus detection surface. Therefore, the direction in which the subject moves away from the stereo imaging device 1 is the direction in which the defocus amount increases.

図3は、デフォーカス量の算出に用いる信号列を説明する図である。なお、図3においてマイクロレンズMLに付された番号は、マイクロレンズアレイ12の横一列において左端のマイクロレンズMLから順に付された番号である。横由来距離算出機能において、制御回路40はまず、各々の横レンズ列50に対応する2つの信号列を作成する。これら2つの信号列は、受光素子配列30に含まれる受光素子のうち特定の受光素子の出力を用いて作成される。本実施形態の制御回路40は、図3に示す受光素子配列30のうち、中央左側の受光素子aと、中央右側の受光素子bと、の各出力を用いて2つの信号列を作成する。   FIG. 3 is a diagram for explaining a signal sequence used for calculating the defocus amount. In FIG. 3, the numbers assigned to the microlenses ML are the numbers assigned sequentially from the leftmost microlens ML in the horizontal row of the microlens array 12. In the lateral distance calculation function, the control circuit 40 first creates two signal sequences corresponding to each lateral lens array 50. These two signal sequences are created using the outputs of specific light receiving elements among the light receiving elements included in the light receiving element array 30. The control circuit 40 of the present embodiment creates two signal sequences using outputs of the light receiving element a on the center left side and the light receiving element b on the right side of the center in the light receiving element array 30 shown in FIG.

制御回路40は、横レンズ列50に含まれるマイクロレンズMLに対応する受光素子配列30から、上記の特定の受光素子の出力を抽出する。例えば図3では、横レンズ列50を構成する5つのマイクロレンズMLの各々から、受光素子aの出力と受光素子bの出力とを抽出している。制御回路40は、このようにして抽出された受光素子aの出力をマイクロレンズMLの並び通りに配列し、第1信号列51を作成する。制御回路40は同様にして受光素子bの出力を配列し、第2信号列52を作成する。以下の説明では、n番のマイクロレンズMLに対応する受光素子aの出力をa(n)、受光素子bの出力をb(n)で表す。すなわち、第1信号列51はa(3)からa(7)の各信号値から構成され、第2信号列52はb(3)からb(7)の各信号値から構成される。   The control circuit 40 extracts the output of the specific light receiving element from the light receiving element array 30 corresponding to the microlens ML included in the horizontal lens array 50. For example, in FIG. 3, the output of the light receiving element a and the output of the light receiving element b are extracted from each of the five microlenses ML constituting the horizontal lens array 50. The control circuit 40 arranges the outputs of the light receiving elements a thus extracted in the order of the microlenses ML, and creates the first signal sequence 51. Similarly, the control circuit 40 arranges the outputs of the light receiving elements b and creates the second signal sequence 52. In the following description, the output of the light receiving element a corresponding to the nth microlens ML is represented by a (n), and the output of the light receiving element b is represented by b (n). That is, the first signal sequence 51 is composed of signal values a (3) to a (7), and the second signal sequence 52 is composed of signal values b (3) to b (7).

制御回路40は、以上のように各横レンズ列について作成された第1信号列51と、当該横レンズ列の周囲に位置する横レンズ列について作成された第2信号列52等との位相差を演算することにより、デフォーカス量を算出する。具体的なデフォーカスの算出方法は、例えば特開昭60−37513号公報に記載されている公知の方法を用いる。   As described above, the control circuit 40 determines the phase difference between the first signal train 51 created for each lateral lens train and the second signal train 52 created for the lateral lens train positioned around the lateral lens train. Is calculated to calculate the defocus amount. As a specific defocus calculation method, for example, a known method described in JP-A-60-37513 is used.

図4は、位相差を演算する様子を示す図である。図4に示す横レンズ列50aについてデフォーカス量を求める際、制御回路40はまず横レンズ列50aに対応する第1信号列51と、同一の横レンズ列50aに対応する第2信号列52との相関値を算出する。次に、1つ右隣の横レンズ列に対応する第2信号列53との相関値、2つ右隣の横レンズ列に対応する第2信号列54との相関値、などを、横レンズ列50aの左右の一定範囲に位置する複数の横レンズ列の各々について算出する。横レンズ列50aより左方の横レンズ列に対応する信号列についても同様に算出する。デフォーカス量を算出する対象である横レンズ列と、相関値の演算対象となる横レンズ列との位置のずれをシフト数と呼ぶ。デフォーカス量の算出の際、制御回路40はシフト数Nを所定範囲(例えば−5〜+5)で変化させながら、次式(1)で定義される相関値C(N)を算出する。すなわち、相関値C(−5)、C(−4)、C(−3)、…、C(3)、C(4)、C(5)を算出する。ただし、図4では簡易のためシフト数Nを−2から+2の範囲で変化させる例を表している。ここでpLは第1信号列51の左端の信号値に対応するマイクロレンズMLの番号、qLは第1信号列51の右端の信号値に対応するマイクロレンズMLの番号である。   FIG. 4 is a diagram illustrating how the phase difference is calculated. When obtaining the defocus amount for the lateral lens array 50a shown in FIG. 4, the control circuit 40 firstly has a first signal array 51 corresponding to the lateral lens array 50a and a second signal array 52 corresponding to the same lateral lens array 50a. The correlation value of is calculated. Next, the correlation value with the second signal sequence 53 corresponding to the right adjacent horizontal lens sequence, the correlation value with the second signal sequence 54 corresponding to the right adjacent horizontal lens sequence, etc. Calculation is performed for each of a plurality of horizontal lens rows positioned in a certain range on the left and right of the row 50a. The signal sequence corresponding to the horizontal lens column on the left side of the horizontal lens column 50a is similarly calculated. The shift in position between the horizontal lens array that is the target for calculating the defocus amount and the horizontal lens array that is the target for calculating the correlation value is referred to as a shift number. When calculating the defocus amount, the control circuit 40 calculates the correlation value C (N) defined by the following equation (1) while changing the shift number N within a predetermined range (for example, −5 to +5). That is, correlation values C (−5), C (−4), C (−3),..., C (3), C (4), and C (5) are calculated. However, FIG. 4 shows an example in which the shift number N is changed in the range of −2 to +2 for simplicity. Here, pL is the number of the microlens ML corresponding to the leftmost signal value of the first signal sequence 51, and qL is the number of the microlens ML corresponding to the rightmost signal value of the first signal sequence 51.

このようにして算出された相関値C(N)のうち、極小値をC0と呼ぶ。また、C(N)=C0となるN、すなわち相関値が極小となるシフト数をN0と呼ぶ。制御回路40はこのシフト数N0から、次式(2)で更に精密なシフト数Naを算出する。ここでCrはC(N0−1)、CfはC(N0+1)である。   Of the correlation values C (N) calculated in this way, the minimum value is referred to as C0. Further, N where C (N) = C0, that is, the number of shifts at which the correlation value is minimized is referred to as N0. The control circuit 40 calculates a more precise shift number Na from the shift number N0 by the following equation (2). Here, Cr is C (N0-1), and Cf is C (N0 + 1).

制御回路40は、式(2)で求められたシフト数Naに焦点検出面の位置に応じた所定の補正量constを加え、焦点検出面での像ずれ量Δnを算出する。最終的なデフォーカス量Dfは、上記の像ずれ量Δnに、検出開角に依存した定数Kfを乗ずることで算出することができる。すなわち、デフォーカス量Df=Δn×Kfである。   The control circuit 40 adds a predetermined correction amount const according to the position of the focus detection surface to the shift number Na obtained by Expression (2), and calculates an image shift amount Δn on the focus detection surface. The final defocus amount Df can be calculated by multiplying the image shift amount Δn by a constant Kf that depends on the detected opening angle. That is, the defocus amount Df = Δn × Kf.

ここで、式(2)は常に信頼できるシフト数Naを算出するわけではない。すなわち、式(2)による計算結果が、信頼性の低いシフト数Naとなる場合がある。そこで制御回路40は、シフト数Naの算出後、次式(3)によりシフト数Naの信頼性を表す信頼性パラメータRを計算する。信頼性パラメータRは、シフト数Naの信頼性が高いほど小さくなる。制御回路40は、信頼性パラメータRが所定値より大きい場合、当該横レンズ列からはデフォーカス量を算出することが不可能であると判断する。   Here, equation (2) does not always calculate a reliable shift number Na. That is, the calculation result according to the equation (2) may be a shift number Na with low reliability. Therefore, after calculating the shift number Na, the control circuit 40 calculates a reliability parameter R representing the reliability of the shift number Na by the following equation (3). The reliability parameter R decreases as the reliability of the shift number Na increases. When the reliability parameter R is larger than the predetermined value, the control circuit 40 determines that it is impossible to calculate the defocus amount from the horizontal lens row.

以上において算出されたデフォーカス量は、デフォーカス量の算出対象となった横レンズ列の中央に位置するマイクロレンズMLの位置に対するデフォーカス量である。制御回路40は横選択機能において選択された全ての横レンズ列に対して、以上で説明した手順でデフォーカス量を算出する。これにより、マイクロレンズアレイ12に含まれる全てのマイクロレンズMLのうち、左右両端付近のマイクロレンズMLを除くマイクロレンズMLについて、そのデフォーカス量が算出される。   The defocus amount calculated above is the defocus amount with respect to the position of the microlens ML located at the center of the horizontal lens row that is the defocus amount calculation target. The control circuit 40 calculates the defocus amount by the procedure described above for all the horizontal lens rows selected by the horizontal selection function. As a result, the defocus amount is calculated for the microlenses ML except for the microlenses ML near the left and right ends of all the microlenses ML included in the microlens array 12.

図5は、横由来距離算出機能および縦由来距離算出機能によりデフォーカス量が算出されるマイクロレンズMLを示す図である。図5において斜線で示す範囲については、デフォーカス量の算出が行われない。従って、図5(a)にマイクロレンズMLの左右両端を除く範囲56についてデフォーカス量が算出されることとなる。   FIG. 5 is a diagram illustrating the microlens ML in which the defocus amount is calculated by the horizontal-derived distance calculation function and the vertical-derived distance calculation function. In the range indicated by hatching in FIG. 5, the defocus amount is not calculated. Accordingly, in FIG. 5A, the defocus amount is calculated for the range 56 excluding the left and right ends of the microlens ML.

なお、制御回路40は縦由来距離算出機能についても同様に、縦選択機能により選択された複数の縦レンズ列の各々について、当該縦レンズ列の中央部のマイクロレンズMLに像が結ばれた被写体までの距離を算出する。図5(b)に示す範囲57が、縦由来距離算出機能によりデフォーカス量が算出される範囲である。横由来距離算出機能と縦由来距離算出機能との違いは、マイクロレンズML並びに用いられる受光素子の配列方向が横方向か縦方向かの違いのみである。   Note that the control circuit 40 similarly applies to the longitudinal distance calculation function, and for each of the plurality of vertical lens rows selected by the vertical selection function, the subject in which an image is formed on the microlens ML at the center of the vertical lens row. The distance to is calculated. A range 57 illustrated in FIG. 5B is a range in which the defocus amount is calculated by the longitudinal-derived distance calculation function. The only difference between the horizontal origin distance calculation function and the vertical origin distance calculation function is whether the arrangement direction of the microlens ML and the light receiving elements used is the horizontal direction or the vertical direction.

(横由来デプスマップ作成機能の説明)
横由来デプスマップ作成機能は、横由来距離算出機能により算出された各マイクロレンズに対応する被写体までの距離を表す値であるデフォーカス量を、当該距離に対応するマイクロレンズMLの位置に応じて二次元状に配列し横由来デプスマップを作成する機能である。制御回路40は、各マイクロレンズMLにおけるデフォーカス量を、マイクロレンズアレイ12上の位置通りに配列することにより、横由来デプスマップを作成する。なお、制御回路40は縦由来デプスマップ作成機能についても同様に、縦由来距離算出機能により算出された複数のデフォーカス量を二次元状に配列することにより、縦由来デプスマップを作成する。
(Description of horizontal origin depth map creation function)
The horizontal-derived depth map creation function determines a defocus amount, which is a value representing the distance to the subject corresponding to each microlens calculated by the horizontal-derived distance calculation function, according to the position of the microlens ML corresponding to the distance. This is a function to create a horizontal-derived depth map arranged in two dimensions. The control circuit 40 creates a laterally derived depth map by arranging the defocus amounts in the respective microlenses ML in accordance with the positions on the microlens array 12. The control circuit 40 similarly creates a vertical-derived depth map by arranging a plurality of defocus amounts calculated by the vertical-derived distance calculating function in a two-dimensional manner for the vertical-derived depth map creating function.

なお制御回路40は、デフォーカス量を算出することが不可能であると判定されていた場合には、当該デフォーカス量を周囲(上下左右)のマイクロレンズMLのデフォーカス量から内挿して求め、横由来デプスマップおよび縦由来デプスマップを作成する。   If it is determined that the defocus amount cannot be calculated, the control circuit 40 interpolates the defocus amount from the defocus amount of the surrounding (up / down / left / right) microlenses ML. A horizontal-derived depth map and a vertical-derived depth map are created.

(デプスマップ合成機能の説明)
デプスマップ合成機能は、横由来デプスマップと縦由来デプスマップとを合成し最終的なデプスマップを出力する合成処理を実行する機能である。具体的には、制御回路40は横由来デプスマップと縦由来デプスマップとの両方にデフォーカス量が含まれている各マイクロレンズMLについて、横由来デプスマップ上のデフォーカス量と、縦由来デプスマップ上のデフォーカス量とを比較し、大きい方のデフォーカス量を最終的なデプスマップにおけるデフォーカス量として採用する。
(Description of depth map composition function)
The depth map synthesizing function is a function for executing a synthesizing process for synthesizing the horizontal-derived depth map and the vertical-derived depth map and outputting a final depth map. Specifically, for each microlens ML in which the defocus amount is included in both the horizontal-derived depth map and the vertical-derived depth map, the control circuit 40 determines the defocus amount on the horizontal-derived depth map and the vertical-derived depth. The defocus amount on the map is compared, and the larger defocus amount is adopted as the defocus amount in the final depth map.

図6は、最終的に出力されるデプスマップの範囲を示す図である。図6に示すように、制御回路40はマイクロレンズアレイ12のうち上下左右の端部を除いた範囲58内のマイクロレンズMLについてのデフォーカス量を配列したデプスマップを出力する。上記のような合成を行うのは、近距離の被写体と遠距離の被写体との境界におけるデフォーカス量が、近距離の被写体の影響を受けやすい、という理由による。この点について以下に説明する。   FIG. 6 is a diagram showing the range of the depth map that is finally output. As shown in FIG. 6, the control circuit 40 outputs a depth map in which the defocus amounts for the microlenses ML in the range 58 excluding the upper, lower, left and right ends of the microlens array 12 are arranged. The combination as described above is performed because the defocus amount at the boundary between the short-distance subject and the long-distance subject is easily affected by the short-distance subject. This will be described below.

図7は、横由来デプスマップにおけるデフォーカス量について説明する図である。図7(a)に示す撮影画像60には、各受光素子配列30の境界線を重ねている。撮影画像60において網掛けされた領域は、遠くの被写体が撮像されていることを表す。ここで、最下端の各受光素子配列30より成る部分列61において、受光素子配列PP(6)やPP(12)は、近くの被写体と遠くの被写体との境界に位置している。   FIG. 7 is a diagram for explaining the defocus amount in the laterally derived depth map. In the photographed image 60 shown in FIG. 7A, the boundary lines of the respective light receiving element arrays 30 are superimposed. The shaded area in the photographed image 60 represents that a distant subject has been imaged. Here, in the partial row 61 including the light receiving element arrays 30 at the lowermost end, the light receiving element arrays PP (6) and PP (12) are located at the boundary between the near subject and the far subject.

ここで、PP(5)は遠くの被写体に対応しているため、この箇所におけるデフォーカス量は大きくなることが望ましい。しかしながら、図7(b)に示すように、デフォーカス量の算出は左右のマイクロレンズMLに対応する受光素子の出力を含む形で行われる。すなわち、PP(5)のデフォーカス量を算出するにあたり、式(1)において、この例ではa(3)からa(7)を用いる。ただしここにa(n)はPP(n)から抽出した出力である。従って、このデフォーカス量に対して信号値a(6)などが影響を及ぼすことになる。その結果、実際に算出されるデフォーカス量は理想値よりも小さくなる。理想的なデフォーカス量と実際に算出されるデフォーカス量とのグラフを図7(c)に示す。実際に算出されるデフォーカス量63(図7(c)の実線のグラフ)は、遠くの被写体と近くの被写体との境界付近において、理想的なデフォーカス量62(図7(c)の点線のグラフ)に比べ小さくなる傾向がある。   Here, since PP (5) corresponds to a distant subject, it is desirable that the defocus amount at this point be large. However, as shown in FIG. 7B, the defocus amount is calculated including the outputs of the light receiving elements corresponding to the left and right microlenses ML. That is, in calculating the defocus amount of PP (5), a (3) to a (7) are used in this example in Equation (1). Here, a (n) is an output extracted from PP (n). Accordingly, the signal value a (6) or the like affects the defocus amount. As a result, the actually calculated defocus amount is smaller than the ideal value. A graph of the ideal defocus amount and the actually calculated defocus amount is shown in FIG. The actually calculated defocus amount 63 (solid line graph in FIG. 7C) is an ideal defocus amount 62 (dotted line in FIG. 7C) near the boundary between a distant subject and a near subject. There is a tendency to become smaller than the graph of

制御回路40が横由来デプスマップと縦由来デプスマップとを合成することにより最終的なデプスマップを作成するのは、遠くの被写体と近くの被写体との境界付近におけるこのような不具合を解消するためである。すなわち、遠くの被写体と近くの被写体とが横方向に隣接する箇所であっても、縦方向には隣接していない場合であれば、上述のような境界における問題を解消することが可能である。縦方向に隣接し、横方向に隣接していない場合についても同様である。   The reason why the control circuit 40 creates the final depth map by combining the horizontal-derived depth map and the vertical-derived depth map is to eliminate such a problem in the vicinity of the boundary between the distant subject and the nearby subject. It is. That is, even if a far subject and a nearby subject are adjacent in the horizontal direction, the problem at the boundary as described above can be solved if the subject is not adjacent in the vertical direction. . The same applies to the case of adjacent in the vertical direction and not adjacent in the horizontal direction.

上述した第1の実施の形態によるステレオ撮像装置によれば、次の作用効果が得られる。
(1)制御回路40は、マイクロレンズアレイ12に含まれる複数のマイクロレンズMLから横方向に配列された複数の横レンズ列を選択し、選択された横レンズ列の各々について当該横レンズ列を構成するマイクロレンズMLの各々に対応する受光素子の出力を演算し、当該横レンズ列の中央部のマイクロレンズMLの前後に像が結ばれた被写体までの距離を表す値を算出すると共に、これらの値を二次元状に配置して横由来デプスマップを作成する。そして、同様に縦方向について縦由来デプスマップを作成した後、横由来デプスマップと縦由来デプスマップとを合成し最終的なデプスマップを出力する。このようにしたので、被写体の遠近が変化する箇所の付近においても、被写体までの正確な距離を表す値を算出することができる。
According to the stereo imaging device according to the first embodiment described above, the following operational effects can be obtained.
(1) The control circuit 40 selects a plurality of horizontal lens rows arranged in the horizontal direction from the plurality of microlenses ML included in the microlens array 12, and selects the horizontal lens row for each of the selected horizontal lens rows. The outputs of the light receiving elements corresponding to the respective microlenses ML are calculated, and values representing the distances to the subject where the image is formed before and after the microlenses ML at the center of the horizontal lens row are calculated. A horizontal-derived depth map is created by arranging the values of in two dimensions. Similarly, after creating a vertical-derived depth map in the vertical direction, the horizontal-derived depth map and the vertical-derived depth map are combined to output a final depth map. Since it did in this way, the value showing the exact distance to a to-be-photographed object can be calculated also in the vicinity of the location where the distance of a to-be-photographed object changes.

(第2の実施の形態)
第2の実施の形態に係るステレオ撮像装置は、図1に示す第1の実施の形態に係るステレオ撮像装置1と同一の構成を備える。これに加えて制御回路40は、左側撮像ユニット100において作成されたデプスマップから、右側撮像ユニット200により作成された撮影画像に対応するデプスマップを作成する機能を有する。以下、この機能について説明する。
(Second Embodiment)
The stereo imaging device according to the second embodiment has the same configuration as the stereo imaging device 1 according to the first embodiment shown in FIG. In addition, the control circuit 40 has a function of creating a depth map corresponding to the captured image created by the right imaging unit 200 from the depth map created by the left imaging unit 100. Hereinafter, this function will be described.

デプスマップ作成指示信号を受信した本実施形態の制御回路40は、左側撮像ユニット100を用いて撮影画像およびデプスマップを作成すると同時に、右側撮像ユニット200を用いて撮影画像を作成する。このとき、撮影レンズ11および撮影レンズ21は被写界の同一の面にピントが合った状態にしておく。制御回路40は、撮像が行われた時の焦点調節面の情報を、撮影レンズ11および撮影レンズ21に取り付けられた不図示のエンコーダ等により検知しておく。ここで、焦点調節面の情報とは、撮影レンズ11および撮影レンズ21のピントが合わせられている被写体距離のことであり、例えば1mや3mといった情報である。   Upon receiving the depth map creation instruction signal, the control circuit 40 according to the present embodiment creates a captured image and a depth map using the left imaging unit 100 and simultaneously creates a captured image using the right imaging unit 200. At this time, the photographing lens 11 and the photographing lens 21 are kept in focus on the same surface of the object scene. The control circuit 40 detects information on the focus adjustment surface when the image is taken by an encoder (not shown) attached to the taking lens 11 and the taking lens 21. Here, the information on the focus adjustment surface is a subject distance to which the photographing lens 11 and the photographing lens 21 are focused, and is information such as 1 m or 3 m, for example.

制御回路40はその後、第1の実施の形態の場合と同様に、左側撮像ユニット100を用いて撮影画像およびデプスマップを作成する。その後制御回路40は、作成されたデプスマップと前述の焦点調節面の情報とから、デプスマップを構成する各点毎に被写体までの距離を算出する。例えば撮影レンズ11の焦点距離が50mmであり、被写体距離が1mであった場合、撮影レンズ11から1m前方に位置する被写体において、デフォーカス量が0となる。また、例えばデフォーカス量が0.5mmであった場合、被写体距離は1.25mと計算される。同様に、他のデフォーカス量の場合でも、その値に応じて、被写体までの距離を算出することが可能である。   Thereafter, the control circuit 40 creates a captured image and a depth map using the left imaging unit 100, as in the case of the first embodiment. After that, the control circuit 40 calculates the distance to the subject for each point constituting the depth map from the created depth map and the information on the focus adjustment surface. For example, when the focal length of the photographic lens 11 is 50 mm and the subject distance is 1 m, the defocus amount is 0 for the subject located 1 m ahead of the photographic lens 11. For example, when the defocus amount is 0.5 mm, the subject distance is calculated as 1.25 m. Similarly, in the case of other defocus amounts, the distance to the subject can be calculated according to the value.

これと並行して、制御回路40は右側撮像ユニット200を用いた撮影画像も作成しておく。以下、左側撮像ユニット100を用いて作成された撮影画像を左側撮影画像、右側撮像ユニット200を用いて作成された撮影画像を右側撮影画像と呼ぶ。   In parallel with this, the control circuit 40 also creates a captured image using the right imaging unit 200. Hereinafter, a captured image created using the left imaging unit 100 is referred to as a left captured image, and a captured image created using the right imaging unit 200 is referred to as a right captured image.

その後制御回路40は、上述の処理により算出された各点毎の被写体までの距離に基づいて、左側撮影画像の各点が右側撮影画像においてどれだけ横方向に移動しているかを算出する。なお、左側撮像ユニット100と右側撮像ユニットとの位置関係から、左側撮影画像の各点が右側撮影画像において左右にのみ移動し、上下には移動しないことは自明である。また、このときの移動量は、ステレオ撮像装置1から遠くに位置する被写体の画素ほど小さくなり、ステレオ撮像装置1に近い被写体の画素ほど大きくなる。   Thereafter, the control circuit 40 calculates how much each point of the left photographic image is moved in the lateral direction in the right photographic image based on the distance to the subject for each point calculated by the above processing. From the positional relationship between the left imaging unit 100 and the right imaging unit, it is obvious that each point of the left captured image moves only to the left and right in the right captured image and does not move up and down. Further, the amount of movement at this time becomes smaller as the subject pixel located farther from the stereo imaging device 1 and becomes larger as the subject pixel closer to the stereo imaging device 1.

制御回路40は最後に、上述の処理により求めた横方向の移動量に応じて、デプスマップ上の各点を横方向に移動させる。すなわち、左側撮影画像における特定の点に対応するデフォーカス量を、より左側の点に対応するデフォーカス量とする。このとき、1つの点に複数のデフォーカス量が対応した場合には、より小さいデフォーカス量を優先させる。また、いずれのデフォーカス量も対応しなくなった点には、右側の隣接点におけるデフォーカス量から推定したデフォーカス量を対応させる。この推定値は、例えば推定の対象となる点より右側におけるデフォーカス量の分布から外挿することにより推定される。   Finally, the control circuit 40 moves each point on the depth map in the horizontal direction according to the movement amount in the horizontal direction obtained by the above processing. That is, the defocus amount corresponding to the specific point in the left-side captured image is set as the defocus amount corresponding to the left point. At this time, when a plurality of defocus amounts correspond to one point, priority is given to a smaller defocus amount. In addition, the defocus amount estimated from the defocus amount at the adjacent point on the right side is made to correspond to the point that no defocus amount corresponds to. This estimated value is estimated, for example, by extrapolating from the defocus amount distribution on the right side of the point to be estimated.

なおこの時、「いずれのデフォーカス量も対応しなくなった点」とは、左側撮像ユニット100において前側の被写体の影になっていた部分と考えられる。すなわち、前側の被写体より奥に被写体があった部分ということになる。   At this time, “the point at which any defocus amount no longer corresponds” is considered to be a portion that is a shadow of the subject on the front side in the left imaging unit 100. That is, this is a portion where the subject is behind the subject on the front side.

以上のようにして制御回路40は、左側撮像ユニット100に基づいて作成したデプスマップから、右側撮像ユニット200に対応するデプスマップを作成する。ここで作成される新たなデプスマップは、右側撮影画像の分解能よりも小さい。従って、作成されたデプスマップを実際に利用する際には、デプスマップを右側撮影画像に合わせて拡大するか、あるいは右側撮影画像をデプスマップに合わせて縮小する必要がある。デプスマップの拡大には、公知の画像拡大技術を利用すればよい。   As described above, the control circuit 40 creates a depth map corresponding to the right imaging unit 200 from the depth map created based on the left imaging unit 100. The new depth map created here is smaller than the resolution of the right-side captured image. Therefore, when the created depth map is actually used, it is necessary to enlarge the depth map according to the right-side captured image or reduce the right-side captured image according to the depth map. A known image enlargement technique may be used to enlarge the depth map.

上述した第2の実施の形態によるステレオ撮像装置によれば、次の作用効果が得られる。
(1)制御回路40は、左側撮像ユニット100を用いて作成された左側撮影画像と、右側撮像ユニット200を用いて作成された右側撮影画像との視差に起因するずれ量に基づいて、左側撮像ユニット100に対応するデプスマップを補正し、右側撮影画像に対応するデプスマップを作成する。このようにしたので、左側撮影画像よりも画素数の高い右側撮影画像に対応するより正確なデプスマップを利用することが可能となり、利便性が向上する。
According to the stereo imaging device according to the second embodiment described above, the following operational effects can be obtained.
(1) The control circuit 40 performs left-side imaging based on the amount of deviation caused by parallax between the left-side captured image created using the left-side imaging unit 100 and the right-side captured image created using the right-side imaging unit 200. A depth map corresponding to the unit 100 is corrected, and a depth map corresponding to the right-side captured image is created. Since it did in this way, it becomes possible to use the more exact depth map corresponding to the right side picked-up image whose pixel number is higher than the left side picked-up image, and the convenience improves.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。   The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.

(変形例1)
図1に示すように、第1の実施の形態に係る撮像素子13では各々の受光素子配列30がそれぞれ独立に存在している。すなわち、各々の受光素子配列30が明確に区切られている。このようにするのではなく、撮像素子23のように、撮像素子13の撮像面上に受光素子が連続的に存在するようにしてもよい。すなわち、撮像素子13を、撮像素子23と同様の構成としてもよい。
(Modification 1)
As shown in FIG. 1, in the imaging device 13 according to the first embodiment, each light receiving element array 30 exists independently. That is, each light receiving element array 30 is clearly divided. Instead of doing so, the light receiving elements may be continuously present on the image pickup surface of the image pickup element 13 like the image pickup element 23. That is, the image sensor 13 may have the same configuration as the image sensor 23.

(変形例2)
本発明において、各々のマイクロレンズMLに対し受光素子が2方向に沿って各々少なくとも2つずつ配置されていれば、デプスマップ作成処理を行うことができる。従って、受光素子配列30が3つの受光素子から成る構成の装置に対しても、本発明を適用することが可能である。また、第1の実施の形態では各々の受光素子配列30が5列5行の受光素子から構成されるとしたが、受光素子配列30を構成する受光素子は3つ以上であれば何個であってもよい。
(Modification 2)
In the present invention, if at least two light receiving elements are arranged along each of the two directions for each microlens ML, a depth map creation process can be performed. Therefore, the present invention can be applied to an apparatus having a configuration in which the light receiving element array 30 includes three light receiving elements. In the first embodiment, each light receiving element array 30 is composed of five columns and five rows of light receiving elements. However, the number of light receiving elements constituting the light receiving element array 30 is three or more. There may be.

(変形例3)
デフォーカス量の算出に用いる第1信号列および第2信号列は、図3に示す受光素子aや受光素子b以外の受光素子の出力から作成してもよい。また、受光素子配列毎に複数の受光素子の出力を演算した値から信号列を作成してもよい。例えば複数の受光素子の出力の平均値を演算したり、所定の重みにより加重平均を演算したりしてもよい。
(Modification 3)
The first signal sequence and the second signal sequence used for calculating the defocus amount may be created from outputs of light receiving elements other than the light receiving elements a and b shown in FIG. Alternatively, a signal sequence may be created from values obtained by calculating outputs of a plurality of light receiving elements for each light receiving element array. For example, an average value of outputs of a plurality of light receiving elements may be calculated, or a weighted average may be calculated with a predetermined weight.

(変形例4)
第1信号列と第2信号列との相関値C(N)を、式(1)ではなく次式(4)により算出してもよい。ここで関数Floor(x)は、x以下の最大の整数を返す、いわゆる床関数である。
(Modification 4)
The correlation value C (N) between the first signal sequence and the second signal sequence may be calculated by the following equation (4) instead of the equation (1). Here, the function Floor (x) is a so-called floor function that returns a maximum integer equal to or less than x.

(変形例5)
第1の実施の形態では、横レンズ列および縦レンズ列は常に一定数のマイクロレンズMLから構成されていた。これを、一部のレンズ列がより少数のマイクロレンズMLから構成されるようにしてもよい。具体的には、制御回路40がまず各マイクロレンズMLにつき対応する受光素子配列30から受光素子の出力を1つずつ抽出する。そして、抽出された出力を二次元状に配列した中間画像データを作成する。この中間画像データに横方向微分フィルターを適用することにより、横方向における被写体像の光量の変化率が算出される。同様に縦方向微分フィルターを適用すれば、縦方向における被写体像の光量の変化率が算出される。制御回路40は、横選択機能および縦選択機能において、それぞれ対応する方向における被写体像の光量の変化率を参照し、変化率が所定のしきい値よりも大きい箇所とその周囲の箇所において選択されるレンズ列が、通常よりも少ないマイクロレンズMLから構成されるようにレンズ列を選択する。このようにすることで、遠くの被写体と近くの被写体との境界が斜め方向に存在する場合であっても、図7で説明したような、近くの隣接被写体の悪影響を軽減し、より正確なデフォーカス量を算出することが可能になる。
(Modification 5)
In the first embodiment, the horizontal lens array and the vertical lens array are always composed of a certain number of microlenses ML. Alternatively, a part of the lens rows may be composed of a smaller number of microlenses ML. Specifically, the control circuit 40 first extracts the outputs of the light receiving elements one by one from the corresponding light receiving element array 30 for each microlens ML. Then, intermediate image data in which the extracted outputs are arranged two-dimensionally is created. By applying a horizontal direction differential filter to the intermediate image data, the change rate of the light amount of the subject image in the horizontal direction is calculated. Similarly, when the vertical direction differential filter is applied, the change rate of the light amount of the subject image in the vertical direction is calculated. In the horizontal selection function and the vertical selection function, the control circuit 40 refers to the rate of change of the light amount of the subject image in the corresponding direction, and is selected at a location where the rate of change is greater than a predetermined threshold and surrounding locations. The lens array is selected so that the lens array to be formed is composed of fewer microlenses ML than usual. In this way, even when the boundary between a distant subject and a nearby subject exists in an oblique direction, the adverse effects of nearby nearby subjects as described in FIG. It becomes possible to calculate the defocus amount.

(変形例6)
デプスマップ合成機能において、制御回路40がデフォーカス量の大小以外の要素を参照するようにしてもよい。例えば横由来デプスマップと縦由来デプスマップとの相関の強さ等を加味した合成処理を実行するようにしてもよい。
(Modification 6)
In the depth map composition function, the control circuit 40 may refer to elements other than the magnitude of the defocus amount. For example, a synthesis process may be executed in consideration of the strength of correlation between the horizontal-derived depth map and the vertical-derived depth map.

(変形例7)
2つの撮像ユニットを横方向ではなく縦方向に並べてもよい。また、2つの撮像ユニット間の距離は上述の実施形態で例示した数値に限定されない。
(Modification 7)
Two imaging units may be arranged in the vertical direction instead of the horizontal direction. Further, the distance between the two imaging units is not limited to the numerical values exemplified in the above embodiment.

(変形例8)
デフォーカス量の信頼性パラメータRは、上式(3)以外の式により算出してもよい。例えば、上式(3)の右辺の分母を信頼性パラメータRとしてもよい。
(Modification 8)
The defocus amount reliability parameter R may be calculated by an expression other than the above expression (3). For example, the denominator on the right side of the above equation (3) may be used as the reliability parameter R.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   As long as the characteristics of the present invention are not impaired, the present invention is not limited to the above-described embodiments, and other forms conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. .

1 ステレオ撮像装置
11、21 撮影レンズ
12 マイクロレンズアレイ
13、23 撮像素子
14、24 撮像制御回路
15、25 映像回路
30 受光素子配列
40 制御回路
100 左側撮像ユニット
200 右側撮像ユニット
ML マイクロレンズ
DESCRIPTION OF SYMBOLS 1 Stereo imaging device 11, 21 Shooting lens 12 Micro lens array 13, 23 Imaging device 14, 24 Imaging control circuit 15, 25 Video circuit 30 Light receiving element arrangement 40 Control circuit 100 Left imaging unit 200 Right imaging unit ML Micro lens

Claims (7)

被写体像を所定の結像面に結像させる結像光学系と、
前記結像面の近傍に二次元状に配列された複数の正レンズと、
前記複数の正レンズの各々に対応して当該正レンズの後側に少なくとも3つずつ配置される複数の受光素子であって、前記少なくとも3つの受光素子のうち少なくとも2つの受光素子は第1方向に並んで配置され、前記少なくとも3つの受光素子のうち少なくとも2つの受光素子は前記第1方向とは異なる第2方向に並んで配置される複数の受光素子と、
前記複数の正レンズから、前記第1方向に配列された複数の第1正レンズ列を選択する第1選択手段と、
前記第1選択手段により選択された前記複数の第1正レンズ列の各々について、当該第1正レンズ列を構成する正レンズの各々に対応する前記第1方向に並んだ少なくとも2つずつの受光素子の出力を演算し、当該第1正レンズ列の中央部の正レンズに像が結ばれた被写体までの距離を表す値を算出する第1距離算出手段と、
前記第1距離算出手段により算出された複数の距離を表す値を、当該値に対応する正レンズの位置に応じて二次元状に配列したデータである第1のデプスマップを作成する第1デプスマップ作成手段と、
前記複数の正レンズから、前記第2方向に配列された複数の第2正レンズ列を選択する第2選択手段と、
前記第2選択手段により選択された前記複数の第2正レンズ列の各々について、当該第2正レンズ列を構成する正レンズの各々に対応する前記第2方向に並んだ少なくとも2つずつの受光素子の出力を演算し、当該第2正レンズ列の中央部の正レンズに像が結ばれた被写体までの距離を表す値を算出する第2距離算出手段と、
前記第2距離算出手段により算出された複数の距離を表す値を、当該値に対応する正レンズの位置に応じて二次元状に配列したデータである第2のデプスマップを作成する第2デプスマップ作成手段と、
前記第1のデプスマップと前記第2のデプスマップとを合成し第3のデプスマップを出力する合成処理を実行するデプスマップ出力手段とを備え、
前記複数の正レンズの各々に対応する、前記第1方向に並んだ少なくとも2つずつの受光素子と前記第2方向に並んだ少なくとも2つずつの受光素子とは、当該正レンズを介して、前記結像光学系の射出瞳の異なる領域からの光束をそれぞれ受光することを特徴とするデプスマップ出力装置。
An imaging optical system that forms an image of a subject on a predetermined imaging surface;
A plurality of positive lenses arranged two-dimensionally in the vicinity of the imaging plane;
A plurality of light receiving elements disposed at the back of the positive lens corresponding to each of the plurality of positive lenses, wherein at least two of the at least three light receiving elements are in a first direction. A plurality of light receiving elements arranged in a second direction different from the first direction, and at least two of the at least three light receiving elements,
First selecting means for selecting a plurality of first positive lens rows arranged in the first direction from the plurality of positive lenses;
For each of the plurality of first positive lens rows selected by the first selection means, at least two light receptions arranged in the first direction corresponding to each of the positive lenses constituting the first positive lens row. First distance calculation means for calculating an output of the element and calculating a value representing a distance to the subject whose image is formed on the positive lens at the center of the first positive lens row;
A first depth that creates a first depth map that is data in which values representing a plurality of distances calculated by the first distance calculating means are arranged in a two-dimensional manner in accordance with the positions of the positive lenses corresponding to the values. Map creation means;
Second selecting means for selecting a plurality of second positive lens rows arranged in the second direction from the plurality of positive lenses;
For each of the plurality of second positive lens rows selected by the second selection means, at least two light receptions arranged in the second direction corresponding to each of the positive lenses constituting the second positive lens row. Second distance calculation means for calculating an output of the element and calculating a value representing a distance to the subject whose image is formed on the positive lens in the center of the second positive lens row;
A second depth that creates a second depth map that is data in which values representing a plurality of distances calculated by the second distance calculating means are arranged two-dimensionally in accordance with the positions of the positive lenses corresponding to the values. Map creation means;
Depth map output means for combining the first depth map and the second depth map and executing a combining process for outputting a third depth map;
At least two light receiving elements arranged in the first direction and at least two light receiving elements arranged in the second direction corresponding to each of the plurality of positive lenses, via the positive lens, A depth map output device that receives light beams from different regions of an exit pupil of the imaging optical system.
請求項1に記載のデプスマップ出力装置において、
前記デプスマップ出力手段により実行される合成処理は、同一の被写体に関する前記第1のデプスマップ上の値が表す距離と前記第2のデプスマップ上の値が表す距離とが等しい場合にはいずれか一方の距離を出力し、等しくない場合には大きい方の距離を表す値を出力する処理であることを特徴とするデプスマップ出力装置。
The depth map output device according to claim 1,
The composition process executed by the depth map output means is any when the distance represented by the value on the first depth map and the distance represented by the value on the second depth map are the same for the same subject. A depth map output device characterized in that it is a process of outputting one distance and outputting a value representing the larger distance if they are not equal.
請求項1または2に記載のデプスマップ出力装置において、
前記第1距離算出手段は、前記複数の第1正レンズ列の各々について、当該第1正レンズ列を構成する正レンズの各々に対応する前記第1方向に並んだ少なくとも2つずつの受光素子の出力から2つの信号列を作成し、前記第1正レンズ列同士の当該2つの信号列の位相差を演算することにより前記被写体までの距離を表す値を算出し、
前記第2距離算出手段は、前記複数の第2正レンズ列の各々について、当該第2正レンズ列を構成する正レンズの各々に対応する前記第2方向に並んだ少なくとも2つずつの受光素子の出力から2つの信号列を作成し、前記第2正レンズ列同士の当該2つの信号列の位相差を演算することにより前記被写体までの距離を表す値を算出することを特徴とするデプスマップ出力装置。
In the depth map output device according to claim 1 or 2,
The first distance calculating means includes, for each of the plurality of first positive lens rows, at least two light receiving elements arranged in the first direction corresponding to each of the positive lenses constituting the first positive lens row. Two signal sequences are generated from the output of the first, and a value representing a distance to the subject is calculated by calculating a phase difference between the two signal sequences of the first positive lens columns,
The second distance calculating means includes, for each of the plurality of second positive lens rows, at least two light receiving elements arranged in the second direction corresponding to each of the positive lenses constituting the second positive lens row. A depth map for calculating a value representing a distance to the subject by generating two signal trains from the output of the first lens and calculating a phase difference between the two signal trains of the second positive lens trains. Output device.
請求項1〜3のいずれか一項に記載のデプスマップ出力装置において、
前記第1選択手段は、前記第1方向に沿って1列に配列された前記複数の正レンズから、前記複数の第1正レンズ列を第1正レンズ列同士で一部の正レンズが重複し合うように選択し、
前記第2選択手段は、前記第2方向に沿って1列に配列された前記複数の正レンズから、前記複数の第2正レンズ列を第2正レンズ列同士で一部の正レンズが重複し合うように選択することを特徴とするデプスマップ出力装置。
In the depth map output device according to any one of claims 1 to 3,
The first selection unit includes a plurality of the first positive lens rows that overlap with the first positive lens rows from the plurality of positive lenses arranged in a row along the first direction. Choose to meet each other,
The second selection unit includes a plurality of the positive lenses arranged in a line along the second direction, and the plurality of second positive lens rows are overlapped with each other by the second positive lens rows. A depth map output device, wherein selection is performed so as to match each other.
請求項1〜4のいずれか一項に記載のデプスマップ出力装置において、
前記複数の正レンズの各々に対応する前記受光素子のうち少なくとも1つの受光素子の出力に基づいて、前記第1方向における前記被写体像の光量分布を算出する第1光量分布算出手段と、
前記複数の正レンズの各々に対応する前記受光素子のうち少なくとも1つの受光素子の出力に基づいて、前記第2方向における前記被写体像の光量分布を算出する第2光量分布算出手段とを更に備え、
前記第1選択手段は、前記第1方向における光量分布に基づいて前記複数の第1正レンズ列を選択し、
前記第2選択手段は、前記第2方向における光量分布に基づいて前記複数の第2正レンズ列を選択することを特徴とするデプスマップ出力装置。
In the depth map output device according to any one of claims 1 to 4,
First light amount distribution calculating means for calculating a light amount distribution of the subject image in the first direction based on an output of at least one light receiving element among the light receiving elements corresponding to each of the plurality of positive lenses;
Second light quantity distribution calculating means for calculating the light quantity distribution of the subject image in the second direction based on the output of at least one light receiving element among the light receiving elements corresponding to each of the plurality of positive lenses. ,
The first selection unit selects the plurality of first positive lens rows based on a light amount distribution in the first direction,
The depth map output device, wherein the second selection unit selects the plurality of second positive lens rows based on a light amount distribution in the second direction.
請求項5に記載のデプスマップ出力装置において、
前記第1選択手段は、前記第1方向における光量分布において光量の変化率が所定のしきい値より大きい箇所では、そうでない箇所において選択される第1正レンズ列より少ない数の正レンズから構成される第1正レンズ列を選択し、
前記第2選択手段は、前記第2方向における光量分布において光量の変化率が所定のしきい値より大きい箇所では、そうでない箇所において選択される第2正レンズ列より少ない数の正レンズから構成される第2正レンズ列を選択することを特徴とするデプスマップ出力装置。
In the depth map output device according to claim 5,
The first selection unit includes a smaller number of positive lenses than the first positive lens array selected at a place where the change rate of the light quantity is larger than a predetermined threshold in the light quantity distribution in the first direction. Select the first positive lens array to be
The second selection unit includes a smaller number of positive lenses than the second positive lens array selected at a place where the change rate of the light quantity is greater than a predetermined threshold in the light quantity distribution in the second direction. A depth map output device, wherein the second positive lens array is selected.
請求項1〜6のいずれか一項に記載のデプスマップ出力装置において、
被写体像を撮像し第1の撮影画像を出力する撮像ユニットと、
前記複数の受光素子の出力に基づいて、前記第1の撮影画像に対して視差を有する第2の撮影画像を出力する撮影画像出力手段と、
前記視差に起因する前記第1の撮影画像と前記第2の撮影画像とのずれ量に基づいて前記第3のデプスマップを補正し、前記第1の撮影画像に対応する第4のデプスマップを作成するデプスマップ補正手段とを更に備えることを特徴とするデプスマップ出力装置。
In the depth map output device according to any one of claims 1 to 6,
An imaging unit that captures a subject image and outputs a first captured image;
A captured image output means for outputting a second captured image having a parallax with respect to the first captured image based on outputs of the plurality of light receiving elements;
The third depth map is corrected based on a shift amount between the first captured image and the second captured image due to the parallax, and a fourth depth map corresponding to the first captured image is obtained. A depth map output device further comprising a depth map correction means for creating.
JP2010107247A 2010-05-07 2010-05-07 Depth map output device Expired - Fee Related JP5633181B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010107247A JP5633181B2 (en) 2010-05-07 2010-05-07 Depth map output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010107247A JP5633181B2 (en) 2010-05-07 2010-05-07 Depth map output device

Publications (2)

Publication Number Publication Date
JP2011237215A true JP2011237215A (en) 2011-11-24
JP5633181B2 JP5633181B2 (en) 2014-12-03

Family

ID=45325375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010107247A Expired - Fee Related JP5633181B2 (en) 2010-05-07 2010-05-07 Depth map output device

Country Status (1)

Country Link
JP (1) JP5633181B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013152388A (en) * 2012-01-26 2013-08-08 Canon Inc Imaging device and control method therefor
JP2014228727A (en) * 2013-05-23 2014-12-08 キヤノン株式会社 Imaging device and method for controlling the same device
JP2018018358A (en) * 2016-07-29 2018-02-01 キヤノン株式会社 Image processing device and control method thereof, imaging device, and program
CN109212538A (en) * 2017-06-29 2019-01-15 苹果公司 Flight time depth map with parallax compensation
WO2019138834A1 (en) * 2018-01-12 2019-07-18 キヤノン株式会社 Information processing device, information processing method, program, and system
CN115250320A (en) * 2021-04-28 2022-10-28 北京小米移动软件有限公司 Image acquisition method and device, electronic equipment and storage medium
US11500094B2 (en) 2019-06-10 2022-11-15 Apple Inc. Selection of pulse repetition intervals for sensing time of flight
US11555900B1 (en) 2019-07-17 2023-01-17 Apple Inc. LiDAR system with enhanced area coverage
US11681028B2 (en) 2021-07-18 2023-06-20 Apple Inc. Close-range measurement of time of flight using parallax shift
US11733359B2 (en) 2019-12-03 2023-08-22 Apple Inc. Configurable array of single-photon detectors
US11852727B2 (en) 2017-12-18 2023-12-26 Apple Inc. Time-of-flight sensing using an addressable array of emitters

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6598621B2 (en) * 2015-09-30 2019-10-30 キヤノン株式会社 Imaging device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001184497A (en) * 1999-10-14 2001-07-06 Komatsu Ltd Stereo image processor and recording medium
JP2009165115A (en) * 2007-12-12 2009-07-23 Sony Corp Imaging device
JP2009282018A (en) * 2008-04-21 2009-12-03 Nikon Corp Correlation calculation method, correlation calculator, focus detector, and imaging apparatus
JP2010008873A (en) * 2008-06-30 2010-01-14 Nikon Corp Focus detecting device and imaging device
JP2010048933A (en) * 2008-08-20 2010-03-04 Nikon Corp Focus detector and imaging apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001184497A (en) * 1999-10-14 2001-07-06 Komatsu Ltd Stereo image processor and recording medium
JP2009165115A (en) * 2007-12-12 2009-07-23 Sony Corp Imaging device
JP2009282018A (en) * 2008-04-21 2009-12-03 Nikon Corp Correlation calculation method, correlation calculator, focus detector, and imaging apparatus
JP2010008873A (en) * 2008-06-30 2010-01-14 Nikon Corp Focus detecting device and imaging device
JP2010048933A (en) * 2008-08-20 2010-03-04 Nikon Corp Focus detector and imaging apparatus

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013152388A (en) * 2012-01-26 2013-08-08 Canon Inc Imaging device and control method therefor
JP2014228727A (en) * 2013-05-23 2014-12-08 キヤノン株式会社 Imaging device and method for controlling the same device
JP2018018358A (en) * 2016-07-29 2018-02-01 キヤノン株式会社 Image processing device and control method thereof, imaging device, and program
CN109212538A (en) * 2017-06-29 2019-01-15 苹果公司 Flight time depth map with parallax compensation
CN109212538B (en) * 2017-06-29 2023-01-06 苹果公司 Time-of-flight depth mapping with disparity compensation
US11681027B2 (en) 2017-06-29 2023-06-20 Apple Inc. Time-of-flight depth mapping with parallax compensation
US11852727B2 (en) 2017-12-18 2023-12-26 Apple Inc. Time-of-flight sensing using an addressable array of emitters
JP7341652B2 (en) 2018-01-12 2023-09-11 キヤノン株式会社 Information processing device, information processing method, program, and system
WO2019138834A1 (en) * 2018-01-12 2019-07-18 キヤノン株式会社 Information processing device, information processing method, program, and system
JP2019125345A (en) * 2018-01-12 2019-07-25 キヤノン株式会社 Information processor, information processing method, program, and system
US11500094B2 (en) 2019-06-10 2022-11-15 Apple Inc. Selection of pulse repetition intervals for sensing time of flight
US11555900B1 (en) 2019-07-17 2023-01-17 Apple Inc. LiDAR system with enhanced area coverage
US11733359B2 (en) 2019-12-03 2023-08-22 Apple Inc. Configurable array of single-photon detectors
CN115250320A (en) * 2021-04-28 2022-10-28 北京小米移动软件有限公司 Image acquisition method and device, electronic equipment and storage medium
US11681028B2 (en) 2021-07-18 2023-06-20 Apple Inc. Close-range measurement of time of flight using parallax shift

Also Published As

Publication number Publication date
JP5633181B2 (en) 2014-12-03

Similar Documents

Publication Publication Date Title
JP5633181B2 (en) Depth map output device
JP5499778B2 (en) Imaging device
US8310538B2 (en) Imaging apparatus, method, program, and recording medium used in the program
JP5306275B2 (en) Display device and stereoscopic image display method
US9648305B2 (en) Stereoscopic imaging apparatus and stereoscopic imaging method
JP2012182731A (en) Imaging device
KR20120053536A (en) Image display device and image display method
JP2013190734A (en) Focus detection device and imaging device
JP2011205215A (en) Image pickup device and control method thereof
RU2567438C1 (en) Image forming device and method of controlling same
JP2012133185A (en) Imaging apparatus
EP3101461A1 (en) Focal point detection device, focal point adjustment device, and camera
JP2015148676A (en) Imaging apparatus and method of controlling imaging apparatus
JP6004741B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP2009021708A (en) Element image group conversion device, stereoscopic image display device, and element image group conversion program
JP2010231192A (en) Stereoscopic imaging apparatus
JP2013120435A (en) Image processing apparatus and image processing method, and program
JP6400152B2 (en) REPRODUCTION DEVICE, IMAGING DEVICE, AND REPRODUCTION DEVICE CONTROL METHOD
JP5088973B2 (en) Stereo imaging device and imaging method thereof
JP2016031446A (en) Imaging device and method of controlling the same
JP6045280B2 (en) Imaging device
JP5488221B2 (en) Imaging device
JP2013242378A (en) Imaging device, display method, and program
JP4843640B2 (en) 3D information generation apparatus and 3D information generation program
JP2011158644A (en) Display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140929

R150 Certificate of patent or registration of utility model

Ref document number: 5633181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees