JP2012124650A - Imaging apparatus, and imaging method - Google Patents
Imaging apparatus, and imaging method Download PDFInfo
- Publication number
- JP2012124650A JP2012124650A JP2010272481A JP2010272481A JP2012124650A JP 2012124650 A JP2012124650 A JP 2012124650A JP 2010272481 A JP2010272481 A JP 2010272481A JP 2010272481 A JP2010272481 A JP 2010272481A JP 2012124650 A JP2012124650 A JP 2012124650A
- Authority
- JP
- Japan
- Prior art keywords
- image
- parallax
- imaging
- time point
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、撮影レンズの2方向の異なる領域を通過した被写体像をそれぞれ撮像素子に結像させ、異なる視点画像を取得する撮像装置および撮像方法に関する。特に本発明は、視差を有する画像の撮影画角を立体的にスルー画として表示する撮像装置および撮像方法に関する。 The present invention relates to an image pickup apparatus and an image pickup method in which subject images that have passed through different regions in two directions of a photographing lens are respectively formed on an image pickup device and different viewpoint images are acquired. In particular, the present invention relates to an imaging apparatus and an imaging method for displaying a shooting angle of view of an image having parallax as a through image in a three-dimensional manner.
従来、特に撮影レンズの2方向の異なる領域を通過した被写体像をそれぞれ撮像素子に結像させ、異なる視点画像を取得する立体撮像装置が存在する。 2. Description of the Related Art Conventionally, there are stereoscopic imaging apparatuses that acquire different viewpoint images by forming subject images that have passed through different regions in two directions of a photographing lens, respectively, on imaging elements.
図13に示す光学系は、メインレンズ1及びリレーレンズ2の左右方向の異なる領域を通過した被写体像をミラー4により瞳分割し、それぞれ結像レンズ5、6を介して撮像素子7、8に結像させるようにしている。
The optical system shown in FIG. 13 divides a subject image that has passed through different regions in the left and right directions of the
図14(A)〜(C)は、それぞれ前ピン、合焦(ベストフォーカス)、及び後ピンの違いによる撮像素子に結像する像の分離状態を示す図である。なお、図14では、フォーカスによる分離の違いを比較するために、図13に示したミラー4を省略している。 FIGS. 14A to 14C are diagrams illustrating separation states of images formed on the image sensor due to differences in the front pin, focus (best focus), and rear pin, respectively. In FIG. 14, the mirror 4 shown in FIG. 13 is omitted in order to compare the difference in separation due to focus.
図14(B)に示すように瞳分割された像のうちの合焦している像は、撮像素子上の同一位置に結像する(一致する)が、図14(A)及び(C)に示すように前ピン及び後ピンとなる像は、撮像素子上の異なる位置に結像する(分離する)。 As shown in FIG. 14B, the focused image of the pupil-divided images is formed (matched) at the same position on the image sensor, but FIGS. 14A and 14C. As shown in FIG. 5, the images to be the front pin and the rear pin are formed (separated) at different positions on the image sensor.
従って、左右方向に瞳分割された被写体像を撮像素子7、8を介して取得することにより、被写体距離に応じて視点の異なる左視点画像及び右視点画像(3D画像)を取得することができる。 Therefore, by acquiring the subject image that is pupil-divided in the left-right direction via the imaging elements 7 and 8, it is possible to acquire a left viewpoint image and a right viewpoint image (3D image) having different viewpoints according to the subject distance. .
特許文献1によると、電子カメラは、撮像部と、光量分布検出部と、像ズレ量検出部と、画像処理部とを有する。撮像部は撮影光学系による被写体像を光電変換して撮影画像データを生成する。光量分布検出部は、異なる光路を通った被写体からの光束による光量分布をそれぞれ検出する。像ズレ量検出部は光量分布に基づいて撮影画面内の複数箇所における像ズレ量を検出する。画像処理部は複数箇所の像ズレ量に基づいて、撮影画像データにおける被写体の位置関係を水平方向に変化させてステレオグラム画像データを生成する。また、入力部からの入力に基づいて、ステレオグラム画像データにおける被写体の位置関係を水平方向に変化させてステレオグラム画像データを補正する。ステレオグラム画像データを補正することができるので、ユーザにとって違和感がより少ない自然なステレオグラム画像を得ることが可能となる。
According to
特許文献2は、左右2台のカメラの撮影した左目画像、右目画像に対して、左目画像、右目画像のいずれか一方のステレオ画像を基準にして他方のステレオ画像との間でパターンマッチングを実施し、画素毎のマッチング画像を特定し、左右の画素毎のマッチング画像間で画素間距離の内挿によって中間位置画像を求め、左右の画素毎のマッチング画像間で画素間距離の外挿によって右外画像、左外画像を求める多眼視画像作成方法を開示する。
In
特許文献3において、ステレオマッチング処理部(対象物検出手段)43は、画像処理部4A、4Bによってそれぞれ処理され、メモリ部31に格納された2つの画像データA、Bにおける、上述の空間設定部42によって設定された検索空間に対して、互いに対応する1つ以上の対応点(対象物)を検出する。距離算出部(位置算出手段)44は、上述したステレオマッチング処理部83によって検出された対応点の3次元座標値(位置情報)を算出する。撮影部20Aおよび撮影部20Bの撮影レンズ21A2、21B2の構成は異なり、撮影レンズ21A2は、ズームレンズおよび該ズームレンズを駆動する図示しないズームレンズ駆動部(駆動手段)を備え、撮影レンズ21B2は、撮影レンズ21A2のズームレンズの広角端と等しい画角の固定焦点レンズを備える。このような構成にすることによりコストを低減する。 In Patent Document 3, the stereo matching processing unit (object detection means) 43 is processed by the image processing units 4A and 4B, and the above-described space setting unit in the two image data A and B stored in the memory unit 31. One or more corresponding points (objects) corresponding to each other with respect to the search space set by 42 are detected. The distance calculation unit (position calculation unit) 44 calculates the three-dimensional coordinate value (position information) of the corresponding point detected by the stereo matching processing unit 83 described above. The configurations of the photographing lenses 21A2 and 21B2 of the photographing unit 20A and the photographing unit 20B are different. The photographing lens 21A2 includes a zoom lens and a zoom lens driving unit (driving unit) (not shown) that drives the zoom lens. The photographing lens 21B2 includes: A fixed focus lens having a field angle equal to the wide angle end of the zoom lens of the photographing lens 21A2 is provided. With such a configuration, the cost is reduced.
特許文献4〜6は単一の光学系を用いた3次元画像生成技術の一例である。例えば特許文献4では、多数の画素を同一撮像面上に配列し、該撮像面に結像された被写体像を光電変換して画像信号を生成する固体撮像素子において、上記多数の画素を2つのグループに区分けし、各グループにおける画素の受光入射角度をそれぞれ異ならせてなることを特徴とする固体撮像素子が開示されている。 Patent Documents 4 to 6 are examples of a three-dimensional image generation technique using a single optical system. For example, in Patent Document 4, a large number of pixels are arranged on the same imaging surface, and in a solid-state imaging device that generates an image signal by photoelectrically converting a subject image formed on the imaging surface, Disclosed is a solid-state imaging device that is divided into groups and has different light-receiving incidence angles of pixels in each group.
特許文献7〜11は、異なる視点画像間の対応点検索の方法、ステレオマッチングで奥行き情報を取得する技術、2次元画像と距離情報(奥行き情報)を用いた3次元画像生成技術の一例である。 Patent Documents 7 to 11 are examples of a method for searching corresponding points between different viewpoint images, a technique for acquiring depth information by stereo matching, and a three-dimensional image generation technique using a two-dimensional image and distance information (depth information). .
図11に例示するように、同じ画質の左右の視点画像をそのまま立体画像として表示する通常の複眼カメラにおけるスルー画(ライブビュー)の表示は、1フレーム毎に撮影された左右の視点画像に基づいて3次元画像を表示することを繰り返すだけで済む。 As illustrated in FIG. 11, the display of a through image (live view) in a normal compound eye camera that displays left and right viewpoint images with the same image quality as a stereoscopic image is based on the left and right viewpoint images captured for each frame. It is only necessary to repeat displaying the three-dimensional image.
一方、特許文献3に例示されるような、左右の撮像部の撮影画素数が異なったり、一方の撮像部は色情報が取得できるが他方の撮像部は色情報を取得できないなど左右の撮像部の仕様が異なる場合や、視点画像の解像度がモニタの解像度と異なる場合など、左右の視点画像からただちに表示用の立体画像を生成できない複眼カメラでは、距離情報の算出に加え、一方の撮像部、例えば画素数の多い撮像部や色情報の取得可能な撮像部の画像の色情報などから3次元画像を生成して表示することを繰り返す必要がある。 On the other hand, as illustrated in Patent Document 3, the left and right imaging units such as the left and right imaging units have different shooting pixel numbers, or one imaging unit can acquire color information but the other imaging unit cannot acquire color information. In the case of a compound eye camera that cannot generate a stereoscopic image for display immediately from the left and right viewpoint images, such as when the specifications of the viewpoint are different or when the resolution of the viewpoint image is different from the resolution of the monitor, in addition to calculating the distance information, For example, it is necessary to repeatedly generate and display a three-dimensional image from color information of an image of an imaging unit having a large number of pixels and an imaging unit capable of acquiring color information.
これは、特許文献4〜6のような単一の光学系から3次元画像を取得するカメラであっても同様である。 The same applies to a camera that acquires a three-dimensional image from a single optical system as in Patent Documents 4 to 6.
図12に例示するように、このようなカメラでは、3次元画像の生成に時間がかかるため、その分視点画像の撮影からスルー画の表示まで間のタイムラグが通常のカメラよりも増大する。そのため、表示されたスルー画による画角の確認などに支障をきたし使いにくい。 As illustrated in FIG. 12, in such a camera, since it takes time to generate a three-dimensional image, the time lag from the viewpoint image capturing to the through image display is increased as compared with a normal camera. Therefore, it is difficult to use because it hinders confirmation of the angle of view by the displayed through image.
さらに、瞳分割方式の立体撮像装置では、基線長が小さいため、画像の立体感が弱めになりやすい。撮影された画像でステレオマッチングや視差情報の外挿または内挿の処理などの画像処理を施して視差量を調整することは可能であるが、画像処理時間の増大によりスルー画の表示が遅れる。近年では、ファインダーのないカメラが主流であり、スルー画表示が遅れると、シャッターチャンスを逃す可能性があり、使いにくい。 Further, in the pupil division type stereoscopic imaging device, since the baseline length is small, the stereoscopic effect of the image tends to be weak. Although it is possible to adjust the amount of parallax by performing image processing such as stereo matching or extrapolation or interpolation processing of parallax information on the captured image, the display of a through image is delayed due to an increase in image processing time. In recent years, cameras without a viewfinder have become mainstream, and if the through image display is delayed, there is a possibility of missing a photo opportunity, which is difficult to use.
本発明は、瞳分割方式で得られた画像に対する所定の画像処理を経て継続的に立体画像を生成する撮像装置において、立体画像出力のタイムラグを短縮する技術を提供する。 The present invention provides a technique for shortening the time lag of stereoscopic image output in an imaging apparatus that continuously generates a stereoscopic image through predetermined image processing on an image obtained by the pupil division method.
本発明は、単一の撮像光学系と、撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部と、時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう撮像部を制御する撮像制御部と、第1の時点で撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出する視差情報算出部と、第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、所望の視差を有する画像の組から立体画像を生成する立体画像生成部と、を備える撮像装置を提供する。
The present invention provides a single imaging optical system and an imaging unit in which subject images that have passed through a first region and a second region having different predetermined directions of the imaging optical system are divided into pupils and formed respectively. An imaging unit capable of photoelectrically converting each of the subject images that have passed through the first area and the second area and continuously outputting a set of viewpoint images including the first image and the second image; An imaging control unit that controls the imaging unit so that a set of viewpoint images is output at the first time point and the second time point, which are arbitrary two time points before and after, and the viewpoint output from the imaging unit at the first time point A parallax information calculation unit that performs stereo matching based on a set of images to calculate parallax information, and generates or generates virtual parallax information by extrapolating or interpolating the parallax information corresponding to the first time point. The first image and / or the first output at
ここで、視差情報とは、被写体の距離情報または視差マップを含む。 Here, the parallax information includes subject distance information or a parallax map.
撮像制御部は、第1の時点よりも後の異なる複数の第2の時点の各々で視点画像の組が順次出力されるよう撮像部を制御し、立体画像生成部は、第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と第2の時点で各々出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の複数の組を生成し、所望の視差を有する視点画像の複数の組から複数の立体画像を順次生成する。 The imaging control unit controls the imaging unit so that a set of viewpoint images is sequentially output at each of a plurality of different second time points after the first time point, and the stereoscopic image generating unit is set to the first time point. Virtual parallax information is generated by extrapolating or interpolating corresponding parallax information, and has a desired parallax based on the virtual parallax information and the first image and / or the second image respectively output at the second time point A plurality of sets of viewpoint images are generated, and a plurality of stereoscopic images are sequentially generated from the plurality of sets of viewpoint images having a desired parallax.
撮像制御部は、視差情報算出部による第1の時点に対応する視差情報の算出処理が所定の割合だけ完了した第2の時点で視点画像の組が出力されるよう撮像部を制御する。 The imaging control unit controls the imaging unit so that a set of viewpoint images is output at a second time point when the parallax information calculation process corresponding to the first time point by the parallax information calculation unit is completed by a predetermined ratio.
視差情報算出部は、異なる複数の視点画像の組にそれぞれ対応する複数の視差情報をそれぞれ独立して算出可能な異なる複数の処理系統を有しており、異なる複数の第1の時点に対応する視差情報の各々を異なる処理系統で算出する。 The disparity information calculation unit includes a plurality of different processing systems capable of independently calculating a plurality of pieces of disparity information corresponding to different sets of viewpoint images, and corresponds to a plurality of different first time points. Each piece of parallax information is calculated by a different processing system.
撮像装置は、所定の記録指示が入力されたことに応じ、第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と第1の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、所望の視差を有する視点画像の組に基づいて立体画像の再生情報を記録する記録部を備える。 In response to the input of a predetermined recording instruction, the imaging apparatus extrapolates or interpolates disparity information corresponding to the first time point to generate virtual disparity information, and outputs the virtual disparity information and the first time point. A recording unit that generates a set of viewpoint images having a desired parallax based on the first image and / or the second image, and records reproduction information of a stereoscopic image based on the set of viewpoint images having the desired parallax Is provided.
立体画像生成部の生成した立体画像を表示する表示部を備える。 A display unit for displaying a stereoscopic image generated by the stereoscopic image generation unit is provided.
第2画像の解像度は第1画像の解像度よりも低くかつ表示部の表示解像度よりも低い。 The resolution of the second image is lower than the resolution of the first image and lower than the display resolution of the display unit.
第1画像は輝度情報および色情報を含み、第2画像は輝度情報のみを含む。 The first image includes luminance information and color information, and the second image includes only luminance information.
視差情報をぼかすぼかし処理部を備え、立体画像生成部は、ぼかし処理部によりぼかされた第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、所望の視差を有する画像の組から立体画像を生成する。 The stereoscopic processing unit includes a blur processing unit that blurs the parallax information, and the stereoscopic image generation unit generates virtual parallax information by extrapolating or interpolating the parallax information corresponding to the first time point blurred by the blur processing unit. Based on the information and the first image and / or the second image output at the second time point, a set of viewpoint images having a desired parallax is generated, and a stereoscopic image is generated from the set of images having the desired parallax .
所望の視差量は、所定の操作手段から入力された指定値、固定値または被写体距離の遠近に応じた値を含む。 The desired amount of parallax includes a specified value, a fixed value, or a value corresponding to the distance of the subject distance input from a predetermined operation unit.
本発明は、単一の撮像光学系と、撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部と、時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう撮像部を制御する撮像制御部と、第1の時点で撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出する視差情報算出部と、第2の時点で出力された第1画像に第1の時点に対応する視差情報を適用して第1画像との間で視差を有する仮想第2画像を生成し、第2の時点で出力された第1画像と仮想第2画像から立体画像を生成する立体画像生成部と、を備える撮像装置を提供する。 The present invention provides a single imaging optical system and an imaging unit in which subject images that have passed through a first region and a second region having different predetermined directions of the imaging optical system are divided into pupils and formed respectively. An imaging unit capable of photoelectrically converting each of the subject images that have passed through the first area and the second area and continuously outputting a set of viewpoint images including the first image and the second image; An imaging control unit that controls the imaging unit so that a set of viewpoint images is output at the first time point and the second time point, which are arbitrary two time points before and after, and the viewpoint output from the imaging unit at the first time point A parallax information calculation unit that performs stereo matching based on a set of images and calculates parallax information; and applying the parallax information corresponding to the first time point to the first image output at the second time point, A virtual second image having a parallax between the second time points To provide an imaging apparatus and a stereoscopic image generation unit for generating stereoscopic image with the first image output from the virtual second image.
撮像制御部は、第1の時点よりも後の異なる複数の第2の時点の各々で視点画像の組が順次出力されるよう撮像部を制御し、立体画像生成部は、複数の第2の時点で各々出力された複数の視点画像の組に含まれる複数の第1画像に第1の時点に対応する視差情報を適用して第1画像との間で視差を有する複数の仮想第2画像を生成し、複数の第2の時点で各々出力された第1画像と対応する複数の仮想第2画像から複数の立体画像を順次生成する。 The imaging control unit controls the imaging unit so that a set of viewpoint images is sequentially output at each of a plurality of different second time points after the first time point, and the stereoscopic image generating unit includes a plurality of second image points A plurality of virtual second images having parallax with the first image by applying disparity information corresponding to the first time point to a plurality of first images included in a set of a plurality of viewpoint images output at each time point And a plurality of stereoscopic images are sequentially generated from a plurality of virtual second images corresponding to the first images respectively output at a plurality of second time points.
撮像制御部は、視差情報算出部による第1の時点に対応する視差情報の算出処理が所定の割合だけ完了した第2の時点で視点画像の組が出力されるよう撮像部を制御する。 The imaging control unit controls the imaging unit so that a set of viewpoint images is output at a second time point when the parallax information calculation process corresponding to the first time point by the parallax information calculation unit is completed by a predetermined ratio.
視差情報算出部は、異なる複数の視点画像の組にそれぞれ対応する複数の視差情報をそれぞれ独立して算出可能な異なる複数の処理系統を有しており、異なる複数の第1の時点に対応する視差情報の各々を異なる処理系統で算出する。 The disparity information calculation unit includes a plurality of different processing systems capable of independently calculating a plurality of pieces of disparity information corresponding to different sets of viewpoint images, and corresponds to a plurality of different first time points. Each piece of parallax information is calculated by a different processing system.
撮像装置は、所定の記録指示が入力されたことに応じ、第1の時点で出力された第1画像に第1の時点に対応する視差情報を適用して第1画像との間で視差を有する仮想第2画像を生成し、第1の時点で出力された第1画像と仮想第2画像に基づいて立体画像の再生情報を記録する記録部を備える。 In response to the input of a predetermined recording instruction, the imaging apparatus applies the disparity information corresponding to the first time point to the first image output at the first time point, thereby reducing the parallax between the first image and the first image. A recording unit configured to generate a virtual second image and record reproduction information of a stereoscopic image based on the first image and the virtual second image output at the first time point.
立体画像生成部の生成した立体画像を表示する表示部を備える。 A display unit for displaying a stereoscopic image generated by the stereoscopic image generation unit is provided.
第2画像の解像度は第1画像の解像度よりも低くかつ表示部の表示解像度よりも低い。 The resolution of the second image is lower than the resolution of the first image and lower than the display resolution of the display unit.
第1画像は輝度情報および色情報を含み、第2画像は輝度情報のみを含む。 The first image includes luminance information and color information, and the second image includes only luminance information.
視差情報をぼかすぼかし処理部を備え、立体画像生成部は、ぼかし処理部によりぼかされた第1の時点に対応する視差情報を第2の時点で出力された第1画像に適用して第1画像との間で視差を有する仮想第2画像を生成し、第2の時点で出力された第1画像と仮想第2画像から立体画像を生成する。 A blur processing unit that blurs the disparity information, and the stereoscopic image generation unit applies the disparity information corresponding to the first time point blurred by the blur processing unit to the first image output at the second time point. A virtual second image having parallax with one image is generated, and a stereoscopic image is generated from the first image and the virtual second image output at the second time point.
立体画像生成部は、第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、所望の視差を有する画像の組から立体画像を生成する。 The stereoscopic image generation unit generates virtual parallax information by extrapolating or interpolating the parallax information corresponding to the first time point, and generates the virtual parallax information and the first image and / or the second image output at the second time point. A set of viewpoint images having a desired parallax is generated based on the image, and a stereoscopic image is generated from the set of images having the desired parallax.
こうすれば、立体画像の視差を任意に調整できる。 In this way, the parallax of the stereoscopic image can be adjusted arbitrarily.
所望の視差量は、所定の操作手段から入力された指定値、固定値または被写体距離の遠近に応じた値を含む。 The desired amount of parallax includes a specified value, a fixed value, or a value corresponding to the distance of the subject distance input from a predetermined operation unit.
本発明は、単一の撮像光学系と、撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部とを備える撮像装置が、時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう撮像部を制御するステップと、第1の時点で撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出するステップと、第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、所望の視差を有する画像の組から立体画像を生成するステップと、を実行する撮像方法を提供する。
The present invention provides a single imaging optical system and an imaging unit in which subject images that have passed through a first region and a second region having different predetermined directions of the imaging optical system are divided into pupils and formed respectively. An imaging apparatus comprising: an imaging unit capable of photoelectrically converting subject images that have passed through the first area and the second area, respectively, and continuously outputting a set of viewpoint images including the first image and the second image Is a step of controlling the image capturing unit so that a set of viewpoint images is output at a first time point and a second time point, which are arbitrary two time points that fluctuate in time, and output from the image capturing unit at the first time point A step of calculating parallax information by performing stereo matching based on the set of viewpoint images thus generated, extrapolating or interpolating the parallax information corresponding to the first time point to generate virtual parallax information, The first image output at
本発明は、単一の撮像光学系と、撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部とを備える撮像装置が、時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう撮像部を制御するステップと、第1の時点で撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出するステップと、第2の時点で出力された第1画像に第1の時点に対応する視差情報を適用して第1画像との間で視差を有する仮想第2画像を生成し、第2の時点で出力された第1画像と仮想第2画像から立体画像を生成するステップと、を実行する撮像方法を提供する。 The present invention provides a single imaging optical system and an imaging unit in which subject images that have passed through a first region and a second region having different predetermined directions of the imaging optical system are divided into pupils and formed respectively. An imaging apparatus comprising: an imaging unit capable of photoelectrically converting subject images that have passed through the first area and the second area, respectively, and continuously outputting a set of viewpoint images including the first image and the second image Is a step of controlling the image capturing unit so that a set of viewpoint images is output at a first time point and a second time point, which are arbitrary two time points that fluctuate in time, and output from the image capturing unit at the first time point A step of calculating parallax information by performing stereo matching based on the set of viewpoint images, and applying the parallax information corresponding to the first time point to the first image output at the second time point, A virtual second image having parallax between Generating a stereoscopic image from the first image output at 2 from the virtual second image, to provide an imaging method of execution.
本発明によると、第1の時点で算出された視差情報と、第1の時点よりも後の第2の時点で出力された視点画像とによって立体画像を生成する。こうすると、後の第2の時点で取得された視点画像に基づいて即座に立体画像を生成でき、第1の時点で算出された視差情報と、第1の時点で出力された視点画像とによって立体画像を生成するよりも新しい立体画像をより早く表示できる。 According to the present invention, a stereoscopic image is generated from the disparity information calculated at the first time point and the viewpoint image output at the second time point after the first time point. In this way, a stereoscopic image can be immediately generated based on the viewpoint image acquired at the second time point later, and the disparity information calculated at the first time point and the viewpoint image output at the first time point are used. A new stereoscopic image can be displayed faster than generating a stereoscopic image.
<第1実施形態>
図1は第1実施形態に係るカメラ1の実施の形態を示すブロック図である。
<First Embodiment>
FIG. 1 is a block diagram showing an embodiment of a
このカメラ1は、撮像した画像をメモリカード54に記録するもので、装置全体の動作は、中央処理装置(CPU)40によって統括制御される。
The
カメラ1には、シャッタボタン、モードダイヤル、再生ボタン、MENU/OKキー、十字キー、BACKキー等の操作部38が設けられている。この操作部38からの信号はCPU40に入力され、CPU40は入力信号に基づいてカメラ1の各回路を制御し、例えば、レンズ駆動制御、絞り駆動制御、撮影動作制御、画像処理制御、画像データの記録/再生制御、立体表示用の液晶モニタ30の表示制御などを行う。
The
ROM10には、CPU40が実行するプログラムおよび制御に必要な各種データ、CCD16の画素欠陥情報、カメラ動作に関する各種定数/情報等が格納されている。
The
シャッタボタンは、撮影開始の指示を入力する操作ボタンであり、半押し時にONするS1スイッチと、全押し時にONするS2スイッチとを有する二段ストローク式のスイッチで構成されている。モードダイヤルは、静止画を撮影するオート撮影モード、マニュアル撮影モード、人物、風景、夜景等のシーンポジション、および動画を撮影する動画モードのいずれかを選択する選択手段である。 The shutter button is an operation button for inputting an instruction to start shooting, and includes a two-stage stroke type switch having an S1 switch that is turned on when half-pressed and an S2 switch that is turned on when fully pressed. The mode dial is selection means for selecting one of an auto shooting mode for shooting a still image, a manual shooting mode, a scene position such as a person, a landscape, a night view, and a moving image mode for shooting a moving image.
再生ボタンは、撮影記録した立体視画像(3D画像)、平面画像(2D画像)の静止画又は動画を液晶モニタ30に表示させる再生モードに切り替えるためのボタンである。MENU/OKキーは、液晶モニタ30の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定および実行などを指令するOKボタンとしての機能とを兼備した操作キーである。十字キーは、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。また、十字キーの上/下キーは撮影時のズームスイッチあるいは再生モード時の再生ズームスイッチとして機能し、左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。BACKキーは、選択項目など所望の対象の消去や指示内容の取消し、あるいは1つ前の操作状態に戻らせる時などに使用される。
The playback button is a button for switching to a playback mode in which a still image or a moving image of a stereoscopic image (3D image) or a planar image (2D image) that has been recorded is displayed on the
撮影モード時において、被写体を示す画像光は、撮像レンズ12、絞り14を介して瞳分割視差画像を取得可能な位相差イメージセンサである固体撮像素子(以下、「CCD」というが、CMOS等でも可)16の受光面に結像される。撮像レンズ12は、CPU40によって制御されるレンズ駆動部36によって駆動され、フォーカス制御、ズーム(焦点距離)制御等が行われる。絞り14は、例えば、5枚の絞り羽根からなり、CPU40によって制御される絞り駆動部33によって駆動され、例えば、絞り値(F値)F2.8 〜F11まで1AV刻みで5段階に絞り制御される。
In the photographing mode, the image light indicating the subject is a solid-state image sensor (hereinafter referred to as “CCD”, which is a phase difference image sensor capable of acquiring a pupil-divided parallax image via the
また、CPU40は、絞り駆動部33を介して絞り14を制御するとともに、CCD制御部32を介してCCD16での電荷蓄積時間(シャッタスピード)や、CCD16からの画像信号の読み出し制御等を行う。
Further, the
<CCDの構成例>
図2はCCD16の構成例を示す図である。
<CCD configuration example>
FIG. 2 is a diagram illustrating a configuration example of the
図2(A)に示すように、CCD16は、それぞれマトリクス状に配列された奇数ラインの画素と、偶数ラインの画素とを有しており、これらの2つのラインの画素にてそれぞれ光電変換された2面分の画像信号は、独立して読み出すことができるようになっている。各画素群に対応する複数の受光素子は、有効な撮像信号を得るための有効画素領域と、黒レベルの基準信号を得るためのオプティカルブラック領域(以下「OB領域」という)とを形成する。OB領域は、実際には、有効画素領域の周囲を取り囲むように形成される。
As shown in FIG. 2A, the
図2(B)に示すように、CCD16の奇数ライン(1、3、5、…)には、R(赤)、G(緑)、B(青)のカラーフィルタを備えた画素のうち、GRGR…の画素配列のラインと、BGBG…の画素配列のラインとが交互に設けられる。一方、図2(C)に示すように、偶数ライン(2、4、6、…)の画素は、奇数ラインと同様に、GRGR…の画素配列のラインと、BGBG…の画素配列のラインとが交互に設けられるとともに、偶数ラインの画素に対して画素同士が2分の1ピッチだけライン方向にずれて配置されている。
As shown in FIG. 2B, the odd-numbered lines (1, 3, 5,...) Of the
2面分の画像信号を構成する第1画素と第2画素の配置領域は同一であってもよいし同一でなくてもよい。例えば、第1画素は有効画素領域全体に渡って存在するが、第2画素の存在領域はAF領域内など特定の領域のみでもよい。第2画素は、有効画素領域全体あるいは特定の領域内に渡って密に配列されてもよいし、粗に配列されてもよい。 The arrangement region of the first pixel and the second pixel constituting the image signal for two surfaces may or may not be the same. For example, the first pixel exists over the entire effective pixel area, but the existence area of the second pixel may be only a specific area such as an AF area. The second pixels may be densely arranged over the entire effective pixel area or within a specific area, or may be roughly arranged.
具体的には、図2(D)および(E)のように、第2画素数は第1画素数よりも低くてもよい。図2(D)および(E)は、白部分で第1画素、黒部分で第2画素を示している。黒部分のカラーフィルタは、RGBでもよいし(図2(D))、輝度情報を取るGのみ(図2(E))でもよい。図2(D)の場合は、第1画素・第2画素の間でRGBカラーフィルタの配列を変えずに済む利点があり、図2(E)の場合は各第2画素の情報をデフォーカス量の検出に利用できる利点がある。 Specifically, as shown in FIGS. 2D and 2E, the second pixel number may be lower than the first pixel number. 2D and 2E show the first pixel in the white portion and the second pixel in the black portion. The color filter in the black portion may be RGB (FIG. 2D) or only G (FIG. 2E) that takes luminance information. In the case of FIG. 2D, there is an advantage that it is not necessary to change the arrangement of the RGB color filters between the first pixel and the second pixel. In the case of FIG. 2E, the information of each second pixel is defocused. There is an advantage that can be used for quantity detection.
図3は、撮像レンズ12、絞り14、および図2(A)のCCD16の第1、第2画素の1画素ずつを示した図であり、図4は図3の要部拡大図である。
3 is a diagram showing each of the
図4(A)に示すように通常のCCDの画素(フォトダイオードPD)には、射出瞳を通過する光束が、マイクロレンズLを介して制限を受けずに入射する。 As shown in FIG. 4A, a light beam passing through the exit pupil is incident on a normal CCD pixel (photodiode PD) through the microlens L without being restricted.
これに対し、図4(B)に示すようにCCD16の第1画素および第2画素には遮光部材16Aが形成される。カメラ1を横置きにして撮像する場合、この遮光部材16Aにより第1画素、第2画素(フォトダイオードPD)の受光面の右半分又は左半分が遮光される。あるいはカメラ1を縦置きにして撮像する場合、この遮光部材16Aにより第1画素、第2画素(フォトダイオードPD)の受光面の上半分又は下半分が遮光される。マイクロレンズLの光軸Zから右、左、上、あるいは下方向(例えば図4(B)では光軸より左方向)に所定量Δだけ偏位した位置には、遮光部材16Aの開口16Bが設けられている。光束は開口16Bを通過し、フォトダイオードPDの受光面に到達する。即ち、遮光部材16Aが瞳分割部材としての機能を有している。
On the other hand, as shown in FIG. 4B, a
なお、第1画素と第2画素とでは、遮光部材16Aより光束が制限されている領域(右半分/左半分、あるいは上半分/下半分)が異なる。例えば、第1画素では光束の左半分が制限され、第2画素では光束の右半分が制限されると、第1画素からは右の視点画像、第2画素からは左の視点画像が得られる。あるいは、第1画素では光束の上半分が制限され、第2画素では光束の下半分が制限されると、第1画素からは下の視点画像、第2画素からは上の視点画像が得られる。
Note that the first pixel and the second pixel are different in regions (right half / left half or upper half / lower half) where the light flux is restricted by the
従って、図14に示すように、後ピン、合焦、前ピンの状態に応じて第1画素と第2画素の出力は、位相がずれるかまたは位相が一致する。第1画素と第2画素の出力信号の位相差は撮像レンズ12のデフォーカス量に対応するため、この位相差を検出することにより撮像レンズ12のAF制御を行うことができる(位相差AF)。
Therefore, as shown in FIG. 14, the outputs of the first pixel and the second pixel are out of phase or in phase with each other depending on the state of the rear pin, the in-focus state, and the front pin. Since the phase difference between the output signals of the first pixel and the second pixel corresponds to the defocus amount of the
上記構成のCCD16は、第1画素と第2画素とでは、遮光部材16Aより光束が制限されている領域(右半分、左半分)が異なるように構成されているが、CCD16の構成はこれに限らず、遮光部材16Aを設けずに、マイクロレンズLとフォトダイオードPDとを相対的に左右方向にずらし、そのずらす方向によりフォトダイオードPDに入射する光束が制限されるものでもよいし、また、2つの画素(第1画素と第2画素)に対して1つのマイクロレンズを設けることにより、各画素に入射する光束が制限されるものでもよいし、ミラーにより瞳分割するもの(例えば図13)でもよい。要するに本発明の適用範囲は、瞳分割により位相差画像を取得するカメラである。
The
図1に戻って、CCD16に蓄積された信号電荷は、CCD制御部32から加えられる読み出し信号に基づいて信号電荷に応じた電圧信号として読み出される。CCD16から読み出された電圧信号は、アナログ信号処理部18に加えられ、ここで各画素ごとのR、G、B信号がサンプリングホールドされ、増幅されたのちA/D変換器20に加えられる。A/D変換器20は、順次入力するR、G、B信号をデジタルのR、G、B信号に変換して画像入力コントローラ22に出力する。
Returning to FIG. 1, the signal charge accumulated in the
デジタル信号処理部24は、画像入力コントローラ22を介して入力するデジタルの画像信号に対して、オフセット処理、ホワイトバランス補正および感度補正を含むゲイン・コントロール処理、ガンマ補正処理、YC処理等の所定の信号処理を行う。
The digital
ここで、図2(B)および(C)に示すように,CCD16の奇数ラインの第1画素から読み出される第1画像データは、左視点画像データとして処理され、偶数ラインの第2画素から読み出される第2画像データは、右視点画像データとして処理される。図2(D)および(E)の場合も同様に、第1画素から読み出される第1画像データは、左視点画像データとして処理され、偶数ラインの第2画素から読み出される第2画像データは、右視点画像データとして処理される。なお、第1画像データが左視点画像データであり、第2画像データが右視点画像データである必然性はなく、その逆でもよい。
Here, as shown in FIGS. 2B and 2C, the first image data read from the first pixel of the odd line of the
デジタル信号処理部24で処理された左視点画像データおよび右視点画像データ(3D画像データ)は、VRAM50に入力する。VRAM50には、それぞれが1コマ分の3D画像を表す3D画像データを記憶するA領域とB領域とが含まれている。VRAM50において1コマ分の3D画像を表す3D画像データがA領域とB領域とで交互に書き換えられる。VRAM50のA領域およびB領域のうち、3D画像データが書き換えられている方の領域以外の領域から、書き込まれている3D画像データが読み出される。VRAM50から読み出された3D画像データはビデオ・エンコーダ28においてエンコーディングされ、カメラ背面に設けられている立体表示用の液晶モニタ(LCD)30に出力され、これにより3Dの被写体像が液晶モニタ30の表示画面上に表示される。
The left viewpoint image data and right viewpoint image data (3D image data) processed by the digital
この液晶モニタ30は、立体視画像(左視点画像および右視点画像)をパララックスバリアによりそれぞれ所定の指向性を持った指向性画像として表示できる立体表示手段であるが、これに限らず、レンチキュラレンズを使用するものや、偏光メガネ、液晶シャッタメガネなどの専用メガネをかけることで左視点画像と右視点画像とを個別に見ることができるものでもよい。 The liquid crystal monitor 30 is a stereoscopic display unit that can display stereoscopic images (left viewpoint image and right viewpoint image) as directional images having predetermined directivities by a parallax barrier, but is not limited thereto, and is not limited thereto. The left viewpoint image and the right viewpoint image may be viewed separately by using a lens, or by wearing dedicated glasses such as polarized glasses or liquid crystal shutter glasses.
また、操作部38のシャッタボタンの第1段階の押下(半押し)があると、CPU40は、AF動作およびAE動作を開始させ、レンズ駆動部36を介して撮像レンズ12内のフォーカスレンズが合焦位置にくるように制御する。また、シャッタボタンの半押し時にA/D変換器20から出力される画像データは、AE検出部44に取り込まれる。
In addition, when the shutter button of the
AE検出部44では、画面全体のG信号を積算し、又は画面中央部と周辺部とで異なる重みづけをしたG信号を積算し、その積算値をCPU40に出力する。CPU40は、AE検出部44から入力する積算値より被写体の明るさ(撮影Ev値)を算出し、この撮影Ev値に基づいて適正露出が得られる絞り14の絞り値およびCCD16の電子シャッタ(シャッタスピード)を所定のプログラム線図にしたがって決定し、その決定した絞り値に基づいて絞り駆動部33を介して絞り14を制御する(通常の絞り制御)とともに、決定したシャッタスピードに基づいてCCD制御部32を介してCCD16での電荷蓄積時間を制御する。なお、被写体の明るさは外部の測光センサに基づいて算出されてもよい。
The
ここで、所定のプログラム線図とは、被写体の明るさ(撮影EV値)に対応して、絞り14の絞り値とCCD16のシャッタスピードの組み合わせ、又はこれらと撮影感度(ISO感度)の組み合わせからなる撮影(露出)条件が設計されたものである。このプログラム線図にしたがって決定された撮影条件で撮影を行うことにより、被写体の明るさにかかわらず、所望の視差を有する第1画像、第2画像の撮影が可能となる。
Here, the predetermined program diagram corresponds to a combination of the aperture value of the
例えば、所定のプログラム線図は、F値が1.4(AV=1)の一定の値を取り、撮影EV値が7から12までは撮影EV値に応じてシャッタ速度のみを1/60秒(TV=6)から1/2000(TV=11)まで変化させるように設計されている。また、撮影EV値が7よりも小さくなると(暗くなると)、F値=1.4、シャッタ速度=1/60秒で固定した状態で、撮影EV値が1EV小さくなる毎にISO感度を100から200,400,800,1600,3200になるように設計されている。すなわち、被写体が暗くなると、絞り14を開放せず、シャッタ速度やISO感度を増やして明るさを補う。
For example, the predetermined program diagram has a constant F value of 1.4 (AV = 1), and when the shooting EV value is from 7 to 12, only the shutter speed is set to 1/60 seconds (TV) according to the shooting EV value. = 6) to 1/2000 (TV = 11). When the photographing EV value is smaller than 7 (when dark), the ISO sensitivity is increased from 100 to 200,400,800, every time the photographing EV value becomes 1 EV with the F value = 1.4 and the shutter speed = 1/60 seconds. It is designed to be 1600,3200. That is, when the subject becomes dark, the
なお、固定するF値を大きくすれば、視差は弱くなり、固定するF値を小さくすれば、視差は強くなるので、操作部38を介してユーザから指示された視差量に応じて固定するF値とプログラム線図を切り替えるとよい。例えば、弱い視差が指示された場合はF値=5.6のプログラム線図A,標準の視差が指示された場合はF値=2.8のプログラム線図B、強い視差が指示された場合はF値=1.4のプログラム線図Cに沿って通常の絞り制御を行う。
Note that if the F value to be fixed is increased, the parallax is weakened, and if the F value to be fixed is decreased, the parallax is increased. Therefore, the F that is fixed according to the amount of parallax instructed by the user via the
この視差優先プログラム線図は、F値を一定の値で固定しているため、所望の視差を有する第1画像、第2画像の撮影を行うことができる。ただし、撮影EV値が12よりも大きくなると(シャッタ速度が最大値になると)、露出オーバになり撮影できなくなるが、NDフィルタを自動挿入して光量を減光できる構成をカメラ1に追加すれば、撮影EV値が12よりも大きくなっても撮影可能である。
In this parallax priority program diagram, since the F value is fixed at a constant value, the first image and the second image having a desired parallax can be taken. However, if the shooting EV value is greater than 12 (when the shutter speed reaches the maximum value), the
AF処理部42は、コントラストAF処理又は位相差AF処理を行う部分である。コントラストAF処理を行う場合には、左視点画像データおよび右視点画像データの少なくとも一方の画像データのうちの所定のフォーカス領域内(画面中央部の矩形領域など)の画像データの高周波成分を抽出し、この高周波成分を積分することにより合焦状態を示すAF評価値を算出する。このAF評価値が極大となるように撮像レンズ12内のフォーカスレンズを制御することによりAF制御が行われる。また、位相差AF処理を行う場合には、左視点画像データおよび右視点画像データのうちの所定のフォーカス領域内の第1画素、第2画素に対応する画像データの位相差を検出し、この位相差を示す情報に基づいてデフォーカス量を求める。このデフォーカス量が0になるように撮像レンズ12内のフォーカスレンズを制御することによりAF制御が行われる。
The
AE動作およびAF動作が終了し、シャッタボタンの第2段階の押下(全押し)があると、その押下に応答してA/D変換器20から出力される第1画素および第2画素に対応する左視点画像(第1画像)および右視点画像(第2画像)の2枚分の画像データが画像入力コントローラ22からメモリ(SDRAM) 48に入力し、一時的に記憶される。
When the AE operation and the AF operation are completed and the shutter button is pressed in the second stage (full press), it corresponds to the first pixel and the second pixel output from the A /
メモリ48に一時的に記憶された2枚分の画像データは、デジタル信号処理部24により適宜読み出され、ここで画像データの輝度データおよび色差データの生成処理(YC処理)を含む所定の信号処理が行われる。YC処理された画像データ(YCデータ)は、再びメモリ48に記憶される。続いて、2枚分のYCデータは、それぞれ圧縮伸長処理部26に出力され、JPEG (joint photographic experts group)などの所定の圧縮処理が実行されたのち、再びメモリ48に記憶される。
The two pieces of image data temporarily stored in the
メモリ48に記憶された2枚分のYCデータ(圧縮データ)から、マルチピクチャファイル(MPファイル:複数の画像が連結された形式のファイル)が生成され、そのMPファイルは、メディア・コントローラ52により読み出され、メモリカード54に記録される。
A multi-picture file (MP file: a file in a format in which a plurality of images are connected) is generated from two pieces of YC data (compressed data) stored in the
デフォーカスマップ作成部61は、第1画素および第2画素に対応する位相差を、所定のフォーカス領域に含まれる小領域の各々について算出するだけでなく、有効画素領域の全体を実質的に被覆する複数の小領域の各々について算出する。有効画素領域の全体を実質的に被覆する複数の小領域とは、有効画素領域の全体を完全に覆っている必要はなく、有効画素領域の全体に渡って密にあるいは粗に配列されていればよい。例えば、有効画素領域をマトリクス状に所定の単位(例えば8×8画素)、あるいはそれ以下(例えば1×1画素)、あるいはそれ以上(例えば10×10画素)で分割した分割領域の各々について位相差が算出される。あるいは、有効画素領域の外縁を起点に所定のピッチ(例えば分割領域1つ分、あるいはそれ以上、あるいはそれ以下)を隔てた所定の単位の分割領域毎に位相差が算出される。要するに位相差は有効画素領域の全体に渡って算出されるものとするが、必ずしも有効画素領域を構成する小領域の全てについて算出されなくてもよい。
The defocus
デフォーカスマップ作成部61は、上記小領域の各々について算出された位相差に基づき、上記小領域の各々に対応するデフォーカス量を求める。この、有効画素領域の全体に渡って求められた小領域の各々に対応するデフォーカス量の集合を、デフォーカスマップと呼ぶ。デフォーカスマップ作成部61は、RAMなどの揮発性記憶媒体を有しており、求まったデフォーカスマップを一時的に保存する。デフォーカスマップ作成部61は、ステレオマッチング処理部83にて各視点画像間で特徴点および対応点検出を行い、それらの特徴点および対応点の間の位置情報の差に基づいてデフォーカスマップを作成してもよい。
The defocus
復元フィルタ保存部62は、ROMなどの不揮発性記憶媒体で構成されており、各視点画像における各小領域の像高(画像中心からの距離、典型的には撮像レンズ12の光軸中心Lからの距離)およびデフォーカス量(ないしは被写体距離)に対応する復元フィルタを保存している。
The restoration
復元部63は、各視点画像の小領域毎に選択された復元フィルタで当該小領域をデコンボリューションし、対応する視点画像の小領域を復元する。この信号処理により、光学系のボケ、特に光束の入射のアンバランスが生じる受光面の周辺画素に対応する画像のボケが取り除かれる。
The
ステレオマッチング処理部(対象物検出手段)83は、同じタイミングでメモリ48に格納された2つの画像データA、B間で互いに対応する1つ以上の対応点(対象物)を検出するものである。なおステレオマッチング処理部83における処理方法は、領域ベース法、セグメントベース法、等輝度線法等を用いる公知の技術を使用することができる。また、ステレオマッチングはパッシブ式でもアクティブ式でもよい。また、画素数の異なる画像間でのステレオマッチングは、例えば特許文献3、7〜11のような公知の技術に基づいて行うことができる。
The stereo matching processing unit (object detection means) 83 detects one or more corresponding points (objects) corresponding to each other between the two image data A and B stored in the
距離算出部84は、上述したステレオマッチング処理部83によって検出された対応点の3次元座標値(距離情報または視差マップ)を算出するものである。距離算出部84における算出方法は、三角測量の原理により計算する公知の技術を使用することができる。なお、ステレオマッチング処理部83および距離算出部84はプログラムにより構成されるものであっても、IC、LSI等によって構成されるものであってもよい。後述するが、距離算出部84は、距離算出を同時処理可能な複数の処理系統を有していてもよい。なお、距離情報と視差マップは技術的に等価であり、以下の距離情報についての処理は、視差マップについても行うことができる。
The
第1画像データの取得画素と第2画像データの取得画素は、同じ構成であってもよいし、そうでなくてもよい。第1画像データは色情報と輝度情報を有するが、第2画像データは輝度情報のみを有してもよい。あるいは、第2画素は、赤外領域を受光可能な白黒CCDとし、特許文献7のような赤外光を用いたアクティブ式のステレオマッチングが採用されてもよい。 The acquisition pixel of 1st image data and the acquisition pixel of 2nd image data may be the same structures, and may not be so. The first image data has color information and luminance information, but the second image data may have only luminance information. Alternatively, the second pixel may be a monochrome CCD that can receive an infrared region, and active stereo matching using infrared light as in Patent Document 7 may be employed.
以下では、ステレオマッチングを可能にするため、第1画像データ・第2画像データの双方は少なくとも輝度情報を含むものとする。さらに、3次元画像に色情報を付加するため、第1画像データ・第2画像データの少なくとも一方は色情報を含むものとする。ここでは説明の簡略のため、第1画像データ(画像データA)は輝度情報と色情報を含み、第2画像データ(画像データB)は輝度情報のみを含むものとする。このような構成にすることによりCCD16の製造コストを低減することができる。ただし、スルー画を白黒で表示する場合、画像データAの色情報は必須でない。
In the following, in order to enable stereo matching, both the first image data and the second image data include at least luminance information. Furthermore, in order to add color information to the three-dimensional image, at least one of the first image data and the second image data includes color information. Here, for simplification of description, the first image data (image data A) includes luminance information and color information, and the second image data (image data B) includes only luminance information. With such a configuration, the manufacturing cost of the
また、画像データAの解像度はLCD30の表示解像度以上であり、かつ、画像データBの解像度はLCD30の表示解像度よりも低いものとする。つまり、3次元画像をLCD30に表示するには、距離情報の算出、距離情報の外挿または内挿の処理、および取得された画像データに対するサイズ調整が必要であり、そのための処理に時間を要する。
The resolution of the image data A is equal to or higher than the display resolution of the
3次元画像処理部85は、CCD16から取得された画像データAに、距離算出部84の算出した距離情報を適用することで、画像データAの視点位置とは異なる仮想的な視点位置に対応する画像データB’を生成することができる。これは特許文献2と同様である。また、距離情報からの3次元画像生成は、特許文献7〜11のような公知技術に基づいて行うことができる。
The three-dimensional
画像データAの視点位置と画像データB’の視点位置のずれ(視差量)は、固定値または任意の設定値のいずれでもよい。例えば、3次元画像処理部85は、操作部38から設定された視差量に応じて、仮想的な画像データB’を生成する。これは特許文献1と同様である。あるいは、ROM10に記憶された固定の視差量に応じて、仮想的な画像データB’を生成する。
The deviation (parallax amount) between the viewpoint position of the image data A and the viewpoint position of the image data B ′ may be a fixed value or an arbitrary set value. For example, the three-dimensional
あるいは、3次元画像処理部85は、AF処理で合焦したAF領域内の被写体距離の遠近に応じた視差量を設定し、この設定された視差量に応じて、仮想的な画像データB’を生成する。具体的には、3次元画像処理部85は、合焦被写体までの距離が遠ければ、外挿によりそれだけ視差量を多くする。すなわち、デフォーカス量が0になる合焦被写体までの距離が遠く、立体感が出にくい場合には、視差量を増やし、立体感を持たせることができる。適正な視差量でユーザに立体画像を閲覧させるため、視差量を増大する上限を設けてもよい。さらに、3次元画像処理部85は、合焦被写体までの距離が近ければ、内挿によりそれだけ視差量を少なくすることもできる。
Alternatively, the three-dimensional
いずれにせよ、3次元画像処理部85は、画像データAとの間で所望の視差量を有するよう、ステレオマッチングされた画像データA・画像データB間の対応点の3次元座標値(距離情報)の内挿または外挿により、画像データB’(中間位置画像、右外画像、または左外画像)を求める。よって、カメラ1で、基線長が小さくなり、立体感が弱くなる時でも、視差量を所望の値に拡大した立体スルー画を遅延なく出力できる。
In any case, the three-dimensional
3次元画像処理部85は、画像データAと画像データB’から3次元画像データを生成する。この仮想的な画像データB’の生成と3次元画像データの生成を新たな画像データAの取得の度に繰り返すことで、所望の視差量を有する立体スルー画がLCD30に継続的に表示される。
The three-dimensional
図5は本発明の好ましい第1実施形態に係るスルー画表示処理のタイミングチャートを示す。この処理は撮影モードが「静止画記録」または「動画記録」に設定されたことに応じて開始される。 FIG. 5 is a timing chart of the through image display process according to the first preferred embodiment of the present invention. This process is started in response to the shooting mode being set to “still image recording” or “moving image recording”.
S1では、CPU40は、CCD16から1コマ目の左右の画像データA・Bが取得されるよう制御する。
In S <b> 1, the
S2では、CPU40は、ステレオマッチング処理部83と距離算出部84にステレオマッチングと距離情報の算出を行わせる。ステレオマッチング処理部83は、取得された1コマ目の画像データA・Bに基づいてステレオマッチングを行う。距離算出部84は、ステレオマッチング処理部83によって検出された対応点毎の距離情報を算出する。本実施形態において、このステレオマッチングと距離情報の算出に要する時間は左右の視点画像データの取得間隔に相当するものとする。
In S <b> 2, the
CPU40は、このステレオマッチングと距離情報の算出の間に、CCD16から2コマ目の画像データA・Bが取得されるよう制御する。
The
S3では、3次元画像処理部85は、距離算出部84の算出した1コマ目の画像データA・Bに関する距離情報を内挿または外挿し、仮想的な距離情報を生成する。そして、3次元画像処理部85は、仮想的な距離情報とCCD16から取得された2コマ目の画像データAおよび/または画像データBに基づき、所望の視差量dを有する1組の視差画像である画像データA’・画像データB’を生成する。
In S <b> 3, the three-dimensional
画像データA’および画像データB’はCCD16から直接出力された画像ではない場合もあるが、その場合と同等の画像情報(輝度情報および色情報)を有する。そして3次元画像処理部85は、画像データA’と画像データB’とに基づき、1コマ目の3次元画像データを生成する。表示制御部35は、3次元画像処理部85の生成した3次元画像データをLCD30に表示させる。LCD30に表示された3次元画像データは、所望の視差量dを有する。
The image data A ′ and the image data B ′ may not be directly output from the
以下同様、レリーズボタン19が全押しされるまで、n(n=1、2、3・・)コマ目の左右の画像データA・Bから距離情報を算出し、nコマ目の画像データA・Bに対応する距離情報を外挿または内挿することでnコマ目の仮想的な距離情報を生成する。そして、nコマ目の仮想的な距離情報とn+1コマ目の画像データAおよび/または画像データBに基づいて所望の視差量dを有する1組の視差画像データである画像データA’・画像データB’を生成する。そして、画像データA’・B’に基づいて、所望の視差量dを有するnコマ目の3次元画像データを生成しLCD30にスルー画像として表示することを繰り返す。
Similarly, until the release button 19 is fully pressed, distance information is calculated from the left and right image data A and B of the n (n = 1, 2, 3...) Frame, and the n-th image data A and B are calculated. The virtual distance information of the nth frame is generated by extrapolating or interpolating the distance information corresponding to B. Then, based on the virtual distance information of the nth frame and the image data A and / or the image data B of the (n + 1) th frame, image data A ′ and image data that are a set of parallax image data having a desired parallax amount d B ′ is generated. Then, based on the image data A ′ and B ′, the generation of n-th frame three-dimensional image data having a desired parallax amount d is repeatedly displayed on the
3次元画像処理部85が所望の視差量dを有する1組の視差画像である画像データA’・B’を生成する方法として、次の3つのパターンのうちのいずれが採用されてもよい。
Any of the following three patterns may be employed as a method by which the three-dimensional
(1)nコマ目の距離情報を外挿あるいは内挿することで、nコマ目の画像データAの各画素の座標・画像データBの各画素の座標を、それぞれd/2だけ外側あるいは内側に移動した仮想的距離情報を算出する。そして、当該仮想的距離情報に従い、n+1コマ目の画像データAの各画素の座標・画像データBの各画素の座標を、それぞれd/2だけ外側あるいは内側に移動し、画素の色も元の配列順どおりに移動する。この方法は、画像データAの画素数と画像データBの画素数が同等の場合に有効である。 (1) By extrapolating or interpolating the distance information of the nth frame, the coordinates of each pixel of the image data A and the coordinates of each pixel of the image data B are respectively outside or inside by d / 2. The virtual distance information moved to is calculated. Then, according to the virtual distance information, the coordinates of each pixel of the image data A in the (n + 1) th frame and the coordinates of each pixel of the image data B are moved outward or inward by d / 2, respectively, and the pixel color is also changed to the original color. Move in order of arrangement. This method is effective when the number of pixels of the image data A is equal to the number of pixels of the image data B.
(2)nコマ目の距離情報を外挿あるいは内挿することで、nコマ目の画像データBの各画素の座標を、dだけ外側あるいは内側に移動した仮想的距離情報を算出する。そして、当該仮想的距離情報に従い、n+1コマ目の画像データBの各画素の座標を、dだけ外側あるいは内側に移動し、画素の色も元の配列順どおりに移動する。この方法は、画像データAの画素数が画像データBの画素数よりも多い場合に有効である。この場合、n+1コマ目の画像データA’は、n+1コマ目の画像データAと同じであってもよい。また、特許文献2と同様にして、画像データB’の画素数を画像データA’と同等にすることができる。
(2) By extrapolating or interpolating the distance information of the nth frame, virtual distance information is calculated by moving the coordinates of each pixel of the image data B of the nth frame outward or inward by d. Then, according to the virtual distance information, the coordinates of each pixel of the image data B of the (n + 1) th frame are moved outward or inward by d, and the pixel colors are also moved in the original arrangement order. This method is effective when the number of pixels of the image data A is larger than the number of pixels of the image data B. In this case, the image data A ′ for the (n + 1) th frame may be the same as the image data A for the (n + 1) th frame. Similarly to
(3)nコマ目の距離情報を外挿あるいは内挿することで、nコマ目の画像データAの各画素の座標を、dだけ外側あるいは内側に移動した仮想的距離情報を算出する。そして、当該仮想的距離情報に従い、n+1コマ目の画像データAの各画素の座標を、dだけ外側あるいは内側に移動し、画素の色も元の配列順どおりに移動する。この方法は、画像データBの画素数が画像データAの画素数よりも多い場合に有効である。この場合、n+1コマ目の画像データB’は、n+1コマ目の画像データBと同じであってもよい。また、特許文献2と同様にして、画像データA’の画素数を画像データB’と同等にすることができる。
(3) By extrapolating or interpolating the distance information of the nth frame, virtual distance information is calculated by moving the coordinates of each pixel of the image data A of the nth frame outward or inward by d. Then, according to the virtual distance information, the coordinates of each pixel of the image data A of the (n + 1) th frame are moved outward or inward by d, and the pixel colors are also moved in the original arrangement order. This method is effective when the number of pixels of the image data B is larger than the number of pixels of the image data A. In this case, the image data B ′ of the (n + 1) th frame may be the same as the image data B of the (n + 1) th frame. Similarly to
このように、前のコマについて算出された距離情報を用いて後のコマの視点画像からスルー画を表示するため、距離情報の算出待ちにより最新のスルー画の表示の遅れが発生することを防止できる。なお、距離情報の算出対象の画像データと3次元画像の生成元の画像データとは取得タイミングが異なるため、スルー画での被写体の3次元位置は実際とは異なるが、1コマ分の画像データの取得時間に相当するずれのため観察者から見て被写体位置の違いは小さいと考えられる。 In this way, since the through image is displayed from the viewpoint image of the subsequent frame using the distance information calculated for the previous frame, it is possible to prevent the latest through image display from being delayed due to the calculation of distance information. it can. It should be noted that the image data to be calculated for the distance information and the image data from which the three-dimensional image is generated have different acquisition timing, so the three-dimensional position of the subject in the through image is different from the actual one, but the image data for one frame The difference in subject position as viewed from the observer is considered to be small because of a shift corresponding to the acquisition time of.
さらに、被写体の距離情報の外挿・内挿に基づいて所望の視差を有する視点画像の組を生成する代わりに、視差マップ(基準の視点画像、例えば画像データAから、別の視点画像、例えば画像データBへの対応点までの視差で、別の視点画像を表したもの)の外挿・内挿に基づいて所望の視差を有する視点画像の組を生成することもできる。すなわち、距離算出部84は、nコマ目に対応する画像データAと画像データBの間の対応する画素毎の視差を示す視差マップを算出する。視差マップの算出は、ステレオマッチングなどで行われる。3次元画像処理部85は、nコマ目に対応する視差マップの各画素の視差を外挿または内挿することで仮想視差マップを生成する。nコマ目の仮想視差マップに基づくn+1コマ目の画像データAおよび/または画像データBの各画素の移動は、上記の3パターンと同様、n+1コマ目に対応する画像データAおよび画像データBの双方またはいずれか一方について行う。このように、視差マップの各画素の視差の外挿または内挿によっても、所望の視差を有する視点画像の組を生成することができる。
Furthermore, instead of generating a set of viewpoint images having a desired parallax based on extrapolation / interpolation of subject distance information, a parallax map (from a reference viewpoint image, eg, image data A, to another viewpoint image, eg, A set of viewpoint images having a desired parallax can be generated based on the extrapolation / interpolation of the parallax up to the corresponding point to the image data B and representing another viewpoint image). That is, the
以下、説明の簡略のため、被写体の距離情報について記述するが、視差マップについても同様の処理が成り立つ。 In the following, for the sake of simplicity, the distance information of the subject will be described, but the same processing holds for the parallax map.
<第2実施形態>
ステレオマッチングと距離情報の算出に要する時間が、1コマ分の左右の画像データA・Bの取得間隔よりも長い場合、n+1コマ目の画像データにnコマ目の距離情報を適用して3次元画像を生成することはできない。そこで、距離情報の算出以後に取得される複数のコマの画像データに、当該算出された同一の距離情報を適用して複数コマの3次元画像データを生成する。
Second Embodiment
When the time required for the stereo matching and distance information calculation is longer than the acquisition interval of the left and right image data A and B for one frame, the distance information of the nth frame is applied to the n + 1 frame image data to obtain a three-dimensional An image cannot be generated. Therefore, the calculated same distance information is applied to the image data of a plurality of frames acquired after the calculation of the distance information to generate a plurality of frames of three-dimensional image data.
図6は本発明の好ましい第2実施形態に係るスルー画表示処理のタイミングチャートを示す。 FIG. 6 is a timing chart of the through image display process according to the second preferred embodiment of the present invention.
S11はS1と同様であり、CCD16から1コマ目の画像データA・Bが取得される。
S11 is the same as S1, and the first frame of image data A and B is acquired from the
S12はS2と同様であり、ステレオマッチング処理部83は、取得された1コマ目の左右の画像データA・Bに基づいてステレオマッチングを行う。ただし2コマ目の左右の画像データBはメモリ部31に保存されず廃棄される。距離算出部84は、ステレオマッチング処理部83によって1コマ目の画像データA・Bから検出された対応点の距離情報(距離情報)を算出する。このステレオマッチングと距離情報の算出に要する時間が左右の画像データの取得間隔を超え、例えば2倍に相当するとする。すなわち、第1実施形態と異なり、距離情報の算出は、前のコマの画像の取得から次のコマの画像が取得までの間に完了しない。
S12 is the same as S2, and the stereo matching processing unit 83 performs stereo matching based on the acquired left and right image data A and B of the first frame. However, the left and right image data B of the second frame are discarded without being stored in the memory unit 31. The
S13では、CPU40は、このステレオマッチングと距離情報の算出の間に、CCD16から3コマ目の画像データA・Bが取得されるよう制御する。
In S13, the
S14では、3次元画像処理部85は、距離算出部84の算出した1コマ目の画像データA・Bに関する距離情報を外挿または内挿し、1コマ目の仮想的な距離情報を生成する。3次元画像処理部85は、1コマ目の仮想的な距離情報と、CCD16から取得された3コマ目の画像データAおよび/または画像データBに基づき、所望の視差量dを有する1コマ目の画像データA’・B’を生成する。そして、3次元画像処理部85は、1コマ目の画像データA’と画像データB’とに基づき、1コマ目の3次元画像データを生成する。表示制御部35は、生成された3次元画像データをLCD30に表示する。LCD30に表示された3次元画像データは、所望の視差量dを有する。
In S14, the three-dimensional
この間、CPU40は、CCD16から4コマ目の画像データが取得されるよう制御する。またCPU40は、3コマ目の画像データA・Bに基づくステレオマッチングおよび距離情報の算出を開始するよう制御する。
During this time, the
S15では、3次元画像処理部85は、1コマ目の仮想的な距離情報とCCD16から取得された4コマ目の画像データAおよび/または画像データBとに基づき、所望の視差量dを有する2コマ目の画像データA’・画像データB’を生成する。そして、2コマ目の画像データA’と画像データB’とに基づき、2コマ目の3次元画像データを生成し、表示制御部35は、生成された3次元画像データをLCD30に表示する。LCD30に表示された3次元画像データは、所望の視差量dを有する。
In S15, the three-dimensional
この間、CPU40は、CCD16から5コマ目の画像データが取得されるよう制御する。
During this time, the
以下同様、レリーズボタン19が全押しされるまで、繰り返して、n(n=1、2、3・・)コマ目の画像データA・Bから距離情報を算出し、nコマ目の距離情報を外挿または内挿してnコマ目の仮想的な距離情報を生成する。そして、nコマ目の仮想的な距離情報とn+2コマ目の画像データAおよび/または画像データBに基づき、所望の視差量dを有するnコマ目の3次元画像データを生成しLCD30にスルー画像として表示する。さらに、nコマ目の仮想的な距離情報とn+3コマ目の画像データAおよび/または画像データBに基づき、所望の視差量dを有するn+1コマ目の3次元画像データを生成しLCD30にスルー画像として表示する。
Similarly, until the release button 19 is fully pressed, the distance information is repeatedly calculated from the image data A and B of n (n = 1, 2, 3,...) Frames, and the distance information of the n frames is calculated. Virtual distance information of the nth frame is generated by extrapolation or interpolation. Then, based on the virtual distance information of the nth frame and the image data A and / or image data B of the (n + 2) th frame, 3D image data of the nth frame having a desired parallax amount d is generated, and the through image is displayed on the
これにより、距離情報の算出待ちにより所望の視差量dを有するスルー画の表示の遅れが発生することをより効果的に防止できる。また、距離算出よりスルー画の表示のフレームレートを早くすることができる。 Thereby, it is possible to more effectively prevent a delay in displaying a through image having a desired parallax amount d due to waiting for calculation of distance information. In addition, the frame rate for displaying the through image can be made faster than the distance calculation.
<第3実施形態>
第1・2実施形態において、画像の解像度が高いなどの理由で座標値算出に時間がかかったり、画像の色情報など画像データの情報量によって座標値算出時間が変化する場合、スルー画のコマが定期的に表示されなくなる。そこで、座標値算出が所定の割合完了した時から次のコマの左右画像データの取得を開始してもよい。
<Third Embodiment>
In the first and second embodiments, when the coordinate value calculation takes time because the resolution of the image is high, or when the coordinate value calculation time changes depending on the information amount of image data such as image color information, the through image frame Disappears periodically. Therefore, the acquisition of the left and right image data of the next frame may be started when the coordinate value calculation is completed at a predetermined rate.
図7は本発明の好ましい第3実施形態に係るスルー画表示処理のタイミングチャートを示す。 FIG. 7 is a timing chart of the through image display process according to the preferred third embodiment of the present invention.
S21はS11と同様であり、CPU40は、撮影モードの設定に応じて、CCD16から1コマ目の画像データA・Bを取得するよう制御する。
S21 is the same as S11, and the
S22はS12と同様であり、ステレオマッチング処理部83は、取得された1コマ目の画像データA・Bに基づいてステレオマッチングを行う。距離算出部84は、ステレオマッチング処理部83によって画像データA・Bから検出された対応点の距離情報を算出する。
S22 is the same as S12, and the stereo matching processing unit 83 performs stereo matching based on the acquired image data A and B of the first frame. The
S23では、CPU40は、座標値算出が所定の割合完了した時、例えば7割完了した時点で、CCD16からから2コマ目の画像データA・Bの取得を開始するよう制御する。画像データA・Bの取得開始と連動する座標値算出の完了割合をどのように設定するかは任意である。例えば、1コマ目の画像データA・Bに対応する座標値算出開始後のある時点から距離情報の完全な算出完了までの時間の長さが、画像データの取得完了に必要な時間と略一致する場合、その時点が到来した時点で、CCD16から2コマ目の画像データの取得を開始するよう制御するとよい。こうすると画像データの取得後ただちに3次元画像を生成することができる。
In S23, the
S24では、CPU40は、距離算出部84から算出された1コマ目の画像データA・Bに対応する距離情報を外挿または内挿し1コマ目の仮想的な距離情報を生成する。そして、1コマ目の仮想的な距離情報と2コマ目の画像データAおよび/または画像データBに基づき、所望の視差dを有する1コマ目の画像データA’・B’を生成するよう3次元画像処理部85を制御する。3次元画像処理部85は、1コマ目の画像データA’と画像データB’とに基づいて1コマ目の3次元画像データを生成する。表示制御部35から得られた1コマ目の3次元画像データはLCD30に出力されスルー画像として表示される。LCD30に表示された3次元画像データは、所望の視差量dを有する。
In S <b> 24, the
この間、CPU40は、2コマ目の画像データA・Bに対応するステレオマッチングと距離情報の算出を開始するようステレオマッチング処理部83および距離算出部84を制御する。
During this time, the
以後同様、CPU40は、CCD16から取得されたnコマ目の画像データA・Bに基づく距離情報算出が所定の割合完了した時点で、CCD16からn+1コマ目の画像データA・Bを取得するよう制御する。さらにCPU40は、距離算出部84から算出されたnコマ目の画像データA・Bに対応する距離情報を外挿または内挿してnコマ目の仮想的な距離情報を生成し、nコマ目の仮想的な距離情報とn+1コマ目の画像データAおよび/または画像データBとに基づき、所望の視差dを有するnコマ目の画像データA’・B’を生成し、画像データA’と画像データB’とに基づいてnコマ目の3次元画像データを生成するよう3次元画像処理部85を制御する。
Thereafter, similarly, the
このように、距離情報の算出タイミングに応じて各コマの画像の取得間隔を可変にすることで、最新の画像データによる3次元画像の素早い生成が可能となる。 As described above, by making the image acquisition interval of each frame variable according to the calculation timing of the distance information, it is possible to quickly generate a three-dimensional image using the latest image data.
<第4実施形態>
第3実施形態において、ステレオマッチング処理部83および距離算出部84のセットが複数存在し、複数のコマの画像データの各々について独立した距離情報算出の並列処理が可能な場合は、最新コマの画像データの取得時に距離情報算出を実行していない、空いているセットに対して最新コマに対応する距離情報算出を実行するよう制御するとよい。
<Fourth embodiment>
In the third embodiment, when there are a plurality of sets of the stereo matching processing unit 83 and the
図8は本発明の好ましい第4実施形態に係るデジタルカメラ1のブロック図を示す。説明済みのブロックと同一のブロックには同一の符号を付している。このデジタルカメラ1は、複数セット、ここでは一例として2セットのステレオマッチング処理部83aおよび距離算出部84a、ステレオマッチング処理部83bおよび距離算出部84bを有する。
FIG. 8 shows a block diagram of a
図9は本発明の好ましい第4実施形態に係るスルー画表示処理のタイミングチャートを示す。 FIG. 9 is a timing chart of the through image display process according to the preferred fourth embodiment of the present invention.
S41では、CPU40は、撮影モードの設定に応じて、CCD16から1コマ目の画像データA・Bを取得するよう制御する。
In S41, the
S42では、CPU40は、ステレオマッチング処理部83a・距離算出部84aに、1コマ目の画像データA・Bに対応する距離情報の算出を開始させるよう制御する。ステレオマッチング処理部83aは、取得された1コマ目の画像データA・Bに基づいてステレオマッチングを行う。距離算出部84aは、ステレオマッチング処理部83aによって検出された対応点の距離情報を算出する。
In S42, the
同時に、CPU40は、CCD16から2コマ目の画像データA・Bを取得するよう制御する。
At the same time, the
S43では、CPU40は、ステレオマッチング処理部83b・距離算出部84bに、2コマ目の画像データA・Bに対応する距離情報の算出を開始させるよう制御する。ステレオマッチング処理部83bは、取得された2コマ目の画像データA・Bに基づいてステレオマッチングを行う。距離算出部84bは、ステレオマッチング処理部83によって2コマ目の画像データA・Bから検出された対応点の距離情報を算出する。
In S43, the
ステレオマッチング処理部83b・距離算出部84bによる距離情報の算出の開始時に、ステレオマッチング処理部83a・距離算出部84aによる距離情報の算出が継続していてもよく、双方の距離情報の算出は独立無関係に行われる。
At the start of the distance information calculation by the stereo
さらにCPU40は、CCD16から3コマ目の画像データA・Bを取得するよう制御する。
Further, the
S44では、CPU40は、S42で算出された1コマ目の画像データA・Bに対応する距離情報を外挿または内挿することで、1コマ目の仮想的な距離情報を生成するよう3次元画像処理部85を制御する。そして、CPU40は、1コマ目の仮想的な距離情報と3コマ目の画像データAおよび/または画像データBに基づき、所望の視差量dを有する1コマ目の画像データA’・B’を生成し、画像データA’と画像データB’とに基づいて1コマ目の3次元画像を生成するよう3次元画像処理部85を制御する。
In S44, the
同時に、CPU40は、ステレオマッチング処理部83a・距離算出部84aに、3コマ目の画像データA・Bに対応する距離情報の算出を開始させるよう制御する。ただし、3コマ目の画像データA・Bに対応する距離情報の算出を開始するまでに、1コマ目の画像データA・Bに対応する距離情報の算出は完了しているものとする。2コマ目の画像データA・Bに対応する距離情報の算出は完了していなくてもよい。
At the same time, the
以下同様、CPU40は、nコマ目(n=1,2,..)の3次元画像を生成するよう3次元画像処理部85を制御する。nが奇数であれば、CPU40は、ステレオマッチング処理部83a・距離算出部84aに、nコマ目に取得された画像データA・Bに対応する距離情報の算出を開始させるよう制御し、nが偶数であれば、CPU40は、ステレオマッチング処理部83b・距離算出部84bに、nコマ目に取得された画像データA・Bに対応する距離情報の算出を開始させるよう制御する。
Similarly, the
そして、CPU40は、nコマ目の画像データA・Bに対応する距離情報を外挿または内挿することで、nコマ目の仮想的な距離情報を生成し、nコマ目の仮想的な距離情報とn+2コマ目の画像データAおよび/またはBに基づき、所望の視差量dを有するnコマ目の画像データA’・B’を生成した上、nコマ目の画像データA’と画像データB’に基づいてnコマ目の3次元画像を生成するよう3次元画像処理部85を制御する。3次元画像処理部85から得られたnコマ目の3次元画像データはLCD30に出力されスルー画像として表示される。LCD30に表示された3次元画像データは、所望の視差量dを有する。
Then, the
ステレオマッチング処理部83および距離算出部84のセットが3つ以上である場合も同様にして、空いているステレオマッチング処理部83・距離算出部84のセットで処理し、いずれかのセットで算出済みの最新の距離情報を外挿または内挿することで仮想的な距離情報を生成し、この仮想的な距離情報と取得済みの最新の画像データAおよび/または画像データBに基づいて、所望の視差量dを有する画像データA・Bを生成し、3次元コマ画像を生成する。左右画像データA・Bの取得間隔に対応して必要十分なセットの数は距離情報の算出時間間隔に依存する。図9では一例として当該算出時間が左右画像データの取得間隔の1.5倍程度であるため、2コマ分の画像データを別個に処理する2セットで十分である。
Similarly, when there are three or more sets of the stereo matching processing unit 83 and the
このように、複数のステレオマッチング処理部83および距離算出部84のセットで異なるコマの画像データの距離情報を別個に算出させることで、距離情報の算出に1コマ分の取得間隔以上かかる場合でもスルー画の表示遅れを防止できる。
In this way, by separately calculating the distance information of the image data of different frames in the set of the plurality of stereo matching processing units 83 and the
<第5実施形態>
第1〜4実施形態において、レリーズボタン19の全押しに応じて3次元画像の再生情報を記録するには次のようにする。
<Fifth Embodiment>
In the first to fourth embodiments, the reproduction information of a three-dimensional image is recorded as follows when the release button 19 is fully pressed.
図10は本発明の好ましい第5実施形態に係る動画記録処理のタイミングチャートを示す。この処理は撮影モードが「動画撮影」に設定されており、レリーズボタン19の全押しなど動画記録開始指示が入力されたことに応じて開始する。 FIG. 10 shows a timing chart of the moving image recording process according to the preferred fifth embodiment of the present invention. This process is started when the shooting mode is set to “moving image shooting” and a moving image recording start instruction such as a full press of the release button 19 is input.
S51・52はS1・2と同様である。この結果1コマ目の画像が取得されるとともに1コマ目の画像に対応する距離情報が得られる。 S51 and 52 are the same as S1 and 2. As a result, the first frame image is acquired and distance information corresponding to the first frame image is obtained.
S53では、3次元画像処理部85は、距離算出部84の算出した1コマ目の画像データA・Bに関する距離情報を内挿または外挿し、1コマ目の仮想的な距離情報を生成する。3次元画像処理部85は、1コマ目の仮想的な距離情報と、CCD16から取得された1コマ目の画像データAおよび/または画像データBに基づき、所望の視差量dを有する1コマ目の画像データA’・画像データB’を生成した上、1コマ目の画像A’・B’から3次元画像を生成する。CPU40は、当該生成された3次元画像を記録するようメディア制御部37を制御する。また、S51で取得された1コマ目の画像Aに画像A・Bに対応する距離情報を適用して仮想的な画像データB’を生成した上、1コマ目の画像Aと画像B’から3次元画像を生成し、当該生成された3次元画像を記録するようメディア制御部37を制御することもできる。その他はS3と同様である。
In S <b> 53, the three-dimensional
以下同様にして、動画記録終了指示が入力されるまで、スルー画の表示と3次元画像の記録が継続される。3次元画像の再生情報として、各コマの画像と距離情報とをそのまま対応づけて記録するだけでもよい。この再生情報に基づいて、再生時に3次元画像を生成することも可能だからである。再生情報から3次元画像を生成する回路は3次元画像処理部85でもよいし、それとは異なる回路でもよい。また、外部記録メディア36に記録するタイミングも任意であり、得られた画像を順次記録してもよいし、動画記録終了指示が入力されたことに応じて一括して記録してもよい。前者の場合は、各コマの視点画像が取得されるタイミングに合わせて各コマの3次元画像の生成が行われることが好ましい。
In the same manner, display of a through image and recording of a three-dimensional image are continued until a moving image recording end instruction is input. As the reproduction information of the three-dimensional image, the image of each frame and the distance information may be recorded in association with each other as they are. This is because it is possible to generate a three-dimensional image during reproduction based on this reproduction information. The circuit for generating a three-dimensional image from the reproduction information may be the three-dimensional
再生情報の記録についてはスルー画の表示のように実時間からの遅れは問題にならないため、第1実施形態のようにスルー画を表示するのと平行して、3次元画像の再生情報を記録する。記録される再生情報については距離情報と画像情報のずれは生じない。 As for the recording of playback information, the delay from the real time does not become a problem as in the case of displaying a through image. Therefore, the playback information of a three-dimensional image is recorded in parallel with the display of a through image as in the first embodiment. To do. For recorded reproduction information, there is no deviation between distance information and image information.
<第6実施形態>
第1〜5実施形態において、距離情報と色情報が同一のコマ画像に由来して取得されないため、3次元画像の立体感が実際の被写体の奥行きと異なる場合がある。この立体感のずれを軽減するには、次のようにする。
<Sixth Embodiment>
In the first to fifth embodiments, since the distance information and the color information are not obtained from the same frame image, the stereoscopic effect of the three-dimensional image may be different from the actual depth of the subject. In order to reduce the deviation of the three-dimensional effect, the following is performed.
ぼかし処理部86は、隣接する画素間の距離情報同士を比較し、隣接する画素間の距離情報の差が所定の閾値を超える場合、当該隣接する画素に対応する距離情報をぼかす。例えば、ぼかし処理部86は、当該隣接する画素に対応する距離情報を平滑化する。
The
3次元画像処理部85は、距離算出部84の算出したnコマ目の距離情報の代わりに、ぼかし処理部86で平滑化されたnコマ目の距離情報を内挿または外挿し、nコマ目の仮想的な距離情報を生成する。そして、3次元画像処理部85は、nコマ目の仮想的な距離情報と、CCD16から取得されたn+1コマ目の画像データAおよび/または画像データBとに基づき、所望の視差量dを有するnコマ目の画像データA’・画像データB’を生成した上、nコマ目の画像A’・B’からnコマ目の3次元画像を生成する。また、3次元画像処理部85は、距離算出部84の算出した距離情報の代わりに、ぼかし処理部86で平滑化された距離情報を画像データAに適用して、仮想的な画像データB’を生成し、3次元画像データを生成することもできる。これにより、3次元画像において被写体の輪郭部分と奥行きの変化が生じる部分とのずれが目立つのを防止できる。
The three-dimensional
30…LCD、40…CPU、83…ステレオマッチング処理部、84…距離算出部、85…3次元画像処理部、86…ぼかし処理部 30 ... LCD, 40 ... CPU, 83 ... stereo matching processing unit, 84 ... distance calculation unit, 85 ... three-dimensional image processing unit, 86 ... blurring processing unit
Claims (23)
前記撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、前記第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部と、
時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう前記撮像部を制御する撮像制御部と、
前記第1の時点で前記撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出する視差情報算出部と、
前記第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と前記第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、前記所望の視差を有する画像の組から立体画像を生成する立体画像生成部と、
を備える撮像装置。 A single imaging optical system;
An imaging unit in which subject images that have passed through a first area and a second area having different predetermined directions of the imaging optical system are divided into pupils, respectively, and the first area and the second area are imaged An imaging unit capable of photoelectrically converting each of the subject images that have passed through the region and continuously outputting a set of viewpoint images including the first image and the second image;
An imaging control unit that controls the imaging unit so that a set of viewpoint images is output at a first time point and a second time point, which are arbitrary two time points before and after in time;
A parallax information calculation unit that performs stereo matching based on a set of viewpoint images output from the imaging unit at the first time point and calculates parallax information;
Virtual parallax information is generated by extrapolating or interpolating the parallax information corresponding to the first time point, and based on the virtual parallax information and the first image and / or the second image output at the second time point A stereoscopic image generation unit that generates a set of viewpoint images having a desired parallax and generates a stereoscopic image from the set of images having the desired parallax;
An imaging apparatus comprising:
前記立体画像生成部は、前記第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と前記第2の時点で各々出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の複数の組を生成し、前記所望の視差を有する視点画像の複数の組から複数の立体画像を順次生成する請求項1に記載の撮像装置。 The imaging control unit controls the imaging unit so that the set of viewpoint images is sequentially output at each of a plurality of different second time points after the first time point;
The stereoscopic image generation unit generates virtual parallax information by extrapolating or interpolating the parallax information corresponding to the first time point, and outputs the virtual parallax information and the first image output at the second time point and 2. A plurality of sets of viewpoint images having desired parallax are generated based on the second image, and a plurality of stereoscopic images are sequentially generated from the plurality of sets of viewpoint images having the desired parallax. Imaging device.
前記立体画像生成部は、前記ぼかし処理部によりぼかされた前記第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と前記第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、前記所望の視差を有する画像の組から立体画像を生成する請求項8に記載の撮像装置。 A blur processing unit that blurs the parallax information;
The stereoscopic image generation unit generates virtual disparity information by extrapolating or interpolating the disparity information corresponding to the first time point blurred by the blur processing unit, and generates the virtual disparity information and the second time point. 9. The set of viewpoint images having a desired parallax is generated based on the first image and / or the second image output in step 1, and a stereoscopic image is generated from the set of images having the desired parallax. Imaging device.
前記撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、前記第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部と、
時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう前記撮像部を制御する撮像制御部と、
前記第1の時点で前記撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出する視差情報算出部と、
前記第2の時点で出力された第1画像に前記第1の時点に対応する視差情報を適用して前記第1画像との間で視差を有する仮想第2画像を生成し、前記第2の時点で出力された第1画像と前記仮想第2画像から立体画像を生成する立体画像生成部と、
を備える撮像装置。 A single imaging optical system;
An imaging unit in which subject images that have passed through a first area and a second area having different predetermined directions of the imaging optical system are divided into pupils, respectively, and the first area and the second area are imaged An imaging unit capable of photoelectrically converting each of the subject images that have passed through the region and continuously outputting a set of viewpoint images including the first image and the second image;
An imaging control unit that controls the imaging unit so that a set of viewpoint images is output at a first time point and a second time point, which are arbitrary two time points before and after in time;
A parallax information calculation unit that performs stereo matching based on a set of viewpoint images output from the imaging unit at the first time point and calculates parallax information;
Applying disparity information corresponding to the first time point to the first image output at the second time point to generate a virtual second image having a parallax with the first image, the second image A stereoscopic image generating unit that generates a stereoscopic image from the first image output at the time and the virtual second image;
An imaging apparatus comprising:
前記立体画像生成部は、前記複数の第2の時点で各々出力された複数の視点画像の組に含まれる複数の第1画像に前記第1の時点に対応する視差情報を適用して前記第1画像との間で視差を有する複数の仮想第2画像を生成し、前記複数の第2の時点で各々出力された第1画像と対応する前記複数の仮想第2画像から複数の立体画像を順次生成する請求項11に記載の撮像装置。 The imaging control unit controls the imaging unit so that the set of viewpoint images is sequentially output at each of a plurality of different second time points after the first time point;
The stereoscopic image generation unit applies the disparity information corresponding to the first time point to a plurality of first images included in a set of a plurality of viewpoint images respectively output at the plurality of second time points. A plurality of virtual second images having parallax with one image are generated, and a plurality of stereoscopic images are generated from the plurality of virtual second images corresponding to the first images respectively output at the plurality of second time points. The imaging device according to claim 11, which is sequentially generated.
前記立体画像生成部は、前記ぼかし処理部によりぼかされた前記第1の時点に対応する視差情報を前記第2の時点で出力された第1画像に適用して前記第1画像との間で視差を有する仮想第2画像を生成し、前記第2の時点で出力された第1画像と前記仮想第2画像から立体画像を生成する請求項11〜18のいずれか1項に記載の撮像装置。 A blur processing unit that blurs the parallax information;
The stereoscopic image generation unit applies disparity information corresponding to the first time point blurred by the blur processing unit to the first image output at the second time point, and The imaging according to any one of claims 11 to 18, wherein a virtual second image having parallax is generated at step S3 and a stereoscopic image is generated from the first image output at the second time point and the virtual second image. apparatus.
時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう前記撮像部を制御するステップと、
前記第1の時点で前記撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出するステップと、
前記第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と前記第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、前記所望の視差を有する画像の組から立体画像を生成するステップと、
を実行する撮像方法。 A single imaging optical system and an imaging unit in which subject images that have passed through a first region and a second region having different predetermined directions of the imaging optical system are each divided into pupils and imaged; An imaging apparatus comprising: an imaging unit capable of photoelectrically converting subject images that have passed through the first area and the second area, respectively, and continuously outputting a set of viewpoint images including the first image and the second image;
Controlling the imaging unit so that a set of viewpoint images is output at a first time point and a second time point, which are arbitrary two time points before and after in time;
Calculating parallax information by performing stereo matching based on a set of viewpoint images output from the imaging unit at the first time point;
Virtual parallax information is generated by extrapolating or interpolating the parallax information corresponding to the first time point, and based on the virtual parallax information and the first image and / or the second image output at the second time point Generating a set of viewpoint images having a desired parallax, and generating a stereoscopic image from the set of images having the desired parallax;
An imaging method for executing.
時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう前記撮像部を制御するステップと、
前記第1の時点で前記撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出するステップと、
前記第2の時点で出力された第1画像に前記第1の時点に対応する視差情報を適用して前記第1画像との間で視差を有する仮想第2画像を生成し、前記第2の時点で出力された第1画像と前記仮想第2画像から立体画像を生成するステップと、
を実行する撮像方法。 A single imaging optical system and an imaging unit in which subject images that have passed through a first region and a second region having different predetermined directions of the imaging optical system are each divided into pupils and imaged; An imaging apparatus comprising: an imaging unit capable of photoelectrically converting subject images that have passed through the first area and the second area, respectively, and continuously outputting a set of viewpoint images including the first image and the second image;
Controlling the imaging unit so that a set of viewpoint images is output at a first time point and a second time point, which are arbitrary two time points before and after in time;
Calculating parallax information by performing stereo matching based on a set of viewpoint images output from the imaging unit at the first time point;
Applying disparity information corresponding to the first time point to the first image output at the second time point to generate a virtual second image having a parallax with the first image, the second image Generating a stereoscopic image from the first image output at the time and the virtual second image;
An imaging method for executing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010272481A JP2012124650A (en) | 2010-12-07 | 2010-12-07 | Imaging apparatus, and imaging method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010272481A JP2012124650A (en) | 2010-12-07 | 2010-12-07 | Imaging apparatus, and imaging method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012124650A true JP2012124650A (en) | 2012-06-28 |
Family
ID=46505659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010272481A Pending JP2012124650A (en) | 2010-12-07 | 2010-12-07 | Imaging apparatus, and imaging method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012124650A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012253706A (en) * | 2011-06-07 | 2012-12-20 | Konica Minolta Holdings Inc | Image processing device, program therefor, image processing system, and image processing method |
JP2014228727A (en) * | 2013-05-23 | 2014-12-08 | キヤノン株式会社 | Imaging device and method for controlling the same device |
JP2015197512A (en) * | 2014-03-31 | 2015-11-09 | キヤノン株式会社 | Range detection device, image capturing device, range detection method, and parallax amount detection device |
-
2010
- 2010-12-07 JP JP2010272481A patent/JP2012124650A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012253706A (en) * | 2011-06-07 | 2012-12-20 | Konica Minolta Holdings Inc | Image processing device, program therefor, image processing system, and image processing method |
JP2014228727A (en) * | 2013-05-23 | 2014-12-08 | キヤノン株式会社 | Imaging device and method for controlling the same device |
JP2015197512A (en) * | 2014-03-31 | 2015-11-09 | キヤノン株式会社 | Range detection device, image capturing device, range detection method, and parallax amount detection device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5640143B2 (en) | Imaging apparatus and imaging method | |
US8520059B2 (en) | Stereoscopic image taking apparatus | |
JP5469258B2 (en) | Imaging apparatus and imaging method | |
JP5180407B2 (en) | Stereo imaging device and parallax image restoration method | |
JP5595499B2 (en) | Monocular stereoscopic imaging device | |
JP5722975B2 (en) | Imaging device, shading correction method for imaging device, and program for imaging device | |
JP5421829B2 (en) | Imaging device | |
JP5788518B2 (en) | Monocular stereoscopic photographing apparatus, photographing method and program | |
JP5368350B2 (en) | Stereo imaging device | |
JP5871989B2 (en) | Imaging apparatus, imaging method, and program | |
US9106900B2 (en) | Stereoscopic imaging device and stereoscopic imaging method | |
JP2012124650A (en) | Imaging apparatus, and imaging method | |
JP5457240B2 (en) | Stereo imaging device | |
JP2010204385A (en) | Stereoscopic imaging apparatus and method | |
JP2010200024A (en) | Three-dimensional image display device and three-dimensional image display method | |
JP2014063190A (en) | Imaging apparatus | |
JP2011259405A (en) | Imaging device and imaging method |