JP2012124650A - Imaging apparatus, and imaging method - Google Patents

Imaging apparatus, and imaging method Download PDF

Info

Publication number
JP2012124650A
JP2012124650A JP2010272481A JP2010272481A JP2012124650A JP 2012124650 A JP2012124650 A JP 2012124650A JP 2010272481 A JP2010272481 A JP 2010272481A JP 2010272481 A JP2010272481 A JP 2010272481A JP 2012124650 A JP2012124650 A JP 2012124650A
Authority
JP
Japan
Prior art keywords
image
parallax
imaging
time point
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010272481A
Other languages
Japanese (ja)
Inventor
Motoo Shigetoshi
基雄 重歳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010272481A priority Critical patent/JP2012124650A/en
Publication of JP2012124650A publication Critical patent/JP2012124650A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To shorten time lag of a stereoscopic image output in an imaging apparatus for continuously producing stereoscopic images through prescribed image processing for images obtained in a pupil division system.SOLUTION: Calculating distance information from image data A and B of an n-th (n=1,2,3..) frame until a release button 19 is fully pushed, producing virtual image data B' by applying the distance information corresponding to the image data A and B of the n-th frame to the image data A of an n+1-th frame which are obtained from a CCD 16, and producing three dimentional image data of the n-th frame based on the image data A of the n+1-th frame and the image data B' to display it as a through image on an LCD 30 are repeated. Thus, the through image is displayed from a viewpoint image of a posterior frame using the distance information calculated for a previous frame, so that delay in displaying the latest through image can be prevented from being caused by a state of waiting calculation of the distance information.

Description

本発明は、撮影レンズの2方向の異なる領域を通過した被写体像をそれぞれ撮像素子に結像させ、異なる視点画像を取得する撮像装置および撮像方法に関する。特に本発明は、視差を有する画像の撮影画角を立体的にスルー画として表示する撮像装置および撮像方法に関する。   The present invention relates to an image pickup apparatus and an image pickup method in which subject images that have passed through different regions in two directions of a photographing lens are respectively formed on an image pickup device and different viewpoint images are acquired. In particular, the present invention relates to an imaging apparatus and an imaging method for displaying a shooting angle of view of an image having parallax as a through image in a three-dimensional manner.

従来、特に撮影レンズの2方向の異なる領域を通過した被写体像をそれぞれ撮像素子に結像させ、異なる視点画像を取得する立体撮像装置が存在する。   2. Description of the Related Art Conventionally, there are stereoscopic imaging apparatuses that acquire different viewpoint images by forming subject images that have passed through different regions in two directions of a photographing lens, respectively, on imaging elements.

図13に示す光学系は、メインレンズ1及びリレーレンズ2の左右方向の異なる領域を通過した被写体像をミラー4により瞳分割し、それぞれ結像レンズ5、6を介して撮像素子7、8に結像させるようにしている。   The optical system shown in FIG. 13 divides a subject image that has passed through different regions in the left and right directions of the main lens 1 and the relay lens 2 by a mirror 4 and supplies the image to the image sensors 7 and 8 via the imaging lenses 5 and 6, respectively. An image is formed.

図14(A)〜(C)は、それぞれ前ピン、合焦(ベストフォーカス)、及び後ピンの違いによる撮像素子に結像する像の分離状態を示す図である。なお、図14では、フォーカスによる分離の違いを比較するために、図13に示したミラー4を省略している。   FIGS. 14A to 14C are diagrams illustrating separation states of images formed on the image sensor due to differences in the front pin, focus (best focus), and rear pin, respectively. In FIG. 14, the mirror 4 shown in FIG. 13 is omitted in order to compare the difference in separation due to focus.

図14(B)に示すように瞳分割された像のうちの合焦している像は、撮像素子上の同一位置に結像する(一致する)が、図14(A)及び(C)に示すように前ピン及び後ピンとなる像は、撮像素子上の異なる位置に結像する(分離する)。   As shown in FIG. 14B, the focused image of the pupil-divided images is formed (matched) at the same position on the image sensor, but FIGS. 14A and 14C. As shown in FIG. 5, the images to be the front pin and the rear pin are formed (separated) at different positions on the image sensor.

従って、左右方向に瞳分割された被写体像を撮像素子7、8を介して取得することにより、被写体距離に応じて視点の異なる左視点画像及び右視点画像(3D画像)を取得することができる。   Therefore, by acquiring the subject image that is pupil-divided in the left-right direction via the imaging elements 7 and 8, it is possible to acquire a left viewpoint image and a right viewpoint image (3D image) having different viewpoints according to the subject distance. .

特許文献1によると、電子カメラは、撮像部と、光量分布検出部と、像ズレ量検出部と、画像処理部とを有する。撮像部は撮影光学系による被写体像を光電変換して撮影画像データを生成する。光量分布検出部は、異なる光路を通った被写体からの光束による光量分布をそれぞれ検出する。像ズレ量検出部は光量分布に基づいて撮影画面内の複数箇所における像ズレ量を検出する。画像処理部は複数箇所の像ズレ量に基づいて、撮影画像データにおける被写体の位置関係を水平方向に変化させてステレオグラム画像データを生成する。また、入力部からの入力に基づいて、ステレオグラム画像データにおける被写体の位置関係を水平方向に変化させてステレオグラム画像データを補正する。ステレオグラム画像データを補正することができるので、ユーザにとって違和感がより少ない自然なステレオグラム画像を得ることが可能となる。   According to Patent Document 1, the electronic camera includes an imaging unit, a light amount distribution detection unit, an image shift amount detection unit, and an image processing unit. The imaging unit photoelectrically converts a subject image by the photographing optical system to generate photographed image data. The light quantity distribution detection unit detects the light quantity distribution by the light flux from the subject passing through different optical paths. The image shift amount detection unit detects image shift amounts at a plurality of locations in the photographing screen based on the light amount distribution. The image processing unit generates stereogram image data by changing the positional relationship of the subject in the captured image data in the horizontal direction based on the image shift amounts at a plurality of locations. Further, based on the input from the input unit, the stereogram image data is corrected by changing the positional relationship of the subject in the stereogram image data in the horizontal direction. Since the stereogram image data can be corrected, it is possible to obtain a natural stereogram image with less discomfort for the user.

特許文献2は、左右2台のカメラの撮影した左目画像、右目画像に対して、左目画像、右目画像のいずれか一方のステレオ画像を基準にして他方のステレオ画像との間でパターンマッチングを実施し、画素毎のマッチング画像を特定し、左右の画素毎のマッチング画像間で画素間距離の内挿によって中間位置画像を求め、左右の画素毎のマッチング画像間で画素間距離の外挿によって右外画像、左外画像を求める多眼視画像作成方法を開示する。   In Patent Document 2, pattern matching is performed on the left-eye image and the right-eye image captured by the left and right cameras with respect to the stereo image of either the left-eye image or the right-eye image as a reference. Then, a matching image for each pixel is specified, an intermediate position image is obtained by interpolating the inter-pixel distance between the matching images for each left and right pixel, and the right is obtained by extrapolating the inter-pixel distance between the matching images for each left and right pixel. A multi-view image creation method for obtaining an outside image and a left outside image is disclosed.

特許文献3において、ステレオマッチング処理部(対象物検出手段)43は、画像処理部4A、4Bによってそれぞれ処理され、メモリ部31に格納された2つの画像データA、Bにおける、上述の空間設定部42によって設定された検索空間に対して、互いに対応する1つ以上の対応点(対象物)を検出する。距離算出部(位置算出手段)44は、上述したステレオマッチング処理部83によって検出された対応点の3次元座標値(位置情報)を算出する。撮影部20Aおよび撮影部20Bの撮影レンズ21A2、21B2の構成は異なり、撮影レンズ21A2は、ズームレンズおよび該ズームレンズを駆動する図示しないズームレンズ駆動部(駆動手段)を備え、撮影レンズ21B2は、撮影レンズ21A2のズームレンズの広角端と等しい画角の固定焦点レンズを備える。このような構成にすることによりコストを低減する。   In Patent Document 3, the stereo matching processing unit (object detection means) 43 is processed by the image processing units 4A and 4B, and the above-described space setting unit in the two image data A and B stored in the memory unit 31. One or more corresponding points (objects) corresponding to each other with respect to the search space set by 42 are detected. The distance calculation unit (position calculation unit) 44 calculates the three-dimensional coordinate value (position information) of the corresponding point detected by the stereo matching processing unit 83 described above. The configurations of the photographing lenses 21A2 and 21B2 of the photographing unit 20A and the photographing unit 20B are different. The photographing lens 21A2 includes a zoom lens and a zoom lens driving unit (driving unit) (not shown) that drives the zoom lens. The photographing lens 21B2 includes: A fixed focus lens having a field angle equal to the wide angle end of the zoom lens of the photographing lens 21A2 is provided. With such a configuration, the cost is reduced.

特許文献4〜6は単一の光学系を用いた3次元画像生成技術の一例である。例えば特許文献4では、多数の画素を同一撮像面上に配列し、該撮像面に結像された被写体像を光電変換して画像信号を生成する固体撮像素子において、上記多数の画素を2つのグループに区分けし、各グループにおける画素の受光入射角度をそれぞれ異ならせてなることを特徴とする固体撮像素子が開示されている。   Patent Documents 4 to 6 are examples of a three-dimensional image generation technique using a single optical system. For example, in Patent Document 4, a large number of pixels are arranged on the same imaging surface, and in a solid-state imaging device that generates an image signal by photoelectrically converting a subject image formed on the imaging surface, Disclosed is a solid-state imaging device that is divided into groups and has different light-receiving incidence angles of pixels in each group.

特許文献7〜11は、異なる視点画像間の対応点検索の方法、ステレオマッチングで奥行き情報を取得する技術、2次元画像と距離情報(奥行き情報)を用いた3次元画像生成技術の一例である。   Patent Documents 7 to 11 are examples of a method for searching corresponding points between different viewpoint images, a technique for acquiring depth information by stereo matching, and a three-dimensional image generation technique using a two-dimensional image and distance information (depth information). .

特開2007-104248号公報JP 2007-104248 A 特開2009-124308号公報JP 2009-124308 A 特開2008-92007号公報、段落0047−0048、0071JP2008-92007, paragraphs 0047-0048, 0071 特開2003-7994号公報JP2003-7994 特開2001-12916号公報Japanese Patent Laid-Open No. 2001-12916 特開2001-016611号公報JP 2001-016611 特開平08-331607号公報Japanese Unexamined Patent Publication No. 08-331607 特開2008-141666号公報JP 2008-141666 A 特開2009-14445号公報JP 2009-14445 特開2008-116309号公報JP 2008-116309 特開2000-102040号公報Japanese Unexamined Patent Publication No. 2000-102040

図11に例示するように、同じ画質の左右の視点画像をそのまま立体画像として表示する通常の複眼カメラにおけるスルー画(ライブビュー)の表示は、1フレーム毎に撮影された左右の視点画像に基づいて3次元画像を表示することを繰り返すだけで済む。   As illustrated in FIG. 11, the display of a through image (live view) in a normal compound eye camera that displays left and right viewpoint images with the same image quality as a stereoscopic image is based on the left and right viewpoint images captured for each frame. It is only necessary to repeat displaying the three-dimensional image.

一方、特許文献3に例示されるような、左右の撮像部の撮影画素数が異なったり、一方の撮像部は色情報が取得できるが他方の撮像部は色情報を取得できないなど左右の撮像部の仕様が異なる場合や、視点画像の解像度がモニタの解像度と異なる場合など、左右の視点画像からただちに表示用の立体画像を生成できない複眼カメラでは、距離情報の算出に加え、一方の撮像部、例えば画素数の多い撮像部や色情報の取得可能な撮像部の画像の色情報などから3次元画像を生成して表示することを繰り返す必要がある。   On the other hand, as illustrated in Patent Document 3, the left and right imaging units such as the left and right imaging units have different shooting pixel numbers, or one imaging unit can acquire color information but the other imaging unit cannot acquire color information. In the case of a compound eye camera that cannot generate a stereoscopic image for display immediately from the left and right viewpoint images, such as when the specifications of the viewpoint are different or when the resolution of the viewpoint image is different from the resolution of the monitor, in addition to calculating the distance information, For example, it is necessary to repeatedly generate and display a three-dimensional image from color information of an image of an imaging unit having a large number of pixels and an imaging unit capable of acquiring color information.

これは、特許文献4〜6のような単一の光学系から3次元画像を取得するカメラであっても同様である。   The same applies to a camera that acquires a three-dimensional image from a single optical system as in Patent Documents 4 to 6.

図12に例示するように、このようなカメラでは、3次元画像の生成に時間がかかるため、その分視点画像の撮影からスルー画の表示まで間のタイムラグが通常のカメラよりも増大する。そのため、表示されたスルー画による画角の確認などに支障をきたし使いにくい。   As illustrated in FIG. 12, in such a camera, since it takes time to generate a three-dimensional image, the time lag from the viewpoint image capturing to the through image display is increased as compared with a normal camera. Therefore, it is difficult to use because it hinders confirmation of the angle of view by the displayed through image.

さらに、瞳分割方式の立体撮像装置では、基線長が小さいため、画像の立体感が弱めになりやすい。撮影された画像でステレオマッチングや視差情報の外挿または内挿の処理などの画像処理を施して視差量を調整することは可能であるが、画像処理時間の増大によりスルー画の表示が遅れる。近年では、ファインダーのないカメラが主流であり、スルー画表示が遅れると、シャッターチャンスを逃す可能性があり、使いにくい。   Further, in the pupil division type stereoscopic imaging device, since the baseline length is small, the stereoscopic effect of the image tends to be weak. Although it is possible to adjust the amount of parallax by performing image processing such as stereo matching or extrapolation or interpolation processing of parallax information on the captured image, the display of a through image is delayed due to an increase in image processing time. In recent years, cameras without a viewfinder have become mainstream, and if the through image display is delayed, there is a possibility of missing a photo opportunity, which is difficult to use.

本発明は、瞳分割方式で得られた画像に対する所定の画像処理を経て継続的に立体画像を生成する撮像装置において、立体画像出力のタイムラグを短縮する技術を提供する。   The present invention provides a technique for shortening the time lag of stereoscopic image output in an imaging apparatus that continuously generates a stereoscopic image through predetermined image processing on an image obtained by the pupil division method.

本発明は、単一の撮像光学系と、撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部と、時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう撮像部を制御する撮像制御部と、第1の時点で撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出する視差情報算出部と、第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、所望の視差を有する画像の組から立体画像を生成する立体画像生成部と、を備える撮像装置を提供する。   The present invention provides a single imaging optical system and an imaging unit in which subject images that have passed through a first region and a second region having different predetermined directions of the imaging optical system are divided into pupils and formed respectively. An imaging unit capable of photoelectrically converting each of the subject images that have passed through the first area and the second area and continuously outputting a set of viewpoint images including the first image and the second image; An imaging control unit that controls the imaging unit so that a set of viewpoint images is output at the first time point and the second time point, which are arbitrary two time points before and after, and the viewpoint output from the imaging unit at the first time point A parallax information calculation unit that performs stereo matching based on a set of images to calculate parallax information, and generates or generates virtual parallax information by extrapolating or interpolating the parallax information corresponding to the first time point. The first image and / or the first output at time 2 Provided is an imaging apparatus including a stereoscopic image generation unit that generates a set of viewpoint images having desired parallax based on two images and generates a stereoscopic image from the set of images having desired parallax.

ここで、視差情報とは、被写体の距離情報または視差マップを含む。   Here, the parallax information includes subject distance information or a parallax map.

撮像制御部は、第1の時点よりも後の異なる複数の第2の時点の各々で視点画像の組が順次出力されるよう撮像部を制御し、立体画像生成部は、第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と第2の時点で各々出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の複数の組を生成し、所望の視差を有する視点画像の複数の組から複数の立体画像を順次生成する。   The imaging control unit controls the imaging unit so that a set of viewpoint images is sequentially output at each of a plurality of different second time points after the first time point, and the stereoscopic image generating unit is set to the first time point. Virtual parallax information is generated by extrapolating or interpolating corresponding parallax information, and has a desired parallax based on the virtual parallax information and the first image and / or the second image respectively output at the second time point A plurality of sets of viewpoint images are generated, and a plurality of stereoscopic images are sequentially generated from the plurality of sets of viewpoint images having a desired parallax.

撮像制御部は、視差情報算出部による第1の時点に対応する視差情報の算出処理が所定の割合だけ完了した第2の時点で視点画像の組が出力されるよう撮像部を制御する。   The imaging control unit controls the imaging unit so that a set of viewpoint images is output at a second time point when the parallax information calculation process corresponding to the first time point by the parallax information calculation unit is completed by a predetermined ratio.

視差情報算出部は、異なる複数の視点画像の組にそれぞれ対応する複数の視差情報をそれぞれ独立して算出可能な異なる複数の処理系統を有しており、異なる複数の第1の時点に対応する視差情報の各々を異なる処理系統で算出する。   The disparity information calculation unit includes a plurality of different processing systems capable of independently calculating a plurality of pieces of disparity information corresponding to different sets of viewpoint images, and corresponds to a plurality of different first time points. Each piece of parallax information is calculated by a different processing system.

撮像装置は、所定の記録指示が入力されたことに応じ、第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と第1の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、所望の視差を有する視点画像の組に基づいて立体画像の再生情報を記録する記録部を備える。   In response to the input of a predetermined recording instruction, the imaging apparatus extrapolates or interpolates disparity information corresponding to the first time point to generate virtual disparity information, and outputs the virtual disparity information and the first time point. A recording unit that generates a set of viewpoint images having a desired parallax based on the first image and / or the second image, and records reproduction information of a stereoscopic image based on the set of viewpoint images having the desired parallax Is provided.

立体画像生成部の生成した立体画像を表示する表示部を備える。   A display unit for displaying a stereoscopic image generated by the stereoscopic image generation unit is provided.

第2画像の解像度は第1画像の解像度よりも低くかつ表示部の表示解像度よりも低い。   The resolution of the second image is lower than the resolution of the first image and lower than the display resolution of the display unit.

第1画像は輝度情報および色情報を含み、第2画像は輝度情報のみを含む。   The first image includes luminance information and color information, and the second image includes only luminance information.

視差情報をぼかすぼかし処理部を備え、立体画像生成部は、ぼかし処理部によりぼかされた第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、所望の視差を有する画像の組から立体画像を生成する。   The stereoscopic processing unit includes a blur processing unit that blurs the parallax information, and the stereoscopic image generation unit generates virtual parallax information by extrapolating or interpolating the parallax information corresponding to the first time point blurred by the blur processing unit. Based on the information and the first image and / or the second image output at the second time point, a set of viewpoint images having a desired parallax is generated, and a stereoscopic image is generated from the set of images having the desired parallax .

所望の視差量は、所定の操作手段から入力された指定値、固定値または被写体距離の遠近に応じた値を含む。   The desired amount of parallax includes a specified value, a fixed value, or a value corresponding to the distance of the subject distance input from a predetermined operation unit.

本発明は、単一の撮像光学系と、撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部と、時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう撮像部を制御する撮像制御部と、第1の時点で撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出する視差情報算出部と、第2の時点で出力された第1画像に第1の時点に対応する視差情報を適用して第1画像との間で視差を有する仮想第2画像を生成し、第2の時点で出力された第1画像と仮想第2画像から立体画像を生成する立体画像生成部と、を備える撮像装置を提供する。   The present invention provides a single imaging optical system and an imaging unit in which subject images that have passed through a first region and a second region having different predetermined directions of the imaging optical system are divided into pupils and formed respectively. An imaging unit capable of photoelectrically converting each of the subject images that have passed through the first area and the second area and continuously outputting a set of viewpoint images including the first image and the second image; An imaging control unit that controls the imaging unit so that a set of viewpoint images is output at the first time point and the second time point, which are arbitrary two time points before and after, and the viewpoint output from the imaging unit at the first time point A parallax information calculation unit that performs stereo matching based on a set of images and calculates parallax information; and applying the parallax information corresponding to the first time point to the first image output at the second time point, A virtual second image having a parallax between the second time points To provide an imaging apparatus and a stereoscopic image generation unit for generating stereoscopic image with the first image output from the virtual second image.

撮像制御部は、第1の時点よりも後の異なる複数の第2の時点の各々で視点画像の組が順次出力されるよう撮像部を制御し、立体画像生成部は、複数の第2の時点で各々出力された複数の視点画像の組に含まれる複数の第1画像に第1の時点に対応する視差情報を適用して第1画像との間で視差を有する複数の仮想第2画像を生成し、複数の第2の時点で各々出力された第1画像と対応する複数の仮想第2画像から複数の立体画像を順次生成する。   The imaging control unit controls the imaging unit so that a set of viewpoint images is sequentially output at each of a plurality of different second time points after the first time point, and the stereoscopic image generating unit includes a plurality of second image points A plurality of virtual second images having parallax with the first image by applying disparity information corresponding to the first time point to a plurality of first images included in a set of a plurality of viewpoint images output at each time point And a plurality of stereoscopic images are sequentially generated from a plurality of virtual second images corresponding to the first images respectively output at a plurality of second time points.

撮像制御部は、視差情報算出部による第1の時点に対応する視差情報の算出処理が所定の割合だけ完了した第2の時点で視点画像の組が出力されるよう撮像部を制御する。   The imaging control unit controls the imaging unit so that a set of viewpoint images is output at a second time point when the parallax information calculation process corresponding to the first time point by the parallax information calculation unit is completed by a predetermined ratio.

視差情報算出部は、異なる複数の視点画像の組にそれぞれ対応する複数の視差情報をそれぞれ独立して算出可能な異なる複数の処理系統を有しており、異なる複数の第1の時点に対応する視差情報の各々を異なる処理系統で算出する。   The disparity information calculation unit includes a plurality of different processing systems capable of independently calculating a plurality of pieces of disparity information corresponding to different sets of viewpoint images, and corresponds to a plurality of different first time points. Each piece of parallax information is calculated by a different processing system.

撮像装置は、所定の記録指示が入力されたことに応じ、第1の時点で出力された第1画像に第1の時点に対応する視差情報を適用して第1画像との間で視差を有する仮想第2画像を生成し、第1の時点で出力された第1画像と仮想第2画像に基づいて立体画像の再生情報を記録する記録部を備える。   In response to the input of a predetermined recording instruction, the imaging apparatus applies the disparity information corresponding to the first time point to the first image output at the first time point, thereby reducing the parallax between the first image and the first image. A recording unit configured to generate a virtual second image and record reproduction information of a stereoscopic image based on the first image and the virtual second image output at the first time point.

立体画像生成部の生成した立体画像を表示する表示部を備える。   A display unit for displaying a stereoscopic image generated by the stereoscopic image generation unit is provided.

第2画像の解像度は第1画像の解像度よりも低くかつ表示部の表示解像度よりも低い。   The resolution of the second image is lower than the resolution of the first image and lower than the display resolution of the display unit.

第1画像は輝度情報および色情報を含み、第2画像は輝度情報のみを含む。   The first image includes luminance information and color information, and the second image includes only luminance information.

視差情報をぼかすぼかし処理部を備え、立体画像生成部は、ぼかし処理部によりぼかされた第1の時点に対応する視差情報を第2の時点で出力された第1画像に適用して第1画像との間で視差を有する仮想第2画像を生成し、第2の時点で出力された第1画像と仮想第2画像から立体画像を生成する。   A blur processing unit that blurs the disparity information, and the stereoscopic image generation unit applies the disparity information corresponding to the first time point blurred by the blur processing unit to the first image output at the second time point. A virtual second image having parallax with one image is generated, and a stereoscopic image is generated from the first image and the virtual second image output at the second time point.

立体画像生成部は、第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、所望の視差を有する画像の組から立体画像を生成する。   The stereoscopic image generation unit generates virtual parallax information by extrapolating or interpolating the parallax information corresponding to the first time point, and generates the virtual parallax information and the first image and / or the second image output at the second time point. A set of viewpoint images having a desired parallax is generated based on the image, and a stereoscopic image is generated from the set of images having the desired parallax.

こうすれば、立体画像の視差を任意に調整できる。   In this way, the parallax of the stereoscopic image can be adjusted arbitrarily.

所望の視差量は、所定の操作手段から入力された指定値、固定値または被写体距離の遠近に応じた値を含む。   The desired amount of parallax includes a specified value, a fixed value, or a value corresponding to the distance of the subject distance input from a predetermined operation unit.

本発明は、単一の撮像光学系と、撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部とを備える撮像装置が、時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう撮像部を制御するステップと、第1の時点で撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出するステップと、第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、所望の視差を有する画像の組から立体画像を生成するステップと、を実行する撮像方法を提供する。   The present invention provides a single imaging optical system and an imaging unit in which subject images that have passed through a first region and a second region having different predetermined directions of the imaging optical system are divided into pupils and formed respectively. An imaging apparatus comprising: an imaging unit capable of photoelectrically converting subject images that have passed through the first area and the second area, respectively, and continuously outputting a set of viewpoint images including the first image and the second image Is a step of controlling the image capturing unit so that a set of viewpoint images is output at a first time point and a second time point, which are arbitrary two time points that fluctuate in time, and output from the image capturing unit at the first time point A step of calculating parallax information by performing stereo matching based on the set of viewpoint images thus generated, extrapolating or interpolating the parallax information corresponding to the first time point to generate virtual parallax information, The first image output at time 2 and / Or on the basis of the second image to generate a set of viewpoint images having a desired parallax, to provide an imaging method of performing, and generating a stereoscopic image from a set of images having a desired parallax.

本発明は、単一の撮像光学系と、撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部とを備える撮像装置が、時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう撮像部を制御するステップと、第1の時点で撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出するステップと、第2の時点で出力された第1画像に第1の時点に対応する視差情報を適用して第1画像との間で視差を有する仮想第2画像を生成し、第2の時点で出力された第1画像と仮想第2画像から立体画像を生成するステップと、を実行する撮像方法を提供する。   The present invention provides a single imaging optical system and an imaging unit in which subject images that have passed through a first region and a second region having different predetermined directions of the imaging optical system are divided into pupils and formed respectively. An imaging apparatus comprising: an imaging unit capable of photoelectrically converting subject images that have passed through the first area and the second area, respectively, and continuously outputting a set of viewpoint images including the first image and the second image Is a step of controlling the image capturing unit so that a set of viewpoint images is output at a first time point and a second time point, which are arbitrary two time points that fluctuate in time, and output from the image capturing unit at the first time point A step of calculating parallax information by performing stereo matching based on the set of viewpoint images, and applying the parallax information corresponding to the first time point to the first image output at the second time point, A virtual second image having parallax between Generating a stereoscopic image from the first image output at 2 from the virtual second image, to provide an imaging method of execution.

本発明によると、第1の時点で算出された視差情報と、第1の時点よりも後の第2の時点で出力された視点画像とによって立体画像を生成する。こうすると、後の第2の時点で取得された視点画像に基づいて即座に立体画像を生成でき、第1の時点で算出された視差情報と、第1の時点で出力された視点画像とによって立体画像を生成するよりも新しい立体画像をより早く表示できる。   According to the present invention, a stereoscopic image is generated from the disparity information calculated at the first time point and the viewpoint image output at the second time point after the first time point. In this way, a stereoscopic image can be immediately generated based on the viewpoint image acquired at the second time point later, and the disparity information calculated at the first time point and the viewpoint image output at the first time point are used. A new stereoscopic image can be displayed faster than generating a stereoscopic image.

第1実施形態に係るカメラのブロック図Block diagram of a camera according to the first embodiment 瞳分割視差画像取得撮像素子CCDの構成例を示す図The figure which shows the structural example of the pupil division parallax image acquisition image pick-up element CCD. 第1、第2画素の1画素ずつを示した図The figure which showed 1 pixel of 1st, 2nd pixel each 図3の要部拡大図3 is an enlarged view of the main part of FIG. 第1実施形態に係るスルー画表示処理のタイミングチャートTiming chart of through image display processing according to the first embodiment 第2実施形態に係るスルー画表示処理のタイミングチャートTiming chart of through image display processing according to the second embodiment 第3実施形態に係るスルー画表示処理のタイミングチャートTiming chart of through image display processing according to the third embodiment 第4実施形態に係るカメラのブロック図Block diagram of a camera according to the fourth embodiment 第4実施形態に係るスルー画表示処理のタイミングチャートTiming chart of through image display processing according to the fourth embodiment 第5実施形態に係る動画記録処理のタイミングチャートTiming chart of moving image recording process according to fifth embodiment 通常の撮像装置におけるスルー画表示処理のタイミングチャートTiming chart of live view display processing in a normal imaging device 距離算出を行う撮像装置におけるスルー画表示処理のタイミングチャートTiming chart of through image display processing in an imaging apparatus that performs distance calculation 従来の単眼立体撮像装置の一例を示す図The figure which shows an example of the conventional monocular three-dimensional imaging device 撮像素子に結像する像の分離状態を示す図The figure which shows the separation state of the image imaged on an image sensor

<第1実施形態>
図1は第1実施形態に係るカメラ1の実施の形態を示すブロック図である。
<First Embodiment>
FIG. 1 is a block diagram showing an embodiment of a camera 1 according to the first embodiment.

このカメラ1は、撮像した画像をメモリカード54に記録するもので、装置全体の動作は、中央処理装置(CPU)40によって統括制御される。   The camera 1 records captured images on a memory card 54, and the overall operation of the apparatus is controlled by a central processing unit (CPU) 40.

カメラ1には、シャッタボタン、モードダイヤル、再生ボタン、MENU/OKキー、十字キー、BACKキー等の操作部38が設けられている。この操作部38からの信号はCPU40に入力され、CPU40は入力信号に基づいてカメラ1の各回路を制御し、例えば、レンズ駆動制御、絞り駆動制御、撮影動作制御、画像処理制御、画像データの記録/再生制御、立体表示用の液晶モニタ30の表示制御などを行う。   The camera 1 is provided with an operation unit 38 such as a shutter button, a mode dial, a playback button, a MENU / OK key, a cross key, and a BACK key. A signal from the operation unit 38 is input to the CPU 40, and the CPU 40 controls each circuit of the camera 1 based on the input signal. For example, lens drive control, aperture drive control, shooting operation control, image processing control, image data control, Recording / reproduction control, display control of the liquid crystal monitor 30 for stereoscopic display, and the like are performed.

ROM10には、CPU40が実行するプログラムおよび制御に必要な各種データ、CCD16の画素欠陥情報、カメラ動作に関する各種定数/情報等が格納されている。   The ROM 10 stores programs executed by the CPU 40 and various data necessary for control, pixel defect information of the CCD 16, various constants / information relating to camera operation, and the like.

シャッタボタンは、撮影開始の指示を入力する操作ボタンであり、半押し時にONするS1スイッチと、全押し時にONするS2スイッチとを有する二段ストローク式のスイッチで構成されている。モードダイヤルは、静止画を撮影するオート撮影モード、マニュアル撮影モード、人物、風景、夜景等のシーンポジション、および動画を撮影する動画モードのいずれかを選択する選択手段である。   The shutter button is an operation button for inputting an instruction to start shooting, and includes a two-stage stroke type switch having an S1 switch that is turned on when half-pressed and an S2 switch that is turned on when fully pressed. The mode dial is selection means for selecting one of an auto shooting mode for shooting a still image, a manual shooting mode, a scene position such as a person, a landscape, a night view, and a moving image mode for shooting a moving image.

再生ボタンは、撮影記録した立体視画像(3D画像)、平面画像(2D画像)の静止画又は動画を液晶モニタ30に表示させる再生モードに切り替えるためのボタンである。MENU/OKキーは、液晶モニタ30の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定および実行などを指令するOKボタンとしての機能とを兼備した操作キーである。十字キーは、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。また、十字キーの上/下キーは撮影時のズームスイッチあるいは再生モード時の再生ズームスイッチとして機能し、左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。BACKキーは、選択項目など所望の対象の消去や指示内容の取消し、あるいは1つ前の操作状態に戻らせる時などに使用される。   The playback button is a button for switching to a playback mode in which a still image or a moving image of a stereoscopic image (3D image) or a planar image (2D image) that has been recorded is displayed on the liquid crystal monitor 30. The MENU / OK key is an operation key that has both a function as a menu button for instructing to display a menu on the screen of the liquid crystal monitor 30 and a function as an OK button for instructing confirmation and execution of selection contents. It is. The cross key is an operation unit for inputting instructions in four directions, up, down, left, and right, and functions as a button (cursor moving operation means) for selecting an item from the menu screen or instructing selection of various setting items from each menu. To do. The up / down key of the cross key functions as a zoom switch for shooting or a playback zoom switch in playback mode, and the left / right key functions as a frame advance (forward / reverse feed) button in playback mode. . The BACK key is used to delete a desired object such as a selection item, cancel an instruction content, or return to the previous operation state.

撮影モード時において、被写体を示す画像光は、撮像レンズ12、絞り14を介して瞳分割視差画像を取得可能な位相差イメージセンサである固体撮像素子(以下、「CCD」というが、CMOS等でも可)16の受光面に結像される。撮像レンズ12は、CPU40によって制御されるレンズ駆動部36によって駆動され、フォーカス制御、ズーム(焦点距離)制御等が行われる。絞り14は、例えば、5枚の絞り羽根からなり、CPU40によって制御される絞り駆動部33によって駆動され、例えば、絞り値(F値)F2.8 〜F11まで1AV刻みで5段階に絞り制御される。   In the photographing mode, the image light indicating the subject is a solid-state image sensor (hereinafter referred to as “CCD”, which is a phase difference image sensor capable of acquiring a pupil-divided parallax image via the imaging lens 12 and the diaphragm 14, but may be a CMOS or the like. Yes) The image is formed on 16 light receiving surfaces. The imaging lens 12 is driven by a lens driving unit 36 controlled by the CPU 40, and focus control, zoom (focal length) control, and the like are performed. The diaphragm 14 is composed of, for example, five diaphragm blades, and is driven by a diaphragm driving unit 33 controlled by the CPU 40. For example, the diaphragm value (F value) F2.8 to F11 is controlled in five stages in increments of 1AV. The

また、CPU40は、絞り駆動部33を介して絞り14を制御するとともに、CCD制御部32を介してCCD16での電荷蓄積時間(シャッタスピード)や、CCD16からの画像信号の読み出し制御等を行う。   Further, the CPU 40 controls the diaphragm 14 via the diaphragm driving unit 33, and performs charge accumulation time (shutter speed) in the CCD 16, image signal readout control from the CCD 16, and the like via the CCD control unit 32.

<CCDの構成例>
図2はCCD16の構成例を示す図である。
<CCD configuration example>
FIG. 2 is a diagram illustrating a configuration example of the CCD 16.

図2(A)に示すように、CCD16は、それぞれマトリクス状に配列された奇数ラインの画素と、偶数ラインの画素とを有しており、これらの2つのラインの画素にてそれぞれ光電変換された2面分の画像信号は、独立して読み出すことができるようになっている。各画素群に対応する複数の受光素子は、有効な撮像信号を得るための有効画素領域と、黒レベルの基準信号を得るためのオプティカルブラック領域(以下「OB領域」という)とを形成する。OB領域は、実際には、有効画素領域の周囲を取り囲むように形成される。   As shown in FIG. 2A, the CCD 16 has odd-line pixels and even-line pixels arranged in a matrix, and photoelectric conversion is performed on the pixels of these two lines. Further, the image signals for the two planes can be read out independently. The plurality of light receiving elements corresponding to each pixel group form an effective pixel region for obtaining an effective imaging signal and an optical black region (hereinafter referred to as “OB region”) for obtaining a black level reference signal. The OB region is actually formed so as to surround the effective pixel region.

図2(B)に示すように、CCD16の奇数ライン(1、3、5、…)には、R(赤)、G(緑)、B(青)のカラーフィルタを備えた画素のうち、GRGR…の画素配列のラインと、BGBG…の画素配列のラインとが交互に設けられる。一方、図2(C)に示すように、偶数ライン(2、4、6、…)の画素は、奇数ラインと同様に、GRGR…の画素配列のラインと、BGBG…の画素配列のラインとが交互に設けられるとともに、偶数ラインの画素に対して画素同士が2分の1ピッチだけライン方向にずれて配置されている。   As shown in FIG. 2B, the odd-numbered lines (1, 3, 5,...) Of the CCD 16 include pixels having R (red), G (green), and B (blue) color filters. The GRGR... Pixel array lines and the BGBG... Pixel array lines are alternately provided. On the other hand, as shown in FIG. 2C, the pixels in the even lines (2, 4, 6,...) Are similar to the odd lines in the GRGR... Pixel array line and the BGBG. Are alternately arranged, and the pixels are shifted in the line direction by a half pitch with respect to the pixels of the even-numbered lines.

2面分の画像信号を構成する第1画素と第2画素の配置領域は同一であってもよいし同一でなくてもよい。例えば、第1画素は有効画素領域全体に渡って存在するが、第2画素の存在領域はAF領域内など特定の領域のみでもよい。第2画素は、有効画素領域全体あるいは特定の領域内に渡って密に配列されてもよいし、粗に配列されてもよい。   The arrangement region of the first pixel and the second pixel constituting the image signal for two surfaces may or may not be the same. For example, the first pixel exists over the entire effective pixel area, but the existence area of the second pixel may be only a specific area such as an AF area. The second pixels may be densely arranged over the entire effective pixel area or within a specific area, or may be roughly arranged.

具体的には、図2(D)および(E)のように、第2画素数は第1画素数よりも低くてもよい。図2(D)および(E)は、白部分で第1画素、黒部分で第2画素を示している。黒部分のカラーフィルタは、RGBでもよいし(図2(D))、輝度情報を取るGのみ(図2(E))でもよい。図2(D)の場合は、第1画素・第2画素の間でRGBカラーフィルタの配列を変えずに済む利点があり、図2(E)の場合は各第2画素の情報をデフォーカス量の検出に利用できる利点がある。   Specifically, as shown in FIGS. 2D and 2E, the second pixel number may be lower than the first pixel number. 2D and 2E show the first pixel in the white portion and the second pixel in the black portion. The color filter in the black portion may be RGB (FIG. 2D) or only G (FIG. 2E) that takes luminance information. In the case of FIG. 2D, there is an advantage that it is not necessary to change the arrangement of the RGB color filters between the first pixel and the second pixel. In the case of FIG. 2E, the information of each second pixel is defocused. There is an advantage that can be used for quantity detection.

図3は、撮像レンズ12、絞り14、および図2(A)のCCD16の第1、第2画素の1画素ずつを示した図であり、図4は図3の要部拡大図である。   3 is a diagram showing each of the imaging lens 12, the diaphragm 14, and the first and second pixels of the CCD 16 in FIG. 2A, and FIG. 4 is an enlarged view of the main part of FIG.

図4(A)に示すように通常のCCDの画素(フォトダイオードPD)には、射出瞳を通過する光束が、マイクロレンズLを介して制限を受けずに入射する。   As shown in FIG. 4A, a light beam passing through the exit pupil is incident on a normal CCD pixel (photodiode PD) through the microlens L without being restricted.

これに対し、図4(B)に示すようにCCD16の第1画素および第2画素には遮光部材16Aが形成される。カメラ1を横置きにして撮像する場合、この遮光部材16Aにより第1画素、第2画素(フォトダイオードPD)の受光面の右半分又は左半分が遮光される。あるいはカメラ1を縦置きにして撮像する場合、この遮光部材16Aにより第1画素、第2画素(フォトダイオードPD)の受光面の上半分又は下半分が遮光される。マイクロレンズLの光軸Zから右、左、上、あるいは下方向(例えば図4(B)では光軸より左方向)に所定量Δだけ偏位した位置には、遮光部材16Aの開口16Bが設けられている。光束は開口16Bを通過し、フォトダイオードPDの受光面に到達する。即ち、遮光部材16Aが瞳分割部材としての機能を有している。   On the other hand, as shown in FIG. 4B, a light shielding member 16A is formed on the first pixel and the second pixel of the CCD 16. When imaging with the camera 1 placed horizontally, the light shielding member 16A shields the right half or the left half of the light receiving surface of the first pixel and the second pixel (photodiode PD). Alternatively, when imaging is performed with the camera 1 placed vertically, the light shielding member 16A shields the upper half or the lower half of the light receiving surface of the first pixel and the second pixel (photodiode PD). An opening 16B of the light shielding member 16A is located at a position deviated by a predetermined amount Δ from the optical axis Z of the microlens L in the right, left, upper, or lower direction (for example, leftward from the optical axis in FIG. 4B). Is provided. The light beam passes through the opening 16B and reaches the light receiving surface of the photodiode PD. That is, the light shielding member 16A functions as a pupil division member.

なお、第1画素と第2画素とでは、遮光部材16Aより光束が制限されている領域(右半分/左半分、あるいは上半分/下半分)が異なる。例えば、第1画素では光束の左半分が制限され、第2画素では光束の右半分が制限されると、第1画素からは右の視点画像、第2画素からは左の視点画像が得られる。あるいは、第1画素では光束の上半分が制限され、第2画素では光束の下半分が制限されると、第1画素からは下の視点画像、第2画素からは上の視点画像が得られる。   Note that the first pixel and the second pixel are different in regions (right half / left half or upper half / lower half) where the light flux is restricted by the light shielding member 16A. For example, if the left half of the luminous flux is restricted at the first pixel and the right half of the luminous flux is restricted at the second pixel, the right viewpoint image is obtained from the first pixel and the left viewpoint image is obtained from the second pixel. . Alternatively, when the upper half of the luminous flux is restricted at the first pixel and the lower half of the luminous flux is restricted at the second pixel, the lower viewpoint image is obtained from the first pixel and the upper viewpoint image is obtained from the second pixel. .

従って、図14に示すように、後ピン、合焦、前ピンの状態に応じて第1画素と第2画素の出力は、位相がずれるかまたは位相が一致する。第1画素と第2画素の出力信号の位相差は撮像レンズ12のデフォーカス量に対応するため、この位相差を検出することにより撮像レンズ12のAF制御を行うことができる(位相差AF)。   Therefore, as shown in FIG. 14, the outputs of the first pixel and the second pixel are out of phase or in phase with each other depending on the state of the rear pin, the in-focus state, and the front pin. Since the phase difference between the output signals of the first pixel and the second pixel corresponds to the defocus amount of the imaging lens 12, AF control of the imaging lens 12 can be performed by detecting this phase difference (phase difference AF). .

上記構成のCCD16は、第1画素と第2画素とでは、遮光部材16Aより光束が制限されている領域(右半分、左半分)が異なるように構成されているが、CCD16の構成はこれに限らず、遮光部材16Aを設けずに、マイクロレンズLとフォトダイオードPDとを相対的に左右方向にずらし、そのずらす方向によりフォトダイオードPDに入射する光束が制限されるものでもよいし、また、2つの画素(第1画素と第2画素)に対して1つのマイクロレンズを設けることにより、各画素に入射する光束が制限されるものでもよいし、ミラーにより瞳分割するもの(例えば図13)でもよい。要するに本発明の適用範囲は、瞳分割により位相差画像を取得するカメラである。   The CCD 16 having the above configuration is configured such that the first pixel and the second pixel have different regions (right half and left half) where the light flux is limited by the light shielding member 16A. Without limiting to the light shielding member 16A, the microlens L and the photodiode PD may be shifted relative to each other in the left-right direction, and the light flux incident on the photodiode PD may be limited by the shifting direction. By providing one microlens for two pixels (the first pixel and the second pixel), the light beam incident on each pixel may be limited, or the pupil is divided by a mirror (for example, FIG. 13) But you can. In short, the application range of the present invention is a camera that acquires a phase difference image by pupil division.

図1に戻って、CCD16に蓄積された信号電荷は、CCD制御部32から加えられる読み出し信号に基づいて信号電荷に応じた電圧信号として読み出される。CCD16から読み出された電圧信号は、アナログ信号処理部18に加えられ、ここで各画素ごとのR、G、B信号がサンプリングホールドされ、増幅されたのちA/D変換器20に加えられる。A/D変換器20は、順次入力するR、G、B信号をデジタルのR、G、B信号に変換して画像入力コントローラ22に出力する。   Returning to FIG. 1, the signal charge accumulated in the CCD 16 is read out as a voltage signal corresponding to the signal charge based on the readout signal applied from the CCD controller 32. The voltage signal read from the CCD 16 is applied to the analog signal processing unit 18 where the R, G, and B signals for each pixel are sampled and held, amplified, and then applied to the A / D converter 20. The A / D converter 20 converts R, G, and B signals that are sequentially input into digital R, G, and B signals and outputs them to the image input controller 22.

デジタル信号処理部24は、画像入力コントローラ22を介して入力するデジタルの画像信号に対して、オフセット処理、ホワイトバランス補正および感度補正を含むゲイン・コントロール処理、ガンマ補正処理、YC処理等の所定の信号処理を行う。   The digital signal processing unit 24 performs predetermined processing such as offset control, gain control processing including white balance correction and sensitivity correction, gamma correction processing, YC processing, etc., on the digital image signal input via the image input controller 22. Perform signal processing.

ここで、図2(B)および(C)に示すように,CCD16の奇数ラインの第1画素から読み出される第1画像データは、左視点画像データとして処理され、偶数ラインの第2画素から読み出される第2画像データは、右視点画像データとして処理される。図2(D)および(E)の場合も同様に、第1画素から読み出される第1画像データは、左視点画像データとして処理され、偶数ラインの第2画素から読み出される第2画像データは、右視点画像データとして処理される。なお、第1画像データが左視点画像データであり、第2画像データが右視点画像データである必然性はなく、その逆でもよい。   Here, as shown in FIGS. 2B and 2C, the first image data read from the first pixel of the odd line of the CCD 16 is processed as the left viewpoint image data and read from the second pixel of the even line. The second image data to be processed is processed as right viewpoint image data. Similarly, in the case of FIGS. 2D and 2E, the first image data read from the first pixel is processed as the left viewpoint image data, and the second image data read from the second pixel of the even line is Processed as right viewpoint image data. The first image data is not necessarily left viewpoint image data, and the second image data is not necessarily right viewpoint image data, and vice versa.

デジタル信号処理部24で処理された左視点画像データおよび右視点画像データ(3D画像データ)は、VRAM50に入力する。VRAM50には、それぞれが1コマ分の3D画像を表す3D画像データを記憶するA領域とB領域とが含まれている。VRAM50において1コマ分の3D画像を表す3D画像データがA領域とB領域とで交互に書き換えられる。VRAM50のA領域およびB領域のうち、3D画像データが書き換えられている方の領域以外の領域から、書き込まれている3D画像データが読み出される。VRAM50から読み出された3D画像データはビデオ・エンコーダ28においてエンコーディングされ、カメラ背面に設けられている立体表示用の液晶モニタ(LCD)30に出力され、これにより3Dの被写体像が液晶モニタ30の表示画面上に表示される。   The left viewpoint image data and right viewpoint image data (3D image data) processed by the digital signal processing unit 24 are input to the VRAM 50. The VRAM 50 includes an A area and a B area each storing 3D image data representing a 3D image for one frame. In the VRAM 50, 3D image data representing a 3D image for one frame is rewritten alternately in the A area and the B area. The written 3D image data is read from an area other than the area in which the 3D image data is rewritten in the A area and the B area of the VRAM 50. The 3D image data read from the VRAM 50 is encoded by the video encoder 28 and output to a stereoscopic display liquid crystal monitor (LCD) 30 provided on the back of the camera, whereby a 3D subject image is displayed on the liquid crystal monitor 30. Displayed on the display screen.

この液晶モニタ30は、立体視画像(左視点画像および右視点画像)をパララックスバリアによりそれぞれ所定の指向性を持った指向性画像として表示できる立体表示手段であるが、これに限らず、レンチキュラレンズを使用するものや、偏光メガネ、液晶シャッタメガネなどの専用メガネをかけることで左視点画像と右視点画像とを個別に見ることができるものでもよい。   The liquid crystal monitor 30 is a stereoscopic display unit that can display stereoscopic images (left viewpoint image and right viewpoint image) as directional images having predetermined directivities by a parallax barrier, but is not limited thereto, and is not limited thereto. The left viewpoint image and the right viewpoint image may be viewed separately by using a lens, or by wearing dedicated glasses such as polarized glasses or liquid crystal shutter glasses.

また、操作部38のシャッタボタンの第1段階の押下(半押し)があると、CPU40は、AF動作およびAE動作を開始させ、レンズ駆動部36を介して撮像レンズ12内のフォーカスレンズが合焦位置にくるように制御する。また、シャッタボタンの半押し時にA/D変換器20から出力される画像データは、AE検出部44に取り込まれる。   In addition, when the shutter button of the operation unit 38 is first pressed (half-pressed), the CPU 40 starts the AF operation and the AE operation, and the focus lens in the imaging lens 12 is aligned via the lens driving unit 36. Control to come to the focal position. The image data output from the A / D converter 20 when the shutter button is half-pressed is taken into the AE detection unit 44.

AE検出部44では、画面全体のG信号を積算し、又は画面中央部と周辺部とで異なる重みづけをしたG信号を積算し、その積算値をCPU40に出力する。CPU40は、AE検出部44から入力する積算値より被写体の明るさ(撮影Ev値)を算出し、この撮影Ev値に基づいて適正露出が得られる絞り14の絞り値およびCCD16の電子シャッタ(シャッタスピード)を所定のプログラム線図にしたがって決定し、その決定した絞り値に基づいて絞り駆動部33を介して絞り14を制御する(通常の絞り制御)とともに、決定したシャッタスピードに基づいてCCD制御部32を介してCCD16での電荷蓄積時間を制御する。なお、被写体の明るさは外部の測光センサに基づいて算出されてもよい。   The AE detection unit 44 integrates the G signals of the entire screen, or integrates the G signals with different weights in the central and peripheral portions of the screen, and outputs the integrated value to the CPU 40. The CPU 40 calculates the brightness of the subject (shooting Ev value) from the integrated value input from the AE detection unit 44, and the aperture value of the diaphragm 14 and the electronic shutter (shutter) of the CCD 16 that can obtain appropriate exposure based on this shooting Ev value. (Speed) is determined according to a predetermined program diagram, the aperture 14 is controlled via the aperture drive unit 33 based on the determined aperture value (normal aperture control), and CCD control is performed based on the determined shutter speed. The charge accumulation time in the CCD 16 is controlled via the unit 32. Note that the brightness of the subject may be calculated based on an external photometric sensor.

ここで、所定のプログラム線図とは、被写体の明るさ(撮影EV値)に対応して、絞り14の絞り値とCCD16のシャッタスピードの組み合わせ、又はこれらと撮影感度(ISO感度)の組み合わせからなる撮影(露出)条件が設計されたものである。このプログラム線図にしたがって決定された撮影条件で撮影を行うことにより、被写体の明るさにかかわらず、所望の視差を有する第1画像、第2画像の撮影が可能となる。   Here, the predetermined program diagram corresponds to a combination of the aperture value of the aperture 14 and the shutter speed of the CCD 16 or a combination of these and the imaging sensitivity (ISO sensitivity) corresponding to the brightness of the subject (imaging EV value). The following shooting (exposure) conditions are designed. By photographing under the photographing conditions determined according to the program diagram, it is possible to photograph the first image and the second image having a desired parallax regardless of the brightness of the subject.

例えば、所定のプログラム線図は、F値が1.4(AV=1)の一定の値を取り、撮影EV値が7から12までは撮影EV値に応じてシャッタ速度のみを1/60秒(TV=6)から1/2000(TV=11)まで変化させるように設計されている。また、撮影EV値が7よりも小さくなると(暗くなると)、F値=1.4、シャッタ速度=1/60秒で固定した状態で、撮影EV値が1EV小さくなる毎にISO感度を100から200,400,800,1600,3200になるように設計されている。すなわち、被写体が暗くなると、絞り14を開放せず、シャッタ速度やISO感度を増やして明るさを補う。   For example, the predetermined program diagram has a constant F value of 1.4 (AV = 1), and when the shooting EV value is from 7 to 12, only the shutter speed is set to 1/60 seconds (TV) according to the shooting EV value. = 6) to 1/2000 (TV = 11). When the photographing EV value is smaller than 7 (when dark), the ISO sensitivity is increased from 100 to 200,400,800, every time the photographing EV value becomes 1 EV with the F value = 1.4 and the shutter speed = 1/60 seconds. It is designed to be 1600,3200. That is, when the subject becomes dark, the aperture 14 is not opened, and the brightness is compensated by increasing the shutter speed and ISO sensitivity.

なお、固定するF値を大きくすれば、視差は弱くなり、固定するF値を小さくすれば、視差は強くなるので、操作部38を介してユーザから指示された視差量に応じて固定するF値とプログラム線図を切り替えるとよい。例えば、弱い視差が指示された場合はF値=5.6のプログラム線図A,標準の視差が指示された場合はF値=2.8のプログラム線図B、強い視差が指示された場合はF値=1.4のプログラム線図Cに沿って通常の絞り制御を行う。   Note that if the F value to be fixed is increased, the parallax is weakened, and if the F value to be fixed is decreased, the parallax is increased. Therefore, the F that is fixed according to the amount of parallax instructed by the user via the operation unit 38. Switch between values and program diagrams. For example, when weak parallax is instructed, program diagram A with F value = 5.6, when standard parallax is instructed, program diagram B with F value = 2.8, and when strong parallax is instructed, F value = Normal aperture control is performed along the program diagram C of 1.4.

この視差優先プログラム線図は、F値を一定の値で固定しているため、所望の視差を有する第1画像、第2画像の撮影を行うことができる。ただし、撮影EV値が12よりも大きくなると(シャッタ速度が最大値になると)、露出オーバになり撮影できなくなるが、NDフィルタを自動挿入して光量を減光できる構成をカメラ1に追加すれば、撮影EV値が12よりも大きくなっても撮影可能である。   In this parallax priority program diagram, since the F value is fixed at a constant value, the first image and the second image having a desired parallax can be taken. However, if the shooting EV value is greater than 12 (when the shutter speed reaches the maximum value), the camera 1 is overexposed and cannot be shot. However, if a configuration that can automatically reduce the amount of light by adding an ND filter is added to the camera 1. Even if the shooting EV value is larger than 12, shooting is possible.

AF処理部42は、コントラストAF処理又は位相差AF処理を行う部分である。コントラストAF処理を行う場合には、左視点画像データおよび右視点画像データの少なくとも一方の画像データのうちの所定のフォーカス領域内(画面中央部の矩形領域など)の画像データの高周波成分を抽出し、この高周波成分を積分することにより合焦状態を示すAF評価値を算出する。このAF評価値が極大となるように撮像レンズ12内のフォーカスレンズを制御することによりAF制御が行われる。また、位相差AF処理を行う場合には、左視点画像データおよび右視点画像データのうちの所定のフォーカス領域内の第1画素、第2画素に対応する画像データの位相差を検出し、この位相差を示す情報に基づいてデフォーカス量を求める。このデフォーカス量が0になるように撮像レンズ12内のフォーカスレンズを制御することによりAF制御が行われる。   The AF processing unit 42 is a part that performs contrast AF processing or phase difference AF processing. When performing contrast AF processing, high-frequency components of image data within a predetermined focus area (such as a rectangular area in the center of the screen) of at least one of left viewpoint image data and right viewpoint image data are extracted. The AF evaluation value indicating the in-focus state is calculated by integrating the high frequency component. The AF control is performed by controlling the focus lens in the imaging lens 12 so that the AF evaluation value is maximized. Further, when performing the phase difference AF processing, the phase difference between the image data corresponding to the first pixel and the second pixel in the predetermined focus area in the left viewpoint image data and the right viewpoint image data is detected, and this A defocus amount is obtained based on information indicating the phase difference. AF control is performed by controlling the focus lens in the imaging lens 12 so that the defocus amount becomes zero.

AE動作およびAF動作が終了し、シャッタボタンの第2段階の押下(全押し)があると、その押下に応答してA/D変換器20から出力される第1画素および第2画素に対応する左視点画像(第1画像)および右視点画像(第2画像)の2枚分の画像データが画像入力コントローラ22からメモリ(SDRAM) 48に入力し、一時的に記憶される。   When the AE operation and the AF operation are completed and the shutter button is pressed in the second stage (full press), it corresponds to the first pixel and the second pixel output from the A / D converter 20 in response to the press. The image data for two images, the left viewpoint image (first image) and the right viewpoint image (second image), are input from the image input controller 22 to the memory (SDRAM) 48 and temporarily stored.

メモリ48に一時的に記憶された2枚分の画像データは、デジタル信号処理部24により適宜読み出され、ここで画像データの輝度データおよび色差データの生成処理(YC処理)を含む所定の信号処理が行われる。YC処理された画像データ(YCデータ)は、再びメモリ48に記憶される。続いて、2枚分のYCデータは、それぞれ圧縮伸長処理部26に出力され、JPEG (joint photographic experts group)などの所定の圧縮処理が実行されたのち、再びメモリ48に記憶される。   The two pieces of image data temporarily stored in the memory 48 are appropriately read out by the digital signal processing unit 24, where predetermined signals including generation processing (YC processing) of luminance data and color difference data of the image data are performed. Processing is performed. The YC processed image data (YC data) is stored in the memory 48 again. Subsequently, the two pieces of YC data are respectively output to the compression / decompression processing unit 26, and after a predetermined compression process such as JPEG (joint photographic experts group) is executed, the YC data is stored in the memory 48 again.

メモリ48に記憶された2枚分のYCデータ(圧縮データ)から、マルチピクチャファイル(MPファイル:複数の画像が連結された形式のファイル)が生成され、そのMPファイルは、メディア・コントローラ52により読み出され、メモリカード54に記録される。   A multi-picture file (MP file: a file in a format in which a plurality of images are connected) is generated from two pieces of YC data (compressed data) stored in the memory 48, and the MP file is generated by the media controller 52. It is read and recorded in the memory card 54.

デフォーカスマップ作成部61は、第1画素および第2画素に対応する位相差を、所定のフォーカス領域に含まれる小領域の各々について算出するだけでなく、有効画素領域の全体を実質的に被覆する複数の小領域の各々について算出する。有効画素領域の全体を実質的に被覆する複数の小領域とは、有効画素領域の全体を完全に覆っている必要はなく、有効画素領域の全体に渡って密にあるいは粗に配列されていればよい。例えば、有効画素領域をマトリクス状に所定の単位(例えば8×8画素)、あるいはそれ以下(例えば1×1画素)、あるいはそれ以上(例えば10×10画素)で分割した分割領域の各々について位相差が算出される。あるいは、有効画素領域の外縁を起点に所定のピッチ(例えば分割領域1つ分、あるいはそれ以上、あるいはそれ以下)を隔てた所定の単位の分割領域毎に位相差が算出される。要するに位相差は有効画素領域の全体に渡って算出されるものとするが、必ずしも有効画素領域を構成する小領域の全てについて算出されなくてもよい。   The defocus map creation unit 61 not only calculates the phase difference corresponding to the first pixel and the second pixel for each of the small areas included in the predetermined focus area, but substantially covers the entire effective pixel area. The calculation is performed for each of the plurality of small regions. The plurality of small areas that substantially cover the entire effective pixel area need not completely cover the entire effective pixel area, and may be densely or roughly arranged over the entire effective pixel area. That's fine. For example, each of the divided areas obtained by dividing the effective pixel area in a matrix by a predetermined unit (for example, 8 × 8 pixels), or less (for example, 1 × 1 pixel), or more (for example, 10 × 10 pixels). The phase difference is calculated. Alternatively, the phase difference is calculated for each divided region in a predetermined unit with a predetermined pitch (for example, one divided region or more or less) from the outer edge of the effective pixel region. In short, it is assumed that the phase difference is calculated over the entire effective pixel area, but it is not necessarily calculated for all of the small areas constituting the effective pixel area.

デフォーカスマップ作成部61は、上記小領域の各々について算出された位相差に基づき、上記小領域の各々に対応するデフォーカス量を求める。この、有効画素領域の全体に渡って求められた小領域の各々に対応するデフォーカス量の集合を、デフォーカスマップと呼ぶ。デフォーカスマップ作成部61は、RAMなどの揮発性記憶媒体を有しており、求まったデフォーカスマップを一時的に保存する。デフォーカスマップ作成部61は、ステレオマッチング処理部83にて各視点画像間で特徴点および対応点検出を行い、それらの特徴点および対応点の間の位置情報の差に基づいてデフォーカスマップを作成してもよい。   The defocus map creation unit 61 obtains a defocus amount corresponding to each of the small areas based on the phase difference calculated for each of the small areas. A set of defocus amounts corresponding to each of the small areas obtained over the entire effective pixel area is referred to as a defocus map. The defocus map creation unit 61 has a volatile storage medium such as a RAM, and temporarily stores the obtained defocus map. The defocus map creation unit 61 detects feature points and corresponding points between the viewpoint images in the stereo matching processing unit 83, and generates a defocus map based on a difference in position information between the feature points and the corresponding points. You may create it.

復元フィルタ保存部62は、ROMなどの不揮発性記憶媒体で構成されており、各視点画像における各小領域の像高(画像中心からの距離、典型的には撮像レンズ12の光軸中心Lからの距離)およびデフォーカス量(ないしは被写体距離)に対応する復元フィルタを保存している。   The restoration filter storage unit 62 is configured by a nonvolatile storage medium such as a ROM, and the image height (distance from the image center, typically the optical axis center L of the imaging lens 12) of each small region in each viewpoint image. ) And a restoration filter corresponding to the defocus amount (or subject distance).

復元部63は、各視点画像の小領域毎に選択された復元フィルタで当該小領域をデコンボリューションし、対応する視点画像の小領域を復元する。この信号処理により、光学系のボケ、特に光束の入射のアンバランスが生じる受光面の周辺画素に対応する画像のボケが取り除かれる。   The restoration unit 63 deconvolves the small area with the restoration filter selected for each small area of each viewpoint image, and restores the corresponding small area of the viewpoint image. By this signal processing, the blur of the optical system, in particular, the blur of the image corresponding to the peripheral pixels on the light receiving surface in which the unbalanced incidence of the light flux occurs is removed.

ステレオマッチング処理部(対象物検出手段)83は、同じタイミングでメモリ48に格納された2つの画像データA、B間で互いに対応する1つ以上の対応点(対象物)を検出するものである。なおステレオマッチング処理部83における処理方法は、領域ベース法、セグメントベース法、等輝度線法等を用いる公知の技術を使用することができる。また、ステレオマッチングはパッシブ式でもアクティブ式でもよい。また、画素数の異なる画像間でのステレオマッチングは、例えば特許文献3、7〜11のような公知の技術に基づいて行うことができる。   The stereo matching processing unit (object detection means) 83 detects one or more corresponding points (objects) corresponding to each other between the two image data A and B stored in the memory 48 at the same timing. . As a processing method in the stereo matching processing unit 83, a known technique using a region-based method, a segment-based method, an isoluminance line method, or the like can be used. Further, the stereo matching may be passive or active. In addition, stereo matching between images having different numbers of pixels can be performed based on known techniques such as Patent Documents 3 and 7 to 11.

距離算出部84は、上述したステレオマッチング処理部83によって検出された対応点の3次元座標値(距離情報または視差マップ)を算出するものである。距離算出部84における算出方法は、三角測量の原理により計算する公知の技術を使用することができる。なお、ステレオマッチング処理部83および距離算出部84はプログラムにより構成されるものであっても、IC、LSI等によって構成されるものであってもよい。後述するが、距離算出部84は、距離算出を同時処理可能な複数の処理系統を有していてもよい。なお、距離情報と視差マップは技術的に等価であり、以下の距離情報についての処理は、視差マップについても行うことができる。   The distance calculation unit 84 calculates the three-dimensional coordinate value (distance information or parallax map) of the corresponding point detected by the stereo matching processing unit 83 described above. As the calculation method in the distance calculation unit 84, a known technique for calculation based on the principle of triangulation can be used. Note that the stereo matching processing unit 83 and the distance calculation unit 84 may be configured by a program, or may be configured by an IC, an LSI, or the like. As will be described later, the distance calculation unit 84 may have a plurality of processing systems capable of simultaneously processing the distance calculation. Note that the distance information and the parallax map are technically equivalent, and the following processing on the distance information can also be performed on the parallax map.

第1画像データの取得画素と第2画像データの取得画素は、同じ構成であってもよいし、そうでなくてもよい。第1画像データは色情報と輝度情報を有するが、第2画像データは輝度情報のみを有してもよい。あるいは、第2画素は、赤外領域を受光可能な白黒CCDとし、特許文献7のような赤外光を用いたアクティブ式のステレオマッチングが採用されてもよい。   The acquisition pixel of 1st image data and the acquisition pixel of 2nd image data may be the same structures, and may not be so. The first image data has color information and luminance information, but the second image data may have only luminance information. Alternatively, the second pixel may be a monochrome CCD that can receive an infrared region, and active stereo matching using infrared light as in Patent Document 7 may be employed.

以下では、ステレオマッチングを可能にするため、第1画像データ・第2画像データの双方は少なくとも輝度情報を含むものとする。さらに、3次元画像に色情報を付加するため、第1画像データ・第2画像データの少なくとも一方は色情報を含むものとする。ここでは説明の簡略のため、第1画像データ(画像データA)は輝度情報と色情報を含み、第2画像データ(画像データB)は輝度情報のみを含むものとする。このような構成にすることによりCCD16の製造コストを低減することができる。ただし、スルー画を白黒で表示する場合、画像データAの色情報は必須でない。   In the following, in order to enable stereo matching, both the first image data and the second image data include at least luminance information. Furthermore, in order to add color information to the three-dimensional image, at least one of the first image data and the second image data includes color information. Here, for simplification of description, the first image data (image data A) includes luminance information and color information, and the second image data (image data B) includes only luminance information. With such a configuration, the manufacturing cost of the CCD 16 can be reduced. However, when displaying the through image in black and white, the color information of the image data A is not essential.

また、画像データAの解像度はLCD30の表示解像度以上であり、かつ、画像データBの解像度はLCD30の表示解像度よりも低いものとする。つまり、3次元画像をLCD30に表示するには、距離情報の算出、距離情報の外挿または内挿の処理、および取得された画像データに対するサイズ調整が必要であり、そのための処理に時間を要する。   The resolution of the image data A is equal to or higher than the display resolution of the LCD 30 and the resolution of the image data B is lower than the display resolution of the LCD 30. That is, in order to display a three-dimensional image on the LCD 30, it is necessary to calculate distance information, extrapolate or interpolate distance information, and adjust the size of the acquired image data. .

3次元画像処理部85は、CCD16から取得された画像データAに、距離算出部84の算出した距離情報を適用することで、画像データAの視点位置とは異なる仮想的な視点位置に対応する画像データB’を生成することができる。これは特許文献2と同様である。また、距離情報からの3次元画像生成は、特許文献7〜11のような公知技術に基づいて行うことができる。   The three-dimensional image processing unit 85 applies the distance information calculated by the distance calculation unit 84 to the image data A acquired from the CCD 16 to correspond to a virtual viewpoint position different from the viewpoint position of the image data A. Image data B ′ can be generated. This is the same as in Patent Document 2. Moreover, the three-dimensional image generation from the distance information can be performed based on known techniques such as Patent Documents 7 to 11.

画像データAの視点位置と画像データB’の視点位置のずれ(視差量)は、固定値または任意の設定値のいずれでもよい。例えば、3次元画像処理部85は、操作部38から設定された視差量に応じて、仮想的な画像データB’を生成する。これは特許文献1と同様である。あるいは、ROM10に記憶された固定の視差量に応じて、仮想的な画像データB’を生成する。   The deviation (parallax amount) between the viewpoint position of the image data A and the viewpoint position of the image data B ′ may be a fixed value or an arbitrary set value. For example, the three-dimensional image processing unit 85 generates virtual image data B ′ according to the parallax amount set from the operation unit 38. This is the same as Patent Document 1. Alternatively, virtual image data B ′ is generated according to the fixed amount of parallax stored in the ROM 10.

あるいは、3次元画像処理部85は、AF処理で合焦したAF領域内の被写体距離の遠近に応じた視差量を設定し、この設定された視差量に応じて、仮想的な画像データB’を生成する。具体的には、3次元画像処理部85は、合焦被写体までの距離が遠ければ、外挿によりそれだけ視差量を多くする。すなわち、デフォーカス量が0になる合焦被写体までの距離が遠く、立体感が出にくい場合には、視差量を増やし、立体感を持たせることができる。適正な視差量でユーザに立体画像を閲覧させるため、視差量を増大する上限を設けてもよい。さらに、3次元画像処理部85は、合焦被写体までの距離が近ければ、内挿によりそれだけ視差量を少なくすることもできる。   Alternatively, the three-dimensional image processing unit 85 sets a parallax amount according to the distance of the subject distance in the AF area focused by the AF processing, and virtual image data B ′ according to the set parallax amount. Is generated. Specifically, if the distance to the focused subject is long, the three-dimensional image processing unit 85 increases the amount of parallax by extrapolation. That is, when the distance to the in-focus subject where the defocus amount is 0 is long and it is difficult to obtain a stereoscopic effect, the parallax amount can be increased to provide a stereoscopic effect. In order to allow the user to view a stereoscopic image with an appropriate amount of parallax, an upper limit for increasing the amount of parallax may be provided. Furthermore, if the distance to the focused subject is close, the three-dimensional image processing unit 85 can also reduce the amount of parallax by interpolation.

いずれにせよ、3次元画像処理部85は、画像データAとの間で所望の視差量を有するよう、ステレオマッチングされた画像データA・画像データB間の対応点の3次元座標値(距離情報)の内挿または外挿により、画像データB’(中間位置画像、右外画像、または左外画像)を求める。よって、カメラ1で、基線長が小さくなり、立体感が弱くなる時でも、視差量を所望の値に拡大した立体スルー画を遅延なく出力できる。   In any case, the three-dimensional image processing unit 85 uses the three-dimensional coordinate values (distance information) of the corresponding points between the stereo-matched image data A and image data B so as to have a desired amount of parallax with the image data A. ) Is interpolated or extrapolated to obtain image data B ′ (intermediate position image, right outer image, or left outer image). Therefore, even when the base line length is reduced and the stereoscopic effect is weakened by the camera 1, a stereoscopic live view image in which the parallax amount is increased to a desired value can be output without delay.

3次元画像処理部85は、画像データAと画像データB’から3次元画像データを生成する。この仮想的な画像データB’の生成と3次元画像データの生成を新たな画像データAの取得の度に繰り返すことで、所望の視差量を有する立体スルー画がLCD30に継続的に表示される。   The three-dimensional image processing unit 85 generates three-dimensional image data from the image data A and the image data B ′. By repeating the generation of the virtual image data B ′ and the generation of the three-dimensional image data each time new image data A is acquired, a stereoscopic live view image having a desired amount of parallax is continuously displayed on the LCD 30. .

図5は本発明の好ましい第1実施形態に係るスルー画表示処理のタイミングチャートを示す。この処理は撮影モードが「静止画記録」または「動画記録」に設定されたことに応じて開始される。   FIG. 5 is a timing chart of the through image display process according to the first preferred embodiment of the present invention. This process is started in response to the shooting mode being set to “still image recording” or “moving image recording”.

S1では、CPU40は、CCD16から1コマ目の左右の画像データA・Bが取得されるよう制御する。   In S <b> 1, the CPU 40 controls to acquire the left and right image data A and B of the first frame from the CCD 16.

S2では、CPU40は、ステレオマッチング処理部83と距離算出部84にステレオマッチングと距離情報の算出を行わせる。ステレオマッチング処理部83は、取得された1コマ目の画像データA・Bに基づいてステレオマッチングを行う。距離算出部84は、ステレオマッチング処理部83によって検出された対応点毎の距離情報を算出する。本実施形態において、このステレオマッチングと距離情報の算出に要する時間は左右の視点画像データの取得間隔に相当するものとする。   In S <b> 2, the CPU 40 causes the stereo matching processing unit 83 and the distance calculation unit 84 to perform stereo matching and distance information calculation. The stereo matching processing unit 83 performs stereo matching based on the acquired image data A and B of the first frame. The distance calculation unit 84 calculates distance information for each corresponding point detected by the stereo matching processing unit 83. In the present embodiment, it is assumed that the time required for the stereo matching and the calculation of distance information corresponds to the acquisition interval of the left and right viewpoint image data.

CPU40は、このステレオマッチングと距離情報の算出の間に、CCD16から2コマ目の画像データA・Bが取得されるよう制御する。   The CPU 40 performs control so that the image data A and B of the second frame are acquired from the CCD 16 during the stereo matching and the calculation of the distance information.

S3では、3次元画像処理部85は、距離算出部84の算出した1コマ目の画像データA・Bに関する距離情報を内挿または外挿し、仮想的な距離情報を生成する。そして、3次元画像処理部85は、仮想的な距離情報とCCD16から取得された2コマ目の画像データAおよび/または画像データBに基づき、所望の視差量dを有する1組の視差画像である画像データA’・画像データB’を生成する。   In S <b> 3, the three-dimensional image processing unit 85 interpolates or extrapolates the distance information regarding the first frame image data A and B calculated by the distance calculation unit 84 to generate virtual distance information. Then, the three-dimensional image processing unit 85 is a set of parallax images having a desired parallax amount d based on the virtual distance information and the second frame image data A and / or image data B acquired from the CCD 16. Some image data A ′ and image data B ′ are generated.

画像データA’および画像データB’はCCD16から直接出力された画像ではない場合もあるが、その場合と同等の画像情報(輝度情報および色情報)を有する。そして3次元画像処理部85は、画像データA’と画像データB’とに基づき、1コマ目の3次元画像データを生成する。表示制御部35は、3次元画像処理部85の生成した3次元画像データをLCD30に表示させる。LCD30に表示された3次元画像データは、所望の視差量dを有する。   The image data A ′ and the image data B ′ may not be directly output from the CCD 16, but have image information (luminance information and color information) equivalent to that case. The three-dimensional image processing unit 85 generates the first frame of three-dimensional image data based on the image data A ′ and the image data B ′. The display control unit 35 causes the LCD 30 to display the 3D image data generated by the 3D image processing unit 85. The three-dimensional image data displayed on the LCD 30 has a desired parallax amount d.

以下同様、レリーズボタン19が全押しされるまで、n(n=1、2、3・・)コマ目の左右の画像データA・Bから距離情報を算出し、nコマ目の画像データA・Bに対応する距離情報を外挿または内挿することでnコマ目の仮想的な距離情報を生成する。そして、nコマ目の仮想的な距離情報とn+1コマ目の画像データAおよび/または画像データBに基づいて所望の視差量dを有する1組の視差画像データである画像データA’・画像データB’を生成する。そして、画像データA’・B’に基づいて、所望の視差量dを有するnコマ目の3次元画像データを生成しLCD30にスルー画像として表示することを繰り返す。   Similarly, until the release button 19 is fully pressed, distance information is calculated from the left and right image data A and B of the n (n = 1, 2, 3...) Frame, and the n-th image data A and B are calculated. The virtual distance information of the nth frame is generated by extrapolating or interpolating the distance information corresponding to B. Then, based on the virtual distance information of the nth frame and the image data A and / or the image data B of the (n + 1) th frame, image data A ′ and image data that are a set of parallax image data having a desired parallax amount d B ′ is generated. Then, based on the image data A ′ and B ′, the generation of n-th frame three-dimensional image data having a desired parallax amount d is repeatedly displayed on the LCD 30 as a through image.

3次元画像処理部85が所望の視差量dを有する1組の視差画像である画像データA’・B’を生成する方法として、次の3つのパターンのうちのいずれが採用されてもよい。   Any of the following three patterns may be employed as a method by which the three-dimensional image processing unit 85 generates image data A ′ and B ′ that are a set of parallax images having a desired parallax amount d.

(1)nコマ目の距離情報を外挿あるいは内挿することで、nコマ目の画像データAの各画素の座標・画像データBの各画素の座標を、それぞれd/2だけ外側あるいは内側に移動した仮想的距離情報を算出する。そして、当該仮想的距離情報に従い、n+1コマ目の画像データAの各画素の座標・画像データBの各画素の座標を、それぞれd/2だけ外側あるいは内側に移動し、画素の色も元の配列順どおりに移動する。この方法は、画像データAの画素数と画像データBの画素数が同等の場合に有効である。   (1) By extrapolating or interpolating the distance information of the nth frame, the coordinates of each pixel of the image data A and the coordinates of each pixel of the image data B are respectively outside or inside by d / 2. The virtual distance information moved to is calculated. Then, according to the virtual distance information, the coordinates of each pixel of the image data A in the (n + 1) th frame and the coordinates of each pixel of the image data B are moved outward or inward by d / 2, respectively, and the pixel color is also changed to the original color. Move in order of arrangement. This method is effective when the number of pixels of the image data A is equal to the number of pixels of the image data B.

(2)nコマ目の距離情報を外挿あるいは内挿することで、nコマ目の画像データBの各画素の座標を、dだけ外側あるいは内側に移動した仮想的距離情報を算出する。そして、当該仮想的距離情報に従い、n+1コマ目の画像データBの各画素の座標を、dだけ外側あるいは内側に移動し、画素の色も元の配列順どおりに移動する。この方法は、画像データAの画素数が画像データBの画素数よりも多い場合に有効である。この場合、n+1コマ目の画像データA’は、n+1コマ目の画像データAと同じであってもよい。また、特許文献2と同様にして、画像データB’の画素数を画像データA’と同等にすることができる。   (2) By extrapolating or interpolating the distance information of the nth frame, virtual distance information is calculated by moving the coordinates of each pixel of the image data B of the nth frame outward or inward by d. Then, according to the virtual distance information, the coordinates of each pixel of the image data B of the (n + 1) th frame are moved outward or inward by d, and the pixel colors are also moved in the original arrangement order. This method is effective when the number of pixels of the image data A is larger than the number of pixels of the image data B. In this case, the image data A ′ for the (n + 1) th frame may be the same as the image data A for the (n + 1) th frame. Similarly to Patent Document 2, the number of pixels of the image data B ′ can be made equal to that of the image data A ′.

(3)nコマ目の距離情報を外挿あるいは内挿することで、nコマ目の画像データAの各画素の座標を、dだけ外側あるいは内側に移動した仮想的距離情報を算出する。そして、当該仮想的距離情報に従い、n+1コマ目の画像データAの各画素の座標を、dだけ外側あるいは内側に移動し、画素の色も元の配列順どおりに移動する。この方法は、画像データBの画素数が画像データAの画素数よりも多い場合に有効である。この場合、n+1コマ目の画像データB’は、n+1コマ目の画像データBと同じであってもよい。また、特許文献2と同様にして、画像データA’の画素数を画像データB’と同等にすることができる。   (3) By extrapolating or interpolating the distance information of the nth frame, virtual distance information is calculated by moving the coordinates of each pixel of the image data A of the nth frame outward or inward by d. Then, according to the virtual distance information, the coordinates of each pixel of the image data A of the (n + 1) th frame are moved outward or inward by d, and the pixel colors are also moved in the original arrangement order. This method is effective when the number of pixels of the image data B is larger than the number of pixels of the image data A. In this case, the image data B ′ of the (n + 1) th frame may be the same as the image data B of the (n + 1) th frame. Similarly to Patent Document 2, the number of pixels of the image data A ′ can be made equal to that of the image data B ′.

このように、前のコマについて算出された距離情報を用いて後のコマの視点画像からスルー画を表示するため、距離情報の算出待ちにより最新のスルー画の表示の遅れが発生することを防止できる。なお、距離情報の算出対象の画像データと3次元画像の生成元の画像データとは取得タイミングが異なるため、スルー画での被写体の3次元位置は実際とは異なるが、1コマ分の画像データの取得時間に相当するずれのため観察者から見て被写体位置の違いは小さいと考えられる。   In this way, since the through image is displayed from the viewpoint image of the subsequent frame using the distance information calculated for the previous frame, it is possible to prevent the latest through image display from being delayed due to the calculation of distance information. it can. It should be noted that the image data to be calculated for the distance information and the image data from which the three-dimensional image is generated have different acquisition timing, so the three-dimensional position of the subject in the through image is different from the actual one, but the image data for one frame The difference in subject position as viewed from the observer is considered to be small because of a shift corresponding to the acquisition time of.

さらに、被写体の距離情報の外挿・内挿に基づいて所望の視差を有する視点画像の組を生成する代わりに、視差マップ(基準の視点画像、例えば画像データAから、別の視点画像、例えば画像データBへの対応点までの視差で、別の視点画像を表したもの)の外挿・内挿に基づいて所望の視差を有する視点画像の組を生成することもできる。すなわち、距離算出部84は、nコマ目に対応する画像データAと画像データBの間の対応する画素毎の視差を示す視差マップを算出する。視差マップの算出は、ステレオマッチングなどで行われる。3次元画像処理部85は、nコマ目に対応する視差マップの各画素の視差を外挿または内挿することで仮想視差マップを生成する。nコマ目の仮想視差マップに基づくn+1コマ目の画像データAおよび/または画像データBの各画素の移動は、上記の3パターンと同様、n+1コマ目に対応する画像データAおよび画像データBの双方またはいずれか一方について行う。このように、視差マップの各画素の視差の外挿または内挿によっても、所望の視差を有する視点画像の組を生成することができる。   Furthermore, instead of generating a set of viewpoint images having a desired parallax based on extrapolation / interpolation of subject distance information, a parallax map (from a reference viewpoint image, eg, image data A, to another viewpoint image, eg, A set of viewpoint images having a desired parallax can be generated based on the extrapolation / interpolation of the parallax up to the corresponding point to the image data B and representing another viewpoint image). That is, the distance calculation unit 84 calculates a parallax map indicating the parallax for each corresponding pixel between the image data A and the image data B corresponding to the nth frame. The parallax map is calculated by stereo matching or the like. The three-dimensional image processing unit 85 generates a virtual parallax map by extrapolating or interpolating the parallax of each pixel of the parallax map corresponding to the nth frame. The movement of each pixel of the image data A and / or the image data B of the (n + 1) th frame based on the virtual parallax map of the nth frame is similar to the above three patterns of the image data A and the image data B corresponding to the (n + 1) th frame. Perform for both or either. In this manner, a set of viewpoint images having a desired parallax can also be generated by extrapolating or interpolating the parallax of each pixel of the parallax map.

以下、説明の簡略のため、被写体の距離情報について記述するが、視差マップについても同様の処理が成り立つ。   In the following, for the sake of simplicity, the distance information of the subject will be described, but the same processing holds for the parallax map.

<第2実施形態>
ステレオマッチングと距離情報の算出に要する時間が、1コマ分の左右の画像データA・Bの取得間隔よりも長い場合、n+1コマ目の画像データにnコマ目の距離情報を適用して3次元画像を生成することはできない。そこで、距離情報の算出以後に取得される複数のコマの画像データに、当該算出された同一の距離情報を適用して複数コマの3次元画像データを生成する。
Second Embodiment
When the time required for the stereo matching and distance information calculation is longer than the acquisition interval of the left and right image data A and B for one frame, the distance information of the nth frame is applied to the n + 1 frame image data to obtain a three-dimensional An image cannot be generated. Therefore, the calculated same distance information is applied to the image data of a plurality of frames acquired after the calculation of the distance information to generate a plurality of frames of three-dimensional image data.

図6は本発明の好ましい第2実施形態に係るスルー画表示処理のタイミングチャートを示す。   FIG. 6 is a timing chart of the through image display process according to the second preferred embodiment of the present invention.

S11はS1と同様であり、CCD16から1コマ目の画像データA・Bが取得される。   S11 is the same as S1, and the first frame of image data A and B is acquired from the CCD 16.

S12はS2と同様であり、ステレオマッチング処理部83は、取得された1コマ目の左右の画像データA・Bに基づいてステレオマッチングを行う。ただし2コマ目の左右の画像データBはメモリ部31に保存されず廃棄される。距離算出部84は、ステレオマッチング処理部83によって1コマ目の画像データA・Bから検出された対応点の距離情報(距離情報)を算出する。このステレオマッチングと距離情報の算出に要する時間が左右の画像データの取得間隔を超え、例えば2倍に相当するとする。すなわち、第1実施形態と異なり、距離情報の算出は、前のコマの画像の取得から次のコマの画像が取得までの間に完了しない。   S12 is the same as S2, and the stereo matching processing unit 83 performs stereo matching based on the acquired left and right image data A and B of the first frame. However, the left and right image data B of the second frame are discarded without being stored in the memory unit 31. The distance calculation unit 84 calculates distance information (distance information) of the corresponding points detected from the image data A and B of the first frame by the stereo matching processing unit 83. It is assumed that the time required for the stereo matching and distance information calculation exceeds the acquisition interval of the left and right image data, and corresponds to, for example, twice. That is, unlike the first embodiment, the calculation of distance information is not completed between the acquisition of the image of the previous frame and the acquisition of the image of the next frame.

S13では、CPU40は、このステレオマッチングと距離情報の算出の間に、CCD16から3コマ目の画像データA・Bが取得されるよう制御する。   In S13, the CPU 40 performs control so that the image data A and B of the third frame are acquired from the CCD 16 during the stereo matching and the calculation of the distance information.

S14では、3次元画像処理部85は、距離算出部84の算出した1コマ目の画像データA・Bに関する距離情報を外挿または内挿し、1コマ目の仮想的な距離情報を生成する。3次元画像処理部85は、1コマ目の仮想的な距離情報と、CCD16から取得された3コマ目の画像データAおよび/または画像データBに基づき、所望の視差量dを有する1コマ目の画像データA’・B’を生成する。そして、3次元画像処理部85は、1コマ目の画像データA’と画像データB’とに基づき、1コマ目の3次元画像データを生成する。表示制御部35は、生成された3次元画像データをLCD30に表示する。LCD30に表示された3次元画像データは、所望の視差量dを有する。   In S14, the three-dimensional image processing unit 85 extrapolates or interpolates the distance information regarding the first frame image data A and B calculated by the distance calculation unit 84, and generates virtual distance information for the first frame. The three-dimensional image processing unit 85 uses the virtual distance information of the first frame and the image data A and / or image data B of the third frame acquired from the CCD 16 to generate the first frame having a desired parallax amount d. Image data A ′ and B ′ are generated. The three-dimensional image processing unit 85 generates three-dimensional image data for the first frame based on the image data A ′ and the image data B ′ for the first frame. The display control unit 35 displays the generated 3D image data on the LCD 30. The three-dimensional image data displayed on the LCD 30 has a desired parallax amount d.

この間、CPU40は、CCD16から4コマ目の画像データが取得されるよう制御する。またCPU40は、3コマ目の画像データA・Bに基づくステレオマッチングおよび距離情報の算出を開始するよう制御する。   During this time, the CPU 40 performs control so that image data for the fourth frame is acquired from the CCD 16. Further, the CPU 40 controls to start stereo matching and distance information calculation based on the image data A and B of the third frame.

S15では、3次元画像処理部85は、1コマ目の仮想的な距離情報とCCD16から取得された4コマ目の画像データAおよび/または画像データBとに基づき、所望の視差量dを有する2コマ目の画像データA’・画像データB’を生成する。そして、2コマ目の画像データA’と画像データB’とに基づき、2コマ目の3次元画像データを生成し、表示制御部35は、生成された3次元画像データをLCD30に表示する。LCD30に表示された3次元画像データは、所望の視差量dを有する。   In S15, the three-dimensional image processing unit 85 has a desired parallax amount d based on the virtual distance information of the first frame and the image data A and / or image data B of the fourth frame acquired from the CCD 16. Image data A ′ and image data B ′ for the second frame are generated. Then, based on the image data A ′ and image data B ′ of the second frame, 3D image data of the second frame is generated, and the display control unit 35 displays the generated 3D image data on the LCD 30. The three-dimensional image data displayed on the LCD 30 has a desired parallax amount d.

この間、CPU40は、CCD16から5コマ目の画像データが取得されるよう制御する。   During this time, the CPU 40 controls the image data of the fifth frame from the CCD 16 to be acquired.

以下同様、レリーズボタン19が全押しされるまで、繰り返して、n(n=1、2、3・・)コマ目の画像データA・Bから距離情報を算出し、nコマ目の距離情報を外挿または内挿してnコマ目の仮想的な距離情報を生成する。そして、nコマ目の仮想的な距離情報とn+2コマ目の画像データAおよび/または画像データBに基づき、所望の視差量dを有するnコマ目の3次元画像データを生成しLCD30にスルー画像として表示する。さらに、nコマ目の仮想的な距離情報とn+3コマ目の画像データAおよび/または画像データBに基づき、所望の視差量dを有するn+1コマ目の3次元画像データを生成しLCD30にスルー画像として表示する。   Similarly, until the release button 19 is fully pressed, the distance information is repeatedly calculated from the image data A and B of n (n = 1, 2, 3,...) Frames, and the distance information of the n frames is calculated. Virtual distance information of the nth frame is generated by extrapolation or interpolation. Then, based on the virtual distance information of the nth frame and the image data A and / or image data B of the (n + 2) th frame, 3D image data of the nth frame having a desired parallax amount d is generated, and the through image is displayed on the LCD 30. Display as. Further, based on the virtual distance information of the nth frame and the image data A and / or the image data B of the (n + 3) th frame, three-dimensional image data of the (n + 1) th frame having a desired parallax amount d is generated and the through image is displayed on the LCD 30. Display as.

これにより、距離情報の算出待ちにより所望の視差量dを有するスルー画の表示の遅れが発生することをより効果的に防止できる。また、距離算出よりスルー画の表示のフレームレートを早くすることができる。   Thereby, it is possible to more effectively prevent a delay in displaying a through image having a desired parallax amount d due to waiting for calculation of distance information. In addition, the frame rate for displaying the through image can be made faster than the distance calculation.

<第3実施形態>
第1・2実施形態において、画像の解像度が高いなどの理由で座標値算出に時間がかかったり、画像の色情報など画像データの情報量によって座標値算出時間が変化する場合、スルー画のコマが定期的に表示されなくなる。そこで、座標値算出が所定の割合完了した時から次のコマの左右画像データの取得を開始してもよい。
<Third Embodiment>
In the first and second embodiments, when the coordinate value calculation takes time because the resolution of the image is high, or when the coordinate value calculation time changes depending on the information amount of image data such as image color information, the through image frame Disappears periodically. Therefore, the acquisition of the left and right image data of the next frame may be started when the coordinate value calculation is completed at a predetermined rate.

図7は本発明の好ましい第3実施形態に係るスルー画表示処理のタイミングチャートを示す。   FIG. 7 is a timing chart of the through image display process according to the preferred third embodiment of the present invention.

S21はS11と同様であり、CPU40は、撮影モードの設定に応じて、CCD16から1コマ目の画像データA・Bを取得するよう制御する。   S21 is the same as S11, and the CPU 40 controls to acquire the first frame image data A and B from the CCD 16 in accordance with the setting of the photographing mode.

S22はS12と同様であり、ステレオマッチング処理部83は、取得された1コマ目の画像データA・Bに基づいてステレオマッチングを行う。距離算出部84は、ステレオマッチング処理部83によって画像データA・Bから検出された対応点の距離情報を算出する。   S22 is the same as S12, and the stereo matching processing unit 83 performs stereo matching based on the acquired image data A and B of the first frame. The distance calculation unit 84 calculates distance information of corresponding points detected from the image data A and B by the stereo matching processing unit 83.

S23では、CPU40は、座標値算出が所定の割合完了した時、例えば7割完了した時点で、CCD16からから2コマ目の画像データA・Bの取得を開始するよう制御する。画像データA・Bの取得開始と連動する座標値算出の完了割合をどのように設定するかは任意である。例えば、1コマ目の画像データA・Bに対応する座標値算出開始後のある時点から距離情報の完全な算出完了までの時間の長さが、画像データの取得完了に必要な時間と略一致する場合、その時点が到来した時点で、CCD16から2コマ目の画像データの取得を開始するよう制御するとよい。こうすると画像データの取得後ただちに3次元画像を生成することができる。   In S23, the CPU 40 controls the acquisition of the second frame image data A and B from the CCD 16 when the coordinate value calculation is completed at a predetermined rate, for example, when 70% is completed. It is arbitrary how to set the completion rate of the coordinate value calculation in conjunction with the start of acquisition of the image data A and B. For example, the length of time from the start of coordinate value calculation corresponding to the image data A and B of the first frame until the complete calculation of distance information is substantially the same as the time required for completion of image data acquisition In that case, it may be controlled to start the acquisition of the second frame of image data from the CCD 16 when that point arrives. In this way, a three-dimensional image can be generated immediately after obtaining the image data.

S24では、CPU40は、距離算出部84から算出された1コマ目の画像データA・Bに対応する距離情報を外挿または内挿し1コマ目の仮想的な距離情報を生成する。そして、1コマ目の仮想的な距離情報と2コマ目の画像データAおよび/または画像データBに基づき、所望の視差dを有する1コマ目の画像データA’・B’を生成するよう3次元画像処理部85を制御する。3次元画像処理部85は、1コマ目の画像データA’と画像データB’とに基づいて1コマ目の3次元画像データを生成する。表示制御部35から得られた1コマ目の3次元画像データはLCD30に出力されスルー画像として表示される。LCD30に表示された3次元画像データは、所望の視差量dを有する。   In S <b> 24, the CPU 40 extrapolates or interpolates the distance information corresponding to the first frame image data A and B calculated from the distance calculation unit 84 to generate the first frame virtual distance information. Then, based on the virtual distance information of the first frame and the image data A and / or image data B of the second frame, the first frame image data A ′ and B ′ having a desired parallax d is generated. The dimensional image processing unit 85 is controlled. The three-dimensional image processing unit 85 generates three-dimensional image data for the first frame based on the image data A ′ and the image data B ′ for the first frame. The three-dimensional image data of the first frame obtained from the display control unit 35 is output to the LCD 30 and displayed as a through image. The three-dimensional image data displayed on the LCD 30 has a desired parallax amount d.

この間、CPU40は、2コマ目の画像データA・Bに対応するステレオマッチングと距離情報の算出を開始するようステレオマッチング処理部83および距離算出部84を制御する。   During this time, the CPU 40 controls the stereo matching processing unit 83 and the distance calculation unit 84 so as to start the stereo matching and distance information calculation corresponding to the image data A and B of the second frame.

以後同様、CPU40は、CCD16から取得されたnコマ目の画像データA・Bに基づく距離情報算出が所定の割合完了した時点で、CCD16からn+1コマ目の画像データA・Bを取得するよう制御する。さらにCPU40は、距離算出部84から算出されたnコマ目の画像データA・Bに対応する距離情報を外挿または内挿してnコマ目の仮想的な距離情報を生成し、nコマ目の仮想的な距離情報とn+1コマ目の画像データAおよび/または画像データBとに基づき、所望の視差dを有するnコマ目の画像データA’・B’を生成し、画像データA’と画像データB’とに基づいてnコマ目の3次元画像データを生成するよう3次元画像処理部85を制御する。   Thereafter, similarly, the CPU 40 controls to acquire the n + 1-th frame image data A / B from the CCD 16 when the distance information calculation based on the n-th frame image data A / B acquired from the CCD 16 is completed by a predetermined ratio. To do. Further, the CPU 40 extrapolates or interpolates the distance information corresponding to the n-th frame image data A and B calculated from the distance calculation unit 84 to generate the n-th frame virtual distance information. Based on the virtual distance information and the n + 1 frame image data A and / or image data B, the n frame image data A ′ and B ′ having a desired parallax d are generated, and the image data A ′ and the image data are generated. Based on the data B ′, the 3D image processing unit 85 is controlled to generate the 3D image data of the nth frame.

このように、距離情報の算出タイミングに応じて各コマの画像の取得間隔を可変にすることで、最新の画像データによる3次元画像の素早い生成が可能となる。   As described above, by making the image acquisition interval of each frame variable according to the calculation timing of the distance information, it is possible to quickly generate a three-dimensional image using the latest image data.

<第4実施形態>
第3実施形態において、ステレオマッチング処理部83および距離算出部84のセットが複数存在し、複数のコマの画像データの各々について独立した距離情報算出の並列処理が可能な場合は、最新コマの画像データの取得時に距離情報算出を実行していない、空いているセットに対して最新コマに対応する距離情報算出を実行するよう制御するとよい。
<Fourth embodiment>
In the third embodiment, when there are a plurality of sets of the stereo matching processing unit 83 and the distance calculation unit 84 and the parallel processing of independent distance information calculation is possible for each of the image data of the plurality of frames, the image of the latest frame It is preferable to perform control so that distance information calculation corresponding to the latest frame is executed for an empty set for which distance information calculation is not performed at the time of data acquisition.

図8は本発明の好ましい第4実施形態に係るデジタルカメラ1のブロック図を示す。説明済みのブロックと同一のブロックには同一の符号を付している。このデジタルカメラ1は、複数セット、ここでは一例として2セットのステレオマッチング処理部83aおよび距離算出部84a、ステレオマッチング処理部83bおよび距離算出部84bを有する。   FIG. 8 shows a block diagram of a digital camera 1 according to a preferred fourth embodiment of the present invention. The same blocks as those already described are denoted by the same reference numerals. The digital camera 1 includes a plurality of sets, here two sets of stereo matching processing units 83a and distance calculation units 84a, stereo matching processing units 83b, and distance calculation units 84b as an example.

図9は本発明の好ましい第4実施形態に係るスルー画表示処理のタイミングチャートを示す。   FIG. 9 is a timing chart of the through image display process according to the preferred fourth embodiment of the present invention.

S41では、CPU40は、撮影モードの設定に応じて、CCD16から1コマ目の画像データA・Bを取得するよう制御する。   In S41, the CPU 40 controls to acquire the first frame image data A and B from the CCD 16 according to the setting of the shooting mode.

S42では、CPU40は、ステレオマッチング処理部83a・距離算出部84aに、1コマ目の画像データA・Bに対応する距離情報の算出を開始させるよう制御する。ステレオマッチング処理部83aは、取得された1コマ目の画像データA・Bに基づいてステレオマッチングを行う。距離算出部84aは、ステレオマッチング処理部83aによって検出された対応点の距離情報を算出する。   In S42, the CPU 40 controls the stereo matching processing unit 83a / distance calculation unit 84a to start calculating distance information corresponding to the image data A / B of the first frame. The stereo matching processing unit 83a performs stereo matching based on the acquired image data A and B of the first frame. The distance calculation unit 84a calculates distance information of corresponding points detected by the stereo matching processing unit 83a.

同時に、CPU40は、CCD16から2コマ目の画像データA・Bを取得するよう制御する。   At the same time, the CPU 40 controls to acquire the second frame image data A and B from the CCD 16.

S43では、CPU40は、ステレオマッチング処理部83b・距離算出部84bに、2コマ目の画像データA・Bに対応する距離情報の算出を開始させるよう制御する。ステレオマッチング処理部83bは、取得された2コマ目の画像データA・Bに基づいてステレオマッチングを行う。距離算出部84bは、ステレオマッチング処理部83によって2コマ目の画像データA・Bから検出された対応点の距離情報を算出する。   In S43, the CPU 40 controls the stereo matching processing unit 83b and the distance calculation unit 84b to start calculating distance information corresponding to the image data A and B of the second frame. The stereo matching processing unit 83b performs stereo matching based on the acquired second frame image data A and B. The distance calculation unit 84b calculates distance information of corresponding points detected from the image data A and B of the second frame by the stereo matching processing unit 83.

ステレオマッチング処理部83b・距離算出部84bによる距離情報の算出の開始時に、ステレオマッチング処理部83a・距離算出部84aによる距離情報の算出が継続していてもよく、双方の距離情報の算出は独立無関係に行われる。   At the start of the distance information calculation by the stereo matching processing unit 83b and the distance calculation unit 84b, the distance information calculation by the stereo matching processing unit 83a and the distance calculation unit 84a may be continued, and the calculation of the distance information of both is independent. Done independently.

さらにCPU40は、CCD16から3コマ目の画像データA・Bを取得するよう制御する。   Further, the CPU 40 controls to acquire the third frame image data A and B from the CCD 16.

S44では、CPU40は、S42で算出された1コマ目の画像データA・Bに対応する距離情報を外挿または内挿することで、1コマ目の仮想的な距離情報を生成するよう3次元画像処理部85を制御する。そして、CPU40は、1コマ目の仮想的な距離情報と3コマ目の画像データAおよび/または画像データBに基づき、所望の視差量dを有する1コマ目の画像データA’・B’を生成し、画像データA’と画像データB’とに基づいて1コマ目の3次元画像を生成するよう3次元画像処理部85を制御する。   In S44, the CPU 40 extrapolates or interpolates the distance information corresponding to the first frame image data A and B calculated in S42 to generate virtual distance information for the first frame in a three-dimensional manner. The image processing unit 85 is controlled. Then, based on the virtual distance information of the first frame and the image data A and / or image data B of the third frame, the CPU 40 obtains the first frame of image data A ′ / B ′ having a desired parallax amount d. The 3D image processing unit 85 is controlled to generate a 3D image of the first frame based on the image data A ′ and the image data B ′.

同時に、CPU40は、ステレオマッチング処理部83a・距離算出部84aに、3コマ目の画像データA・Bに対応する距離情報の算出を開始させるよう制御する。ただし、3コマ目の画像データA・Bに対応する距離情報の算出を開始するまでに、1コマ目の画像データA・Bに対応する距離情報の算出は完了しているものとする。2コマ目の画像データA・Bに対応する距離情報の算出は完了していなくてもよい。   At the same time, the CPU 40 controls the stereo matching processing unit 83a / distance calculation unit 84a to start calculating distance information corresponding to the image data A / B of the third frame. However, it is assumed that the calculation of the distance information corresponding to the image data A and B of the first frame has been completed before the calculation of the distance information corresponding to the image data A and B of the third frame is started. Calculation of the distance information corresponding to the second frame image data A and B may not be completed.

以下同様、CPU40は、nコマ目(n=1,2,..)の3次元画像を生成するよう3次元画像処理部85を制御する。nが奇数であれば、CPU40は、ステレオマッチング処理部83a・距離算出部84aに、nコマ目に取得された画像データA・Bに対応する距離情報の算出を開始させるよう制御し、nが偶数であれば、CPU40は、ステレオマッチング処理部83b・距離算出部84bに、nコマ目に取得された画像データA・Bに対応する距離情報の算出を開始させるよう制御する。   Similarly, the CPU 40 controls the three-dimensional image processing unit 85 so as to generate a three-dimensional image of the nth frame (n = 1, 2,...). If n is an odd number, the CPU 40 controls the stereo matching processing unit 83a / distance calculation unit 84a to start calculating distance information corresponding to the image data A / B acquired in the nth frame, where n is If the number is even, the CPU 40 controls the stereo matching processing unit 83b and the distance calculation unit 84b to start calculating distance information corresponding to the image data A and B acquired in the nth frame.

そして、CPU40は、nコマ目の画像データA・Bに対応する距離情報を外挿または内挿することで、nコマ目の仮想的な距離情報を生成し、nコマ目の仮想的な距離情報とn+2コマ目の画像データAおよび/またはBに基づき、所望の視差量dを有するnコマ目の画像データA’・B’を生成した上、nコマ目の画像データA’と画像データB’に基づいてnコマ目の3次元画像を生成するよう3次元画像処理部85を制御する。3次元画像処理部85から得られたnコマ目の3次元画像データはLCD30に出力されスルー画像として表示される。LCD30に表示された3次元画像データは、所望の視差量dを有する。   Then, the CPU 40 extrapolates or interpolates the distance information corresponding to the n-th frame image data A and B, thereby generating the n-th frame virtual distance information, and the n-th frame virtual distance. Based on the information and the image data A and / or B of the (n + 2) th frame, the nth frame of image data A ′ / B ′ having a desired parallax amount d is generated, and the nth frame of image data A ′ and image data Based on B ′, the 3D image processing unit 85 is controlled so as to generate a 3D image of the nth frame. The n-th frame three-dimensional image data obtained from the three-dimensional image processing unit 85 is output to the LCD 30 and displayed as a through image. The three-dimensional image data displayed on the LCD 30 has a desired parallax amount d.

ステレオマッチング処理部83および距離算出部84のセットが3つ以上である場合も同様にして、空いているステレオマッチング処理部83・距離算出部84のセットで処理し、いずれかのセットで算出済みの最新の距離情報を外挿または内挿することで仮想的な距離情報を生成し、この仮想的な距離情報と取得済みの最新の画像データAおよび/または画像データBに基づいて、所望の視差量dを有する画像データA・Bを生成し、3次元コマ画像を生成する。左右画像データA・Bの取得間隔に対応して必要十分なセットの数は距離情報の算出時間間隔に依存する。図9では一例として当該算出時間が左右画像データの取得間隔の1.5倍程度であるため、2コマ分の画像データを別個に処理する2セットで十分である。   Similarly, when there are three or more sets of the stereo matching processing unit 83 and the distance calculation unit 84, processing is performed with the set of the free stereo matching processing unit 83 and the distance calculation unit 84, and the calculation has been completed for any one of the sets. The virtual distance information is generated by extrapolating or interpolating the latest distance information of the image, and based on the virtual distance information and the acquired latest image data A and / or image data B, a desired distance information is generated. Image data A and B having a parallax amount d are generated, and a three-dimensional frame image is generated. The number of necessary and sufficient sets corresponding to the acquisition interval of the left and right image data A and B depends on the calculation time interval of the distance information. In FIG. 9, as an example, the calculation time is about 1.5 times the acquisition interval of the left and right image data, so two sets for separately processing image data for two frames are sufficient.

このように、複数のステレオマッチング処理部83および距離算出部84のセットで異なるコマの画像データの距離情報を別個に算出させることで、距離情報の算出に1コマ分の取得間隔以上かかる場合でもスルー画の表示遅れを防止できる。   In this way, by separately calculating the distance information of the image data of different frames in the set of the plurality of stereo matching processing units 83 and the distance calculation unit 84, even when the calculation of the distance information takes more than one frame acquisition interval. Display delay of live view can be prevented.

<第5実施形態>
第1〜4実施形態において、レリーズボタン19の全押しに応じて3次元画像の再生情報を記録するには次のようにする。
<Fifth Embodiment>
In the first to fourth embodiments, the reproduction information of a three-dimensional image is recorded as follows when the release button 19 is fully pressed.

図10は本発明の好ましい第5実施形態に係る動画記録処理のタイミングチャートを示す。この処理は撮影モードが「動画撮影」に設定されており、レリーズボタン19の全押しなど動画記録開始指示が入力されたことに応じて開始する。   FIG. 10 shows a timing chart of the moving image recording process according to the preferred fifth embodiment of the present invention. This process is started when the shooting mode is set to “moving image shooting” and a moving image recording start instruction such as a full press of the release button 19 is input.

S51・52はS1・2と同様である。この結果1コマ目の画像が取得されるとともに1コマ目の画像に対応する距離情報が得られる。   S51 and 52 are the same as S1 and 2. As a result, the first frame image is acquired and distance information corresponding to the first frame image is obtained.

S53では、3次元画像処理部85は、距離算出部84の算出した1コマ目の画像データA・Bに関する距離情報を内挿または外挿し、1コマ目の仮想的な距離情報を生成する。3次元画像処理部85は、1コマ目の仮想的な距離情報と、CCD16から取得された1コマ目の画像データAおよび/または画像データBに基づき、所望の視差量dを有する1コマ目の画像データA’・画像データB’を生成した上、1コマ目の画像A’・B’から3次元画像を生成する。CPU40は、当該生成された3次元画像を記録するようメディア制御部37を制御する。また、S51で取得された1コマ目の画像Aに画像A・Bに対応する距離情報を適用して仮想的な画像データB’を生成した上、1コマ目の画像Aと画像B’から3次元画像を生成し、当該生成された3次元画像を記録するようメディア制御部37を制御することもできる。その他はS3と同様である。   In S <b> 53, the three-dimensional image processing unit 85 interpolates or extrapolates the distance information regarding the first frame image data A and B calculated by the distance calculation unit 84 to generate virtual distance information for the first frame. The three-dimensional image processing unit 85 uses the virtual distance information of the first frame and the first frame image data A and / or image data B acquired from the CCD 16 to generate the first frame having a desired parallax amount d. Image data A ′ and image data B ′ are generated, and a three-dimensional image is generated from the images A ′ and B ′ in the first frame. The CPU 40 controls the media control unit 37 to record the generated three-dimensional image. Further, the virtual image data B ′ is generated by applying the distance information corresponding to the images A and B to the image A of the first frame acquired in S51, and from the images A and B ′ of the first frame. It is also possible to generate a three-dimensional image and control the media control unit 37 to record the generated three-dimensional image. Others are the same as S3.

以下同様にして、動画記録終了指示が入力されるまで、スルー画の表示と3次元画像の記録が継続される。3次元画像の再生情報として、各コマの画像と距離情報とをそのまま対応づけて記録するだけでもよい。この再生情報に基づいて、再生時に3次元画像を生成することも可能だからである。再生情報から3次元画像を生成する回路は3次元画像処理部85でもよいし、それとは異なる回路でもよい。また、外部記録メディア36に記録するタイミングも任意であり、得られた画像を順次記録してもよいし、動画記録終了指示が入力されたことに応じて一括して記録してもよい。前者の場合は、各コマの視点画像が取得されるタイミングに合わせて各コマの3次元画像の生成が行われることが好ましい。   In the same manner, display of a through image and recording of a three-dimensional image are continued until a moving image recording end instruction is input. As the reproduction information of the three-dimensional image, the image of each frame and the distance information may be recorded in association with each other as they are. This is because it is possible to generate a three-dimensional image during reproduction based on this reproduction information. The circuit for generating a three-dimensional image from the reproduction information may be the three-dimensional image processing unit 85 or a circuit different from that. The timing of recording on the external recording medium 36 is also arbitrary, and the obtained images may be sequentially recorded, or may be recorded collectively in response to the input of the moving image recording end instruction. In the former case, it is preferable that a three-dimensional image of each frame is generated in accordance with the timing at which the viewpoint image of each frame is acquired.

再生情報の記録についてはスルー画の表示のように実時間からの遅れは問題にならないため、第1実施形態のようにスルー画を表示するのと平行して、3次元画像の再生情報を記録する。記録される再生情報については距離情報と画像情報のずれは生じない。   As for the recording of playback information, the delay from the real time does not become a problem as in the case of displaying a through image. Therefore, the playback information of a three-dimensional image is recorded in parallel with the display of a through image as in the first embodiment. To do. For recorded reproduction information, there is no deviation between distance information and image information.

<第6実施形態>
第1〜5実施形態において、距離情報と色情報が同一のコマ画像に由来して取得されないため、3次元画像の立体感が実際の被写体の奥行きと異なる場合がある。この立体感のずれを軽減するには、次のようにする。
<Sixth Embodiment>
In the first to fifth embodiments, since the distance information and the color information are not obtained from the same frame image, the stereoscopic effect of the three-dimensional image may be different from the actual depth of the subject. In order to reduce the deviation of the three-dimensional effect, the following is performed.

ぼかし処理部86は、隣接する画素間の距離情報同士を比較し、隣接する画素間の距離情報の差が所定の閾値を超える場合、当該隣接する画素に対応する距離情報をぼかす。例えば、ぼかし処理部86は、当該隣接する画素に対応する距離情報を平滑化する。   The blur processing unit 86 compares the distance information between adjacent pixels, and blurs the distance information corresponding to the adjacent pixels when the difference in the distance information between the adjacent pixels exceeds a predetermined threshold. For example, the blur processing unit 86 smoothes the distance information corresponding to the adjacent pixels.

3次元画像処理部85は、距離算出部84の算出したnコマ目の距離情報の代わりに、ぼかし処理部86で平滑化されたnコマ目の距離情報を内挿または外挿し、nコマ目の仮想的な距離情報を生成する。そして、3次元画像処理部85は、nコマ目の仮想的な距離情報と、CCD16から取得されたn+1コマ目の画像データAおよび/または画像データBとに基づき、所望の視差量dを有するnコマ目の画像データA’・画像データB’を生成した上、nコマ目の画像A’・B’からnコマ目の3次元画像を生成する。また、3次元画像処理部85は、距離算出部84の算出した距離情報の代わりに、ぼかし処理部86で平滑化された距離情報を画像データAに適用して、仮想的な画像データB’を生成し、3次元画像データを生成することもできる。これにより、3次元画像において被写体の輪郭部分と奥行きの変化が生じる部分とのずれが目立つのを防止できる。   The three-dimensional image processing unit 85 interpolates or extrapolates the n-th frame distance information smoothed by the blurring processing unit 86 instead of the n-th frame distance information calculated by the distance calculation unit 84, thereby obtaining the n-th frame. Generate virtual distance information. The three-dimensional image processing unit 85 has a desired parallax amount d based on the virtual distance information of the nth frame and the image data A and / or image data B of the (n + 1) th frame acquired from the CCD 16. The image data A ′ and image data B ′ of the nth frame are generated, and a three-dimensional image of the nth frame is generated from the images A ′ and B ′ of the nth frame. Further, the three-dimensional image processing unit 85 applies the distance information smoothed by the blurring processing unit 86 to the image data A instead of the distance information calculated by the distance calculation unit 84, thereby generating virtual image data B ′. 3D image data can also be generated. As a result, it is possible to prevent the deviation between the contour portion of the subject and the portion where the depth changes from being noticeable in the three-dimensional image.

30…LCD、40…CPU、83…ステレオマッチング処理部、84…距離算出部、85…3次元画像処理部、86…ぼかし処理部   30 ... LCD, 40 ... CPU, 83 ... stereo matching processing unit, 84 ... distance calculation unit, 85 ... three-dimensional image processing unit, 86 ... blurring processing unit

Claims (23)

単一の撮像光学系と、
前記撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、前記第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部と、
時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう前記撮像部を制御する撮像制御部と、
前記第1の時点で前記撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出する視差情報算出部と、
前記第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と前記第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、前記所望の視差を有する画像の組から立体画像を生成する立体画像生成部と、
を備える撮像装置。
A single imaging optical system;
An imaging unit in which subject images that have passed through a first area and a second area having different predetermined directions of the imaging optical system are divided into pupils, respectively, and the first area and the second area are imaged An imaging unit capable of photoelectrically converting each of the subject images that have passed through the region and continuously outputting a set of viewpoint images including the first image and the second image;
An imaging control unit that controls the imaging unit so that a set of viewpoint images is output at a first time point and a second time point, which are arbitrary two time points before and after in time;
A parallax information calculation unit that performs stereo matching based on a set of viewpoint images output from the imaging unit at the first time point and calculates parallax information;
Virtual parallax information is generated by extrapolating or interpolating the parallax information corresponding to the first time point, and based on the virtual parallax information and the first image and / or the second image output at the second time point A stereoscopic image generation unit that generates a set of viewpoint images having a desired parallax and generates a stereoscopic image from the set of images having the desired parallax;
An imaging apparatus comprising:
前記撮像制御部は、前記第1の時点よりも後の異なる複数の第2の時点の各々で前記視点画像の組が順次出力されるよう前記撮像部を制御し、
前記立体画像生成部は、前記第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と前記第2の時点で各々出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の複数の組を生成し、前記所望の視差を有する視点画像の複数の組から複数の立体画像を順次生成する請求項1に記載の撮像装置。
The imaging control unit controls the imaging unit so that the set of viewpoint images is sequentially output at each of a plurality of different second time points after the first time point;
The stereoscopic image generation unit generates virtual parallax information by extrapolating or interpolating the parallax information corresponding to the first time point, and outputs the virtual parallax information and the first image output at the second time point and 2. A plurality of sets of viewpoint images having desired parallax are generated based on the second image, and a plurality of stereoscopic images are sequentially generated from the plurality of sets of viewpoint images having the desired parallax. Imaging device.
前記撮像制御部は、前記視差情報算出部による前記第1の時点に対応する視差情報の算出処理が所定の割合だけ完了した第2の時点で視点画像の組が出力されるよう前記撮像部を制御する請求項1に記載の撮像装置。   The imaging control unit controls the imaging unit to output a set of viewpoint images at a second time point when the parallax information calculation process corresponding to the first time point by the parallax information calculation unit is completed by a predetermined ratio. The imaging device according to claim 1 to be controlled. 前記視差情報算出部は、異なる複数の視点画像の組にそれぞれ対応する複数の視差情報をそれぞれ独立して算出可能な異なる複数の処理系統を有しており、異なる複数の第1の時点に対応する視差情報の各々を異なる処理系統で算出する請求項1に記載の撮像装置。   The disparity information calculating unit has a plurality of different processing systems capable of independently calculating a plurality of pieces of disparity information respectively corresponding to sets of different viewpoint images, and corresponds to a plurality of different first time points. The imaging apparatus according to claim 1, wherein each piece of parallax information to be calculated is calculated by a different processing system. 前記撮像装置は、所定の記録指示が入力されたことに応じ、前記第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と前記第1の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、前記所望の視差を有する視点画像の組に基づいて立体画像の再生情報を記録する記録部を備える請求項1〜4のいずれか1項に記載の撮像装置。   In response to the input of a predetermined recording instruction, the imaging apparatus extrapolates or interpolates disparity information corresponding to the first time point to generate virtual disparity information, and the virtual disparity information and the first disparity information A set of viewpoint images having a desired parallax is generated based on the first image and / or the second image output at the time, and reproduction information of a stereoscopic image is generated based on the set of viewpoint images having the desired parallax. The imaging device according to any one of claims 1 to 4, further comprising a recording unit for recording. 前記立体画像生成部の生成した立体画像を表示する表示部を備える請求項1〜5のいずれか1項に記載の撮像装置。   The imaging device according to claim 1, further comprising a display unit that displays a stereoscopic image generated by the stereoscopic image generation unit. 前記第2画像の解像度は前記第1画像の解像度よりも低くかつ前記表示部の表示解像度よりも低い請求項6に記載の撮像装置。   The imaging device according to claim 6, wherein the resolution of the second image is lower than the resolution of the first image and lower than the display resolution of the display unit. 前記第1画像は輝度情報および色情報を含み、前記第2画像は輝度情報のみを含む請求項1〜7のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the first image includes luminance information and color information, and the second image includes only luminance information. 前記視差情報をぼかすぼかし処理部を備え、
前記立体画像生成部は、前記ぼかし処理部によりぼかされた前記第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と前記第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、前記所望の視差を有する画像の組から立体画像を生成する請求項8に記載の撮像装置。
A blur processing unit that blurs the parallax information;
The stereoscopic image generation unit generates virtual disparity information by extrapolating or interpolating the disparity information corresponding to the first time point blurred by the blur processing unit, and generates the virtual disparity information and the second time point. 9. The set of viewpoint images having a desired parallax is generated based on the first image and / or the second image output in step 1, and a stereoscopic image is generated from the set of images having the desired parallax. Imaging device.
前記所望の視差量は、所定の操作手段から入力された指定値、固定値または被写体距離の遠近に応じた値を含む請求項1〜9のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the desired amount of parallax includes a specified value, a fixed value, or a value corresponding to a distance of a subject distance input from a predetermined operation unit. 単一の撮像光学系と、
前記撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、前記第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部と、
時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう前記撮像部を制御する撮像制御部と、
前記第1の時点で前記撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出する視差情報算出部と、
前記第2の時点で出力された第1画像に前記第1の時点に対応する視差情報を適用して前記第1画像との間で視差を有する仮想第2画像を生成し、前記第2の時点で出力された第1画像と前記仮想第2画像から立体画像を生成する立体画像生成部と、
を備える撮像装置。
A single imaging optical system;
An imaging unit in which subject images that have passed through a first area and a second area having different predetermined directions of the imaging optical system are divided into pupils, respectively, and the first area and the second area are imaged An imaging unit capable of photoelectrically converting each of the subject images that have passed through the region and continuously outputting a set of viewpoint images including the first image and the second image;
An imaging control unit that controls the imaging unit so that a set of viewpoint images is output at a first time point and a second time point, which are arbitrary two time points before and after in time;
A parallax information calculation unit that performs stereo matching based on a set of viewpoint images output from the imaging unit at the first time point and calculates parallax information;
Applying disparity information corresponding to the first time point to the first image output at the second time point to generate a virtual second image having a parallax with the first image, the second image A stereoscopic image generating unit that generates a stereoscopic image from the first image output at the time and the virtual second image;
An imaging apparatus comprising:
前記撮像制御部は、前記第1の時点よりも後の異なる複数の第2の時点の各々で前記視点画像の組が順次出力されるよう前記撮像部を制御し、
前記立体画像生成部は、前記複数の第2の時点で各々出力された複数の視点画像の組に含まれる複数の第1画像に前記第1の時点に対応する視差情報を適用して前記第1画像との間で視差を有する複数の仮想第2画像を生成し、前記複数の第2の時点で各々出力された第1画像と対応する前記複数の仮想第2画像から複数の立体画像を順次生成する請求項11に記載の撮像装置。
The imaging control unit controls the imaging unit so that the set of viewpoint images is sequentially output at each of a plurality of different second time points after the first time point;
The stereoscopic image generation unit applies the disparity information corresponding to the first time point to a plurality of first images included in a set of a plurality of viewpoint images respectively output at the plurality of second time points. A plurality of virtual second images having parallax with one image are generated, and a plurality of stereoscopic images are generated from the plurality of virtual second images corresponding to the first images respectively output at the plurality of second time points. The imaging device according to claim 11, which is sequentially generated.
前記撮像制御部は、前記視差情報算出部による前記第1の時点に対応する視差情報の算出処理が所定の割合だけ完了した第2の時点で視点画像の組が出力されるよう前記撮像部を制御する請求項11に記載の撮像装置。   The imaging control unit controls the imaging unit to output a set of viewpoint images at a second time point when the parallax information calculation process corresponding to the first time point by the parallax information calculation unit is completed by a predetermined ratio. The imaging device according to claim 11 to be controlled. 前記視差情報算出部は、異なる複数の視点画像の組にそれぞれ対応する複数の視差情報をそれぞれ独立して算出可能な異なる複数の処理系統を有しており、異なる複数の第1の時点に対応する視差情報の各々を異なる処理系統で算出する請求項11に記載の撮像装置。   The disparity information calculating unit has a plurality of different processing systems capable of independently calculating a plurality of pieces of disparity information respectively corresponding to sets of different viewpoint images, and corresponds to a plurality of different first time points. The imaging apparatus according to claim 11, wherein each piece of parallax information to be calculated is calculated by a different processing system. 前記撮像装置は、所定の記録指示が入力されたことに応じ、前記第1の時点で出力された第1画像に前記第1の時点に対応する視差情報を適用して前記第1画像との間で視差を有する仮想第2画像を生成し、前記第1の時点で出力された第1画像と前記仮想第2画像に基づいて立体画像の再生情報を記録する記録部を備える請求項11〜14のいずれか1項に記載の撮像装置。   In response to the input of a predetermined recording instruction, the imaging device applies disparity information corresponding to the first time point to the first image output at the first time point, and A recording unit that generates a virtual second image having a parallax between them and records reproduction information of a stereoscopic image based on the first image output at the first time point and the virtual second image. 14. The imaging device according to any one of 14. 前記立体画像生成部の生成した立体画像を表示する表示部を備える請求項11〜15のいずれか1項に記載の撮像装置。   The imaging device according to claim 11, further comprising a display unit that displays a stereoscopic image generated by the stereoscopic image generation unit. 前記第2画像の解像度は前記第1画像の解像度よりも低くかつ前記表示部の表示解像度よりも低い請求項16に記載の撮像装置。   The imaging device according to claim 16, wherein the resolution of the second image is lower than the resolution of the first image and lower than the display resolution of the display unit. 前記第1画像は輝度情報および色情報を含み、前記第2画像は輝度情報のみを含む請求項11〜17のいずれか1項に記載の撮像装置。   The imaging device according to claim 11, wherein the first image includes luminance information and color information, and the second image includes only luminance information. 前記視差情報をぼかすぼかし処理部を備え、
前記立体画像生成部は、前記ぼかし処理部によりぼかされた前記第1の時点に対応する視差情報を前記第2の時点で出力された第1画像に適用して前記第1画像との間で視差を有する仮想第2画像を生成し、前記第2の時点で出力された第1画像と前記仮想第2画像から立体画像を生成する請求項11〜18のいずれか1項に記載の撮像装置。
A blur processing unit that blurs the parallax information;
The stereoscopic image generation unit applies disparity information corresponding to the first time point blurred by the blur processing unit to the first image output at the second time point, and The imaging according to any one of claims 11 to 18, wherein a virtual second image having parallax is generated at step S3 and a stereoscopic image is generated from the first image output at the second time point and the virtual second image. apparatus.
前記立体画像生成部は、前記第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と前記第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、前記所望の視差を有する画像の組から立体画像を生成する請求項11〜19のいずれか1項に記載の撮像装置。   The stereoscopic image generation unit generates virtual parallax information by extrapolating or interpolating the parallax information corresponding to the first time point, and generates the virtual parallax information and the first image output at the second time point and / or The imaging according to any one of claims 11 to 19, wherein a set of viewpoint images having a desired parallax is generated based on the second image, and a stereoscopic image is generated from the set of images having the desired parallax. apparatus. 前記所望の視差量は、所定の操作手段から入力された指定値、固定値または被写体距離の遠近に応じた値を含む請求項20に記載の撮像装置。   21. The imaging apparatus according to claim 20, wherein the desired amount of parallax includes a designated value, a fixed value, or a value corresponding to the distance of the subject distance input from a predetermined operation unit. 単一の撮像光学系と、前記撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、前記第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部とを備える撮像装置が、
時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう前記撮像部を制御するステップと、
前記第1の時点で前記撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出するステップと、
前記第1の時点に対応する視差情報を外挿または内挿して仮想視差情報を生成し、該仮想視差情報と前記第2の時点で出力された第1画像および/または第2画像に基づいて、所望の視差を有する視点画像の組を生成し、前記所望の視差を有する画像の組から立体画像を生成するステップと、
を実行する撮像方法。
A single imaging optical system and an imaging unit in which subject images that have passed through a first region and a second region having different predetermined directions of the imaging optical system are each divided into pupils and imaged; An imaging apparatus comprising: an imaging unit capable of photoelectrically converting subject images that have passed through the first area and the second area, respectively, and continuously outputting a set of viewpoint images including the first image and the second image;
Controlling the imaging unit so that a set of viewpoint images is output at a first time point and a second time point, which are arbitrary two time points before and after in time;
Calculating parallax information by performing stereo matching based on a set of viewpoint images output from the imaging unit at the first time point;
Virtual parallax information is generated by extrapolating or interpolating the parallax information corresponding to the first time point, and based on the virtual parallax information and the first image and / or the second image output at the second time point Generating a set of viewpoint images having a desired parallax, and generating a stereoscopic image from the set of images having the desired parallax;
An imaging method for executing.
単一の撮像光学系と、前記撮像光学系の予め定められた方向の異なる第1の領域および第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される撮像部であって、前記第1の領域および第2の領域を通過した被写体像をそれぞれ光電変換して第1画像および第2画像からなる視点画像の組を継続的に出力可能な撮像部とを備える撮像装置が、
時間的に前後する任意の2つの時点である第1の時点および第2の時点で視点画像の組が出力されるよう前記撮像部を制御するステップと、
前記第1の時点で前記撮像部から出力された視点画像の組に基づいてステレオマッチングを行い視差情報を算出するステップと、
前記第2の時点で出力された第1画像に前記第1の時点に対応する視差情報を適用して前記第1画像との間で視差を有する仮想第2画像を生成し、前記第2の時点で出力された第1画像と前記仮想第2画像から立体画像を生成するステップと、
を実行する撮像方法。
A single imaging optical system and an imaging unit in which subject images that have passed through a first region and a second region having different predetermined directions of the imaging optical system are each divided into pupils and imaged; An imaging apparatus comprising: an imaging unit capable of photoelectrically converting subject images that have passed through the first area and the second area, respectively, and continuously outputting a set of viewpoint images including the first image and the second image;
Controlling the imaging unit so that a set of viewpoint images is output at a first time point and a second time point, which are arbitrary two time points before and after in time;
Calculating parallax information by performing stereo matching based on a set of viewpoint images output from the imaging unit at the first time point;
Applying disparity information corresponding to the first time point to the first image output at the second time point to generate a virtual second image having a parallax with the first image, the second image Generating a stereoscopic image from the first image output at the time and the virtual second image;
An imaging method for executing.
JP2010272481A 2010-12-07 2010-12-07 Imaging apparatus, and imaging method Pending JP2012124650A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010272481A JP2012124650A (en) 2010-12-07 2010-12-07 Imaging apparatus, and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010272481A JP2012124650A (en) 2010-12-07 2010-12-07 Imaging apparatus, and imaging method

Publications (1)

Publication Number Publication Date
JP2012124650A true JP2012124650A (en) 2012-06-28

Family

ID=46505659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010272481A Pending JP2012124650A (en) 2010-12-07 2010-12-07 Imaging apparatus, and imaging method

Country Status (1)

Country Link
JP (1) JP2012124650A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012253706A (en) * 2011-06-07 2012-12-20 Konica Minolta Holdings Inc Image processing device, program therefor, image processing system, and image processing method
JP2014228727A (en) * 2013-05-23 2014-12-08 キヤノン株式会社 Imaging device and method for controlling the same device
JP2015197512A (en) * 2014-03-31 2015-11-09 キヤノン株式会社 Range detection device, image capturing device, range detection method, and parallax amount detection device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012253706A (en) * 2011-06-07 2012-12-20 Konica Minolta Holdings Inc Image processing device, program therefor, image processing system, and image processing method
JP2014228727A (en) * 2013-05-23 2014-12-08 キヤノン株式会社 Imaging device and method for controlling the same device
JP2015197512A (en) * 2014-03-31 2015-11-09 キヤノン株式会社 Range detection device, image capturing device, range detection method, and parallax amount detection device

Similar Documents

Publication Publication Date Title
JP5640143B2 (en) Imaging apparatus and imaging method
US8520059B2 (en) Stereoscopic image taking apparatus
JP5469258B2 (en) Imaging apparatus and imaging method
JP5180407B2 (en) Stereo imaging device and parallax image restoration method
JP5595499B2 (en) Monocular stereoscopic imaging device
JP5722975B2 (en) Imaging device, shading correction method for imaging device, and program for imaging device
JP5421829B2 (en) Imaging device
JP5788518B2 (en) Monocular stereoscopic photographing apparatus, photographing method and program
JP5368350B2 (en) Stereo imaging device
JP5871989B2 (en) Imaging apparatus, imaging method, and program
US9106900B2 (en) Stereoscopic imaging device and stereoscopic imaging method
JP2012124650A (en) Imaging apparatus, and imaging method
JP5457240B2 (en) Stereo imaging device
JP2010204385A (en) Stereoscopic imaging apparatus and method
JP2010200024A (en) Three-dimensional image display device and three-dimensional image display method
JP2014063190A (en) Imaging apparatus
JP2011259405A (en) Imaging device and imaging method