JP2017229075A - Image processing apparatus and control method therefor, and imaging device - Google Patents

Image processing apparatus and control method therefor, and imaging device Download PDF

Info

Publication number
JP2017229075A
JP2017229075A JP2017136874A JP2017136874A JP2017229075A JP 2017229075 A JP2017229075 A JP 2017229075A JP 2017136874 A JP2017136874 A JP 2017136874A JP 2017136874 A JP2017136874 A JP 2017136874A JP 2017229075 A JP2017229075 A JP 2017229075A
Authority
JP
Japan
Prior art keywords
image
data
eye
composite
parallax map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017136874A
Other languages
Japanese (ja)
Other versions
JP6366793B2 (en
Inventor
新谷 拓也
Takuya Shintani
拓也 新谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017136874A priority Critical patent/JP6366793B2/en
Publication of JP2017229075A publication Critical patent/JP2017229075A/en
Application granted granted Critical
Publication of JP6366793B2 publication Critical patent/JP6366793B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device which allows for image reproduction of a correct subject shape, in both two-dimensional display and stereoscopic display, by using composite image data and a parallax map.SOLUTION: An imaging element 505 includes a plurality of photoelectric conversion parts arranged in a pixel having a micro-lens. An image compositing circuit 513 acquires data of an image for a left eye and data of an image for a right eye from a plurality of image signals outputted from the imaging element 505, and generates composite image data for two-dimensional display by adding and synthesizing both data. A parallax map creation circuit 514 creates parallax map data from the data of the image for a left eye and the data of the image for a right eye. A system control unit 509 controls image reproduction by analyzing an image file. When the image file includes the composite image data and the parallax map, image reproduction control is performed in two-dimensional display by using the composite image data, and image reproduction control is performed in stereoscopic display, by creating the data of the image for a left eye and the data of the image for a right eye from the composite image data and the parallax map.SELECTED DRAWING: Figure 4

Description

本発明は撮像装置および画像処理装置に関し、特に立体視表示(以下、3D表示ともいう)および2次元表示(以下、2D表示ともいう)のための画像データを用いた再生処理に関するものである。   The present invention relates to an imaging apparatus and an image processing apparatus, and more particularly to a reproduction process using image data for stereoscopic display (hereinafter also referred to as 3D display) and two-dimensional display (hereinafter also referred to as 2D display).

近年、3次元(3D)シネマや3Dディスプレイ等、立体映像関連機器の普及が急速に進んでいる。立体映像撮影は従来からフィルム式カメラ等でも行われてきたが、デジタル撮像装置の普及に伴い、デジタルカメラやデジタルビデオカメラ等により立体映像を生成するための元画像が撮影されるようになってきている。
立体映像をユーザが鑑賞する仕組みとしては、対象物を左目で見た像及び右目で見た像に対応するように、左右方向に視差を持たせた、右目用画像と左目用画像のデータが用意される。各画像をユーザが右目と左目でそれぞれ見ることで立体視可能である。その方法には、視差バリア方式やレンチキュラ方式等のように鑑賞対象の映像を視差分割する方法がある。また左右で特性の異なるフィルタを介して、ユーザの左目と右目に異なる映像を提示する方法等が知られている。
In recent years, three-dimensional (3D) cinema, 3D display, and other 3D video related devices are rapidly spreading. Although stereoscopic video shooting has been conventionally performed with a film camera or the like, with the widespread use of digital imaging devices, original images for generating stereoscopic video with a digital camera, a digital video camera, and the like have been captured. ing.
As a mechanism for a user to view a stereoscopic video, right eye image data and left eye image data with parallax in the left-right direction so as to correspond to an image of an object viewed with the left eye and an image viewed with the right eye are provided. Prepared. A user can view each image stereoscopically by looking at the right eye and the left eye. As such a method, there is a method of dividing an image to be viewed, such as a parallax barrier method or a lenticular method, into a parallax. There is also known a method for presenting different images to the left and right eyes of the user through filters having different characteristics on the left and right.

立体映像として鑑賞可能な画像の撮影方法として、異なる視点での画像を同時に撮影する方法が、特許文献1および2に開示されている。
特許文献1は、複数の微小レンズが形成され、該微小レンズの各々に近接して、対を成すフォトダイオードが1対以上配置されている固体撮像素子を開示する。フォトダイオード対のうち、一方のフォトダイオードの出力から第1の画像信号が得られ、他方のフォトダイオードの出力から第2の画像信号が得られる。第1及び第2の画像信号を、左目用画像、右目用画像としてそれぞれ用いることで、ユーザは立体映像の鑑賞が可能となる。
特許文献2は、第1の画像のそれぞれの画素に適用されるべきシフトに対応する出力値を持つ出力要素を有する出力視差マップを開示する。この出力視差マップと第1の画像とに基づいて、第2の画像を生成することができる。この計算は、入力値を持つそれぞれの入力要素を有する入力視差マップに基づいており、マルチビュー画像をレンダリングするために、入力画像と視差マップを用いて第2の画像が生成可能である。
Patent Documents 1 and 2 disclose a method of simultaneously capturing images from different viewpoints as a method of capturing an image that can be viewed as a stereoscopic video.
Patent Document 1 discloses a solid-state imaging device in which a plurality of microlenses are formed, and one or more pairs of photodiodes are arranged in proximity to each of the microlenses. A first image signal is obtained from the output of one of the photodiode pairs, and a second image signal is obtained from the output of the other photodiode. By using the first and second image signals as the left-eye image and the right-eye image, respectively, the user can view a stereoscopic video.
Patent Document 2 discloses an output parallax map having an output element having an output value corresponding to a shift to be applied to each pixel of the first image. A second image can be generated based on the output parallax map and the first image. This calculation is based on an input parallax map with each input element having an input value, and a second image can be generated using the input image and the parallax map to render a multi-view image.

特開昭58−24105号公報JP-A-58-24105 特表2008−518317号公報Special table 2008-518317

立体映像として画像を鑑賞するには、上述のように、左右方向に視差を持たせた画像を、それぞれに対応するユーザの目で見る必要がある。したがって、いずれの方式にしても、左目で鑑賞するための左目用画像と、右目で鑑賞するための右目用画像が必要である。
特許文献1が開示するように、複数の微小レンズが形成され、該微小レンズの各々に近接して、対を成すフォトダイオードが1対以上配置されている固体撮像素子を用いて撮影をした場合、以下のような問題がある。対をなすフォトダイオードの一方が撮像光学系の射出瞳のある領域を通過した光束を光電変換した左目用画像信号を出力し、他方が射出瞳の上記領域とは異なる領域を通過した光束を光電変換した右目用画像信号を出力する場合を想定する。この場合、被写体によっては、左目用画像、右目用画像のいずれの画像も、被写体の形状を反映した画像でないことがある。
例えば、点光源からの光がボケたように撮影される撮影シーンにおいては、本来、円形にボケた光源の写真が撮影されるべきである。しかし、特許文献1が開示する固体撮像素子で撮影した場合には、撮影される画像は、被写体の形状が反映されていない半円形や楕円形等の形状となってしまう。例えば、左目用画像における被写体は左半分が欠けており、右目用画像における被写体は右半分が欠けているというように、左目用画像と右目用画像とでは、画像として写る被写体の形状が異なって撮影される。その理由としては、撮像光学系の射出瞳から出た光束のうち、光軸を境にして、フォトダイオードが受光する光の領域が異なるためである。
このような場合、特許文献2に開示の技術を用いて前記第2の画像を計算により求めようと試みたとしても正しい被写体形状の画像は得られない。つまり、基の画像にて実際の被写体とは異なる形状に撮影されるので、計算により求めた前記第2の画像についても正しい被写体形状の画像として再生ができないからである。
そこで、本発明は、合成画像データと視差マップを用いて2次元表示でも立体視表示でも正しい被写体形状の画像再生が可能な装置の提供を目的とする。
In order to view an image as a three-dimensional video, as described above, it is necessary to view an image with parallax in the left-right direction with the corresponding user's eyes. Therefore, in either method, a left-eye image for viewing with the left eye and a right-eye image for viewing with the right eye are necessary.
As disclosed in Patent Document 1, when a plurality of microlenses are formed, and photographing is performed using a solid-state imaging device in which one or more pairs of photodiodes are arranged in proximity to each of the microlenses. There are the following problems. One of the paired photodiodes outputs a left-eye image signal obtained by photoelectrically converting the light beam that has passed through the region where the exit pupil of the imaging optical system is located, and the other photo-electrical light beam that has passed through a region different from the region of the exit pupil. Assume that the converted right-eye image signal is output. In this case, depending on the subject, both the left-eye image and the right-eye image may not be images reflecting the shape of the subject.
For example, in a shooting scene in which light from a point light source is shot in a blurred manner, a photograph of a light source that is blurred in a circular shape should be originally taken. However, when the image is captured by the solid-state imaging device disclosed in Patent Document 1, the captured image has a shape such as a semicircle or an ellipse that does not reflect the shape of the subject. For example, the subject in the left-eye image is missing the left half, and the subject in the right-eye image is missing the right half. Taken. This is because, among the light fluxes emitted from the exit pupil of the imaging optical system, the regions of the light received by the photodiodes differ from the optical axis.
In such a case, even if an attempt is made to obtain the second image by calculation using the technique disclosed in Patent Document 2, an image of the correct subject shape cannot be obtained. That is, since the base image is photographed in a shape different from the actual subject, the second image obtained by calculation cannot be reproduced as an image of the correct subject shape.
Accordingly, an object of the present invention is to provide an apparatus capable of reproducing an image of a correct subject shape in two-dimensional display or stereoscopic display using composite image data and a parallax map.

上記課題を解決するために本発明の一実施形態に係る装置は、視点の異なる複数の画像信号を取得する取得手段と、前記取得手段により取得される異なる視点の画像信号を合成して合成画像信号を生成する画像生成手段と、前記異なる視点の画像信号に基づいて、画像信号間の像の位置ずれ量の分布に対応するマップデータを生成するマップ生成手段と、前記合成画像信号と前記マップデータとを関連づけて出力する出力手段と、を有する。   In order to solve the above problems, an apparatus according to an embodiment of the present invention combines an acquisition unit that acquires a plurality of image signals with different viewpoints and an image signal with different viewpoints acquired by the acquisition unit. Image generating means for generating a signal, map generating means for generating map data corresponding to a distribution of image positional deviation amounts between the image signals based on the image signals of the different viewpoints, the composite image signal and the map Output means for associating and outputting data.

本発明によれば、合成画像データと視差マップを用いて2次元表示でも立体視表示でも正しい被写体形状の画像再生を行うことができる。   According to the present invention, it is possible to reproduce an image of a correct subject shape in two-dimensional display or stereoscopic display using the composite image data and the parallax map.

本発明の実施形態に係る撮像素子の全体構成を概略的に示す図である。1 is a diagram schematically showing an overall configuration of an image sensor according to an embodiment of the present invention. 撮像素子の画素の構成例を示す図である。It is a figure which shows the structural example of the pixel of an image pick-up element. 撮影レンズの射出瞳から出た光束が撮像素子に入射する様子を表した概念図である。It is the conceptual diagram showing a mode that the light beam which came out from the exit pupil of the imaging lens entered into an image sensor. 本発明の実施形態に係る撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device which concerns on embodiment of this invention. 視差マップの生成処理例を示す図である。It is a figure which shows the production | generation process example of a parallax map. 視差マップを模式的に示す図である。It is a figure which shows a parallax map typically. 一般的なDCF画像ファイルの構造例を模式的に示す図である。It is a figure which shows typically the structural example of a general DCF image file. 左目用画像および右目用画像のデータを含む画像ファイルの構造例を模式的に示す図である。It is a figure which shows typically the structural example of the image file containing the data of the image for left eyes, and the image for right eyes. 視差マップを含む画像ファイルの構造例を模式的に示す図である。It is a figure which shows typically the structural example of the image file containing a parallax map. 画像ファイルの再生処理例を説明するフローチャートである。It is a flowchart explaining the example of a reproduction process of an image file. 2D表示での画像再生処理例を説明するフローチャートである。It is a flowchart explaining the example of an image reproduction process in 2D display. 立体視表示での画像再生処理例を説明するフローチャートである。It is a flowchart explaining the example of an image reproduction process in a stereoscopic display. 左目用画像および右目用画像のデータを用いた3D再生処理例を説明するフローチャートである。It is a flowchart explaining the example of 3D reproduction | regeneration processing using the data of the image for left eyes, and the image for right eyes. 視差マップを用いた3D再生処理例を説明するフローチャートである。It is a flowchart explaining the example of 3D reproduction | regeneration processing using a parallax map.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の実施形態の撮像装置に適用する撮像素子の構成例を概略的に示す図である。撮像素子100は、画素アレイ101と、画素アレイ101における行を選択する垂直選択回路102と、画素アレイ101における列を選択する水平選択回路104を含む。読み出し回路103は、画素アレイ101中の画素のうち垂直選択回路102によって選択される画素の信号を読み出す。読み出し回路103は、信号を蓄積するメモリ、ゲインアンプ、AD変換器等を列毎に有する。
シリアルインターフェース(SI)部105は、各回路の動作モード等を外部回路からの指示に従って決定する。垂直選択回路102は、画素アレイ101の複数の行を順次選択し、読み出し回路103に画素信号を取り出す。また水平選択回路104は、読み出し回路103によって読み出された複数の画素信号を列毎に順次選択する。なお、撮像素子100は、図1に示す構成要素以外に、例えば、垂直選択回路102、水平選択回路104、読み出し回路103等にタイミング信号を提供するタイミングジェネレータや、制御回路等が存在するが、これらの詳細な説明は省略する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram schematically illustrating a configuration example of an imaging element applied to an imaging apparatus according to an embodiment of the present invention. The image sensor 100 includes a pixel array 101, a vertical selection circuit 102 that selects a row in the pixel array 101, and a horizontal selection circuit 104 that selects a column in the pixel array 101. The readout circuit 103 reads out the signal of the pixel selected by the vertical selection circuit 102 among the pixels in the pixel array 101. The reading circuit 103 includes a memory for accumulating signals, a gain amplifier, an AD converter, and the like for each column.
The serial interface (SI) unit 105 determines an operation mode of each circuit according to an instruction from an external circuit. The vertical selection circuit 102 sequentially selects a plurality of rows in the pixel array 101 and extracts pixel signals to the readout circuit 103. The horizontal selection circuit 104 sequentially selects a plurality of pixel signals read by the reading circuit 103 for each column. In addition to the components shown in FIG. 1, the image sensor 100 includes, for example, a timing generator that provides a timing signal to the vertical selection circuit 102, the horizontal selection circuit 104, the readout circuit 103, a control circuit, and the like. These detailed explanations are omitted.

図2は、撮像素子100の画素の構成例を示す図である。図2(A)は1画素の構成を概略的に示す。図2(B)は画素アレイ101の配置を示す。図2(A)に示す画素201は、光学素子としてのマイクロレンズ202と、受光素子としての複数のフォトダイオード(以下、PDと略記する)を有する。
図2(A)には、1画素に左側のPD203と右側のPD204の2個を設けた例を示すが、3個以上(例えば、4個または9個)のPDを用いてもよい。PD203は、受光した光束を光電変換して左目用画像信号を出力する。PD204は、受光した光束を光電変換して右目用画像信号を出力する。なお、画素201は、図示の構成要素以外にも、例えば、PD信号を読み出し回路103に取り出す画素増幅アンプや、行選択スイッチ、PD信号のリセットスイッチ等を備える。
画素アレイ101は2次元画像を提供するため、図2(B)に示す複数の画素301から304のように、2次元アレイ状に配列して構成される。PD301L、302L、303L、304Lは、図2(A)中のPD203に相当する。また、PD301R、302R、303R、304Rは、図2(A)中のPD204に相当する。すなわち、本実施形態に用いる撮像素子は、各々が、左目用画像信号を出力する第1の光電変換部(PD203)と、右目用画像信号を出力する第2の光電変換部(PD204)とを有する複数の画素を備える。
FIG. 2 is a diagram illustrating a configuration example of pixels of the image sensor 100. FIG. 2A schematically shows the configuration of one pixel. FIG. 2B shows the arrangement of the pixel array 101. A pixel 201 illustrated in FIG. 2A includes a microlens 202 as an optical element and a plurality of photodiodes (hereinafter abbreviated as PD) as light receiving elements.
FIG. 2A illustrates an example in which two pixels, the left PD 203 and the right PD 204, are provided in one pixel, but three or more (for example, four or nine) PDs may be used. The PD 203 photoelectrically converts the received light beam and outputs a left-eye image signal. The PD 204 photoelectrically converts the received light beam and outputs a right-eye image signal. The pixel 201 includes, for example, a pixel amplification amplifier that extracts a PD signal to the readout circuit 103, a row selection switch, a PD signal reset switch, and the like in addition to the illustrated components.
In order to provide a two-dimensional image, the pixel array 101 is configured by arranging in a two-dimensional array like a plurality of pixels 301 to 304 shown in FIG. The PDs 301L, 302L, 303L, and 304L correspond to the PD 203 in FIG. PDs 301R, 302R, 303R, and 304R correspond to the PD 204 in FIG. That is, the image sensor used in the present embodiment includes a first photoelectric conversion unit (PD 203) that outputs a left-eye image signal and a second photoelectric conversion unit (PD 204) that outputs a right-eye image signal. A plurality of pixels.

次に、図2(B)に示す画素構成を有する撮像素子100の受光について説明する。図3は撮影レンズの射出瞳から出た光束が撮像素子100に入射する様子を表した概念図である。
画素アレイ101は、マイクロレンズ202と、カラーフィルタ403と、PD404および405を有する。PD404、PD405は、図2(A)中のPD203、PD204にそれぞれ相当する。
図3において、マイクロレンズ202に対して、撮影レンズの射出瞳406から出た光束の中心を光軸409とする。射出瞳406から出た光は、光軸409を中心として撮像素子100に入射する。一部領域407、408は、撮影レンズの射出瞳406の領域である。光線410、411は、一部領域407を通過する光の最外周の光線である。光線412、413は、一部領域408を通過する光の最外周の光線である。
射出瞳406から出る光束のうち、光軸409を境界線として、図3の上側の光束はPD405に入射し、下側の光束はPD404に入射する。つまり、PD404とPD405は、各々、撮像光学系の射出瞳の異なる領域からの光束を受光する。このように各受光素子は射出瞳での異なる領域の光を検出するため、点光源からの光が暈けた状態で撮影される状況では、それぞれに異なった形状の撮影画像が得られることになる。
Next, light reception of the imaging element 100 having the pixel configuration illustrated in FIG. FIG. 3 is a conceptual diagram showing a state where a light beam emitted from the exit pupil of the photographing lens is incident on the image sensor 100.
The pixel array 101 includes a microlens 202, a color filter 403, and PDs 404 and 405. PD 404 and PD 405 correspond to PD 203 and PD 204 in FIG.
In FIG. 3, the center of the light beam emitted from the exit pupil 406 of the photographing lens with respect to the microlens 202 is an optical axis 409. The light emitted from the exit pupil 406 enters the image sensor 100 with the optical axis 409 as the center. Partial areas 407 and 408 are areas of the exit pupil 406 of the photographing lens. Light rays 410 and 411 are the outermost light rays of the light passing through the partial region 407. Light rays 412 and 413 are the outermost light rays of the light passing through the partial region 408.
Among the light beams emitted from the exit pupil 406, with the optical axis 409 as a boundary line, the upper light beam in FIG. 3 is incident on the PD 405, and the lower light beam is incident on the PD 404. That is, PD 404 and PD 405 each receive light beams from different regions of the exit pupil of the imaging optical system. In this way, each light receiving element detects light in a different region at the exit pupil, and therefore, in a situation where light is taken from a point light source, photographed images having different shapes can be obtained. .

図4は、本実施形態の撮像装置の構成例を示す図である。図4を参照して、図1に示す撮像素子100をデジタルカメラへ適用した例について説明する。
撮像光学系を構成するレンズ部501は、被写体からの光を撮像素子505に結像する。撮像素子505は、図1に示す撮像素子100に相当し、図2(B)に示す画素構成を有する。レンズ駆動装置502は、ズーム制御、フォーカス制御、絞り制御等を行う。メカニカルシャッタ503は、シャッタ駆動装置504によって制御される。撮像素子505は、レンズ部501により結像した被写体像を画像信号に変換する。撮像信号処理回路506は、撮像素子505の出力する画像信号に対して各種の処理(画素補間処理や色変換処理等)や補正を行う。タイミング発生部507は、撮像素子505や撮像信号処理回路506に必要なタイミング信号を出力する。
システム制御部509は各種演算を行い、撮像装置全体を制御する制御手段であり、不図示のCPU(中央演算処理装置)がプログラムを解釈して実行することで各種の処理を行う。なお、システム制御部509は、左目用画像と右目用画像の各データを比較し、位相差検出を行ってAF(オートフォーカス)制御を行うことができる。
メモリ部508は、画像データを一時的に記憶するメモリを備える。記録制御を行う記録媒体制御インターフェース部(以下、I/F部と略記する)510は、記録媒体511に画像データや後述の視差マップデータ等を記録し、または読み出すために設けられる。撮像装置に着脱可能な記録媒体511は、半導体メモリ等である。外部I/F部512は、コンピュータ機器等の外部装置との間でデータを送受し、ユーザは画像加工を行うことができる。また外部I/F部512に接続された不図示の操作部を用いて、ユーザはデジタルカメラに対する操作を行うことができる。
FIG. 4 is a diagram illustrating a configuration example of the imaging apparatus according to the present embodiment. An example in which the image sensor 100 shown in FIG. 1 is applied to a digital camera will be described with reference to FIG.
The lens unit 501 constituting the imaging optical system forms an image of light from the subject on the imaging element 505. The imaging element 505 corresponds to the imaging element 100 illustrated in FIG. 1 and has a pixel configuration illustrated in FIG. The lens driving device 502 performs zoom control, focus control, aperture control, and the like. The mechanical shutter 503 is controlled by a shutter driving device 504. The image sensor 505 converts the subject image formed by the lens unit 501 into an image signal. The imaging signal processing circuit 506 performs various processing (pixel interpolation processing, color conversion processing, etc.) and correction on the image signal output from the imaging element 505. The timing generator 507 outputs a timing signal necessary for the image sensor 505 and the image signal processing circuit 506.
A system control unit 509 is a control unit that performs various calculations and controls the entire imaging apparatus, and performs various processes by interpreting and executing a program by a CPU (central processing unit) (not shown). Note that the system control unit 509 can perform AF (autofocus) control by comparing each data of the left-eye image and the right-eye image and detecting a phase difference.
The memory unit 508 includes a memory that temporarily stores image data. A recording medium control interface unit (hereinafter abbreviated as I / F unit) 510 that performs recording control is provided for recording or reading image data, parallax map data described later, and the like on the recording medium 511. The recording medium 511 that can be attached to and detached from the imaging apparatus is a semiconductor memory or the like. The external I / F unit 512 transmits and receives data to and from an external device such as a computer device, and the user can perform image processing. Further, the user can operate the digital camera using an operation unit (not shown) connected to the external I / F unit 512.

画像合成回路513は撮像素子505から出力された画像データについて画素毎に加算平均処理を行い、また必要なPD信号のみを取得する処理を行う。図2を例にすると、各PDから出力される画素信号301L、301R、302L、302R、303L、303R、304L、304Rに対し、左側PDの出力のみを取り出したものを、(301L,302L,303L,304L)とする。また、右側PDの出力のみを取り出したもの(301R,302R,303R,304R)とする。左側PDおよび右側PDの各出力を加算平均した、((301L+301R)/2,(302L+302R)/2,(303L+303R)/2,(304L+304R)/2)から、合成画像データが作成される。尚、加算合成処理にて加算処理のみ行い、後処理で除算処理やダイナミックレンジの調整を行う形態でも構わない。
視差マップ生成回路514は、合成画像における被写体像の位置を基準とした左目用画像/右目用画像の位置ずれ量を視差量として算出する。算出した視差量に関する情報は視差マップとしてメモリ部508に記憶される。圧縮伸長回路515は、メモリ部508に記憶した画像データを所定の画像圧縮方法(例えば、適応離散コサイン変換(ADCT)等)に従って画像圧縮する。また、圧縮伸長回路515は、画像圧縮された画像データをメモリ部508に書き込む機能、及びメモリ部508から読み出した画像データを伸長してメモリ部508に書き込む機能を有する。
表示部516は、表示制御回路517からの表示用データに従って、各種情報や撮影画像を表示する。表示制御回路517は2次元表示用の画像データを表示するための表示制御や、立体視表示で画像データを表示するための表示制御を行う。
The image composition circuit 513 performs an addition averaging process on the image data output from the image sensor 505 for each pixel and performs a process of acquiring only a necessary PD signal. Taking FIG. 2 as an example, for the pixel signals 301L, 301R, 302L, 302R, 303L, 303R, 304L, and 304R output from each PD, only the output of the left PD is extracted (301L, 302L, and 303L). 304L). Further, it is assumed that only the output of the right PD is taken out (301R, 302R, 303R, 304R). Composite image data is created from ((301L + 301R) / 2, (302L + 302R) / 2, (303L + 303R) / 2, (304L + 304R) / 2) obtained by averaging the outputs of the left PD and right PD. Note that only addition processing may be performed in addition synthesis processing, and division processing or dynamic range adjustment may be performed in post-processing.
The parallax map generation circuit 514 calculates the amount of positional deviation between the left-eye image / right-eye image based on the position of the subject image in the composite image as the parallax amount. Information on the calculated amount of parallax is stored in the memory unit 508 as a parallax map. The compression / decompression circuit 515 compresses the image data stored in the memory unit 508 according to a predetermined image compression method (for example, adaptive discrete cosine transform (ADCT)). The compression / decompression circuit 515 has a function of writing image data that has been compressed into the memory unit 508, and a function of expanding image data read from the memory unit 508 and writing it into the memory unit 508.
The display unit 516 displays various information and captured images in accordance with display data from the display control circuit 517. A display control circuit 517 performs display control for displaying image data for two-dimensional display and display control for displaying image data in stereoscopic display.

次に、撮影時のデジタルカメラの動作について説明する。
撮像装置のメイン電源が投入されると、制御系回路部の電源がオン状態となり、更に撮像信号処理回路506等の撮像処理系回路の電源がオン状態となる。ユーザが図示しないレリーズボタンを操作すると、システム制御部509が撮像素子505からのデータに基づいて、焦点状態検出に係る演算を行い、撮像装置から被写体までの距離を算出する。その後、レンズ駆動装置502がレンズ部501の可動レンズを駆動し、システム制御部509は、合焦状態であるか否かを判定する。
システム制御部509は、合焦状態でないと判定した場合、再びレンズ部501の駆動制御により、焦点状態の検出処理を実行する。なお、被写体までの距離を求める演算については、撮像素子505によるデータから算出する方法以外に、図示しない測距専用装置を用いて行う方法でも構わない。システム制御部509は、合焦状態と判定した後に撮影動作を開始させる。撮影動作が終了すると、撮像信号処理回路506は撮像素子505が出力した画像信号を処理し、システム制御部509は画像データをメモリ部508に書き込む制御を行う。
撮像素子505が出力する撮像データについては、複数のPDからの画像信号として出力される。図2(B)に示す例では、PD301L、301R、302L、302R、303L、303R、304L、304Rの順に画像信号が出力される。撮像信号処理回路506は、撮像素子505の出力する撮像データを左目用画像データと右目用画像データに振り分けて画像処理を行う。左目用画像データは、図2(B)における左側PD301L、302L、303L、304L等の出力のみを選択して処理した結果得られる画像データである。また、右目用画像データは、図2(B)における右側PD301R、302R、303R、304R等の出力のみを選択して処理した結果得られる画像データである。左目用画像データと右目用画像データとは、別々にメモリ部508に保持される。
画像合成回路513は、メモリ部508に保持した左目用画像と右目用画像の各データを読み出して合成画像データを生成する。生成された合成画像データはメモリ部508に格納される。画像合成回路513によって実行される画像処理は、左目用画像と右目用画像について画素毎の加算平均値を算出する処理である。従って、この画像処理によって生成される合成画像は、被写体の形状を反映した画像となる。つまり、撮像素子505にて、左目用画像と右目用画像とで被写体の形状が異なって撮影された場合でも、画像合成回路513の画像処理によって被写体像の形状が補間されるため、正しい形状の画像データが生成される。例えば、被写体の形状が円形状であって、左目用画像と右目用画像では円形状でない場合でも、合成画像では被写体の形状と同じ円形状となる。
Next, the operation of the digital camera at the time of shooting will be described.
When the main power supply of the image pickup apparatus is turned on, the power supply of the control system circuit unit is turned on, and the power supply of the image pickup processing system circuit such as the image pickup signal processing circuit 506 is turned on. When the user operates a release button (not shown), the system control unit 509 performs a calculation related to focus state detection based on data from the image sensor 505, and calculates a distance from the imaging device to the subject. Thereafter, the lens driving device 502 drives the movable lens of the lens unit 501, and the system control unit 509 determines whether or not it is in focus.
If the system control unit 509 determines that it is not in focus, the system control unit 509 executes focus state detection processing again by driving control of the lens unit 501. The calculation for obtaining the distance to the subject may be a method using a dedicated distance measuring device (not shown) other than the method of calculating from the data by the image sensor 505. The system control unit 509 starts the photographing operation after determining the focused state. When the photographing operation is completed, the imaging signal processing circuit 506 processes the image signal output from the imaging element 505, and the system control unit 509 performs control to write image data in the memory unit 508.
The imaging data output by the imaging element 505 is output as image signals from a plurality of PDs. In the example shown in FIG. 2B, image signals are output in the order of PDs 301L, 301R, 302L, 302R, 303L, 303R, 304L, and 304R. The imaging signal processing circuit 506 performs image processing by sorting imaging data output from the imaging element 505 into left-eye image data and right-eye image data. The left-eye image data is image data obtained as a result of selecting and processing only the outputs of the left PD 301L, 302L, 303L, 304L, etc. in FIG. The right-eye image data is image data obtained as a result of selecting and processing only the outputs of the right PD 301R, 302R, 303R, 304R, etc. in FIG. The left-eye image data and the right-eye image data are held in the memory unit 508 separately.
The image composition circuit 513 reads the left eye image data and the right eye image data held in the memory unit 508 and generates composite image data. The generated composite image data is stored in the memory unit 508. The image processing executed by the image composition circuit 513 is a process of calculating an addition average value for each pixel for the left-eye image and the right-eye image. Therefore, the composite image generated by this image processing is an image reflecting the shape of the subject. That is, even when the imaging element 505 captures the subject image in the left-eye image and the right-eye image differently, the shape of the subject image is interpolated by the image processing of the image composition circuit 513, so that the correct shape is obtained. Image data is generated. For example, even when the shape of the subject is circular and the left-eye image and the right-eye image are not circular, the composite image has the same circular shape as the subject.

次に、視差マップ生成回路514が視差マップを生成して、メモリ部508に視差マップデータを記憶する。視差マップ生成回路514は、合成画像の位置を基準とした左目用画像/右目用画像の位置ずれ量を視差量として、視差マップを生成する。
図5は、視差マップの生成処理例を示す図である。図5(A)中の符号601は、被写体を撮影して得られる構図を示す。符号602、603、604はそれぞれ被写体を示す。図5(A)中に示す構図では、被写体602、603、604は、この順に上から並んでいる。また、被写体は、図5(C)に示すように、奥行き方向に並んで配置されている。符号604がカメラから最も近い被写体を示し、符号602が最も遠い被写体を示す。
図5(B)は、図5(A)に示す構図を撮影して得られるステレオ画像を示す。画像605は左目用画像を示し、画像606は右目用画像を示す。左目用画像605には、被写体602、603、604が、それぞれ、607L、608L、609Lとして示される。右目用画像606には、被写体602、603、604が、それぞれ、607R、608R、609Rとして示される。
左目用画像605における被写体像と右目用画像606における被写体像との間には、位置ずれがある。本実施形態では、両者間の位置ずれの量を視差量と定義する。符号610は、被写体602の左目用画像605における位置を基準とする、右目用画像606における位置のずれ量、つまり607Lと607Rとの間の視差量を示す。同様に、符号611は、被写体604の左目用画像605における位置を基準とする、右目用画像606における位置のずれ量、つまり609Lと609Rとの間の視差量を示す。被写体603については、左目用画像605における位置と右目用画像606における位置とが同じである。すなわち、被写体603については、視差量がゼロである。
Next, the parallax map generation circuit 514 generates a parallax map and stores the parallax map data in the memory unit 508. The parallax map generation circuit 514 generates a parallax map using the amount of positional deviation between the left-eye image / right-eye image based on the position of the composite image as a parallax amount.
FIG. 5 is a diagram illustrating an example of a disparity map generation process. Reference numeral 601 in FIG. 5A indicates a composition obtained by photographing a subject. Reference numerals 602, 603, and 604 denote subjects. In the composition shown in FIG. 5A, the subjects 602, 603, and 604 are arranged in this order from the top. In addition, the subject is arranged side by side in the depth direction as shown in FIG. Reference numeral 604 indicates a subject closest to the camera, and reference numeral 602 indicates a subject farthest from the camera.
FIG. 5B shows a stereo image obtained by photographing the composition shown in FIG. An image 605 shows a left-eye image, and an image 606 shows a right-eye image. In the left-eye image 605, subjects 602, 603, and 604 are shown as 607L, 608L, and 609L, respectively. In the right-eye image 606, subjects 602, 603, and 604 are shown as 607R, 608R, and 609R, respectively.
There is a positional deviation between the subject image in the left-eye image 605 and the subject image in the right-eye image 606. In this embodiment, the amount of positional deviation between the two is defined as the amount of parallax. Reference numeral 610 indicates a positional shift amount in the right-eye image 606 based on the position of the subject 602 in the left-eye image 605, that is, a parallax amount between 607L and 607R. Similarly, reference numeral 611 indicates a positional shift amount in the right-eye image 606 with reference to the position of the subject 604 in the left-eye image 605, that is, a parallax amount between 609L and 609R. For the subject 603, the position in the left-eye image 605 and the position in the right-eye image 606 are the same. That is, for the subject 603, the parallax amount is zero.

視差マップ生成回路514は、まず、公知のパターンマッチング法を用いて、左目用画像605と右目用画像606に含まれる被写体を検知する。視差マップ生成回路514は、検知した被写体毎に以下の処理を実行する。
視差マップ生成回路514は、左目用画像605、右目用画像606における被写体像の重心間の中点から、左目用画像605における被写体像の重心までの位置ずれ量を視差量として算出する。言い換えると、視差マップ生成回路514は、左目用画像605と右目用画像606とに基づいて生成された合成画像における被写体像の重心の位置を基準とした、左目用画像における当該被写体の重心の位置の位置ずれ量を視差量として算出する。算出される視差量は、左目用画像に対応する視差量である。もちろん、視差マップ生成回路514が、合成画像における被写体像の重心の位置を基準とした、右目用画像における当該被写体像の重心の位置の位置ずれ量を、右目用画像に対応する視差量として算出してもよい。
図5(B)に示す例では、被写体602については、視差マップ生成回路514は、視差量610の半分の量である視差量612を算出する。また、被写体604については、視差マップ生成回路514は、視差量611の半分の量である視差量613を算出する。視差マップ生成回路514は、算出した視差量612、613に関する情報と、当該視差量の基準となる画像の位置情報を視差マップとしてメモリ部508に記憶する。この例では、視差量の基準となる画像の位置情報は、合成画像における被写体像の重心を示す。なお、上述したように、図5(B)に示す例では、被写体603については視差量がゼロである。
図6は、視差マップを模式的に例示した図である。視差マップ621は、視差量622と、視差量の基準となる画像の位置(重心)の情報623を含む。
First, the parallax map generation circuit 514 detects subjects included in the left-eye image 605 and the right-eye image 606 using a known pattern matching method. The parallax map generation circuit 514 executes the following processing for each detected subject.
The parallax map generation circuit 514 calculates a positional deviation amount from the midpoint between the centroids of the subject images in the left-eye image 605 and the right-eye image 606 to the centroid of the subject image in the left-eye image 605 as a parallax amount. In other words, the parallax map generation circuit 514 uses the position of the center of gravity of the subject image in the composite image generated based on the left-eye image 605 and the right-eye image 606 as a reference, and the position of the center of gravity of the subject in the left-eye image. Is calculated as the amount of parallax. The calculated amount of parallax is the amount of parallax corresponding to the image for the left eye. Of course, the parallax map generation circuit 514 calculates the positional deviation amount of the position of the center of gravity of the subject image in the right-eye image as the amount of parallax corresponding to the image for the right eye based on the position of the center of gravity of the subject image in the composite image. May be.
In the example illustrated in FIG. 5B, for the subject 602, the parallax map generation circuit 514 calculates a parallax amount 612 that is half of the parallax amount 610. For the subject 604, the parallax map generation circuit 514 calculates a parallax amount 613 that is half the parallax amount 611. The parallax map generation circuit 514 stores information regarding the calculated parallax amounts 612 and 613 and position information of an image serving as a reference for the parallax amount in the memory unit 508 as a parallax map. In this example, the position information of the image serving as a reference for the amount of parallax indicates the center of gravity of the subject image in the composite image. As described above, in the example illustrated in FIG. 5B, the parallax amount is zero for the subject 603.
FIG. 6 is a diagram schematically illustrating a parallax map. The parallax map 621 includes a parallax amount 622 and information 623 on the position (center of gravity) of the image serving as a reference for the parallax amount.

次に、視差マップを用いた画像の再生処理について説明する。
システム制御部509は、メモリ部508から合成画像データと視差マップデータを読み出す。システム制御部509は、視差マップデータが示す視差量の基準となる画像の位置が、合成画像における被写体像の重心であることを確認する。そして、システム制御部509は、合成画像における被写体像を当該視差マップデータが示す視差量の分だけシフトさせることによって、再生対象の左目用画像すなわち視差量に対応する画像の再生用データを生成する。
また、システム制御部509は視差マップデータが示す視差量の符号を反転させる。システム制御部509は、視差マップが示す視差量の符号を反転させて得られる視差量を、合成画像における当該被写体像の重心を基準とする右目用画像における当該被写体の重心の位置の位置ずれ量とする。そして、システム制御部509は、合成画像における被写体像を当該視差マップデータが示す視差量の符号を反転させて得られる視差量の分だけシフトさせる。これによって、再生対象の右目用画像すなわち視差マップデータが示す視差量に対応する画像以外の画像の再生用データが生成される。
なお、合成画像における被写体像のシフトによって、当該被写体像が配置されていた位置の画素は、欠落画素となる。システム制御部509は、例えば、下記の参考文献1に記載されている技術を用いて、この欠落画素に色空間情報を付与する。すなわち、システム制御部509は、欠落画素の近傍の画素の画素値の平均値を色空間情報として算出し、算出した色空間情報を欠落画素に付与する。
参考文献1:特許第3524147号公報
以上のように本実施形態の撮像装置は、左目用画像と右目用画像を合成して、被写体の形状が反映された合成画像を生成し、該合成画像での位置を基準とする視差量に関する情報を視差マップデータとして生成する。メモリ部508には、左目用画像データと右目用画像データ、さらに画像合成回路513によって生成された合成画像データと、視差マップ生成回路514によって生成された視差マップデータが記憶される。
合成画像データと、視差マップデータが示す視差量に基づいて、再生対象の左目用画像データおよび右目用画像データが生成される。従って、撮影光学系の射出瞳の異なる領域を通過した光束の光電変換によって得られる左目用画像、右目用画像での形状が被写体形状と異なる場合であっても、画像の再生時には被写体の形状を反映した正しい画像を再生できる。
Next, an image reproduction process using a parallax map will be described.
The system control unit 509 reads the composite image data and the parallax map data from the memory unit 508. The system control unit 509 confirms that the position of the image serving as the reference of the parallax amount indicated by the parallax map data is the center of gravity of the subject image in the composite image. Then, the system control unit 509 shifts the subject image in the composite image by the amount of parallax indicated by the parallax map data, thereby generating the left-eye image to be reproduced, that is, the reproduction data of the image corresponding to the parallax amount. .
Also, the system control unit 509 inverts the sign of the amount of parallax indicated by the parallax map data. The system control unit 509 uses the parallax amount obtained by inverting the sign of the parallax amount indicated by the parallax map as a positional deviation amount of the position of the center of gravity of the subject in the right-eye image based on the center of gravity of the subject image in the composite image. And Then, the system control unit 509 shifts the subject image in the composite image by the amount of parallax obtained by inverting the sign of the parallax amount indicated by the parallax map data. As a result, the right-eye image to be reproduced, that is, reproduction data for an image other than the image corresponding to the parallax amount indicated by the parallax map data is generated.
Note that the pixel at the position where the subject image is arranged becomes a missing pixel due to the shift of the subject image in the composite image. The system control unit 509 assigns color space information to the missing pixels using, for example, a technique described in Reference Document 1 below. That is, the system control unit 509 calculates the average value of the pixel values of the pixels near the missing pixel as color space information, and gives the calculated color space information to the missing pixel.
Reference Document 1: Japanese Patent No. 3524147 As described above, the imaging apparatus according to the present embodiment combines a left-eye image and a right-eye image to generate a composite image that reflects the shape of a subject, and uses the composite image. The information regarding the amount of parallax with reference to the position of is generated as parallax map data. The memory unit 508 stores left-eye image data and right-eye image data, combined image data generated by the image combining circuit 513, and disparity map data generated by the disparity map generating circuit 514.
Based on the composite image data and the parallax amount indicated by the parallax map data, the left-eye image data and the right-eye image data to be reproduced are generated. Therefore, even when the shape of the image for the left eye and the image for the right eye obtained by photoelectric conversion of the light beam that has passed through different areas of the exit pupil of the photographing optical system is different from the subject shape, the shape of the subject is changed during image reproduction. The reflected correct image can be played back.

図7は一般的なDCF画像ファイルの構造を例示する。DCF(Design rule for Camera File system)とは、デジタルカメラにおいて画像データを共通の仕様で扱うための画像ファイル形式である。DCF画像ファイル700は現在最も多くのデジタルカメラにて出力可能であり、DCFヘッダ部701、サムネイル画像部702、JPEG画像部703を含む。JPEGは、“Joint Photographic Experts Group”の略号である。
DCFヘッダ部701はDCFヘッダ情報を格納する領域であって、予め所定のデータサイズが与えられている。DCFヘッダ情報には、以下のデータが含まれる(括弧内は符号を示す)。
・メタデータA(704):JPEG画像部703に格納される画像データに関連する撮影情報やパラメータ等。
・オフセット値B(705):サムネイル画像部702の先頭位置までのオフセットデータ。
・オフセット値C(706):JPEG画像部703の先頭位置までのオフセットデータ。
オフセット値BとCは、DCFヘッダ部701の基準位置から算出される各画像部までの相対位置情報であり、これらのオフセット値により画像ファイル内における各画像データの開始位置が特定される。
サムネイル画像部702は、JPEG画像部703に格納されているJPEG画像データ等を間引いてリサイズしたサムネイル画像データを格納する領域である。サムネイル画像データは、例えば、表示部516の画面上に複数枚の縮小画像表示(インデックス表示)を行う際等に利用される。
JPEG画像部703は、撮像信号処理回路506での画像処理後に圧縮伸長回路515で圧縮して得たJPEG画像データを格納する領域である。この画像データは、一般の多くのアプリケーションで扱うことが可能なデータである。
FIG. 7 illustrates the structure of a general DCF image file. The DCF (Design Rule for Camera File System) is an image file format for handling image data with a common specification in a digital camera. The DCF image file 700 can be output by the most digital cameras at present, and includes a DCF header portion 701, a thumbnail image portion 702, and a JPEG image portion 703. JPEG is an abbreviation for “Joint Photographic Experts Group”.
The DCF header portion 701 is an area for storing DCF header information, and is given a predetermined data size in advance. The DCF header information includes the following data (indicated by a sign in parentheses).
Metadata A (704): shooting information and parameters related to image data stored in the JPEG image portion 703.
Offset value B (705): Offset data up to the top position of the thumbnail image portion 702.
Offset value C (706): Offset data up to the top position of the JPEG image portion 703.
The offset values B and C are relative position information from the reference position of the DCF header part 701 to each image part, and the start position of each image data in the image file is specified by these offset values.
The thumbnail image portion 702 is an area for storing thumbnail image data resized by thinning out the JPEG image data stored in the JPEG image portion 703. The thumbnail image data is used, for example, when displaying a plurality of reduced images (index display) on the screen of the display unit 516.
The JPEG image portion 703 is an area for storing JPEG image data obtained by compression by the compression / decompression circuit 515 after image processing by the imaging signal processing circuit 506. This image data is data that can be handled by many general applications.

図8は、本実施形態にて左目用画像データおよび右目用画像データを含むDCF画像ファイルを作成した場合の画像ファイルの構造例を示す。画像ファイル800は、DCF画像データ部801と左右目用画像データ部802を含む。
DCF画像データ部801は、DCFヘッダ部803、合成サムネイル画像部804、合成JPEG画像部805から構成される。DCFヘッダ部803はDCFヘッダ情報を格納する領域であって、予め所定のデータサイズが与えられている。DCFヘッダ情報には、以下の付帯情報、および各画像データを格納する領域を特定するためのオフセット情報が含まれる(括弧内は符号を示す)。
・メタデータA(810):合成JPEG画像部805に格納される画像データに関連する撮影情報やパラメータ等。
・オフセット値B(811):合成サムネイル画像部804の先頭位置までのオフセットデータ。
・オフセット値C(812):合成JPEG画像部805の先頭位置までのオフセットデータ。
・オフセット値D(813):左目用サムネイル画像部806の先頭位置までのオフセットデータ。
・オフセット値E(814):右目用サムネイル画像部807の先頭位置までのオフセットデータ。
・オフセット値F(815):左目用JPEG画像部808の先頭位置までのオフセットデータ。
・オフセット値G(816):右目用JPEG画像部809の先頭位置までのオフセットデータ。
オフセット値BからGにより画像ファイル内における各画像データの開始位置が特定される。
合成サムネイル画像部804は、表示部516の画面上にインデックス表示を行う際等に利用するために、合成JPEG画像部805に格納されている合成JPEG画像データ等を間引いてリサイズした合成サムネイル画像を格納する領域である。また、合成JPEG画像部805は、撮像素子505からの画像データを撮像信号処理回路506で処理した後、圧縮伸長回路515で圧縮して得た合成JPEG画像データを格納する領域である。この画像データは一般の多くのアプリケーションで扱うことが可能なデータである。本実施形態にて右目用画像と左目用画像の各データを画像合成回路513で加算合成したJPEG画像データが合成JPEG画像部805に格納される。左目用画像および右目用画像を加算合成することで2D表示用画像として正しい被写体形状を再生可能な画像データが得られる。なお、加算合成には加算平均処理も含むものとする。
左右目用画像データ部802は左目用サムネイル画像部806、右目用サムネイル画像部807、左目用JPEG画像部808、右目用JPEG画像部809で構成されている。左目用サムネイル画像部806と右目用サムネイル画像部807にそれぞれ格納される画像データは表示部516によるインデックス表示にて、サムネイル画像を立体視表示として表示する際等に利用する。また、左目用JPEG画像部808、右目用JPEG画像部809にそれぞれ格納される画像データは表示部516にて立体視表示として表示する際等に利用する。なお、これらの画像部806乃至809を含む左右目用画像データ部802を画像ファイル800の後方に配置することで、左目用JPEG画像部808および右目用JPEG画像部809を使用しない場合の処理にて利便性が向上する。
FIG. 8 shows an example of the structure of an image file when a DCF image file including left-eye image data and right-eye image data is created in the present embodiment. The image file 800 includes a DCF image data part 801 and left and right eye image data part 802.
The DCF image data unit 801 includes a DCF header unit 803, a composite thumbnail image unit 804, and a composite JPEG image unit 805. The DCF header portion 803 is an area for storing DCF header information, and is given a predetermined data size in advance. The DCF header information includes the following supplementary information and offset information for specifying an area for storing each image data (indicated by a sign in parentheses).
Metadata A (810): Shooting information and parameters related to image data stored in the composite JPEG image unit 805.
Offset value B (811): Offset data up to the top position of the combined thumbnail image portion 804.
Offset value C (812): Offset data up to the top position of the composite JPEG image portion 805.
Offset value D (813): Offset data up to the top position of the left-eye thumbnail image portion 806.
Offset value E (814): Offset data up to the start position of the thumbnail image portion 807 for the right eye.
Offset value F (815): Offset data up to the top position of the left-eye JPEG image portion 808.
Offset value G (816): Offset data up to the top position of the right-eye JPEG image portion 809.
The start position of each image data in the image file is specified by the offset values B to G.
The composite thumbnail image unit 804 thins out the composite thumbnail image obtained by thinning out the composite JPEG image data stored in the composite JPEG image unit 805 and the like for use when displaying an index on the screen of the display unit 516. This is the storage area. The composite JPEG image portion 805 is an area for storing composite JPEG image data obtained by processing the image data from the image sensor 505 by the image pickup signal processing circuit 506 and then compressing it by the compression / decompression circuit 515. This image data is data that can be handled by many general applications. In this embodiment, JPEG image data obtained by adding and synthesizing the data of the right-eye image and the left-eye image by the image synthesis circuit 513 is stored in the synthesized JPEG image unit 805. By adding and synthesizing the left-eye image and the right-eye image, image data capable of reproducing a correct subject shape as a 2D display image can be obtained. Note that the addition synthesis includes addition averaging processing.
The left and right eye image data portion 802 includes a left eye thumbnail image portion 806, a right eye thumbnail image portion 807, a left eye JPEG image portion 808, and a right eye JPEG image portion 809. The image data respectively stored in the left-eye thumbnail image portion 806 and the right-eye thumbnail image portion 807 is used when the thumbnail image is displayed as a stereoscopic display by the index display by the display unit 516. The image data stored in the left-eye JPEG image unit 808 and the right-eye JPEG image unit 809 are used when the display unit 516 displays them as a stereoscopic display. Note that the left-eye image data portion 802 including these image portions 806 to 809 is arranged behind the image file 800, so that the processing when the left-eye JPEG image portion 808 and the right-eye JPEG image portion 809 are not used is performed. Convenience.

図9は、本実施形態にて視差マップデータを含むDCF画像ファイルを作成した場合の画像ファイルの構造を例示する。画像ファイル900はDCF画像データ部901と視差マップ部902を含む。
DCF画像データ部901は、DCFヘッダ部903、合成サムネイル画像部904、合成JPEG画像部905から構成される。
DCFヘッダ部903はDCFヘッダ情報を格納する領域であって、予め所定のデータサイズが与えられている。DCFヘッダ情報には、以下のデータが含まれる(括弧内は符号を示す)。
・メタデータA(908):合成JPEG画像部905に格納される画像データに関連する撮影情報やパラメータ等。
・オフセット値B(909):合成サムネイル画像部904の先頭位置までのオフセットデータ。
・オフセット値C(910):合成JPEG画像部905の先頭位置までのオフセットデータ。
・オフセット値D(911):合成サムネイル画像用視差マップ部906の先頭位置までのオフセットデータ。
・オフセット値E(912):合成JPEG画像用視差マップ部907の先頭位置までのオフセットデータ。
オフセット値BからEにより画像ファイル内での各画像データの開始位置が特定される。
視差マップ部902は合成サムネイル画像用視差マップ部906と合成JPEG画像用視差マップ部907で構成される。合成サムネイル画像部904は、表示部516にインデックス表示を行う際等に利用するために、合成JPEG画像部905に格納されているJPEG画像データ等を間引いてリサイズしたサムネイル画像データを格納する領域である。合成JPEG画像部905は、撮像素子505からの画像データを撮像信号処理回路506で処理した後、圧縮伸長回路515で圧縮して得た合成JPEG画像データを格納する領域である。この画像データは一般の多くのアプリケーションで扱うことが可能なデータである。本実施形態において右目用画像と左目用画像の各データを画像合成回路513で加算合成したJPEG画像データが合成JPEG画像部905に格納される。左目用および右目用の画像データを合成することで2D表示用として正しい被写体形状を再生可能な画像が得られる。さらには視差マップを用いることで左目用および右目用の各画像データを復元でき、立体視表示用画像として再生可能となる。合成サムネイル画像用視差マップ部906は合成サムネイル画像のサイズに合わせて生成された視差マップデータを格納する領域である。また合成JPEG画像用視差マップ部907は、合成JPEG画像の視差量を示すマップデータを格納する領域である。なお、合成サムネイル画像用視差マップを合成JPEG画像用視差マップと併せて視差マップ部902として画像ファイル900の後方に配置することで、視差マップを使用しない場合の画像再生や視差マップの削除等の編集時の利便性が向上する。
FIG. 9 illustrates the structure of an image file when a DCF image file including parallax map data is created in the present embodiment. The image file 900 includes a DCF image data part 901 and a parallax map part 902.
The DCF image data part 901 includes a DCF header part 903, a composite thumbnail image part 904, and a composite JPEG image part 905.
The DCF header portion 903 is an area for storing DCF header information, and is given a predetermined data size in advance. The DCF header information includes the following data (indicated by a sign in parentheses).
Metadata A (908): Shooting information and parameters related to image data stored in the composite JPEG image unit 905.
Offset value B (909): Offset data up to the top position of the combined thumbnail image portion 904.
Offset value C (910): Offset data up to the top position of the composite JPEG image portion 905.
Offset value D (911): Offset data up to the top position of the combined thumbnail image parallax map unit 906.
Offset value E (912): Offset data to the top position of the combined JPEG image parallax map unit 907.
The start position of each image data in the image file is specified by the offset values B to E.
The parallax map unit 902 includes a synthetic thumbnail image parallax map unit 906 and a synthetic JPEG image parallax map unit 907. The composite thumbnail image portion 904 is an area for storing thumbnail image data that has been resized by thinning out JPEG image data stored in the composite JPEG image portion 905 and the like for use when displaying an index on the display portion 516. is there. The composite JPEG image portion 905 is an area for storing composite JPEG image data obtained by processing the image data from the image sensor 505 by the image pickup signal processing circuit 506 and then compressing it by the compression / decompression circuit 515. This image data is data that can be handled by many general applications. In this embodiment, JPEG image data obtained by adding and synthesizing the data of the right-eye image and the left-eye image by the image synthesis circuit 513 is stored in the synthesized JPEG image unit 905. By combining the image data for the left eye and the right eye, an image capable of reproducing the correct subject shape for 2D display can be obtained. Furthermore, using the parallax map, the image data for the left eye and the right eye can be restored, and can be reproduced as a stereoscopic display image. The composite thumbnail image parallax map unit 906 is an area for storing parallax map data generated in accordance with the size of the composite thumbnail image. The combined JPEG image parallax map unit 907 is an area for storing map data indicating the amount of parallax of the combined JPEG image. In addition, by disposing the parallax map for composite thumbnail image together with the parallax map for composite JPEG image as the parallax map unit 902 at the back of the image file 900, image reproduction when the parallax map is not used, deletion of the parallax map, etc. Convenience when editing is improved.

次にDCF画像ファイル再生処理について、図10のフローチャートを参照して説明する。本処理はシステム制御部509の制御下で実行される。
S1001は、外部I/F部512の操作部に設けられた図示しない画像再生釦が操作された否かの判定処理である。ユーザが画像再生釦を操作していないと判定された場合、S1001の判定処理を繰り返し、ユーザが画像再生釦を操作したと判定された場合、S1002に進む。S1002では、記録媒体511から記録媒体制御I/F部510を介して画像ファイルのデータをメモリ部508に読み出す処理が実行される。次のS1003では、S1002でメモリ部508に読み込んだ画像ファイルの解析処理が行われる。画像ファイルの解析処理ではDCF画像ファイルの構造を解析することで、各画像データへのアクセスが可能となる。次にS1004では、S1003での解析結果に基づき、画像ファイルが立体視表示に対応した画像ファイルであるか否かについて判定される。立体視表示に対応した画像ファイルの判定処理とは、左目用画像、右目用画像をそれぞれ用意することができる画像ファイルであるか否かの判定である。本実施形態では図8で説明した左目用画像および右目用画像のデータを有する画像ファイルの場合や、図9で説明した視差マップを有する画像ファイルの場合に立体視表示に対応した画像ファイルであると判定される。画像ファイルに関する判定結果がYESの場合、S1005に処理を進め、NOの場合、S1006に処理を進める。
Next, the DCF image file reproduction process will be described with reference to the flowchart of FIG. This process is executed under the control of the system control unit 509.
S1001 is a process for determining whether or not an image reproduction button (not shown) provided in the operation unit of the external I / F unit 512 has been operated. If it is determined that the user has not operated the image playback button, the determination process of S1001 is repeated. If it is determined that the user has operated the image playback button, the process proceeds to S1002. In step S <b> 1002, processing for reading image file data from the recording medium 511 to the memory unit 508 via the recording medium control I / F unit 510 is executed. In the next step S1003, the image file read into the memory unit 508 in step S1002 is analyzed. In the image file analysis process, each image data can be accessed by analyzing the structure of the DCF image file. Next, in S1004, based on the analysis result in S1003, it is determined whether or not the image file is an image file corresponding to stereoscopic display. The image file determination process corresponding to the stereoscopic display is determination of whether or not the image file can prepare the left-eye image and the right-eye image. In the present embodiment, the image file corresponds to the stereoscopic display in the case of the image file having the left-eye image data and the right-eye image data described in FIG. 8 or the image file having the parallax map described in FIG. It is determined. If the determination result regarding the image file is YES, the process proceeds to S1005, and if NO, the process proceeds to S1006.

次にS1005では、立体視画像の再生設定がなされているか否かについて判定が行われる。ユーザ操作により、2D表示での画像再生を行うのか、立体視表示での画像再生を行うかを任意に指定することができる。立体視表示に対応した画像ファイルの場合でも、ユーザは2D表示で画像を再生する選択が可能である。ユーザは操作部を用いて、表示部516の画面上でのメニュー選択操作等によって所望の再生を設定することができ、設定情報はメモリ部508に記憶される。S1005にて立体視画像の再生設定でないと判定された場合、S1006に処理を進め、2D表示画像再生処理、つまり2D表示での画像(以下、2D画像という)の再生が行われる。本処理については図11を用いて後述する。一方、S1005で立体視画像の再生設定であると判定された場合、S1007に処理を進め、立体視画像再生処理、つまり3D表示での画像再生が行われる。本処理については図12を用いて後述する。
以上、説明したように、本実施形態の撮像装置における画像ファイルの再生処理では、立体視画像に対応した画像ファイルを用いることにより、3D表示でも2D表示でも画像再生が可能となる。
In step S1005, a determination is made as to whether or not stereoscopic image playback settings have been made. By user operation, it is possible to arbitrarily specify whether to perform image reproduction in 2D display or image reproduction in stereoscopic display. Even in the case of an image file corresponding to stereoscopic display, the user can select to reproduce an image in 2D display. The user can set a desired reproduction by a menu selection operation on the screen of the display unit 516 using the operation unit, and the setting information is stored in the memory unit 508. If it is determined in step S1005 that the stereoscopic image playback setting is not set, the process advances to step S1006 to perform 2D display image playback processing, that is, playback of an image in 2D display (hereinafter referred to as a 2D image). This process will be described later with reference to FIG. On the other hand, if it is determined in S1005 that the setting is to reproduce a stereoscopic image, the process proceeds to S1007 to perform stereoscopic image reproduction processing, that is, image reproduction in 3D display. This process will be described later with reference to FIG.
As described above, in the image file reproduction processing in the imaging apparatus according to the present embodiment, image reproduction can be performed in 3D display or 2D display by using an image file corresponding to a stereoscopic image.

次に図11を用いて、図10のS1006に示した2D表示画像再生処理について説明する。
S1101では、画像ファイルから2D画像データを取得する処理が行われる。2D画像データの取得処理では、解析した画像ファイルから、2D画像として再生するためのデータとして、合成JPEG画像データが取得される。本実施形態の撮像装置以外で撮影された画像データを有するファイルであって、合成JPEG画像データが存在しない場合、2D画像として他の画像データを取得する処理を行うと再生互換性が向上する。次にS1102の2D画像表示データ作成処理では、S1101で取得した2D画像データから表示用データが作成される。本処理では、圧縮伸長回路515が伸長したデータを、表示制御回路517が処理することにより、表示部516に2D画像を表示するためのデータが作成される。次にS1103では表示制御回路517の制御下において、S1102で作成した表示用データに従い、表示部516が2D表示を行う。この2D画像表示処理では後述する立体視画像表示処理のように左目用画像と右目用画像と区別することなく表示用データが処理される。こうして、画像ファイルに基づいて2D画像の再生が可能となる。
Next, the 2D display image reproduction process shown in S1006 of FIG. 10 will be described with reference to FIG.
In S1101, processing for acquiring 2D image data from an image file is performed. In the 2D image data acquisition process, synthesized JPEG image data is acquired as data to be reproduced as a 2D image from the analyzed image file. If the file has image data captured by a device other than the image capturing apparatus of the present embodiment and there is no composite JPEG image data, reproduction compatibility is improved by performing processing for acquiring other image data as a 2D image. Next, in the 2D image display data creation process in S1102, display data is created from the 2D image data acquired in S1101. In this processing, the display control circuit 517 processes the data expanded by the compression / decompression circuit 515, thereby generating data for displaying a 2D image on the display unit 516. In step S1103, the display unit 516 performs 2D display according to the display data generated in step S1102 under the control of the display control circuit 517. In this 2D image display process, display data is processed without distinguishing between a left-eye image and a right-eye image as in a stereoscopic image display process described later. In this way, 2D images can be reproduced based on the image file.

次に図12を用いて、図10のS1007に示した立体視画像再生処理について説明する。
S1201は、画像ファイル内に視差マップがあるか否かの判定処理である。視差マップの有無については、S1003での解析結果から判定できる。画像ファイル内に視差マップがないと判定された場合、S1202に処理を進め、左右画像3D再生処理が実行される。左右画像3D再生処理については図13を用いて後述する。一方、画像ファイル内に視差マップがあると判定された場合、S1203に処理を進め、視差マップ3D再生処理が実行される。視差マップ3D再生処理については図14を用いて後述する。本実施形態では3D再生処理として、左右画像を用いた3D再生と、視差マップを用いた3D再生が可能である。
次に図13を用いて、図12のS1202に示した左右画像3D再生処理について説明する。
S1301の左目用画像データ取得処理では、メモリ部508に展開した画像ファイルのデータから、左目用JPEG画像データを取得する処理が行われる。次にS1302の表示データ作成処理では、S1301で取得した左目用JPEG画像データから左目用画像の表示用データが作成される。左目用画像の表示データ作成処理では、圧縮伸長回路515が伸長したデータに基づいて表示制御回路517が表示部516に画像を表示するためのデータを作成する。次にS1303の右目用画像データ取得処理では、メモリ部508に展開した画像ファイルのデータから右目用JPEG画像データを取得する処理が行われる。次にS1304の表示データ作成処理では、S1303で取得した右目用JPEG画像データから右目用画像の表示用データが作成される。右目用画像の表示データ作成処理では、圧縮伸長回路515が伸長したデータに基づいて表示制御回路517が表示部516に画像を表示するためのデータを作成する。次のS1305ではS1302で作成した左目用画像の表示用データと、S1304で作成した右目用画像の表示用データに従って、表示部516は3D画像表示処理を行う。本処理ではユーザの左目と右目にそれぞれ異なる映像の光が入射するように、既知の技術によって画像表示が行われるが、その詳細についての説明は省略する。こうして、左目用画像データおよび右目用画像データを有する画像ファイルに基づいて3D画像再生が可能となる。
Next, the stereoscopic image reproduction process shown in S1007 of FIG. 10 will be described using FIG.
S1201 is a process for determining whether or not there is a parallax map in the image file. The presence or absence of a parallax map can be determined from the analysis result in S1003. If it is determined that there is no parallax map in the image file, the process proceeds to S1202, and the left and right image 3D reproduction process is executed. The left and right image 3D reproduction processing will be described later with reference to FIG. On the other hand, if it is determined that there is a parallax map in the image file, the process proceeds to S1203, and the parallax map 3D reproduction process is executed. The parallax map 3D reproduction process will be described later with reference to FIG. In this embodiment, 3D playback using left and right images and 3D playback using a parallax map are possible as 3D playback processing.
Next, the left and right image 3D reproduction processing shown in S1202 of FIG. 12 will be described with reference to FIG.
In the left-eye image data acquisition process of S1301, a process for acquiring left-eye JPEG image data from the image file data developed in the memory unit 508 is performed. Next, in the display data creation process of S1302, display data for the left eye image is created from the JPEG image data for the left eye acquired in S1301. In the left eye image display data creation processing, the display control circuit 517 creates data for displaying an image on the display unit 516 based on the data decompressed by the compression / decompression circuit 515. Next, in the right eye image data acquisition process of S1303, a process of acquiring right eye JPEG image data from the image file data developed in the memory unit 508 is performed. Next, in the display data creation processing of S1304, display data for the right eye image is created from the JPEG image data for the right eye acquired in S1303. In the right eye image display data creation processing, the display control circuit 517 creates data for displaying an image on the display unit 516 based on the data decompressed by the compression / decompression circuit 515. In the next S1305, the display unit 516 performs 3D image display processing according to the display data for the left-eye image created in S1302 and the display data for the right-eye image created in S1304. In this process, image display is performed by a known technique so that light of different images is incident on the left eye and the right eye of the user, but a detailed description thereof is omitted. In this way, 3D image reproduction can be performed based on the image file having the left-eye image data and the right-eye image data.

次に図14を用いて、図12のS1203に示した視差マップ3D再生処理について説明する。
S1401の視差マップ取得処理では、メモリ部508に展開した画像ファイルのデータから合成JPEG画像用視差マップのデータが取得される。次にS1402の基準画像データ取得処理では、メモリ部508に展開した画像ファイルのデータから基準画像データが取得される。ここでいう基準画像とは、S1401で取得した視差マップに対応する画像データのことであり、本実施形態では合成JPEG画像データとする。次にS1403の左目用画像データ作成処理では、S1401で取得した視差マップとS1402で取得した基準画像のデータから、左目用画像データが作成される。視差マップは合成画像の被写体像の重心から左目用画像にて該当する重心までの視差量のデータを含む。このデータを用いて、被写体像を視差量に対応する左目用画像の重心に移動させることで左目用画像データが生成される。次にS1404の右目用画像データ作成処理では、S1401で取得した視差マップとS1402で取得した基準画像データから、右目用画像データが作成される。本処理は左目用画像データ作成処理と同様に行われるが、この場合、視差マップデータの示す視差量の符号を反転させることにより、合成画像の被写体像の重心から右目用画像にて該当する重心までの視差量が得られる。被写体像を視差量に対応する右目用画像の重心に移動させることで右目用画像データを生成することができる。次のS1405では、S1403で作成した左目用画像データとS1404で作成した右目用画像データを用いて、図13で説明した左右画像3D再生処理が実行される。その際、前記した欠落画素に色空間情報が付与される。こうして、視差マップデータを有する画像ファイルから左目用画像および右目用画像のデータが生成され、これらの画像データに基づいて3D再生が可能となる。
Next, the parallax map 3D reproduction process shown in S1203 of FIG. 12 will be described with reference to FIG.
In the disparity map acquisition process of S1401, the data of the composite JPEG image disparity map is acquired from the image file data developed in the memory unit 508. Next, in the reference image data acquisition process of S1402, the reference image data is acquired from the data of the image file developed in the memory unit 508. The reference image referred to here is image data corresponding to the parallax map acquired in S1401, and in this embodiment, is assumed to be combined JPEG image data. Next, in the left-eye image data creation process in S1403, left-eye image data is created from the parallax map acquired in S1401 and the reference image data acquired in S1402. The parallax map includes data on the amount of parallax from the center of gravity of the subject image of the composite image to the corresponding center of gravity in the left-eye image. By using this data, the image of the left eye is generated by moving the subject image to the center of gravity of the image for the left eye corresponding to the amount of parallax. Next, in the right-eye image data creation process in S1404, right-eye image data is created from the parallax map acquired in S1401 and the reference image data acquired in S1402. This process is performed in the same way as the left-eye image data creation process. In this case, by inverting the sign of the parallax amount indicated by the parallax map data, the centroid corresponding to the right-eye image from the centroid of the subject image of the composite image Can be obtained. The right-eye image data can be generated by moving the subject image to the center of gravity of the right-eye image corresponding to the parallax amount. In the next S1405, the left-right image 3D reproduction process described with reference to FIG. 13 is executed using the left-eye image data created in S1403 and the right-eye image data created in S1404. At that time, color space information is given to the above-described missing pixel. In this way, left-eye image data and right-eye image data are generated from the image file having the parallax map data, and 3D playback is possible based on these image data.

以上、説明したように、本実施形態によれば、DCF画像ファイルから2D画像再生および3D画像再生を行うことができる。すなわち、撮像素子505から得られた複数の画像データから前記合成画像データを生成し、該合成画像データを用いた2D表示でも、該合成画像データおよび視差マップデータを用いた3D表示でも、正しい被写体形状の画像再生を実現できる。よって、ユーザは違和感なく再生画像を鑑賞することができる。
尚、本実施形態で説明した一連の処理をサムネイル画像に適用することにより、表示部516にインデックス表示を行う際、複数枚の縮小画像を2D表示または3D表示にて再生可能な撮像装置を提供できる。この場合、画像合成回路513は、前記合成画像データから縮小画像表示用の画像データを生成する。また視差マップ生成回路514は、前記左目用画像および右目用画像のデータを用いて縮小画像表示用の視差マップデータを生成する。システム制御部509は、画像ファイルが縮小画像表示用の合成画像データおよび視差マップデータを含む場合、これらのデータから左目用縮小画像および右目用縮小画像の各データを生成して立体視表示での画像再生制御を行う。また、画像ファイルが左目用縮小画像および右目用縮小画像の各データを含む場合には、該データを用いて立体視表示での縮小画像再生を行うことができる。
As described above, according to the present embodiment, 2D image playback and 3D image playback can be performed from a DCF image file. That is, the composite image data is generated from a plurality of image data obtained from the image sensor 505, and the correct subject can be obtained by 2D display using the composite image data or 3D display using the composite image data and the parallax map data. Shape image reproduction can be realized. Therefore, the user can appreciate the reproduced image without feeling uncomfortable.
By applying the series of processes described in this embodiment to thumbnail images, an imaging apparatus capable of reproducing a plurality of reduced images in 2D display or 3D display when performing index display on the display unit 516 is provided. it can. In this case, the image composition circuit 513 generates image data for displaying a reduced image from the composite image data. The parallax map generation circuit 514 generates parallax map data for reduced image display using the data for the left-eye image and the right-eye image. When the image file includes composite image data for displaying a reduced image and parallax map data, the system control unit 509 generates each data of the reduced image for the left eye and the reduced image for the right eye from these data, and performs stereoscopic display. Perform image playback control. Further, when the image file includes each data of the reduced image for the left eye and the reduced image for the right eye, the reduced image can be reproduced in the stereoscopic display using the data.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

501 レンズ部
505 撮像素子
509 システム制御部
510 記録媒体制御I/F部
511 記録媒体
513 画像合成回路
514 視差マップ生成回路
501 Lens unit 505 Imaging device 509 System control unit 510 Recording medium control I / F unit 511 Recording medium 513 Image composition circuit 514 Parallax map generation circuit

上記課題を解決するために本発明の一実施形態に係る装置は、視点の異なる複数の画素信号が取得可能な撮像手段から得られた、視点の異なる複数の画像信号と、前記視点の異なる複数の画素信号が合成されて得られる合成画像信号とを取得する取得手段と、前記視点の異なる複数の画像信号に基づいて、画像信号間の像の位置ずれ量の分布に対応するマップデータを生成するマップ生成手段と、前記合成画像信号と前記マップデータとを関連づけて出力する出力手段と、を有する。 In order to solve the above problems, an apparatus according to an embodiment of the present invention includes a plurality of image signals having different viewpoints obtained from an imaging unit capable of acquiring a plurality of pixel signals having different viewpoints, and a plurality of images having different viewpoints. obtaining means for pixel signals to obtain a synthesized image signal obtained by combining, on the basis of a plurality of different image signals of said viewpoint, it generates the corresponding map data on the distribution of the positional deviation amount of the image between the image signal Map generating means for outputting, and output means for outputting the composite image signal and the map data in association with each other.

Claims (10)

視点の異なる複数の画像信号を取得する取得手段と、
前記取得手段により取得される異なる視点の画像信号を合成して合成画像信号を生成する画像生成手段と、
前記異なる視点の画像信号に基づいて、画像信号間の像の位置ずれ量の分布に対応するマップデータを生成するマップ生成手段と、
前記合成画像信号と前記マップデータとを関連づけて出力する出力手段と、を有することを特徴とする画像処理装置。
Acquisition means for acquiring a plurality of image signals from different viewpoints;
Image generation means for generating a composite image signal by combining image signals of different viewpoints acquired by the acquisition means;
Map generating means for generating map data corresponding to the distribution of image positional deviation amounts between the image signals based on the image signals of the different viewpoints;
An image processing apparatus comprising: output means for outputting the combined image signal and the map data in association with each other.
前記出力手段は、前記合成画像信号および前記マップデータを含む画像ファイルを生成することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the output unit generates an image file including the composite image signal and the map data. 前記出力手段により生成された画像ファイルを記録媒体に記録する記録手段を有することを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, further comprising a recording unit that records the image file generated by the output unit on a recording medium. 前記合成画像信号はJPEG画像として前記画像ファイルに含まれていることを特徴とする請求項2または3に記載の画像処理装置。   4. The image processing apparatus according to claim 2, wherein the composite image signal is included in the image file as a JPEG image. 前記画像ファイルはDCF形式であることを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the image file is in a DCF format. 前記出力手段は、前記合成画像信号をリサイズして生成される縮小画像信号を前記画像ファイルに含ませることを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。   6. The image processing apparatus according to claim 2, wherein the output unit includes a reduced image signal generated by resizing the combined image signal in the image file. 前記出力手段は、前記合成画像信号をリサイズして生成される縮小画像信号と、前記縮小画像信号に対応して前記マップデータがリサイズされた縮小マップデータを併せて前記画像ファイルに含ませることを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。   The output means includes a reduced image signal generated by resizing the combined image signal and a reduced map data in which the map data is resized corresponding to the reduced image signal, in the image file. The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus. 撮像手段と、
請求項1乃至7のいずれか1項に記載の画像処理装置と、
を有することを特徴とする撮像装置。
Imaging means;
An image processing apparatus according to any one of claims 1 to 7,
An imaging device comprising:
視点の異なる複数の画像信号を取得する取得ステップと、
前記取得ステップで取得される異なる視点の画像信号を合成して合成画像信号を生成する画像生成ステップと、
前記異なる視点の画像信号に基づいて、画像信号間の像の位置ずれ量の分布に対応するマップデータを生成するマップ生成ステップと、
前記合成画像信号と前記マップデータとを関連づけて出力する出力ステップと、を有することを特徴とする画像処理装置の制御方法。
An acquisition step of acquiring a plurality of image signals having different viewpoints;
An image generation step of combining the image signals of different viewpoints acquired in the acquisition step to generate a composite image signal;
A map generation step of generating map data corresponding to the distribution of image positional deviation amounts between the image signals based on the image signals of the different viewpoints;
And a step of outputting the combined image signal and the map data in association with each other.
前記出力ステップでは、前記合成画像信号および前記マップデータを含む画像ファイルを生成することを特徴とする請求項9に記載の画像処理装置の制御方法。
The method according to claim 9, wherein in the output step, an image file including the composite image signal and the map data is generated.
JP2017136874A 2017-07-13 2017-07-13 Image processing apparatus, control method therefor, and imaging apparatus Active JP6366793B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017136874A JP6366793B2 (en) 2017-07-13 2017-07-13 Image processing apparatus, control method therefor, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017136874A JP6366793B2 (en) 2017-07-13 2017-07-13 Image processing apparatus, control method therefor, and imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015255039A Division JP6177305B2 (en) 2015-12-25 2015-12-25 Imaging apparatus and control method thereof, and image processing apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2017229075A true JP2017229075A (en) 2017-12-28
JP6366793B2 JP6366793B2 (en) 2018-08-01

Family

ID=60892054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017136874A Active JP6366793B2 (en) 2017-07-13 2017-07-13 Image processing apparatus, control method therefor, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP6366793B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006105771A (en) * 2004-10-05 2006-04-20 Canon Inc Imaging device and topographical map preparing apparatus
JP2008299184A (en) * 2007-06-01 2008-12-11 Nikon Corp Imaging apparatus and focus detecting device
JP2008310696A (en) * 2007-06-15 2008-12-25 Fujifilm Corp Imaging device, stereoscopic image reproducing device, and stereoscopic image reproducing program
JP2010200024A (en) * 2009-02-25 2010-09-09 Fujifilm Corp Three-dimensional image display device and three-dimensional image display method
WO2011118089A1 (en) * 2010-03-24 2011-09-29 富士フイルム株式会社 3d imaging device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006105771A (en) * 2004-10-05 2006-04-20 Canon Inc Imaging device and topographical map preparing apparatus
JP2008299184A (en) * 2007-06-01 2008-12-11 Nikon Corp Imaging apparatus and focus detecting device
JP2008310696A (en) * 2007-06-15 2008-12-25 Fujifilm Corp Imaging device, stereoscopic image reproducing device, and stereoscopic image reproducing program
JP2010200024A (en) * 2009-02-25 2010-09-09 Fujifilm Corp Three-dimensional image display device and three-dimensional image display method
WO2011118089A1 (en) * 2010-03-24 2011-09-29 富士フイルム株式会社 3d imaging device

Also Published As

Publication number Publication date
JP6366793B2 (en) 2018-08-01

Similar Documents

Publication Publication Date Title
US10587860B2 (en) Imaging apparatus and method for controlling same
JP5096048B2 (en) Imaging apparatus, stereoscopic image reproduction apparatus, and stereoscopic image reproduction program
JP4763827B2 (en) Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
JP2013061440A (en) Imaging device and control method of imaging device
JP6053276B2 (en) Imaging apparatus, control method therefor, and image processing apparatus
JP5864992B2 (en) Imaging apparatus and control method thereof, and image processing apparatus and control method thereof
JP5924943B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6004741B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP6366793B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP2014022888A (en) Image pickup device and image pickup device manufacturing method
JP5911276B2 (en) Imaging apparatus, control method therefor, and image processing apparatus
JP6177305B2 (en) Imaging apparatus and control method thereof, and image processing apparatus and control method thereof
JP6626257B2 (en) Image display device, imaging device, image display method, program, storage medium
JP6433474B2 (en) Imaging apparatus and control method thereof
JP2016154360A (en) Imaging apparatus and control method therefor
JP6172949B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGE PROCESSING DEVICE, AND IMAGE PROCESSING DEVICE CONTROL METHOD
JP2014204299A (en) Imaging apparatus and method for controlling the same
JP2014090252A (en) Image processing device and control method for the same, image pickup device and control method for the same and image processing program
JP6161307B2 (en) Imaging apparatus and control method thereof
JP6230266B2 (en) Imaging apparatus, image processing apparatus, and control method
JP2017126916A (en) Imaging apparatus
JP5307189B2 (en) Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
JP2017203815A (en) Image processing apparatus, imaging device, control method, and program
JP2013157726A (en) Imaging apparatus and method for controlling imaging apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180703

R151 Written notification of patent or utility model registration

Ref document number: 6366793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151