JP2014090252A - Image processing device and control method for the same, image pickup device and control method for the same and image processing program - Google Patents

Image processing device and control method for the same, image pickup device and control method for the same and image processing program Download PDF

Info

Publication number
JP2014090252A
JP2014090252A JP2012237980A JP2012237980A JP2014090252A JP 2014090252 A JP2014090252 A JP 2014090252A JP 2012237980 A JP2012237980 A JP 2012237980A JP 2012237980 A JP2012237980 A JP 2012237980A JP 2014090252 A JP2014090252 A JP 2014090252A
Authority
JP
Japan
Prior art keywords
image
image data
data
eye
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012237980A
Other languages
Japanese (ja)
Inventor
Tatsuya Nishiguchi
達也 西口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012237980A priority Critical patent/JP2014090252A/en
Publication of JP2014090252A publication Critical patent/JP2014090252A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent images from having a missing part due to change of parallax in stereoscopic vision display, thereby enabling reproduction with no discomfort for appreciation.SOLUTION: An image processing device generates left-eye image data and right-eye image data for stereoscopic vision display by using composite image data of a left-eye image and a right-eye image and parallax map data representing a parallax amount distribution thereof. It is determined whether any enlarged-display possible area exists in the right-and-left direction of an image, and processing of enlarging an image-display area is executed when the area concerned exists (see image example 1304 or 1306). Parallax enlarging processing is executed in conformity with the enlarged image-display area, and parallax map data which has been changed in parallax amount are generated. The parallax map data are dynamically varied in conformity with the image-display area, thereby generating and reproducing left-eye image data and right-eye image data that have no image missing part (see image example 1303).

Description

本発明は、画像情報および視差情報から立体画像データを生成する画像処理技術に関するものである。   The present invention relates to an image processing technique for generating stereoscopic image data from image information and parallax information.

従来、3D(3次元)表示あるいは立体視表示用の画像撮影が可能なステレオカメラが提案されている。デジタルカメラやデジタルビデオカメラ等のデジタル撮像装置の普及に伴い、立体映像を生成するための元画像がデジタル撮像装置で撮影されるようになってきている。
立体映像を鑑賞する仕組みとしては、対象物を左目で見た像に対応する「左目用画像」と、右目で見た像に対応する「右目用画像」を表示するのが一般的である。視差バリア方式、レンチキュラ方式等では鑑賞対象の映像を視差分割する方法や、左右で特性の異なるフィルタを介して、左目と右目に異なる映像を入射させる方法等が知られている。
Conventionally, a stereo camera capable of capturing an image for 3D (three-dimensional) display or stereoscopic display has been proposed. With the widespread use of digital imaging devices such as digital cameras and digital video cameras, an original image for generating a stereoscopic image has been taken with a digital imaging device.
As a mechanism for viewing a stereoscopic video, it is common to display a “left-eye image” corresponding to an image of an object viewed with the left eye and a “right-eye image” corresponding to an image viewed with the right eye. In the parallax barrier method, the lenticular method, and the like, there are known a method of dividing an image to be viewed by parallax, a method of causing different images to enter the left eye and the right eye through filters having different characteristics on the left and right.

一方、立体映像を鑑賞できる画像の撮影方法として、異なる視点での画像を同時に撮影する方法がある。特許文献1では、固体撮像素子において1つの画素部を構成する、マイクロレンズおよび分割された複数のフォトダイオードを有する装置が開示されている。各フォトダイオードが異なる瞳面の光を受光することを利用して、ステレオ画像データを取得できる。つまり、フォトダイオード対の一方の出力から第1の画像信号を得て、他方の出力から第2の画像信号を得た上で、左目用画像と右目用画像の各データが生成される。
特許文献2では、第2の画像を計算するために、第1の画像のそれぞれの画素に適用されるべきシフトに対応する出力値を持つ出力要素により出力視差マップを計算する方法が開示されている。この計算は、入力値を持つそれぞれの入力要素を有する入力視差マップに基づいており、マルチビュー画像をレンダリングするために、第1の画像と出力視差マップを用いて第2の画像を生成することが可能である。
特許文献3に開示の立体画質制御装置は、左右画像の視差量を変化させることで視差拡大を行い、画像の飛び出し量を変化させることが可能である。
On the other hand, there is a method for simultaneously capturing images from different viewpoints as a method for capturing an image that allows viewing of a stereoscopic image. Patent Document 1 discloses an apparatus having a microlens and a plurality of divided photodiodes that form one pixel portion in a solid-state imaging device. Stereo image data can be acquired by utilizing the fact that each photodiode receives light from a different pupil plane. That is, the first image signal is obtained from one output of the photodiode pair and the second image signal is obtained from the other output, and then each data of the left-eye image and the right-eye image is generated.
Patent Document 2 discloses a method for calculating an output parallax map with output elements having output values corresponding to shifts to be applied to respective pixels of the first image in order to calculate the second image. Yes. This calculation is based on an input parallax map with each input element having an input value, and generating a second image using the first image and the output parallax map to render a multi-view image. Is possible.
The three-dimensional image quality control device disclosed in Patent Document 3 can perform parallax enlargement by changing the parallax amount between the left and right images, and can change the pop-out amount of the image.

特開昭58−24105号公報JP-A-58-24105 特表2008−518317号公報Special table 2008-518317 特開平8−317429号公報JP-A-8-317429

ところで立体映像を鑑賞する際に、より立体感が得られるように視差拡大を行った場合、画像表示エリアを超えた部分が欠落する可能性がある(この現象については、図12を参照して後述する)。このため、鑑賞者に違和感を与える可能性がある。
本発明の目的は、立体視表示において、視差変更に伴う画像欠落を防止して鑑賞時に違和感のない再生を行うことである。
By the way, when viewing a stereoscopic video, if the parallax is expanded so that a more stereoscopic effect can be obtained, a portion beyond the image display area may be lost (see FIG. 12 for this phenomenon). Will be described later). For this reason, there is a possibility that the viewer may feel uncomfortable.
An object of the present invention is to perform reproduction without discomfort during viewing in stereoscopic display by preventing image loss due to parallax change.

上記課題を解決するために、本発明に係る装置は、立体視表示用の画像データおよびその視差量のデータを取得して、左目用画像データおよび右目用画像データを生成する画像処理装置であって、前記画像データに係る画像表示エリアを拡大する処理を制御する制御手段と、拡大された前記画像表示エリアに合わせて前記視差量を変更する視差量変更手段と、前記画像データ、および前記視差量変更手段によって変更された視差量のデータを用いて前記左目用画像データおよび前記右目用画像データを生成するデータ生成手段を備える。   In order to solve the above problems, an apparatus according to the present invention is an image processing apparatus that acquires image data for stereoscopic display and data on the amount of parallax thereof, and generates image data for left eye and image data for right eye. Control means for controlling processing for enlarging the image display area related to the image data, parallax amount changing means for changing the parallax amount in accordance with the enlarged image display area, the image data, and the parallax Data generating means for generating the left-eye image data and the right-eye image data using the parallax amount data changed by the amount changing means is provided.

本発明によれば、視差変更に伴う画像欠落を防止して鑑賞者が違和感を抱かないようにすることができる。   According to the present invention, it is possible to prevent a viewer from feeling uncomfortable by preventing image loss due to parallax change.

図2ないし図6と併せて本発明の実施形態を説明するために、撮像素子の全体構成を概略的に示す図である。FIG. 7 is a diagram schematically illustrating an entire configuration of an imaging device in order to describe an embodiment of the present invention in conjunction with FIGS. 2 to 6. 撮像素子の画素の構成例を示す図である。It is a figure which shows the structural example of the pixel of an image pick-up element. 撮影レンズの射出瞳から出た光束が撮像素子に入射する様子を表した概念図である。It is the conceptual diagram showing a mode that the light beam which came out of the exit pupil of the imaging lens injects into an image pick-up element. 撮像装置の構成例を示す図である。It is a figure which shows the structural example of an imaging device. 視差マップデータの生成処理例を説明する図である。It is a figure explaining the production | generation process example of parallax map data. 画像ファイルの構造例を模式的に示す図である。It is a figure which shows the structural example of an image file typically. 図8ないし図10、図12、図13と併せて本発明の第1実施形態を説明するために、視差拡大処理を説明する図である。It is a figure explaining a parallax expansion process in order to explain a 1st embodiment of the present invention in conjunction with Drawing 8 thru / or Drawing 10, Drawing 12, and Drawing 13. 画像再生処理を説明するフローチャートである。It is a flowchart explaining an image reproduction process. 立体画像再生処理例を説明するフローチャートである。It is a flowchart explaining the example of a stereo image reproduction | regeneration processing. 画像表示エリアの拡大処理およびデータ生成処理例を説明するフローチャートである。10 is a flowchart illustrating an example of an image display area enlargement process and a data generation process. 図12、図13と併せて本発明の第2実施形態を説明するために、視差マップデータの重み付け処理例を説明するフローチャートである。It is a flowchart explaining the weighting process example of parallax map data in order to demonstrate 2nd Embodiment of this invention combined with FIG. 12, FIG. 3D再生処理で作成される、合成画像と左目用画像と右目用画像を例示する図である。It is a figure which illustrates the synthesized image, the image for left eyes, and the image for right eyes produced by 3D reproduction | regeneration processing. 表示部の画面上での立体画像の表示例を示す図である。It is a figure which shows the example of a display of the stereo image on the screen of a display part.

以下に、図1ないし図6を参照して本発明の実施形態に共通する構成および処理について説明する。実施形態に係る画像処理装置は、画像データ生成手段および画像表示制御手段を備え、以下では撮像装置に適用した場合を例示する。つまり、画像処理装置は撮像装置内に設けられており、撮像手段による撮像データを処理することで画像再生処理が行われる。この他には、撮像装置を外部装置としての画像処理装置に接続して使用するシステム構成が挙げられる。この場合、画像処理装置は撮像装置から有線または無線通信で撮像データを取得して画像再生処理を行う。以下では、立体視表示を3D表示と略記し、2次元表示を2D表示と略記する。
図1は本実施形態の撮像装置で使用する撮像素子の構成例を概略的に示す図である。撮像素子100は、画素アレイ101と、画素アレイ101における行を選択する垂直選択回路102と、画素アレイ101における列を選択する水平選択回路104を含む。読み出し回路103は、画素アレイ101中の画素のうち垂直選択回路102によって選択される画素の信号を読み出す。読み出し回路103は、信号を蓄積するメモリ、ゲインアンプ、AD変換器等を列毎に有する。
The configuration and processing common to the embodiments of the present invention will be described below with reference to FIGS. The image processing apparatus according to the embodiment includes an image data generation unit and an image display control unit, and a case where the image processing apparatus is applied to an imaging apparatus will be exemplified below. That is, the image processing apparatus is provided in the imaging apparatus, and the image reproduction process is performed by processing the imaging data by the imaging means. In addition to this, there is a system configuration in which an imaging apparatus is connected to an image processing apparatus as an external apparatus. In this case, the image processing apparatus acquires image data from the imaging apparatus by wired or wireless communication and performs image reproduction processing. Hereinafter, stereoscopic display is abbreviated as 3D display, and two-dimensional display is abbreviated as 2D display.
FIG. 1 is a diagram schematically illustrating a configuration example of an imaging element used in the imaging apparatus of the present embodiment. The image sensor 100 includes a pixel array 101, a vertical selection circuit 102 that selects a row in the pixel array 101, and a horizontal selection circuit 104 that selects a column in the pixel array 101. The readout circuit 103 reads out the signal of the pixel selected by the vertical selection circuit 102 among the pixels in the pixel array 101. The reading circuit 103 includes a memory for accumulating signals, a gain amplifier, an AD converter, and the like for each column.

シリアルインターフェース(SI)部105は、各回路の動作モード等を外部回路からの指示に従って決定する。垂直選択回路102は、画素アレイ101の複数の行を順次選択し、読み出し回路103に画素信号を取り出す。また水平選択回路104は、読み出し回路103によって読み出された複数の画素信号を列毎に順次選択する。なお、撮像素子100には、図1に示す構成要素以外に、例えば、垂直選択回路102、水平選択回路104、読み出し回路103等にタイミング信号を提供するタイミングジェネレータや、制御回路等が存在するが、これらの詳細な説明は省略する。   The serial interface (SI) unit 105 determines an operation mode of each circuit according to an instruction from an external circuit. The vertical selection circuit 102 sequentially selects a plurality of rows in the pixel array 101 and extracts pixel signals to the readout circuit 103. The horizontal selection circuit 104 sequentially selects a plurality of pixel signals read by the reading circuit 103 for each column. In addition to the components shown in FIG. 1, the imaging device 100 includes a timing generator that provides timing signals to the vertical selection circuit 102, the horizontal selection circuit 104, the readout circuit 103, and the like, a control circuit, and the like. Detailed description thereof will be omitted.

図2は撮像素子100の画素の構成例を示す図である。図2(A)は1画素の構成を概略的に示す。図2(B)は画素アレイ101の配置を示す。図2(A)に示す画素201は、光学素子としてのマイクロレンズ202と、受光素子としての複数のフォトダイオード(以下、PDと略記する)とを有する。   FIG. 2 is a diagram illustrating a configuration example of pixels of the image sensor 100. FIG. 2A schematically shows the configuration of one pixel. FIG. 2B shows the arrangement of the pixel array 101. A pixel 201 illustrated in FIG. 2A includes a microlens 202 as an optical element and a plurality of photodiodes (hereinafter abbreviated as PD) as light receiving elements.

図2(A)には、1画素に左側のPD203と右側のPD204の2個を設けた例を示すが、3個以上(例えば、4個または9個)のPDを用いてもよい。PD203は、受光した光束を光電変換して左目用画像の信号を出力する。PD204は、受光した光束を光電変換して右目用画像の信号を出力する。なお、画素201は、図示の構成要素以外にも、例えば、PD信号を読み出し回路103に取り出す画素増幅アンプや、行選択スイッチ、PD信号のリセットスイッチ等を備える。   FIG. 2A illustrates an example in which two pixels, the left PD 203 and the right PD 204, are provided in one pixel, but three or more (for example, four or nine) PDs may be used. The PD 203 photoelectrically converts the received light beam and outputs a left-eye image signal. The PD 204 photoelectrically converts the received light beam and outputs a right eye image signal. The pixel 201 includes, for example, a pixel amplification amplifier that extracts a PD signal to the readout circuit 103, a row selection switch, a PD signal reset switch, and the like in addition to the illustrated components.

画素アレイ101は、2次元画像を提供するため、図2(B)に示す多数の画素301から304のように、2次元アレイ状に配列して構成される。画素301から304にて、PD301L、302L、303L、304Lは、図2(A)中のPD203に相当する。また、PD301R、302R、303R、304Rは、図2(A)中のPD204に相当する。すなわち、各画素において、左目用画像データを出力する第1の光電変換部(PD203)と、右目用画像データを出力する第2の光電変換部(PD204)とを有する。   In order to provide a two-dimensional image, the pixel array 101 is arranged in a two-dimensional array like a large number of pixels 301 to 304 shown in FIG. In the pixels 301 to 304, PDs 301L, 302L, 303L, and 304L correspond to the PD 203 in FIG. PDs 301R, 302R, 303R, and 304R correspond to the PD 204 in FIG. That is, each pixel has a first photoelectric conversion unit (PD 203) that outputs image data for the left eye and a second photoelectric conversion unit (PD 204) that outputs image data for the right eye.

次に、図2(B)に示す画素構成を有する撮像素子100の受光について説明する。図3は撮影レンズの射出瞳から出た光束が撮像素子100に入射する様子を表した概念図である。
画素アレイ401は、マイクロレンズ402と、カラーフィルタ403と、PD404および405を有する。PD404、PD405は、図2(A)中のPD203、PD204にそれぞれ相当する。
Next, light reception of the imaging element 100 having the pixel configuration illustrated in FIG. FIG. 3 is a conceptual diagram showing a state where a light beam emitted from the exit pupil of the photographing lens is incident on the image sensor 100.
The pixel array 401 includes a microlens 402, a color filter 403, and PDs 404 and 405. PD 404 and PD 405 correspond to PD 203 and PD 204 in FIG.

図3において、各マイクロレンズ402に対して、撮影レンズの射出瞳406から出た光束の中心を光軸409とする。射出瞳406から出た光は、光軸409を中心として撮像素子100に入射する。一部領域407、408は、撮影レンズの射出瞳406の領域である。光線410、411は、一部領域407を通過する光のうち最外周の光線である。光線412、413は、一部領域408を通過する光のうち最外周の光線である。   In FIG. 3, for each microlens 402, the optical axis 409 is the center of the light beam emitted from the exit pupil 406 of the photographing lens. The light emitted from the exit pupil 406 enters the image sensor 100 with the optical axis 409 as the center. Partial areas 407 and 408 are areas of the exit pupil 406 of the photographing lens. Rays 410 and 411 are the outermost rays among the light passing through the partial region 407. Light rays 412 and 413 are the outermost light rays among the light passing through the partial region 408.

射出瞳406から出る光束のうち、光軸409を境界線として、図3の上側の光束はPD405に入射し、下側の光束はPD404に入射する。つまり、PD404とPD405は、撮影光学系の射出瞳の異なる領域からの光束をそれぞれ受光する。   Among the light beams emitted from the exit pupil 406, with the optical axis 409 as a boundary line, the upper light beam in FIG. 3 is incident on the PD 405, and the lower light beam is incident on the PD 404. That is, PD 404 and PD 405 receive light beams from different regions of the exit pupil of the photographing optical system.

図4は撮像装置の構成例を示す。以下、図4を参照してデジタルカメラへの適用例について説明する。撮像光学系を構成するレンズ部501は、被写体からの光を撮像素子505に結像する。撮像素子505は、図1に示す撮像素子100に相当し、図2に示す画素構成を有する。   FIG. 4 shows a configuration example of the imaging apparatus. Hereinafter, an application example to a digital camera will be described with reference to FIG. The lens unit 501 constituting the imaging optical system forms an image of light from the subject on the imaging element 505. The image sensor 505 corresponds to the image sensor 100 shown in FIG. 1 and has the pixel configuration shown in FIG.

レンズ駆動装置502は、ズーム制御、フォーカス制御、絞り制御等を行う。メカニカルシャッタ503は、シャッタ駆動装置504によって制御される。撮像素子505は、レンズ部501により結像した被写体像を画像信号に光電変換する。撮像信号処理回路506は、撮像素子505の出力する画像信号に対して各種の補正や、所定の画素補間処理、色変換処理を行う。タイミング発生部507は、撮像素子505や撮像信号処理回路506に必要なタイミング信号を出力する。   The lens driving device 502 performs zoom control, focus control, aperture control, and the like. The mechanical shutter 503 is controlled by a shutter driving device 504. The image sensor 505 photoelectrically converts the subject image formed by the lens unit 501 into an image signal. The imaging signal processing circuit 506 performs various corrections, predetermined pixel interpolation processing, and color conversion processing on the image signal output from the imaging element 505. The timing generator 507 outputs a timing signal necessary for the image sensor 505 and the image signal processing circuit 506.

システム制御部509は各種演算を行い、撮像装置全体を制御する制御手段であり、不図示のCPU(中央演算処理装置)がプログラムを実行することで処理を行う。システム制御部509は、画像合成回路513によって生成される合成画像データと、視差マップ生成回路514によって生成される視差マップデータに基づいて、3D表示に使用する左目用画像と右目用画像のデータ生成処理を制御する。また、システム制御部509は左目用画像と右目用画像の再生制御を行うことで、ユーザは表示画面上で立体画像を鑑賞できる。なお、システム制御部509は、左目用画像データと右目用画像データに基づいて位相差を検出して、位相差AF(オートフォーカス)を実現することもできる。   A system control unit 509 is a control unit that performs various calculations and controls the entire imaging apparatus, and performs processing by a CPU (central processing unit) (not shown) executing a program. The system control unit 509 generates data for a left-eye image and a right-eye image used for 3D display based on the combined image data generated by the image combining circuit 513 and the disparity map data generated by the disparity map generating circuit 514. Control processing. Also, the system control unit 509 performs playback control of the left-eye image and the right-eye image, so that the user can view a stereoscopic image on the display screen. Note that the system control unit 509 can also realize phase difference AF (autofocus) by detecting a phase difference based on the left-eye image data and the right-eye image data.

記憶部508は、画像データを一時的に記憶するメモリを備える。記録媒体制御インターフェース部(以下、インターフェースをI/Fと略記する)510は、記録媒体511に画像データ等を記録し、または読み出す。撮像装置に着脱可能な記録媒体511は、半導体メモリ等である。外部I/F部512は、ユーザがカメラに対して指示を行うために操作し、操作信号はシステム制御部509に送られる。表示部521は、表示制御回路522からの表示用データに従って各種情報や撮影画像を表示する。表示制御回路522は、2D表示制御や3D表示制御を行う。   The storage unit 508 includes a memory that temporarily stores image data. A recording medium control interface unit (hereinafter, the interface is abbreviated as I / F) 510 records or reads image data or the like on the recording medium 511. The recording medium 511 that can be attached to and detached from the imaging apparatus is a semiconductor memory or the like. The external I / F unit 512 is operated by the user to give an instruction to the camera, and an operation signal is sent to the system control unit 509. The display unit 521 displays various information and captured images in accordance with display data from the display control circuit 522. The display control circuit 522 performs 2D display control and 3D display control.

撮像信号処理回路506は、撮像素子505が出力する撮像データを左目用画像データと右目用画像データに振り分ける処理を行う。記憶部508は、撮像信号処理回路506の出力データ、画像合成回路513によって生成された合成画像データ、視差マップ生成回路514によって生成された視差マップデータを記憶する。   The imaging signal processing circuit 506 performs processing for distributing imaging data output from the imaging element 505 into left-eye image data and right-eye image data. The storage unit 508 stores the output data of the imaging signal processing circuit 506, the synthesized image data generated by the image synthesis circuit 513, and the parallax map data generated by the parallax map generation circuit 514.

画像合成回路513は、左目用画像データと右目用画像データを合成した合成画像データを生成する。画像合成回路513は撮像素子505から出力された画像データを画素毎に加算平均処理し、また必要なPD信号のみを選択的に取得して処理を行う。図2(B)に示す例では、PD30xL、PD30xR(x=1〜4)から出力される画素信号に対し、PD30xLの画素信号が取り出され、左目用画像データが生成される。また、PD30xRの画素信号が取り出され、右目用画像データが生成される。PD30xLの出力信号をS30xLと表記し、PD30xRの出力信号をS30xRと表記するとき、両信号を加算平均した信号、(S30xL+S30xR)/2から合成画像データが生成される。なお、加算平均処理に代えて、加算信号(S30xL+S30xR)を算出してダイナミックレンジ調整を行った信号から合成画像データを生成してもよい。
視差マップ生成回路514は、対をなす左目用画像データおよび右目用画像データに基づいて画素毎の視差量を算出する。視差量算出処理によって得られた視差量のデータから、視差量分布を示す視差マップが作成される。例えば、視差マップ生成回路514は、合成画像での被写体像の位置を基準として左目用画像または右目用画像での被写体像の位置ずれ量を視差量として算出する。あるいは左目用画像(または右目用画像)を基準として右目用画像(または左目用画像)の位置ずれ量を視差量として算出してもよい。
圧縮伸長回路520は、画像データを所定の画像圧縮方法(例えば、適応離散コサイン変換(ADCT)等)に従ってJPEG画像データ等に圧縮する。JPEG(Joint Photographic Experts Group)画像データは、多くのアプリケーションで扱うことが可能なデータである。圧縮された画像データは記憶部508に書き込まれる。また圧縮伸長回路520は、記憶部508から読み出した画像データを伸長し、伸長処理済みの画像データを記憶部508に書き込む処理を行う。
The image synthesis circuit 513 generates synthesized image data obtained by synthesizing the left-eye image data and the right-eye image data. The image composition circuit 513 performs an averaging process on the image data output from the image sensor 505 for each pixel, and selectively obtains only necessary PD signals for processing. In the example shown in FIG. 2B, the pixel signal of PD30xL is extracted from the pixel signals output from PD30xL and PD30xR (x = 1 to 4), and left-eye image data is generated. Further, the pixel signal of the PD 30xR is taken out, and right-eye image data is generated. When the output signal of PD30xL is expressed as S30xL and the output signal of PD30xR is expressed as S30xR, composite image data is generated from a signal obtained by averaging the two signals, (S30xL + S30xR) / 2. Note that, instead of the averaging process, composite image data may be generated from a signal obtained by calculating an addition signal (S30xL + S30xR) and performing dynamic range adjustment.
The parallax map generation circuit 514 calculates a parallax amount for each pixel based on the paired left-eye image data and right-eye image data. A parallax map indicating the parallax amount distribution is created from the parallax amount data obtained by the parallax amount calculation processing. For example, the parallax map generation circuit 514 calculates the positional deviation amount of the subject image in the left-eye image or the right-eye image as the parallax amount with reference to the position of the subject image in the composite image. Alternatively, the positional deviation amount of the right-eye image (or left-eye image) may be calculated as the parallax amount using the left-eye image (or right-eye image) as a reference.
The compression / decompression circuit 520 compresses the image data into JPEG image data or the like according to a predetermined image compression method (for example, adaptive discrete cosine transform (ADCT) or the like). JPEG (Joint Photographic Experts Group) image data is data that can be handled by many applications. The compressed image data is written in the storage unit 508. The compression / decompression circuit 520 performs a process of decompressing the image data read from the storage unit 508 and writing the decompressed image data to the storage unit 508.

次に、本実施形態における撮影時のカメラ動作を説明する。メイン電源が投入されると、制御系回路部の電源がオン状態となる。更に撮像信号処理回路506等の撮像処理系回路の電源がオン状態となり、カメラがスタンバイ状態となる。システム制御部509は、ユーザがレリーズボタンを操作したか否かを判定する。撮影動作の開始操作指示があった場合、システム制御部509は、撮像素子505からの出力データに基づいて焦点状態検出および焦点調節動作に係る演算処理を行う。この演算処理では、カメラから被写体までの距離に応じた合焦位置が算出され、フォーカスレンズの駆動量が算出される。システム制御部509は、演算結果に従ってレンズ駆動装置502を介してレンズ部501の駆動制御を行い、合焦状態であるか否かを判定する。   Next, the camera operation at the time of shooting in the present embodiment will be described. When the main power supply is turned on, the power supply of the control system circuit unit is turned on. Further, the power of the imaging processing system circuit such as the imaging signal processing circuit 506 is turned on, and the camera enters a standby state. The system control unit 509 determines whether the user has operated the release button. When there is a shooting operation start operation instruction, the system control unit 509 performs arithmetic processing related to focus state detection and focus adjustment operations based on output data from the image sensor 505. In this calculation process, the in-focus position corresponding to the distance from the camera to the subject is calculated, and the driving amount of the focus lens is calculated. The system control unit 509 performs drive control of the lens unit 501 via the lens driving device 502 in accordance with the calculation result, and determines whether or not it is in focus.

システム制御部509は、合焦状態でないと判定した場合、再びレンズ部501の駆動制御により、焦点状態の検出処理を実行する。なお、被写体までの距離や合焦位置を求める演算については、撮像素子505からのデータから算出する方法以外に、図示しない測距専用装置を用いて行う方法でも構わない。システム制御部509は、合焦状態と判定した後に撮影動作を開始させる。撮影動作が終了すると、撮像信号処理回路506は撮像素子505が出力した画像信号を処理し、システム制御部509は画像データを記憶部508に書き込む制御を行う。   If the system control unit 509 determines that it is not in focus, the system control unit 509 executes focus state detection processing again by driving control of the lens unit 501. The calculation for obtaining the distance to the subject and the in-focus position may be performed by using a dedicated distance measuring device (not shown) in addition to the method of calculating from the data from the image sensor 505. The system control unit 509 starts the photographing operation after determining the focused state. When the photographing operation is completed, the imaging signal processing circuit 506 processes the image signal output from the imaging element 505, and the system control unit 509 performs control to write the image data in the storage unit 508.

次に、本実施形態における画像処理について説明する。
撮像素子505は、PDからの全ての画像信号を出力する。図2(B)に示す例では、各PD、つまり301L、301R、302L、302R、303L、303R、304L、304Rという具合に、画像信号が順番に出力される。撮像信号処理回路506は、撮像素子505の出力信号から画像データを取得し、左目用画像データと右目用画像データへのデータ分離処理を行う。左目用画像のデータは、図2(B)におけるPD301L、302L、303L、304L等の出力(左PD出力)のみを選択的に処理した画像データである。また、右目用画像データは、図2(B)におけるPD301R、302R、303R、304R等の出力(右PD出力)のみを選択的に処理した画像データである。左目用画像データと右目用画像データは別々に記憶部508に保存される。
Next, image processing in this embodiment will be described.
The image sensor 505 outputs all image signals from the PD. In the example shown in FIG. 2B, image signals are sequentially output in the order of PDs, that is, 301L, 301R, 302L, 302R, 303L, 303R, 304L, and 304R. The imaging signal processing circuit 506 acquires image data from the output signal of the imaging element 505 and performs data separation processing into left-eye image data and right-eye image data. The left-eye image data is image data obtained by selectively processing only the outputs (left PD output) of PDs 301L, 302L, 303L, and 304L in FIG. The right-eye image data is image data obtained by selectively processing only the outputs (right PD output) of PDs 301R, 302R, 303R, 304R, etc. in FIG. The left-eye image data and the right-eye image data are stored in the storage unit 508 separately.

記憶部508に記憶された左目用画像データおよび右目用画像データは、画像合成回路513に送られて合成画像データが生成される。生成された合成画像データは記憶部508に保存される。画像合成回路513が行う画像処理は、例えば左目用画像データと右目用画像データに対して画素毎の加算平均値を求める加算合成処理である。撮像素子505から読み出した画像データにて、左目用画像と右目用画像とで被写体の形状が異なって撮影された場合でも、画像合成処理によって被写体の形状が補間されて、正しい形状の画像データが生成される。なお、撮像信号処理回路506が、画像処理後の左目用画像と右目用画像とを合成する構成でもよい。   The left-eye image data and right-eye image data stored in the storage unit 508 are sent to the image composition circuit 513 to generate composite image data. The generated composite image data is stored in the storage unit 508. The image processing performed by the image composition circuit 513 is, for example, addition composition processing for obtaining an addition average value for each pixel with respect to the image data for the left eye and the image data for the right eye. Even when the image data read from the image sensor 505 is photographed with different shapes of the subject for the left-eye image and the right-eye image, the shape of the subject is interpolated by the image composition processing, and image data with the correct shape is obtained. Generated. Note that the imaging signal processing circuit 506 may synthesize the left-eye image and the right-eye image after image processing.

次に、視差マップ生成回路514は左目用画像データと右目用画像データを用いて、視差マップデータを生成する。生成後の視差マップデータは記憶部508に保存される。視差マップに保存される情報について、図5を参照して説明する。   Next, the parallax map generation circuit 514 generates parallax map data using the left-eye image data and the right-eye image data. The generated parallax map data is stored in the storage unit 508. Information stored in the parallax map will be described with reference to FIG.

図5は撮影画像を模式的に示す図である。図5(A)は、画像枠601内にて、カメラからの距離が異なる3つの被写体602から604を示す。図5(B)の矢印Zは奥行き方向を表し、被写体602はカメラから最も遠い被写体を表す。被写体604はカメラに最も近い被写体を表し、被写体603は、被写体602と604との間の距離に位置する被写体を表す。   FIG. 5 is a diagram schematically showing a captured image. FIG. 5A shows three subjects 602 to 604 having different distances from the camera in the image frame 601. An arrow Z in FIG. 5B represents the depth direction, and a subject 602 represents a subject farthest from the camera. A subject 604 represents a subject closest to the camera, and a subject 603 represents a subject located at a distance between the subjects 602 and 604.

図5(C)は、図5(A)の画像枠601で示す構図を撮影した場合に得られるステレオ画像をそれぞれ示す。画像枠605に示す左目用画像には、各被写体602、603、604に各々相当する像607L、608L、609Lが写っている。また画像枠606に示す右目用画像には、被写体602、603、604に各々相当する像607R、608R、609Rが写っている。図中の1点鎖線は、画像枠605、606における被写体像の位置関係を表しており、左目用画像と右目用画像での被写体のシフト量を視差量と定義する。視差量610は、被写体602に関する、左目用画像と右目用画像での位置ずれ量、つまり像607Lと607Rの視差を表す。同様に視差量611は被写体604に関し、像609Lと609Rの位置ずれ量を表す。なお、被写体603については、左目用画像と右目用画像との間で、視差量がゼロの状態を示している。   FIG. 5C shows a stereo image obtained when the composition shown by the image frame 601 in FIG. The left-eye image shown in the image frame 605 includes images 607L, 608L, and 609L corresponding to the subjects 602, 603, and 604, respectively. The right eye image shown in the image frame 606 includes images 607R, 608R, and 609R corresponding to the subjects 602, 603, and 604, respectively. A one-dot chain line in the figure represents the positional relationship between the subject images in the image frames 605 and 606, and the shift amount of the subject in the left-eye image and the right-eye image is defined as the parallax amount. The parallax amount 610 represents the positional deviation amount between the left-eye image and the right-eye image regarding the subject 602, that is, the parallax between the images 607L and 607R. Similarly, the parallax amount 611 represents the positional deviation amount of the images 609L and 609R with respect to the subject 604. The subject 603 shows a state in which the amount of parallax is zero between the left-eye image and the right-eye image.

視差マップ生成回路514は視差量を求める際、画像枠605内の左目用画像と画像枠606内の右目用画像にそれぞれ含まれる被写体像の位置を検出し、被写体像同士のシフト量を求めることで視差量を算出する。具体的には、視差マップ生成回路514に左目用画像データと右目用画像データが入力された場合、視差量610と611が算出される。合成画像を基準とする場合の視差量は、視差量610と611の2分の1となる。
なお、視差マップデータについては、画像データとともに1つの画像ファイルに含めて取り扱う形態と、両者を別個のファイルとして関連付けて取り扱う形態がある。本実施形態では、画像ファイルが視差マップデータを含む形態を例にして説明する。
When obtaining the parallax amount, the parallax map generation circuit 514 detects the positions of the subject images included in the left-eye image in the image frame 605 and the right-eye image in the image frame 606, and obtains the shift amount between the subject images. To calculate the amount of parallax. Specifically, when left-eye image data and right-eye image data are input to the parallax map generation circuit 514, parallax amounts 610 and 611 are calculated. The amount of parallax when the composite image is used as a reference is one half of the amounts of parallax 610 and 611.
Note that the parallax map data includes a form in which the image data is handled by being included in one image file, and a form in which both are handled as being associated with each other as separate files. In the present embodiment, an example in which an image file includes parallax map data will be described.

図6は、撮影時に生成される、視差マップを含むDCF画像ファイルの構造例を示す。DCF(Design rule for Camera File system)は、デジタルカメラにおいて画像データを共通の仕様で扱うための画像ファイル形式である。画像ファイルは、DCF画像データ部701と視差マップ部702を有する。DCF画像データ部701はDCFヘッダ部703、サムネイル画像部704、JPEG画像部705で構成される。視差マップ部702はサムネイル画像用視差マップ部706とJPEG画像用視差マップ部707で構成される。   FIG. 6 shows an example of the structure of a DCF image file including a parallax map generated at the time of shooting. The DCF (Design Rule for Camera File System) is an image file format for handling image data with a common specification in a digital camera. The image file has a DCF image data part 701 and a parallax map part 702. The DCF image data part 701 includes a DCF header part 703, a thumbnail image part 704, and a JPEG image part 705. The parallax map unit 702 includes a thumbnail image parallax map unit 706 and a JPEG image parallax map unit 707.

DCFヘッダ部703はDCFヘッダ情報を格納する領域であって、予め所定のデータサイズが与えられている。DCFヘッダ情報には、以下の付帯情報、および各画像データを格納する領域のオフセット情報が含まれる(括弧内に符号を示す)。
・メタデータA(708):JPEG画像部705に格納される画像データに関連する撮影情報やパラメータ等。
・オフセット値B(709):サムネイル画像部704の先頭位置までのオフセットデータ。
・オフセット値C(710):JPEG画像部705の先頭位置までのオフセットデータ。
・オフセット値D(711):サムネイル画像用視差マップ部706の先頭位置までのオフセットデータ。
・オフセット値E(712):JPEG画像用視差マップ部707の先頭位置までのオフセットデータ。
オフセット値BないしEはDCFヘッダ部703の基準位置から算出される各画像部までの相対位置情報であり、これらの値により画像ファイル内における各画像データの開始位置が特定される。
The DCF header portion 703 is an area for storing DCF header information, and is given a predetermined data size in advance. The DCF header information includes the following supplementary information and offset information of an area for storing each image data (a symbol is shown in parentheses).
Metadata A (708): shooting information and parameters related to image data stored in the JPEG image portion 705.
Offset value B (709): Offset data up to the top position of the thumbnail image portion 704.
Offset value C (710): Offset data up to the top position of the JPEG image portion 705.
Offset value D (711): Offset data to the top position of the thumbnail image parallax map unit 706.
Offset value E (712): Offset data up to the top position of the JPEG image parallax map unit 707.
The offset values B to E are relative position information from the reference position of the DCF header portion 703 to each image portion, and the start position of each image data in the image file is specified by these values.

JPEG画像部705には、右目用画像と左目用画像を合成したJPEG画像のデータが格納される。視差マップ部707には、JPEG画像用の視差マップデータが格納される。また、サムネイル画像部704には、JPEG画像部705に格納されているJPEG画像データを間引いてリサイズしたサムネイル画像データが格納される。視差マップ部706には、サムネイル画像のサイズに合わせて生成された視差マップデータが格納される。   The JPEG image portion 705 stores JPEG image data obtained by combining the right eye image and the left eye image. The disparity map unit 707 stores JPEG image disparity map data. The thumbnail image portion 704 stores thumbnail image data that has been resized by thinning out the JPEG image data stored in the JPEG image portion 705. The parallax map unit 706 stores parallax map data generated in accordance with the size of the thumbnail image.

次に、図7を参照して視差拡大処理について説明する。
図7では各被写体を円形および横長の長方形で表す。図7(A)には奥行き方向における被写体同士の位置関係801を側面図に示し、正面から見た場合の被写体同士の位置関係802を正面図に示す。データ803は、被写体を正面から撮影した場合に得られる、左目用画像および右目用画像の合成画像データと視差マップデータを含む画像ファイルを例示する。数列は視差量を表す。
図7(B)に示す画像804は、JPEG画像部705(図6参照)やサムネイル画像部704から取得される、左目用画像と右目用画像の各データを合成したデータに対応する画像を示す。視差マップ805は、視差マップ部706、707(図6参照)から取得される視差マップのデータを示す。視差マップ805では、背景部分の視差値をゼロとし、長方形の被写体の視差値を1とし、円形の被写体の視差値を2とする。なお、この値は正の整数に限らず、負の整数や実数であってもよい。
Next, the parallax enlargement process will be described with reference to FIG.
In FIG. 7, each subject is represented by a circle and a horizontally long rectangle. FIG. 7A is a side view showing the positional relationship 801 between subjects in the depth direction, and the front view shows the positional relationship 802 between subjects when viewed from the front. The data 803 exemplifies an image file including composite image data and parallax map data of a left-eye image and a right-eye image obtained when a subject is photographed from the front. The numerical sequence represents the amount of parallax.
An image 804 illustrated in FIG. 7B indicates an image corresponding to data obtained by combining the data of the left-eye image and the right-eye image acquired from the JPEG image unit 705 (see FIG. 6) or the thumbnail image unit 704. . A disparity map 805 indicates data of a disparity map acquired from the disparity map units 706 and 707 (see FIG. 6). In the parallax map 805, the parallax value of the background portion is set to zero, the parallax value of the rectangular subject is set to 1, and the parallax value of the circular subject is set to 2. This value is not limited to a positive integer, and may be a negative integer or a real number.

視差拡大前の立体画像については、視差マップ生成回路514が画像804と視差マップ805のデータを使って左目用画像806、右目用画像807の各データを生成する。視差マップ805のデータに対して、視差マップ生成回路514は後述の重み付け処理を行うことにより、視差量変更処理を実行する。視差マップ808が重み付け処理によって視差量を2倍に変更した場合の視差マップを例示する。左目用画像および右目用画像の各データを合成した画像804と、視差マップ808のデータを使い、視差マップ生成回路514は視差拡大処理を実行する。これにより、視差量が変更された後の左目用画像809および右目用画像810がそれぞれ生成される。   For the stereoscopic image before the parallax expansion, the parallax map generation circuit 514 uses the data of the image 804 and the parallax map 805 to generate data for the left-eye image 806 and the right-eye image 807. The parallax map generation circuit 514 performs a parallax amount changing process on the data of the parallax map 805 by performing a weighting process described later. An example of the parallax map when the parallax map 808 changes the parallax amount by two times by weighting processing is illustrated. The parallax map generation circuit 514 executes the parallax enlargement process using the image 804 obtained by combining the data of the left-eye image and the right-eye image and the data of the parallax map 808. Thereby, the image for left eye 809 and the image for right eye 810 after the amount of parallax is changed are generated, respectively.

[第1実施形態]
次に、本発明の第1実施形態に係る画像再生処理について、図8ないし図10、および図12、図13を参照して説明する。図8ないし図10は画像再生処理を説明するフローチャートである。図12は、画像再生処理で生成される、左目用画像、右目用画像、および、両画像の合成画像を例示する。図13は、表示部521の画面上に3D表示を行った場合の表示例を示す。
[First Embodiment]
Next, an image reproduction process according to the first embodiment of the present invention will be described with reference to FIGS. 8 to 10, FIG. 12, and FIG. 8 to 10 are flowcharts for explaining image reproduction processing. FIG. 12 illustrates a left-eye image, a right-eye image, and a composite image of both images generated by the image reproduction process. FIG. 13 shows a display example when 3D display is performed on the screen of the display unit 521.

図8に示す各処理はシステム制御部509のCPUがメモリから画像処理プログラムを読み出して実行することで実現される。S901でシステム制御部509は、外部I/F部512から取得した信号から、画像再生ボタンの操作状態を判定する。画像再生ボタンが操作されていないと判定された場合、S901の処理を繰り返す。また、画像再生ボタンが操作されたと判定された場合、S902に処理を進める。S902では画像ファイルの読み込み処理が実行される。記録媒体511に保存された画像ファイルが読み出され、データが記憶部508に記憶される。次のS903では記憶部508に読み込んだ画像ファイルの解析処理が実行される。解析処理では、図6で説明したDCF画像データの構造が解析され、これにより、各画像データへのアクセスが可能となる。   Each process illustrated in FIG. 8 is realized by the CPU of the system control unit 509 reading and executing an image processing program from the memory. In step S <b> 901, the system control unit 509 determines the operation state of the image playback button from the signal acquired from the external I / F unit 512. If it is determined that the image playback button has not been operated, the process of S901 is repeated. If it is determined that the image playback button has been operated, the process proceeds to S902. In step S902, an image file reading process is executed. The image file saved in the recording medium 511 is read, and the data is stored in the storage unit 508. In the next step S903, analysis processing of the image file read into the storage unit 508 is executed. In the analysis processing, the structure of the DCF image data described with reference to FIG. 6 is analyzed, and thereby, access to each image data becomes possible.

次にS904は、S903での解析結果から画像ファイルが立体画像ファイルであるか否かを判定する処理である。この処理では、左目用画像、右目用画像をそれぞれ用意できるかどうかについて判定される。本実施形態では、図6で説明した視差マップと合成画像データが記録された構造を有するファイルの場合、システム制御部509は当該ファイルが立体画像ファイルであると判定し、S905へ処理を進める。立体画像ファイルでないと判定された場合には、S906に進む。
S905は、立体画像の再生設定になっているか否かの判定処理である。再生設定は、ユーザに2D表示で画像を再生するか、3D表示で画像再生するかを任意に選択してもらうために行われる。設定操作については、ユーザが事前に設定画面上で操作部を用いて設定しても構わない。S905で立体画像の再生設定でないと判定された場合、S906に処理を進め、2D再生処理が実行される。図12に示す画像1301は、円形の被写体像を2D表示した状態を示す。
Next, S904 is processing for determining whether the image file is a stereoscopic image file from the analysis result in S903. In this process, it is determined whether a left-eye image and a right-eye image can be prepared. In the present embodiment, in the case of a file having a structure in which the parallax map and the composite image data described with reference to FIG. 6 are recorded, the system control unit 509 determines that the file is a stereoscopic image file, and advances the process to S905. If it is determined that the file is not a stereoscopic image file, the process proceeds to S906.
In step S905, it is determined whether or not the stereoscopic image playback setting is set. The reproduction setting is performed so that the user can arbitrarily select whether to reproduce an image in 2D display or to reproduce an image in 3D display. The setting operation may be set in advance by the user using the operation unit on the setting screen. If it is determined in S905 that the stereoscopic image playback setting is not set, the process proceeds to S906, and the 2D playback process is executed. An image 1301 shown in FIG. 12 shows a state in which a circular subject image is displayed in 2D.

一方、S905で立体画像の再生設定であることが判定された場合、S907へ処理を進め、3D再生処理が実行される。3D再生処理の詳細については、図9を用いて後述する。次にS908は、画像表示が完了したか否かの判定処理であり、全ての画像の表示が完了していない場合、S902へ戻って次の画像の再生処理を継続する。画像表示が完了すると、一連の処理を終了する。   On the other hand, if it is determined in S905 that the stereoscopic image playback setting is set, the process proceeds to S907, and the 3D playback process is executed. Details of the 3D playback processing will be described later with reference to FIG. Next, S908 is a process for determining whether or not the image display has been completed. If the display of all the images has not been completed, the process returns to S902 and the next image reproduction process is continued. When the image display is completed, a series of processing is terminated.

次に図9を参照して、図8のS907に示す3D再生処理について説明する。この処理はシステム制御部509の制御下で実行される。
まずS1001で、画像データ(図6のJPEG画像部705参照)の取得処理が実行される。本実施形態では、図8のS903で解析した画像ファイルから合成画像データを取得する処理が行われる。次のS1002では、画像の視差マップデータ(図6の視差マップ部707参照)を取得する処理が実行される。S1003では、S1002で取得した視差マップデータに対して重み付け処理が実行される。重み付け処理によって視差を拡大することで、3D表示の際に、ユーザの目にはより立体感が得られる。図12の画像例1302は視差拡大前の、合成画像、左目用画像、右目用画像をそれぞれ示す。画像例1303は視差拡大後、画像に欠落部が生じた状態を示す。図13の画像例1401は、視差拡大前の画像を表示部521の画面上に3D表示した場合の表示例を示し、画像例1402は、視差拡大後の画像表示例を示す。
Next, the 3D playback process shown in S907 of FIG. 8 will be described with reference to FIG. This process is executed under the control of the system control unit 509.
First, in S1001, image data (see JPEG image portion 705 in FIG. 6) acquisition processing is executed. In the present embodiment, a process of acquiring composite image data from the image file analyzed in S903 of FIG. 8 is performed. In the next step S1002, a process for acquiring parallax map data of an image (see the parallax map unit 707 in FIG. 6) is executed. In S1003, a weighting process is performed on the disparity map data acquired in S1002. By expanding the parallax through the weighting process, the user's eyes can have a more stereoscopic effect during 3D display. An image example 1302 in FIG. 12 shows a composite image, a left-eye image, and a right-eye image before parallax expansion. An image example 1303 shows a state in which a missing portion is generated in the image after parallax enlargement. An image example 1401 in FIG. 13 shows a display example when an image before parallax enlargement is displayed in 3D on the screen of the display unit 521, and an image example 1402 shows an image display example after parallax enlargement.

視差拡大前の3D表示で表示されていた画像のうち、視差拡大によって画像表示エリアを超えた部分が欠落すると、鑑賞者に違和感を与える可能性がある。そこで、本実施形態では図12の画像例1304から1306に示すように、画像表示エリアを拡大する処理が実行される。
図9のS1004では、S1001で取得した画像データと、S1003で処理した視差拡大後の視差マップデータに基づいて左目用画像データおよび右目用画像データが生成され、再生処理が行われる。
If a portion that exceeds the image display area due to the parallax enlargement is lost from the image displayed in the 3D display before the parallax enlargement, the viewer may feel uncomfortable. Therefore, in this embodiment, as shown in image examples 1304 to 1306 in FIG. 12, processing for enlarging the image display area is executed.
In S1004 of FIG. 9, left-eye image data and right-eye image data are generated based on the image data acquired in S1001 and the parallax map data after the parallax expansion processed in S1003, and reproduction processing is performed.

次に図10を参照して、図9のS1004の再生処理について説明する。
S1101は、画像表示エリアの左側に拡大表示可能なエリアがあるか否かについての判定処理である。拡大表示可能なエリアがあると判定された場合、S1102に処理を進め、また、そのようなエリアがないと判定された場合にはS1103に進む。
Next, the reproduction processing in S1004 of FIG. 9 will be described with reference to FIG.
S1101 is a determination process regarding whether or not there is an area that can be enlarged and displayed on the left side of the image display area. If it is determined that there is an area that can be enlarged, the process proceeds to S1102, and if it is determined that there is no such area, the process proceeds to S1103.

S1102では、画像表示エリアの左側領域に関してそのパラメータを変更することで拡大処理が行われる。エリア拡大処理についてはシステム制御部509の制御指令により表示制御回路522が行う。図12の画像例1306は、画像表示エリアを左側に拡大した状態を示す。そして、S1103へ処理を進める。S1103は、画像表示エリアの右側に拡大表示可能なエリアがあるか否かの判定処理である。拡大表示可能なエリアがあると判定された場合、S1104に処理を進め、また、そのようなエリアがないと判定された場合にはS1105に進む。S1104では、画像表示エリアの右側領域に関してそのパラメータを変更することで拡大処理が行われる。図12の画像例1305は、画像表示エリアを右側に拡大した状態を示す。左右両側の画像表示エリアの拡大処理が行われた場合、図12の画像例1304に示す状態となる。その後、S1105に処理を進める。   In S1102, the enlargement process is performed by changing the parameter for the left area of the image display area. The area enlargement process is performed by the display control circuit 522 according to a control command from the system control unit 509. An image example 1306 in FIG. 12 shows a state in which the image display area is enlarged to the left. Then, the process proceeds to S1103. S1103 is a process for determining whether there is an area that can be enlarged and displayed on the right side of the image display area. If it is determined that there is an area that can be enlarged, the process proceeds to S1104. If it is determined that there is no such area, the process proceeds to S1105. In S1104, the enlargement process is performed by changing the parameter for the right region of the image display area. An image example 1305 in FIG. 12 shows a state in which the image display area is enlarged to the right side. When the enlargement processing of the image display areas on the left and right sides is performed, a state shown in an image example 1304 in FIG. 12 is obtained. Thereafter, the process proceeds to S1105.

S1105では、図9のS1001で取得した画像データと、S1003で生成した視差マップデータから、左目用画像のデータ生成処理が行われる。データ生成処理は、システム制御部509に制御下で圧縮伸長回路520を用いて行われる。次にS1106に進み、同様に圧縮伸長回路520を用いて、右目用画像のデータ生成処理が行われる。S1107では、S1105で生成した左目用画像データと、S1106で生成した右目用画像データが表示制御回路522から表示部521に送られ、画面上に画像が3D表示される。   In S1105, a data generation process for the image for the left eye is performed from the image data acquired in S1001 in FIG. 9 and the parallax map data generated in S1003. Data generation processing is performed using the compression / decompression circuit 520 under the control of the system control unit 509. In step S 1106, the right eye image data generation process is performed using the compression / decompression circuit 520. In S1107, the left-eye image data generated in S1105 and the right-eye image data generated in S1106 are sent from the display control circuit 522 to the display unit 521, and the image is displayed in 3D on the screen.

第1実施形態では、視差拡大処理を行って3D再生を行う際、画像表示エリアに関して左側または右側に拡大表示可能な領域がある場合、画像表示エリアの拡大処理が行われる。立体視表示用画像を修正した場合に画像の欠落部が生じないように防ぐことで、鑑賞時に違和感のない立体感が得られる。   In the first embodiment, when performing parallax enlargement processing and performing 3D playback, if there is an area that can be enlarged and displayed on the left or right side of the image display area, the image display area is enlarged. By preventing the missing portion of the image from occurring when the stereoscopic display image is corrected, a stereoscopic effect without any sense of incongruity during viewing can be obtained.

[第2実施形態]
次に本発明の第2実施形態を説明する。なお、本実施形態にて第1実施形態と同様の構成については既に使用した符号を用いることで説明を省略し、以下では主に相違点を説明する。
第1実施形態では、画像表示エリアにおいて、左右方向のうち片方にしか画像表示エリアを拡大することができない場合、図13の表示例1403に示すように、画像に欠落部が生じ得る。つまり、画像表示エリアを拡大できない側では画像が欠落して表示されることになる。そこで、第2実施形態では、図9のS1003での重み付け処理の内容を変更することで、画像の欠落部を生じさせることなく、視差拡大を行って3D表示を可能にする処理について説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, the same configurations as those in the first embodiment are omitted by using the reference numerals already used, and the differences will be mainly described below.
In the first embodiment, when the image display area can be enlarged only in one of the left and right directions in the image display area, a missing portion may occur in the image as shown in the display example 1403 in FIG. That is, an image is missing and displayed on the side where the image display area cannot be enlarged. Therefore, in the second embodiment, description will be given of a process that enables 3D display by performing parallax expansion without causing a missing part of an image by changing the content of the weighting process in S1003 of FIG.

図11ないし図13を参照して、本実施形態に係る3D再生処理について説明する。
図11は、視差マップデータの重み付け処理例を説明するフローチャートである。
S1201でシステム制御部509は、画像表示エリアの左側にのみ拡大表示可能なエリアがあるか否かを判定する。左側のみ拡大表示可能なエリアがあると判定された場合は、S1202に処理を進め、そのようなエリアがない場合にはS1203に進む。S1202では、画像の左方向に視差マップデータの重み付け処理が行われる。
A 3D playback process according to the present embodiment will be described with reference to FIGS.
FIG. 11 is a flowchart illustrating an example of weighting processing for parallax map data.
In step S1201, the system control unit 509 determines whether there is an area that can be enlarged and displayed only on the left side of the image display area. If it is determined that there is an area that can be enlarged and displayed only on the left side, the process proceeds to S1202, and if there is no such area, the process proceeds to S1203. In S1202, parallax map data is weighted in the left direction of the image.

S1203でシステム制御部509は、画像表示エリアの右側にのみ拡大表示可能なエリアがあるか否かを判定する。右側のみ拡大表示可能なエリアがあると判定された場合、S1204に処理を進め、そのようなエリアがない場合にはS1205に進む。S1204では、画像の右方向に視差マップデータの重み付け処理が行われる。
S1205では、画像の左右方向において均等に視差マップデータの重み付け処理が行われる。
In step S1203, the system control unit 509 determines whether there is an area that can be enlarged and displayed only on the right side of the image display area. If it is determined that there is an area that can be enlarged and displayed only on the right side, the process proceeds to S1204, and if there is no such area, the process proceeds to S1205. In step S1204, parallax map data is weighted in the right direction of the image.
In step S1205, the parallax map data is weighted equally in the left-right direction of the image.

第2実施形態では、拡大表示可能なエリアの判定結果に応じて、視差マップデータの重み付け処理の内容を変更する。これにより、右側のみ拡大表示可能な場合(図12の画像例1305参照)や、左側のみ拡大表示可能な場合(図12の画像例1306参照)に、立体視表示用画像を修正して画像の欠落を防止できる。図13に示す表示例1404では、画像の左側または右側に欠落部が生じないように視差マップデータが修正されて3D表示が行われるので、鑑賞時に違和感のない立体感が得られる。   In the second embodiment, the content of the parallax map data weighting process is changed according to the determination result of the area that can be enlarged and displayed. As a result, when only the right side can be magnified and displayed (see image example 1305 in FIG. 12) or only the left side can be magnified and displayed (see image example 1306 in FIG. 12), the stereoscopic display image can be modified to correct the image. Missing can be prevented. In the display example 1404 shown in FIG. 13, the parallax map data is corrected and 3D display is performed so that a missing portion does not occur on the left side or the right side of the image.

なお、以上の例では、左側のみ拡大表示可能なエリアがある場合と、右側のみ拡大表示可能なエリアがある場合を説明した。この他、画像の左側および右側ともに拡大表示可能なエリアがある場合に、左側と右側とでは拡大表示可能なエリアのサイズが異なることがある。この場合、視差拡大後の画像が、表示拡大可能な範囲内に収まるように左右の視差マップデータの重み付け処理が行われる。つまり、画像の欠落が起きないように、左側と右側とで拡大表示可能な各エリアのサイズに合わせて視差マップデータが修正される。   In the above example, the case where there is an area that can be enlarged and displayed only on the left side and the case that there is an area that can be enlarged and displayed only on the right side have been described. In addition, when there are areas that can be enlarged and displayed on both the left side and the right side of the image, the size of the area that can be enlarged and displayed may be different between the left side and the right side. In this case, weighting processing of the left and right parallax map data is performed so that the image after parallax enlargement falls within the range in which display enlargement is possible. That is, the parallax map data is corrected in accordance with the size of each area that can be enlarged and displayed on the left side and the right side so that the image is not lost.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

501:レンズ部
505:撮像素子
506:撮像信号処理回路
509:システム制御部
513:画像合成回路
514:視差マップ生成回路
520:圧縮伸長回路
521:表示部
522:表示制御回路
501: Lens unit 505: Imaging device 506: Imaging signal processing circuit 509: System control unit 513: Image synthesis circuit 514: Parallax map generation circuit 520: Compression / decompression circuit 521: Display unit 522: Display control circuit

Claims (7)

立体視表示用の画像データおよびその視差量のデータを取得して、左目用画像データおよび右目用画像データを生成する画像処理装置であって、
前記画像データに係る画像表示エリアを拡大する処理を制御する制御手段と、
拡大された前記画像表示エリアに合わせて前記視差量を変更する視差量変更手段と、
前記画像データ、および前記視差量変更手段によって変更された視差量のデータを用いて前記左目用画像データおよび前記右目用画像データを生成するデータ生成手段を備えることを特徴とする画像処理装置。
An image processing apparatus that acquires image data for stereoscopic display and data on the amount of parallax thereof, and generates image data for left eye and image data for right eye,
Control means for controlling processing for enlarging an image display area related to the image data;
Parallax amount changing means for changing the parallax amount in accordance with the enlarged image display area;
An image processing apparatus comprising: data generation means for generating the left-eye image data and the right-eye image data using the image data and the parallax amount data changed by the parallax amount changing means.
前記制御手段は、前記画像表示エリアを左方または右方に拡大して表示し得る領域がある場合、当該領域を含む範囲まで前記画像表示エリアを拡大する処理を制御し、前記視差量変更手段は、前記画像表示エリアが拡大された方向に合わせて前記視差量を変更することを特徴とする請求項1に記載の画像処理装置。   When there is an area in which the image display area can be displayed by enlarging the image display area to the left or right, the control means controls a process of enlarging the image display area to a range including the area, and the parallax amount changing means The image processing apparatus according to claim 1, wherein the parallax amount is changed in accordance with a direction in which the image display area is enlarged. 前記データ生成手段は、前記左目用画像データおよび前記右目用画像データを合成した合成画像データと、前記視差量変更手段によって前記画像表示エリアに合わせて変更された前記視差量のデータを用いて前記左目用画像データおよび前記右目用画像データを生成することを特徴とする請求項1または2に記載の画像処理装置。   The data generation means uses the combined image data obtained by combining the left-eye image data and the right-eye image data, and the parallax amount data changed according to the image display area by the parallax amount changing means. The image processing apparatus according to claim 1, wherein the left-eye image data and the right-eye image data are generated. 各マイクロレンズに対して撮像光学系の射出瞳の異なる領域を通過した光束を受光して光電変換する複数の光電変換部を撮像素子が有し、該撮像素子による立体視表示用の画像データおよびその視差量のデータから、左目用画像データおよび右目用画像データを生成する撮像装置であって、
前記画像データに係る画像表示エリアを拡大する処理を制御する制御手段と、
拡大された前記画像表示エリアに合わせて前記視差量を変更する視差量変更手段と、
前記画像データ、および前記視差量変更手段によって変更された視差量のデータを用いて前記左目用画像データおよび前記右目用画像データを生成するデータ生成手段を備えることを特徴とする撮像装置。
The imaging element has a plurality of photoelectric conversion units that receive and photoelectrically convert light beams that have passed through different regions of the exit pupil of the imaging optical system for each microlens, and image data for stereoscopic display by the imaging element, and An imaging device that generates left-eye image data and right-eye image data from the parallax amount data,
Control means for controlling processing for enlarging an image display area related to the image data;
Parallax amount changing means for changing the parallax amount in accordance with the enlarged image display area;
An imaging apparatus comprising: data generation means for generating the left-eye image data and the right-eye image data using the image data and the parallax amount data changed by the parallax amount changing means.
立体視表示用の画像データおよびその視差量のデータを取得して、左目用画像データおよび右目用画像データを生成する画像処理装置にて実行される制御方法であって、
前記画像データに係る画像表示エリアを拡大する処理を行う拡大処理ステップと、
拡大された前記画像表示エリアに合わせて前記視差量を変更する視差量変更ステップと、
前記画像データ、および変更された前記視差量のデータを用いて前記左目用画像データおよび前記右目用画像データを生成するデータ生成ステップを有することを特徴とする画像処理装置の制御方法。
A control method executed by an image processing apparatus that acquires image data for stereoscopic display and data on the amount of parallax thereof and generates image data for left eye and image data for right eye,
An enlargement processing step for performing processing for enlarging an image display area related to the image data;
A parallax amount changing step for changing the parallax amount according to the enlarged image display area;
A control method for an image processing apparatus, comprising: a data generation step of generating the left-eye image data and the right-eye image data using the image data and the changed parallax amount data.
各マイクロレンズに対して撮像光学系の射出瞳の異なる領域を通過した光束を受光して光電変換する複数の光電変換部を撮像素子が有し、該撮像素子による立体視表示用の画像データおよびその視差量のデータから、左目用画像データおよび右目用画像データを生成する撮像装置にて実行される制御方法であって、
前記画像データに係る画像表示エリアを拡大する処理を行う拡大処理ステップと、
拡大された前記画像表示エリアに合わせて前記視差量を変更する視差量変更ステップと、
前記画像データ、および変更された前記視差量のデータを用いて前記左目用画像データおよび前記右目用画像データを生成するデータ生成ステップを有することを特徴とする撮像装置の制御方法。
The imaging element has a plurality of photoelectric conversion units that receive and photoelectrically convert light beams that have passed through different regions of the exit pupil of the imaging optical system for each microlens, and image data for stereoscopic display by the imaging element, and A control method executed by an imaging device that generates left-eye image data and right-eye image data from the parallax amount data,
An enlargement processing step for performing processing for enlarging an image display area related to the image data;
A parallax amount changing step for changing the parallax amount according to the enlarged image display area;
A method for controlling an imaging apparatus, comprising: a data generation step of generating the left-eye image data and the right-eye image data using the image data and the changed parallax data.
立体視表示用の画像データおよびその視差量のデータを取得して、左目用画像データおよび右目用画像データを生成する画像処理装置にてコンピュータにより実行される画像処理プログラムであって、
前記画像データに係る画像表示エリアを拡大する処理を行う拡大処理ステップと、
拡大された前記画像表示エリアに合わせて前記視差量を変更する視差量変更ステップと、
前記画像データ、および変更された前記視差量のデータを用いて前記左目用画像データおよび前記右目用画像データを生成するデータ生成ステップを有することを特徴とする画像処理プログラム。
An image processing program that is executed by a computer in an image processing device that acquires image data for stereoscopic display and data on the amount of parallax thereof and generates image data for left eye and image data for right eye,
An enlargement processing step for performing processing for enlarging an image display area related to the image data;
A parallax amount changing step for changing the parallax amount according to the enlarged image display area;
An image processing program comprising a data generation step of generating the left-eye image data and the right-eye image data using the image data and the changed parallax data.
JP2012237980A 2012-10-29 2012-10-29 Image processing device and control method for the same, image pickup device and control method for the same and image processing program Pending JP2014090252A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012237980A JP2014090252A (en) 2012-10-29 2012-10-29 Image processing device and control method for the same, image pickup device and control method for the same and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012237980A JP2014090252A (en) 2012-10-29 2012-10-29 Image processing device and control method for the same, image pickup device and control method for the same and image processing program

Publications (1)

Publication Number Publication Date
JP2014090252A true JP2014090252A (en) 2014-05-15

Family

ID=50791860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012237980A Pending JP2014090252A (en) 2012-10-29 2012-10-29 Image processing device and control method for the same, image pickup device and control method for the same and image processing program

Country Status (1)

Country Link
JP (1) JP2014090252A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016208075A (en) * 2015-04-15 2016-12-08 キヤノン株式会社 Image output device, method for controlling the same, imaging apparatus, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016208075A (en) * 2015-04-15 2016-12-08 キヤノン株式会社 Image output device, method for controlling the same, imaging apparatus, and program
US10356381B2 (en) 2015-04-15 2019-07-16 Canon Kabushiki Kaisha Image output apparatus, control method, image pickup apparatus, and storage medium

Similar Documents

Publication Publication Date Title
US9341935B2 (en) Image capturing device
US10587860B2 (en) Imaging apparatus and method for controlling same
JP2010063067A (en) Image processing device and method, and program
JP5043730B2 (en) Imaging apparatus, control method therefor, image processing apparatus, and image processing method
JP5144456B2 (en) Image processing apparatus and method, image reproducing apparatus and method, and program
JP2013061440A (en) Imaging device and control method of imaging device
JP6053276B2 (en) Imaging apparatus, control method therefor, and image processing apparatus
JP5924943B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6004741B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP2014022888A (en) Image pickup device and image pickup device manufacturing method
JP5864992B2 (en) Imaging apparatus and control method thereof, and image processing apparatus and control method thereof
JP6626257B2 (en) Image display device, imaging device, image display method, program, storage medium
JP2014090252A (en) Image processing device and control method for the same, image pickup device and control method for the same and image processing program
JP5911276B2 (en) Imaging apparatus, control method therefor, and image processing apparatus
JP6366793B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP6172949B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGE PROCESSING DEVICE, AND IMAGE PROCESSING DEVICE CONTROL METHOD
JP6177305B2 (en) Imaging apparatus and control method thereof, and image processing apparatus and control method thereof
JP2014204299A (en) Imaging apparatus and method for controlling the same
JP6433474B2 (en) Imaging apparatus and control method thereof
JP6230266B2 (en) Imaging apparatus, image processing apparatus, and control method
JP2016154360A (en) Imaging apparatus and control method therefor
JP2011015097A (en) Stereoscopic video recording apparatus and stereoscopic video photographing system
JP5243562B2 (en) Image processing apparatus and method, and program
JP2013157726A (en) Imaging apparatus and method for controlling imaging apparatus
JP2017203815A (en) Image processing apparatus, imaging device, control method, and program