JP2013207678A - Image pickup device and control method thereof - Google Patents

Image pickup device and control method thereof Download PDF

Info

Publication number
JP2013207678A
JP2013207678A JP2012076778A JP2012076778A JP2013207678A JP 2013207678 A JP2013207678 A JP 2013207678A JP 2012076778 A JP2012076778 A JP 2012076778A JP 2012076778 A JP2012076778 A JP 2012076778A JP 2013207678 A JP2013207678 A JP 2013207678A
Authority
JP
Japan
Prior art keywords
image data
display control
display
selection
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012076778A
Other languages
Japanese (ja)
Inventor
Tomoya Yamashita
智也 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012076778A priority Critical patent/JP2013207678A/en
Publication of JP2013207678A publication Critical patent/JP2013207678A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image pickup device which can smoothly switch from stereoscopic vision display to two-dimensional image display and a control method thereof.SOLUTION: The image pickup device comprises an image sensor 105 composed to have a plurality of photodiodes for a microlens constituting each pixel unit. A first PD selection-synthesis unit 106 has a right eye selection-synthesis mode and a left eye selection-synthesis mode in which outputs of the plurality of photodiodes are selected and synthesized, and a nonselection-synthesis mode which is set in 2D display control. A CPU 109 determines which operation to perform among 3D display control, 2D display switchover preparatory processing and 2D display control depending on camera manipulation or camera state. In preparatory processing for transition from 3D display to 2D display, the CPU 109 generates 2-dimensional display image data from right-eye or left-eye image data, and when switching over to 2D display, controls the display of the generated image data and also controls a subsequent image data generation process.

Description

本発明は、各マイクロレンズに対して複数の受光素子を配置した構成の撮像素子を有する撮像装置およびその制御方法に関するものである。   The present invention relates to an imaging apparatus having an imaging element having a configuration in which a plurality of light receiving elements are arranged for each microlens and a control method thereof.

従来、3D(3次元)表示あるいは立体視表示用の画像撮影が可能なステレオカメラが提案されている。特許文献1に開示の装置では、2つの光学手段と2つの撮像素子を使用し、左目用画像と右目用画像からなるステレオ画像のデータを取得する。特許文献2では、1つの光学手段を使用し、左目用画像と右目用画像のデータを取得する方法が開示されている。また、固体撮像素子において、1つの画素部を構成する、マイクロレンズおよび分割された複数のフォトダイオードを有する構成が知られている。各フォトダイオードが異なる瞳面の光を受光することを利用して、ステレオ画像データを取得できる。   Conventionally, a stereo camera capable of capturing an image for 3D (three-dimensional) display or stereoscopic display has been proposed. In the apparatus disclosed in Patent Literature 1, two optical means and two image sensors are used to acquire stereo image data including a left-eye image and a right-eye image. Patent Document 2 discloses a method for acquiring data of a left-eye image and a right-eye image using one optical means. In addition, in a solid-state imaging device, a configuration having a microlens and a plurality of divided photodiodes constituting one pixel portion is known. Stereo image data can be acquired by utilizing the fact that each photodiode receives light from a different pupil plane.

一方、撮像素子から取り込んだ画像データの3D表示を行いつつ(ライブビュー)、ユーザが所定のカメラ操作を行うか、または所定のカメラ状態への移行をトリガにして3D表示から2D表示に切り替えるデジタルカメラが知られている。特に、タッチパネル操作の前後や、所定の設定状態の開始前後等においては、3D表示と2D表示の切り替えを可能にすることでユーザ操作の利便性が向上する。その際、ユーザにストレスを感じさせずに、3D表示と2D表示の切り替えを円滑に行うことが重要となる。   On the other hand, while performing the 3D display of the image data captured from the image sensor (live view), the user performs a predetermined camera operation or switches from the 3D display to the 2D display with a transition to a predetermined camera state as a trigger. The camera is known. In particular, before and after the touch panel operation, before and after the start of a predetermined setting state, the convenience of the user operation is improved by enabling switching between 3D display and 2D display. At that time, it is important to smoothly switch between 3D display and 2D display without causing the user to feel stress.

特開平01−202985号公報JP-A-01-202985 特開昭58−24105号公報JP-A-58-24105

ところで、1つの画素部に配置するフォトダイオードの数が増加するにつれて、撮像素子から読み出すデータ量は増加するため、それに伴い処理時間が長くなる。よって、3D表示用の画像撮影と2D表示用の画像撮影を順次に切り替える場合、円滑な表示切り替えが困難になる。そこで、ユーザが快適に表示を切り替えて画像を確認できるようにすることが求められる。
本発明の目的は、立体視表示から2次元画像表示へと円滑に切り替え可能な撮像装置およびその制御方法を提供することである。
By the way, as the number of photodiodes arranged in one pixel portion increases, the amount of data read from the image sensor increases, and accordingly the processing time becomes longer. Accordingly, when switching between 3D display image capturing and 2D display image capturing in order, it is difficult to smoothly switch between displays. Therefore, it is required that the user can comfortably switch the display and check the image.
An object of the present invention is to provide an imaging apparatus capable of smoothly switching from stereoscopic display to two-dimensional image display and a control method thereof.

上記課題を解決するために、本発明に係る装置は、各マイクロレンズに対して撮像光学系の射出瞳の異なる領域を通過した光束を受光して光電変換する複数の光電変換部を撮像素子が有し、該撮像素子により取得した画像データの表示制御を行う撮像装置であって、前記複数の光電変換部から選択した得た信号により右目用画像データおよび左目用画像データをそれぞれ生成する処理と、前記複数の光電変換部の出力する信号から2次元表示用の第1画像データを生成する処理を行うデータ処理手段と、前記右目用画像データおよび左目用画像データを用いる立体視表示制御と、前記第1画像データを用いる2次元表示制御を行う制御手段を備える。前記制御手段は、前記立体視表示制御を行うか、または前記立体視表示制御から前記2次元表示制御へ移行させる準備処理を行うか、または前記2次元表示制御を行うかを判定し、前記立体視表示制御から前記2次元表示制御へ移行させる準備処理にて前記右目用画像データまたは前記左目用画像データから2次元表示用の第2画像データを生成し、前記2次元表示制御へ切替える際に、前記第2画像データの表示制御を行うとともに前記データ処理手段による前記第1画像データの生成処理を制御する。   In order to solve the above-described problems, an apparatus according to the present invention includes a plurality of photoelectric conversion units that receive and photoelectrically convert light beams that have passed through different regions of the exit pupil of the imaging optical system for each microlens. An image pickup apparatus that performs display control of image data acquired by the image pickup device, and generates right-eye image data and left-eye image data based on signals obtained from the plurality of photoelectric conversion units, and Data processing means for performing processing for generating first image data for two-dimensional display from signals output from the plurality of photoelectric conversion units; and stereoscopic display control using the right-eye image data and the left-eye image data; Control means for performing two-dimensional display control using the first image data is provided. The control means determines whether to perform the stereoscopic display control, to perform a preparation process for shifting from the stereoscopic display control to the two-dimensional display control, or to perform the two-dimensional display control, and to perform the stereoscopic display control. When generating the second image data for two-dimensional display from the image data for the right eye or the image data for the left eye in the preparation process for shifting from the visual display control to the two-dimensional display control, and switching to the two-dimensional display control The display control of the second image data is performed and the generation processing of the first image data by the data processing means is controlled.

本発明によれば、立体視表示から2次元画像表示へ円滑に切り替えることができる。   According to the present invention, it is possible to smoothly switch from stereoscopic display to two-dimensional image display.

図2ないし図8と併せて本発明の実施形態を説明するために、撮像装置の構成例を示す図である。It is a figure which shows the structural example of an imaging device, in order to demonstrate embodiment of this invention combined with FIG. 2 thru | or FIG. 撮像素子の構成例を概略的に示す図である。It is a figure which shows the structural example of an image pick-up element roughly. 撮像素子の画素アレイを概略的に示す図である。It is a figure which shows schematically the pixel array of an image pick-up element. 物体の結像関係を模式的に示す図である。It is a figure which shows typically the imaging relationship of an object. 立体視表示および2次元表示の切替え制御処理例を示すフローチャートである。It is a flowchart which shows the example of switching control processing of a stereoscopic display and a two-dimensional display. 表示切替え状態の判定処理例を示すフローチャートである。It is a flowchart which shows the example of a determination process of a display switching state. 図8とともに表示制御処理例を示すフローチャートである。It is a flowchart which shows the example of a display control process with FIG. 図7に続く処理例を示すフローチャートである。It is a flowchart which shows the process example following FIG.

以下に、本発明の実施形態を添付図面に基づいて詳細に説明する。なお、3次元表示あるいは立体視表示を3D表示と略記し、2次元表示を2D表示と略記する。
図1は、本発明の実施形態に係る撮像装置の概略構成図である。本実施形態の撮像装置は、例えば、デジタルカメラである。装置本体100はレンズ部を備えるか、または着脱可能なレンズ装置が取り付けられる。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings. Note that three-dimensional display or stereoscopic display is abbreviated as 3D display, and two-dimensional display is abbreviated as 2D display.
FIG. 1 is a schematic configuration diagram of an imaging apparatus according to an embodiment of the present invention. The imaging device of this embodiment is a digital camera, for example. The apparatus main body 100 includes a lens unit or a detachable lens apparatus.

CPU(Central Processing Unit)109は撮像装置全体を制御する。電源110は、装置本体100内の各回路に電源を供給する。カードスロット121には、着脱可能な記録媒体であるメモリカード122を差し込むことができる。メモリカード122をカードスロット121に差し込んだ状態で、メモリカード122はカード入出力部120と電気的に接続される。なお、本実施形態では記録媒体としてメモリカード122を採用しているが、その他の記録媒体、例えば、ハードディスク、光ディスク、光磁気ディスク、磁気ディスク、その他の固体メモリを採用してもよい。   A CPU (Central Processing Unit) 109 controls the entire imaging apparatus. The power supply 110 supplies power to each circuit in the apparatus main body 100. A memory card 122 that is a removable recording medium can be inserted into the card slot 121. With the memory card 122 inserted in the card slot 121, the memory card 122 is electrically connected to the card input / output unit 120. In this embodiment, the memory card 122 is used as a recording medium. However, other recording media such as a hard disk, an optical disk, a magneto-optical disk, a magnetic disk, and other solid-state memories may be used.

レンズ部を構成するレンズ群のうち、図1にはレンズ101,102だけを示す。レンズ102はフォーカスレンズであり、光軸に沿う方向に進退して焦点調節を行う。レンズ群を介して入射する光に対して、絞り103は撮像素子105への光量を調節する。レンズ101、フォーカスレンズ102および絞り103は、撮像光学系を構成する。撮像素子105、映像信号処理部107、フレームメモリ108は、光電変換系を構成する。この光電変換系は、撮像光学系が形成した被写体像をデジタル画像信号や画像データに変換する。   Of the lens group constituting the lens unit, FIG. 1 shows only the lenses 101 and 102. The lens 102 is a focus lens, and performs focus adjustment by moving back and forth in the direction along the optical axis. The diaphragm 103 adjusts the amount of light to the image sensor 105 with respect to light incident through the lens group. The lens 101, the focus lens 102, and the diaphragm 103 constitute an imaging optical system. The image sensor 105, the video signal processing unit 107, and the frame memory 108 constitute a photoelectric conversion system. This photoelectric conversion system converts the subject image formed by the imaging optical system into a digital image signal or image data.

撮像素子105は、撮像光学系が形成した被写体像を光電変換し、画像信号を出力する光電変換手段として機能する。撮像素子105は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等を用いた撮像素子である。撮像素子105は電子シャッタ機能を有し、露光時間を調整することができる。または、電子シャッタ機能に代えて、機械式シャッタで露光時間を調整する構成でも構わない。撮像素子105は各マイクロレンズに対して複数のフォトダイオード(以下、PDと略記する)を配置した構成を有する。第1PD選択合成部106は、複数のPDの出力から必要な画像信号を選択する機能と、選択したPDによる画像信号を合成して出力する機能を有する。なお、第1PD選択合成部106は撮像素子105の外部に設けてもよい。   The imaging element 105 functions as a photoelectric conversion unit that photoelectrically converts a subject image formed by the imaging optical system and outputs an image signal. The image sensor 105 is an image sensor using a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). The image sensor 105 has an electronic shutter function and can adjust the exposure time. Alternatively, the exposure time may be adjusted with a mechanical shutter instead of the electronic shutter function. The imaging element 105 has a configuration in which a plurality of photodiodes (hereinafter abbreviated as PD) are arranged for each microlens. The first PD selection / combination unit 106 has a function of selecting a necessary image signal from the outputs of a plurality of PDs and a function of combining and outputting image signals from the selected PDs. The first PD selection / combination unit 106 may be provided outside the image sensor 105.

図2は、本実施形態の撮像装置に適用した撮像素子の構成例を概略的に示す図である。図2(A)は、撮像素子の全体構成を示す。撮像素子105は、画素アレイ301と、画素アレイ301における行を選択する垂直選択回路302と、画素アレイ301における列を選択する水平選択回路304を含む。読み出し回路303は、画素アレイ301中の画素部のうち垂直選択回路302によって選択される画素部の信号を読み出す。読み出し回路303は、信号を蓄積するメモリ、ゲインアンプ、A(Analog)/D(Digital)変換器等を列毎に有する。   FIG. 2 is a diagram schematically illustrating a configuration example of an imaging element applied to the imaging apparatus of the present embodiment. FIG. 2A shows the overall configuration of the image sensor. The image sensor 105 includes a pixel array 301, a vertical selection circuit 302 that selects a row in the pixel array 301, and a horizontal selection circuit 304 that selects a column in the pixel array 301. The readout circuit 303 reads out the signal of the pixel portion selected by the vertical selection circuit 302 among the pixel portions in the pixel array 301. The reading circuit 303 includes a memory for storing signals, a gain amplifier, an A (Analog) / D (Digital) converter, and the like for each column.

シリアルインタフェース(SI)部305は、各回路の動作モード等を、CPU109からの指示に従って決定する。垂直選択回路302は、画素アレイ301の複数の行を順次選択し、読み出し回路303に画素信号を取り出す。また水平選択回路304は、読み出し回路303によって読み出された複数の画素信号を列毎に順次選択する。なお、撮像素子105には、図2(A)に示す構成要素以外に、例えば、垂直選択回路302、水平選択回路304、読み出し回路303等にタイミング信号を提供するタイミングジェネレータや、制御回路等が存在するが、これらの詳細な説明は省略する。   A serial interface (SI) unit 305 determines an operation mode of each circuit according to an instruction from the CPU 109. The vertical selection circuit 302 sequentially selects a plurality of rows of the pixel array 301 and extracts pixel signals to the readout circuit 303. The horizontal selection circuit 304 sequentially selects a plurality of pixel signals read by the reading circuit 303 for each column. In addition to the components shown in FIG. 2A, the imaging element 105 includes, for example, a timing generator that provides a timing signal to the vertical selection circuit 302, the horizontal selection circuit 304, the readout circuit 303, a control circuit, and the like. Although they exist, detailed description thereof will be omitted.

図2(B)は、撮像素子105の画素部の構成例を示す。図2(B)に示す画素部400は、光学素子としてのマイクロレンズ401と、受光素子としての複数のPD402a乃至402iを有する。これらのPDは受光した光束を光電変換して画像信号を生成する光電変換部として機能する。なお、図2(B)に示す例では、1つの画素部が備えるPDの数を9個とするが、PDの数は2個以上の任意の数でよい。また、画素部400は図示の構成要素以外にも、例えば、PDの信号を読み出し回路303に読み出すための画素増幅アンプ、行を選択する選択スイッチ、PDの信号をリセットするリセットスイッチ等を備える。   FIG. 2B illustrates a configuration example of a pixel portion of the image sensor 105. A pixel portion 400 illustrated in FIG. 2B includes a microlens 401 as an optical element and a plurality of PDs 402a to 402i as light receiving elements. These PDs function as a photoelectric conversion unit that photoelectrically converts a received light beam to generate an image signal. Note that in the example illustrated in FIG. 2B, the number of PDs included in one pixel portion is nine, but the number of PDs may be an arbitrary number of two or more. In addition to the illustrated components, the pixel unit 400 includes, for example, a pixel amplification amplifier for reading a PD signal to the reading circuit 303, a selection switch for selecting a row, a reset switch for resetting the PD signal, and the like.

図3は画素アレイを例示する図である。画素アレイ301は、2次元画像を提供するため、水平方向にN個、垂直方向にM個の画素部400を2次元アレイ状に配列して構成される。各画素部400はカラーフィルタを有する。例えば、奇数行が、赤(R)と緑(G)のカラーフィルタの繰り返しであり、偶数行が、緑(G)と青(B)のカラーフィルタの繰り返しである。すなわち、画素アレイ301が備える複数の画素部は、予め決められた画素配列(この例ではベイヤー配列)に従って配置されている。   FIG. 3 is a diagram illustrating a pixel array. In order to provide a two-dimensional image, the pixel array 301 is configured by arranging N pixel units 400 in the horizontal direction and M pixel units 400 in the vertical direction in a two-dimensional array. Each pixel unit 400 includes a color filter. For example, odd rows are repetitions of red (R) and green (G) color filters, and even rows are repetitions of green (G) and blue (B) color filters. That is, the plurality of pixel portions included in the pixel array 301 are arranged according to a predetermined pixel arrangement (in this example, a Bayer arrangement).

次に、図3に示す画素構成を有する撮像素子の受光について説明する。図4は撮影レンズの射出瞳から出た光束が撮像素子105に入射する様子を表した概念図である。画素アレイの断面501にて各画素アレイは、マイクロレンズ502、カラーフィルタ503、PD504および505を有する。PD504は図2(B)中のPD402aに相当する。また、PD505は図2(B)中のPD402cに相当する。   Next, light reception of the image sensor having the pixel configuration shown in FIG. 3 will be described. FIG. 4 is a conceptual diagram showing a state in which a light beam emitted from the exit pupil of the photographing lens enters the image sensor 105. Each pixel array in the cross section 501 of the pixel array includes a microlens 502, a color filter 503, PDs 504 and 505. The PD 504 corresponds to the PD 402a in FIG. The PD 505 corresponds to the PD 402c in FIG.

図4には撮影レンズの射出瞳506と、マイクロレンズ502を有する画素部に対して、射出瞳506から出た光束の中心を光軸509で示す。射出瞳506から出た光は、光軸509を中心として撮像素子105に入射する。射出瞳506における一部領域507、508は、分割された異なる領域である。光線510、511は、一部領域507を通過する光のうちで最外周の光線である。光線512、513は、一部領域508を通過する光のうちで最外周の光線である。射出瞳506からの光束のうち、光軸509を境にして、図4の上側に示す光束はPD505に入射し、下側の光束はPD504に入射する。つまり、PD504とPD505は、撮影レンズの射出瞳506に対する別の領域の光をそれぞれ受光するという特性を有する。この特性を生かして、撮像装置は、視差のある少なくとも2つの画像を取得することができる。例えば、撮像装置は、画素部内の領域において、複数の左側のPDから得られるデータを第1ラインとし、複数の右側のPDから得られるデータを第2ラインとして、2つの画像を取得することができる。そして、撮像装置は、この2つの画像を利用して位相差の検知を行って位相差AF(オートフォーカス)を実現することができる。さらに、撮像装置は、上記視差のある2つの画像を左目用画像および右目用画像としてステレオ画像のデータ生成処理を実行し、ステレオ表示装置上に立体感のある画像を表示することができる。   In FIG. 4, the center of the light beam emitted from the exit pupil 506 is indicated by an optical axis 509 with respect to the pixel portion having the exit pupil 506 of the photographing lens and the microlens 502. Light emitted from the exit pupil 506 is incident on the image sensor 105 with the optical axis 509 as the center. Partial areas 507 and 508 in the exit pupil 506 are different divided areas. Light rays 510 and 511 are outermost light rays among the light passing through the partial region 507. Light rays 512 and 513 are the outermost peripheral light rays among the light beams passing through the partial region 508. Of the light flux from the exit pupil 506, the light flux shown on the upper side in FIG. 4 is incident on the PD 505 with the optical axis 509 as a boundary, and the lower light flux is incident on the PD 504. That is, the PD 504 and the PD 505 have a characteristic of receiving light in different regions with respect to the exit pupil 506 of the photographing lens. Taking advantage of this characteristic, the imaging apparatus can acquire at least two images having parallax. For example, the imaging device may acquire two images in a region in the pixel unit using data obtained from a plurality of left PDs as a first line and data obtained from the plurality of right PDs as a second line. it can. The imaging apparatus can detect the phase difference using these two images and realize phase difference AF (autofocus). Furthermore, the imaging apparatus can execute a stereo image data generation process using the two images with parallax as a left-eye image and a right-eye image, and display a stereoscopic image on the stereo display device.

図1に戻って説明を続けると、第1PD選択合成部106は、図2(A)を参照して説明した垂直選択回路302、読み出し回路303、水平選択回路304、SI部305を備える。第1PD選択合成部106は、CPU109が設定する動作モードに従って動作する。この動作モードは、撮像装置において開始が検知された撮影の種別に応じて設定され、静止画モードと、通常ライブビューモードと、ステレオライブビューモードを含む。静止画モードで第1PD選択合成部106は、全てのPDの出力を画像データとして映像信号処理部107に出力する。また通常ライブビューモードで第1PD選択合成部106は、画素内の全てのPDの出力に対して加算平均演算を行って、演算結果をその画素の出力値とする。ステレオライブビューモードの場合、第1PD選択合成部106は、図2(B)に示すPD402a、402d、402gの各出力に対応した加算平均値と、PD402c、402f、402iの出力に対応した加算平均値を算出する。これらの加算平均値は当該画素部の出力値となる。このように複数のPDの出力を加算合成し、これらの演算結果を1つの画素の出力とすることで、データ量を低減できる。   Returning to FIG. 1, the description will be continued. The first PD selection / synthesis unit 106 includes the vertical selection circuit 302, the readout circuit 303, the horizontal selection circuit 304, and the SI unit 305 described with reference to FIG. The first PD selection / combination unit 106 operates according to an operation mode set by the CPU 109. This operation mode is set according to the type of shooting whose start is detected in the imaging apparatus, and includes a still image mode, a normal live view mode, and a stereo live view mode. In the still image mode, the first PD selecting / composing unit 106 outputs all PD outputs to the video signal processing unit 107 as image data. Further, in the normal live view mode, the first PD selection / combination unit 106 performs an addition average calculation on the outputs of all the PDs in the pixel, and sets the calculation result as an output value of the pixel. In the case of the stereo live view mode, the first PD selection / combination unit 106 performs the addition average value corresponding to each output of the PDs 402a, 402d, and 402g illustrated in FIG. 2B and the addition average corresponding to the outputs of the PDs 402c, 402f, and 402i. Calculate the value. These added average values are output values of the pixel portion. Thus, the amount of data can be reduced by adding and synthesizing the outputs of a plurality of PDs and using these calculation results as the output of one pixel.

第1の選択合成処理を行う第1PD選択合成部106は後述の第2PD選択合成部151とともに主要なデータ処理を行う構成要素であり、右目用画像データおよび左目用画像データをそれぞれ生成する処理と、2次元表示用の画像データを生成する処理を行う。以下では、各選択合成部において、右目用画像データの生成に関連する第1モードを「右目選択合成モード」とし、左目用画像データの生成に関連する第2モードを「左目選択合成モード」とする。また、右目用画像または左目用画像に係るデータの選択合成処理に直接関与しない第3モードを「非選択合成モード」とする。第1PD選択合成部106は、右目選択合成モードにて各画素における複数の光電変換部の出力から右目用画像データに係る信号を選択して合成する。また第1PD選択合成部106は、左目選択合成モードにて各画素部における複数の光電変換部の出力から左目用画像データに係る信号を選択して合成する。非選択合成モードでは、第1PD選択合成部106は各画素部の複数の光電変換部の出力を全て取得して映像信号処理部107に送る。   The first PD selection / combination unit 106 that performs the first selection / combination processing is a component that performs main data processing together with a second PD selection / combination unit 151 described later, and a process for generating right-eye image data and left-eye image data, respectively. A process of generating image data for two-dimensional display is performed. Hereinafter, in each selection / synthesis unit, the first mode related to the generation of the right-eye image data is referred to as a “right-eye selection / synthesis mode”, and the second mode related to the generation of the left-eye image data is referred to as a “left-eye selection / synthesis mode”. To do. Further, the third mode that is not directly involved in the data selection / synthesis process for the right-eye image or the left-eye image is referred to as a “non-selection synthesis mode”. The first PD selection / synthesis unit 106 selects and synthesizes signals related to the image data for the right eye from the outputs of the plurality of photoelectric conversion units in each pixel in the right-eye selection / synthesis mode. The first PD selection / combination unit 106 also selects and synthesizes signals related to the image data for the left eye from the outputs of the plurality of photoelectric conversion units in each pixel unit in the left-eye selection / combination mode. In the non-selective synthesis mode, the first PD selective synthesis unit 106 acquires all the outputs of the plurality of photoelectric conversion units of each pixel unit and sends them to the video signal processing unit 107.

ライブビューモードの場合、フレームレートを高くするために、撮像素子105から出力するデータ量の低減が更に要求される。そのため、第1PD選択合成部106は、最近接位置での同じカラーフィルタの画素について加算平均演算を行って出力値とする。本実施形態では、ライブビュー時に、水平方向にて同色の3画素の出力について平均し、垂直方向にて3画素毎に1画素を読み出す処理が実行される。これにより、データ量を9分の1に減らすことができる。その場合、使用する画素について図3を参照して具体的に説明する。ここで、図3にて第n行第m列目の画素部を「n−m画素部」と表記する。自然数変数nおよびmの範囲はそれぞれ、N≧n≧1,M≧m≧1とする。   In the live view mode, a reduction in the amount of data output from the image sensor 105 is further required to increase the frame rate. For this reason, the first PD selection / combination unit 106 performs an averaging operation on the pixels of the same color filter at the closest position to obtain an output value. In the present embodiment, during live view, a process of averaging three pixel outputs of the same color in the horizontal direction and reading one pixel every three pixels in the vertical direction is executed. Thereby, the amount of data can be reduced to 1/9. In that case, the pixel to be used will be specifically described with reference to FIG. Here, in FIG. 3, the pixel portion in the nth row and the mth column is referred to as an “nm pixel portion”. The ranges of the natural number variables n and m are N ≧ n ≧ 1, M ≧ m ≧ 1, respectively.

水平方向での3画素の出力に係る加算平均演算のために使用するのは、1行目の最初の赤色画素部、つまり1−1画素部、1−3画素部、1−5画素部の各出力である。前述のモードに応じて選択される各画素部の出力に対して、加算平均演算が行われて該当画素に対する値が算出される。次の赤色画素部である、1−7画素部,1−9画素部,1−11画素部に対して同様に演算処理が実行される。1行目の最初の緑色画素部である、1−2画素部、1−4画素部、1−6画素部に対して同様に演算処理が実行される。垂直方向にて2画素分を間引く処理を行う場合、次の行は4行目となり、最初の緑色画素部である、4−1画素部、4−3画素部、4−5画素部に対して同様に演算処理が実行される。4行目の最初の青色画素部は4−2画素部、4−4画素部、4−6画素部であり、これらの画素に対して同様に演算処理が実行される。   What is used for the arithmetic mean calculation related to the output of three pixels in the horizontal direction is the first red pixel portion in the first row, that is, the 1-1 pixel portion, the 1-3 pixel portion, and the 1-5 pixel portion. Each output. An arithmetic operation is performed on the output of each pixel unit selected according to the above-described mode, and a value for the corresponding pixel is calculated. The arithmetic processing is similarly executed for the next red pixel portion, which is the 1-7 pixel portion, the 1-9 pixel portion, and the 1-11 pixel portion. The arithmetic processing is similarly performed on the first green pixel portion in the first row, that is, the 1-2 pixel portion, the 1-4 pixel portion, and the 1-6 pixel portion. When the process of thinning out two pixels in the vertical direction is performed, the next row is the fourth row, and the first green pixel portion, that is, the 4-1 pixel portion, the 4-3 pixel portion, and the 4-5 pixel portion In the same manner, arithmetic processing is executed. The first blue pixel portion in the fourth row is a 4-2 pixel portion, a 4-4 pixel portion, and a 4-6 pixel portion, and arithmetic processing is similarly performed on these pixels.

図1の映像信号処理部107は、デジタル画像信号にシェーディング補正等のカメラで周知の画像信号処理を施す。映像信号処理部107は、撮像素子105の特性に起因する画像濃度の非線形性や光源に起因する画像色の偏りを補正する。フレームメモリ108は、撮像素子105と映像信号処理部107によって生成される画像データを一時記憶するバッファメモリとして機能する。フレームメモリ108に格納される画像データは補正処理等が施されているが、撮像素子105の各画素部に蓄積された電荷のエネルギーをそのままデジタルデータ化にしたものに相当する。以下では、フレームメモリ108に格納された画像データをRAWデータと呼ぶ。特に、静止画モードの場合に第1PD選択合成部106で取得したRAWデータを、全PD−RAWデータと呼ぶ。また、ステレオライブビューモードの場合に第1PD選択合成部106で取得したRAWデータを、両目用RAWデータと呼ぶ。両目用RAWデータについては、フレームレートを高くするために、各画素部内でPDの出力に加算平均演算が施されている。一方、全PD−RAWデータについては、後工程で各種画像処理にて該データを扱うために、画像データとして極力詳細な情報を得ることを目的としている。そのため、全PD−RAWデータは選択処理や合成処理が行われずに、各画素部内の各PDの出力情報に基づくデータが個別にフレームメモリ108に格納される。RAWデータの画像の画質に関するパラメータを撮像パラメータと呼び、絞り103の設定値であるAv、シャッタ速度Tv、ISO感度等を含む。   The video signal processing unit 107 in FIG. 1 performs known image signal processing such as shading correction on a digital image signal by a camera. The video signal processing unit 107 corrects image density non-linearity due to the characteristics of the image sensor 105 and image color bias due to the light source. The frame memory 108 functions as a buffer memory that temporarily stores image data generated by the image sensor 105 and the video signal processing unit 107. The image data stored in the frame memory 108 has been subjected to correction processing and the like, and corresponds to the digital data of the charge energy accumulated in each pixel portion of the image sensor 105. Hereinafter, the image data stored in the frame memory 108 is referred to as RAW data. In particular, the RAW data acquired by the first PD selection / combination unit 106 in the still image mode is referred to as all PD-RAW data. The RAW data acquired by the first PD selection / combination unit 106 in the case of the stereo live view mode is referred to as RAW data for both eyes. For both-eye RAW data, an averaging operation is performed on the output of the PD in each pixel unit in order to increase the frame rate. On the other hand, all PD-RAW data is intended to obtain as much detailed information as image data in order to handle the data in various image processing in a later process. Therefore, all PD-RAW data is not subjected to selection processing or composition processing, and data based on the output information of each PD in each pixel unit is individually stored in the frame memory 108. A parameter relating to the image quality of the RAW data image is called an imaging parameter, and includes a setting value Av of the aperture 103, a shutter speed Tv, ISO sensitivity, and the like.

バス150には、CPU109、電源110、不揮発性メモリ111、現像処理部112、RAM(Random Access Memory)113、表示制御装置114、メインスイッチ116が接続される。CPU109は撮像素子105の画像信号読み出しを制御し、撮像素子105からフレームメモリ108までの各部の動作タイミングを制御する。また、バス150には、ユーザがレリーズボタンにより操作するレリーズスイッチ117,118が接続されている。以下、第1レリーズスイッチ117を第1スイッチ、また第2レリーズスイッチ118を第2スイッチと略称する。第1スイッチ117の操作によって撮影準備動作が開始し、第2スイッチ118の操作により撮影動作が行われる。バス150に接続される操作部を構成する操作部材として、左選択ボタン140、右選択ボタン141、設定ボタン142、現像パラメータ変更ボタン143、ライブビュー開始/終了ボタン144、クイック設定ボタン145を例示する。バス150にはさらに、カード入出力部120、第2PD選択合成部151、タッチパネル検出部119、駆動部163が接続されている。タッチパネル検出部119はタッチパネルの接触検出および近接検出を行う。タッチパネルは表示部に設けられた接触式操作手段であり、ユーザが撮像装置への操作指示に用いる。また、駆動部163は撮像光学系のフォーカスレンズ102や絞り103等を駆動する。   Connected to the bus 150 are a CPU 109, a power source 110, a nonvolatile memory 111, a development processing unit 112, a RAM (Random Access Memory) 113, a display control device 114, and a main switch 116. The CPU 109 controls the image signal readout of the image sensor 105 and controls the operation timing of each unit from the image sensor 105 to the frame memory 108. Also, release switches 117 and 118 that are operated by a user with a release button are connected to the bus 150. Hereinafter, the first release switch 117 is abbreviated as a first switch, and the second release switch 118 is abbreviated as a second switch. The shooting preparation operation is started by operating the first switch 117, and the shooting operation is performed by operating the second switch 118. Examples of operation members that constitute an operation unit connected to the bus 150 include a left selection button 140, a right selection button 141, a setting button 142, a development parameter change button 143, a live view start / end button 144, and a quick setting button 145. . In addition, a card input / output unit 120, a second PD selection / combination unit 151, a touch panel detection unit 119, and a drive unit 163 are connected to the bus 150. The touch panel detection unit 119 performs touch detection and proximity detection of the touch panel. The touch panel is a contact-type operation unit provided in the display unit, and is used by a user for operating instructions to the imaging apparatus. The driving unit 163 drives the focus lens 102, the diaphragm 103, and the like of the imaging optical system.

不揮発性メモリ111は、メインスイッチ116の操作により電源110が投入された時にカメラに設定する初期カメラ設定値を記憶している。不揮発性メモリ111は、電源110が遮断された場合でも記録データが失われないように、EEPROM(Electrically Erasable Programmable Read-Only Memory)等で構成される。   The nonvolatile memory 111 stores an initial camera setting value to be set in the camera when the power supply 110 is turned on by operating the main switch 116. The non-volatile memory 111 is configured by an EEPROM (Electrically Erasable Programmable Read-Only Memory) or the like so that recorded data is not lost even when the power supply 110 is shut off.

第2PD選択合成部151は、画素選択合成パラメータの設定に基づいてフレームメモリ108上またはRAM113上にあるRAWデータの選択合成に係るデータ処理を行い、処理結果の画像データをRAM113に格納する。画素選択合成パラメータとは、RAWデータに対してどのPDの出力を合成して1つの画素データとするかを決定するためのパラメータであり、第2PD選択合成部151の選択合成処理の内容を規定する情報である。第2PD選択合成部151は、右目選択合成モードと左目選択合成モードを有する。CPU109が右目選択合成モードを設定した場合、第2PD選択合成部151は、全PD−RAWデータまたは両目用RAWデータから右目用RAWデータの取得に必要なPDの出力を選択して合成処理を行う。またCPU109が左目選択合成モードを設定した場合、第2PD選択合成部151は、全PD−RAWデータまたは両目用RAWデータから左目用RAWデータの取得に必要なPDの出力を選択して合成処理を行う。本実施形態では、RAWデータについて、フレームメモリ108またはRAM113を経由して第2PD選択合成部151や現像処理部112へ入力しているが、映像信号処理部107よりRAWデータを直接入力しても構わない。   The second PD selection / synthesis unit 151 performs data processing related to the selection / synthesis of RAW data on the frame memory 108 or the RAM 113 based on the setting of the pixel selection / synthesis parameter, and stores the processed image data in the RAM 113. The pixel selection / synthesis parameter is a parameter for determining which PD output is combined with the RAW data to form one pixel data, and defines the contents of the selection / synthesis process of the second PD selection / synthesis unit 151. Information. The second PD selection / synthesis unit 151 has a right-eye selection / synthesis mode and a left-eye selection / synthesis mode. When the CPU 109 sets the right-eye selection / combination mode, the second PD selection / composition unit 151 selects the PD output necessary for obtaining the right-eye RAW data from all the PD-RAW data or the both-eye RAW data, and performs the composition processing. . In addition, when the CPU 109 sets the left-eye selection / combination mode, the second PD selection / composition unit 151 selects the output of the PD necessary for obtaining the left-eye RAW data from all the PD-RAW data or the both-eye RAW data, and performs the composition processing. Do. In this embodiment, the RAW data is input to the second PD selection / combination unit 151 and the development processing unit 112 via the frame memory 108 or the RAM 113, but even if the RAW data is directly input from the video signal processing unit 107. I do not care.

現像処理部112は、CPU109が読み出した、フレームメモリ108上またはRAM113上にある画素毎に合成されたRAWデータに対して、現像パラメータ設定に基づいて画像処理を施す。現像パラメータとは、デジタル画像データの画質に関するパラメータであり、デジタル画像データのホワイトバランス、色補間、色補正、γ変換、エッジ強調、解像度、画像圧縮等に関するパラメータを含む。以下では、1つ以上の現像パラメータを用いてデジタル画像データの画質を調整または変更する処理を現像処理と呼ぶ。現像処理を施された各画像データは、例えば、YUV422形式やYUV411形式の画像データとして、RAM113に格納される。また、圧縮処理を含む現像処理が施された画像データは、例えば、JPEG形式の画像データとしてRAM113に格納される。JPEGは“Joint Photographic Experts Group”の略号である。RAM113は、現像処理結果である画像データの他、CPU109が各種処理を行う際に使用するデータを一時的に記憶する。   The development processing unit 112 performs image processing on the raw data read out by the CPU 109 and synthesized for each pixel on the frame memory 108 or the RAM 113 based on the development parameter setting. The development parameter is a parameter relating to the image quality of the digital image data, and includes parameters relating to white balance, color interpolation, color correction, γ conversion, edge enhancement, resolution, image compression, and the like of the digital image data. Hereinafter, processing for adjusting or changing the image quality of digital image data using one or more development parameters is referred to as development processing. Each image data subjected to the development processing is stored in the RAM 113 as image data in the YUV422 format or YUV411 format, for example. The image data that has been subjected to development processing including compression processing is stored in the RAM 113 as image data in JPEG format, for example. JPEG is an abbreviation for “Joint Photographic Experts Group”. The RAM 113 temporarily stores data used when the CPU 109 performs various processes in addition to the image data that is the development processing result.

表示制御装置114は、液晶表示素子のTFT(薄膜トランジスタ)115を駆動し、撮像装置本体に搭載した表示部を制御する。また、表示制御装置114はRAM113に表示用の画像フォーマットで配置された画像データを、ビデオ出力端子132、D端子133、HDMI端子134等を介して外部表示装置へ出力する。表示用の画像データが配置されるRAM113をVRAMと呼ぶ。本実施形態に使用する表示装置はステレオ表示が可能である。ステレオ表示を行うために、VRAMは、右目画像用VRAMと左目画像用VRAMを含む。表示画面上に、右目画像用VRAMによる右目用画像データと、左目画像用VRAMによる左目用画像データを配置することで、ステレオ表示が行われる。   The display control device 114 drives a TFT (thin film transistor) 115 of a liquid crystal display element and controls a display unit mounted on the imaging device main body. Further, the display control device 114 outputs the image data arranged in the display image format in the RAM 113 to the external display device via the video output terminal 132, the D terminal 133, the HDMI terminal 134, and the like. The RAM 113 in which the display image data is arranged is called a VRAM. The display device used in this embodiment can perform stereo display. In order to perform stereo display, the VRAM includes a right-eye image VRAM and a left-eye image VRAM. Stereo display is performed by arranging right-eye image data by the right-eye image VRAM and left-eye image data by the left-eye image VRAM on the display screen.

USB制御装置127は、USB端子128を介して、撮像装置と外部装置との間の通信を制御する。LAN制御装置129は、有線LAN端子130または無線LANインタフェース部131を介して、撮像装置と外部装置との間の通信を制御する。   The USB control device 127 controls communication between the imaging device and the external device via the USB terminal 128. The LAN control device 129 controls communication between the imaging device and the external device via the wired LAN terminal 130 or the wireless LAN interface unit 131.

次に撮像装置の動作を説明する。
ユーザがメインスイッチ116をオン状態にすると、CPU109は所定のプログラムを実行する。またメインスイッチ116をオフ状態にすると、CPU109が所定のプログラムを実行し、カメラをスタンバイモードに設定する。レリーズボタンの操作によって、第1スイッチ117は第1ストローク(半押し状態)でオン状態になり、第2スイッチ118はレリーズボタンの第2ストローク(全押し状態)でオン状態となる。第1スイッチ117がオン状態となった場合、CPU109は撮影準備処理(焦点検出処理等を含む)を実行する。第2スイッチ118がオン状態となった場合、CPU109は撮影開始の指示を検知し、撮影動作を実行する。
Next, the operation of the imaging apparatus will be described.
When the user turns on the main switch 116, the CPU 109 executes a predetermined program. When the main switch 116 is turned off, the CPU 109 executes a predetermined program and sets the camera to the standby mode. By operating the release button, the first switch 117 is turned on in the first stroke (half-pressed state), and the second switch 118 is turned on in the second stroke (fully pressed state) of the release button. When the first switch 117 is turned on, the CPU 109 executes shooting preparation processing (including focus detection processing). When the second switch 118 is turned on, the CPU 109 detects a shooting start instruction and executes a shooting operation.

また、CPU109は左選択ボタン140、右選択ボタン141、設定ボタン142の操作状態と、デジタルカメラの動作状態に応じた制御を行う。例えば、デジタルカメラの動作状態が再生状態であれば、左選択ボタン140で前の画像データを表示し、右選択ボタン141で次の画像データを表示する制御が行われる。またユーザは、現像パラメータの設定について、現像パラメータ変更ボタン143またはクイック設定ボタン145を使用した設定変更操作により、グラフィカルユーザインタフェースで確認および設定を行える。また、CPU109はライブビュー開始/終了ボタン144の操作を受け付けて、定期的(例えば、1秒に30回)に撮像素子105からRAWデータの取り込み処理を行い、現像処理されたデータをVRAMへ配置させる。これにより、撮像素子105から取り込んだ画像がリアルタイムに表示される。ライブビューの動作中にユーザがライブビュー開始/終了ボタン144を操作すると、ライブビューが終了する。   Further, the CPU 109 performs control according to the operation state of the left selection button 140, the right selection button 141, and the setting button 142 and the operation state of the digital camera. For example, if the operation state of the digital camera is the playback state, control is performed such that the previous image data is displayed with the left selection button 140 and the next image data is displayed with the right selection button 141. Further, the user can confirm and set the development parameter setting by a graphical user interface by a setting change operation using the development parameter change button 143 or the quick setting button 145. Further, the CPU 109 accepts the operation of the live view start / end button 144, performs a RAW data capturing process from the image sensor 105 periodically (for example, 30 times per second), and places the developed data in the VRAM. Let Thereby, the image taken from the image sensor 105 is displayed in real time. When the user operates the live view start / end button 144 during the live view operation, the live view ends.

再生状態、メニュー状態、ライブビュー状態では、操作部材による操作信号に加えて、タッチパネル検出部119による近接検出情報及び接触検出情報をCPU109が解析する。これにより、ユーザはタッチパネルを用いて撮像装置への操作指示を行える。   In the reproduction state, menu state, and live view state, the CPU 109 analyzes proximity detection information and contact detection information by the touch panel detection unit 119 in addition to operation signals from the operation members. Thereby, the user can perform an operation instruction to the imaging apparatus using the touch panel.

次に本実施形態における表示切替え制御について説明する。図5は、ライブビューにおける立体視表示制御および2次元表示制御の切替え処理を例示するフローチャートである。
S100の表示切替え状態判定処理では、表示切替え状態が判定される。判定処理はCPU109がプログラムを実行することで実現され、その処理の詳細については図6で説明する。次に表示切替え状態が、2D表示切替え準備操作前状態(以下、単に準備操作前状態という)であるか否かついて判定される(S101)。この準備操作前状態とは、2次元画像の表示状態への切替え準備操作が行われる前の状態である。表示切替え状態が準備操作前状態であると判定された場合、S104に処理を進め、準備操作前状態でないと判定された場合、S102に処理を進める。S104では3D表示制御が行われる。3D表示制御はCPU109およびプログラムを用いた可変表示制御手段により行われ、その詳細については図7にて説明する。
Next, display switching control in this embodiment will be described. FIG. 5 is a flowchart illustrating a switching process between the stereoscopic display control and the two-dimensional display control in the live view.
In the display switching state determination process in S100, the display switching state is determined. The determination process is realized by the CPU 109 executing a program, and details of the process will be described with reference to FIG. Next, it is determined whether or not the display switching state is a state before the 2D display switching preparatory operation (hereinafter simply referred to as a pre-preparation state) (S101). This state before the preparatory operation is a state before the preparatory operation for switching to the display state of the two-dimensional image is performed. When it is determined that the display switching state is the pre-preparation operation state, the process proceeds to S104. When it is determined that the display switching state is not the pre-preparation operation state, the process proceeds to S102. In S104, 3D display control is performed. The 3D display control is performed by the CPU 109 and variable display control means using a program, and details thereof will be described with reference to FIG.

S102では表示切替え状態が2D表示切替え準備操作後状態(以下、単に準備操作後状態という)であるか否かについて判定される。この準備操作後状態とは、2次元画像の表示状態への切替え準備操作が行われたと判定された状態である。表示切替え状態が準備操作後状態であると判定された場合、S105に処理を進め、準備操作後状態でないと判定された場合、S103に処理を進める。S105では、2D表示切替え前・3D表示用の表示制御が行われる。3D表示から2D表示への切替え準備処理では、2D表示用の第1画像データの生成処理前に2D表示させる第2画像データが生成される。その詳細については図7にて説明する。   In S102, it is determined whether or not the display switching state is a state after a 2D display switching preparation operation (hereinafter simply referred to as a state after a preparation operation). The state after the preparatory operation is a state in which it is determined that the preparatory operation for switching to the display state of the two-dimensional image has been performed. If it is determined that the display switching state is the state after the preparatory operation, the process proceeds to S105. If it is determined that the display switching state is not the state after the preparatory operation, the process proceeds to S103. In S105, display control before 2D display switching / 3D display is performed. In the preparation process for switching from 3D display to 2D display, second image data to be displayed in 2D is generated before the process of generating first image data for 2D display. Details thereof will be described with reference to FIG.

S103では、表示切替え状態が2D表示切替え操作後状態(以下、切替え操作後状態という)であるか否かについて判定する(S103)。この切替え操作後状態とは、2次元画像の表示状態への切替え操作が行われたと判定された状態である。表示切替え状態が切替え操作後状態であると判定された場合、S106に処理を進め、切替え操作後状態でないと判定された場合、S107に処理を進める。   In S103, it is determined whether or not the display switching state is a state after 2D display switching operation (hereinafter referred to as a state after switching operation) (S103). The state after the switching operation is a state in which it is determined that the switching operation to the display state of the two-dimensional image has been performed. When it is determined that the display switching state is the state after the switching operation, the process proceeds to S106, and when it is determined that the display switching state is not the state after the switching operation, the process proceeds to S107.

S106では2D表示用の表示制御が行われる。その詳細については図8にて説明する。S104、S105、S106の後、またはS103で切替え操作後状態でないと判定された場合、S107では電源スイッチ(図1のメインスイッチ116参照)の状態が判定される。電源スイッチがOn状態の場合、S100に戻り、また電源スイッチがOff状態の場合、処理が終了する(S108)。   In S106, display control for 2D display is performed. Details thereof will be described with reference to FIG. If it is determined after S104, S105, S106 or not in the post-switching state in S103, the state of the power switch (see main switch 116 in FIG. 1) is determined in S107. If the power switch is in the On state, the process returns to S100, and if the power switch is in the Off state, the process ends (S108).

次に図6のフローチャートを参照して、表示切替え状態判定処理について説明する。本処理はCPU109およびプログラムを用いた表示切替え状態判定手段により実行される。
まずS200でCPU109はタッチパネル検出部119からの検出信号を受信し、タッチパネル近接検出状態であるか否かを判定する。タッチパネル近接検出状態とは、手指やスタイラス等の検出対象がタッチパネルに接触した接触状態ではなく、所定の距離を置いた接近状態を意味する。検出対象とタッチパネルとの距離が閾値に到達してタッチパネル近接検出状態が判定された場合、S203に処理を進め、またタッチパネル近接検出状態でないと判定された場合、S201に処理を進める。S203にて、表示切替え状態が準備操作後状態に設定され、リターン処理に進む(S206)。
Next, the display switching state determination process will be described with reference to the flowchart of FIG. This process is executed by the CPU 109 and display switching state determination means using a program.
First, in S200, the CPU 109 receives a detection signal from the touch panel detection unit 119, and determines whether or not the touch panel proximity detection state is set. The touch panel proximity detection state means not a contact state where a detection target such as a finger or a stylus touches the touch panel, but an approach state with a predetermined distance. When the distance between the detection target and the touch panel reaches the threshold value and the touch panel proximity detection state is determined, the process proceeds to S203. When it is determined that the touch panel proximity detection state is not detected, the process proceeds to S201. In S203, the display switching state is set to the post-preparation state, and the process proceeds to return processing (S206).

S201でCPU109はタッチパネル検出部119からの検出信号を受信し、タッチパネル接触検出状態であるか否かを判定する(S201)。タッチパネル接触検出状態とは、タッチパネルに指やスタイラス等が接触したことが検出された状態である。判定結果がタッチパネル接触検出状態の場合、S204に処理を進め、タッチパネル接触検出状態でないと判定された場合、S202に処理を進める。S204では、表示切替え状態が切替え操作後状態に設定され、S206に進む。   In S201, the CPU 109 receives a detection signal from the touch panel detection unit 119, and determines whether or not it is in a touch panel contact detection state (S201). The touch panel contact detection state is a state in which it is detected that a finger, a stylus, or the like has touched the touch panel. If the determination result is a touch panel contact detection state, the process proceeds to S204. If it is determined that the touch panel contact detection state is not detected, the process proceeds to S202. In S204, the display switching state is set to the state after the switching operation, and the process proceeds to S206.

S202でCPU109は、現時点のモードが各種設定モードであるか否かを判定する。各種設定モードには、装置に設けられた操作部材(図1のクイック設定ボタン145等)を用いてユーザが所望の設定操作や変更操作を行うモードが含まれる。操作部材の操作により操作信号を受け付けたCPU109は、現時点のモードが各種設定モードであると判定した場合、S204に処理を進め、表示切替え状態を切替え操作後状態に設定する。一方、CPU109は現時点のモードが各種設定モードでないと判定した場合、表示切替え状態を準備操作前状態に設定し(S205)、リターン処理に進む(S206)。   In S202, the CPU 109 determines whether or not the current mode is various setting modes. The various setting modes include a mode in which a user performs a desired setting operation or change operation using an operation member (such as the quick setting button 145 in FIG. 1) provided in the apparatus. If the CPU 109 receives the operation signal by operating the operation member and determines that the current mode is the various setting modes, the CPU 109 advances the processing to S204 and sets the display switching state to the state after the switching operation. On the other hand, if the CPU 109 determines that the current mode is not the various setting mode, the display switching state is set to the pre-preparation operation state (S205), and the process proceeds to return processing (S206).

次に図7および図8のフローチャートを参照して、図5のS104からS106の表示制御を説明する。本処理はCPU109およびプログラムを用いた可変表示制御手段により実行される。図7は図5のS104およびS105の表示制御を例示し、図8は図5のS106の表示制御を例示する。   Next, the display control from S104 to S106 in FIG. 5 will be described with reference to the flowcharts in FIGS. This process is executed by the CPU 109 and variable display control means using a program. 7 illustrates the display control in S104 and S105 in FIG. 5, and FIG. 8 illustrates the display control in S106 in FIG.

図7のS300では現時点での表示形態が3D表示であるか否かについて判定される。判定結果が3D表示である場合、S301に処理を進め、判定結果が3D表示でない場合、S307に処理を進める。
S301からS306にかけて3D表示制御が行われる。
In S300 of FIG. 7, it is determined whether or not the current display form is 3D display. If the determination result is 3D display, the process proceeds to S301. If the determination result is not 3D display, the process proceeds to S307.
3D display control is performed from S301 to S306.

第1PD選択合成部106は右目選択合成モードに設定される(S301)。右目選択合成モードでは、右目用画像データを生成するために、第1PD選択合成部106が各画素部から選択した複数のPD(図3(A)のPD402a,402d,402g参照)の出力に対して加算平均演算を行い、各画素部の出力値とする。次にライブビュー用の撮像パラメータで撮影動作が開始し、フレームメモリ108は、映像信号処理部107から取得した右目用RAWデータを記憶する。表示用の現像パラメータを用いて現像処理部112が現像処理を行い、右目用画像データを生成する(S302)。現像された右目用画像データは右目用VRAMへ配置される(S303)。   The first PD selection / synthesis unit 106 is set to the right-eye selection / synthesis mode (S301). In the right-eye selection / combination mode, in order to generate right-eye image data, the first PD selection / composition unit 106 outputs a plurality of PDs (see PDs 402a, 402d, and 402g in FIG. 3A) selected from each pixel unit. Then, the averaging operation is performed to obtain the output value of each pixel unit. Next, the shooting operation starts with the shooting parameters for live view, and the frame memory 108 stores the right-eye RAW data acquired from the video signal processing unit 107. The development processing unit 112 performs development processing using the display development parameters, and generates right-eye image data (S302). The developed right-eye image data is placed in the right-eye VRAM (S303).

次に第1PD選択合成部106は左目選択合成モードに設定される(S304)。左目選択合成モードでは、左目用画像データを生成するために、第1PD選択合成部106が各画素部から選択した複数のPD(図3(A)のPD402c,402f,402i参照)の出力に対して加算平均演算を行い、各画素部の出力値とする。次にライブビュー用の撮像パラメータで撮影動作が開始し、フレームメモリ108は、映像信号処理部107から取得した左目用RAWデータを記憶する。表示用の現像パラメータを用いて現像処理部112が現像処理を行い、左目用画像データを生成する(S305)。現像された左目用画像データは左目用VRAMへ配置され(S306)、リターン処理に進む(S322)。3D表示制御では、現像処理により右目用画像データおよび左目用画像データがそれぞれ生成されて立体視表示が行われる。   Next, the first PD selection / synthesis unit 106 is set to the left-eye selection / synthesis mode (S304). In the left-eye selection / combination mode, the first PD selection / combination unit 106 generates the left-eye image data with respect to the outputs of a plurality of PDs selected from the pixel units (see PDs 402c, 402f, and 402i in FIG. 3A). Then, the averaging operation is performed to obtain the output value of each pixel unit. Next, the shooting operation starts with the shooting parameters for live view, and the frame memory 108 stores the left-eye RAW data acquired from the video signal processing unit 107. The development processing unit 112 performs development processing using the display development parameters, and generates image data for the left eye (S305). The developed left-eye image data is placed in the left-eye VRAM (S306), and the process proceeds to return processing (S322). In the 3D display control, right-eye image data and left-eye image data are generated by development processing, and stereoscopic display is performed.

S307では、現時点での表示形態が2D表示切替え前の3D表示であるか否かについて判定される。判定結果が2D表示切替え前の3D表示である場合、S308に処理を進めるが、そうでない場合には、図8のS315に処理を進める。   In S307, it is determined whether or not the current display mode is 3D display before 2D display switching. If the determination result is 3D display before 2D display switching, the process proceeds to S308. If not, the process proceeds to S315 in FIG.

S308からS314に示す表示制御は、3D表示から2D表示へ切替える際の準備期間に行われる。S308からS310の処理はS301からS303の処理と同様である。第1PD選択合成部106は右目選択合成モードに設定され(S308)、ライブビュー用の撮像パラメータで撮影動作が開始し、表示用の現像パラメータを用いて現像処理部112が右目用画像データを生成する(S309)。現像された右目用画像データは右目用VRAMへ配置される(S310)。   The display control shown from S308 to S314 is performed during a preparation period when switching from 3D display to 2D display. The processing from S308 to S310 is the same as the processing from S301 to S303. The first PD selection / combination unit 106 is set to the right-eye selection / combination mode (S308), the shooting operation is started with the live view imaging parameters, and the development processing unit 112 generates the right-eye image data using the display development parameters. (S309). The developed right-eye image data is placed in the right-eye VRAM (S310).

S311からS313の処理はS304からS306の処理と同様である。第1PD選択合成部106は左目選択合成モードに設定され(S311)、ライブビュー用の撮像パラメータで撮影動作が開始し、表示用の現像パラメータを用いて現像処理部112が左目用画像データを生成する(S312)。現像された左目用画像データは左目用VRAMへ配置される(S313)。   The processing from S311 to S313 is the same as the processing from S304 to S306. The first PD selection / combination unit 106 is set to the left-eye selection / combination mode (S311), the photographing operation starts with the live view imaging parameters, and the development processing unit 112 generates the left-eye image data using the display development parameters. (S312). The developed left-eye image data is arranged in the left-eye VRAM (S313).

S314では、右目用画像データまたは左目用画像データを用いて2D表示用画像データ(第2画像データ)が生成される。つまり、それぞれのVRAMに配置された右目用画像データまたは左目用画像データを表示用途に合わせてそのまま使用して2D表示用画像データとする処理、あるいはこれに所定の画像処理を施したデータを2D表示用画像データとする処理が行われる。生成された画像データは、拡張2D用VRAMデータとしてRAM113へ一時的に記憶され、S322に進む。2D表示切替え前の3D表示では、現像処理により右目用画像データおよび左目用画像データがそれぞれ生成されて立体視表示が行われるとともに、右目用画像データまたは左目用画像データを用いた2D表示用画像データの生成処理が行われる。   In S314, 2D display image data (second image data) is generated using the right-eye image data or the left-eye image data. In other words, the right-eye image data or the left-eye image data arranged in each VRAM is used as it is in accordance with the display application to obtain 2D display image data, or data obtained by performing predetermined image processing on the 2D display data. Processing for display image data is performed. The generated image data is temporarily stored in the RAM 113 as extended 2D VRAM data, and the process proceeds to S322. In 3D display before 2D display switching, right-eye image data and left-eye image data are respectively generated by development processing to perform stereoscopic display, and 2D display images using right-eye image data or left-eye image data are displayed. Data generation processing is performed.

図8のS315では、現時点での表示形態が2D表示であるか否かについて判定される。判定結果が2D表示である場合、S316へ処理を進め、2D表示でない場合、リターン処理に進む(S322)。
S316からS321では2D表示制御が行われる。
In S315 of FIG. 8, it is determined whether or not the current display form is 2D display. If the determination result is 2D display, the process proceeds to S316. If the determination result is not 2D display, the process proceeds to return processing (S322).
In S316 to S321, 2D display control is performed.

第1選択合成部106が非選択合成モードに設定されているか否かについて判定される(S316)。通常ライブビューモード等において撮像装置が2D表示を行っている状態では、第1選択合成部106が非選択合成モードになっている。その場合、第1PD選択合成部106は非選択合成モードに設定されたままである(S317)。また、非選択合成モード以外の設定モードの場合には、S317で第1PD選択合成部106が非選択合成モードに設定される。   It is determined whether or not the first selective combining unit 106 is set to the non-selective combining mode (S316). In a state where the imaging apparatus performs 2D display in the normal live view mode or the like, the first selection combining unit 106 is in the non-selection combining mode. In this case, the first PD selection / synthesis unit 106 remains set to the non-selection synthesis mode (S317). In the case of a setting mode other than the non-selective synthesis mode, the first PD selective synthesis unit 106 is set to the non-selective synthesis mode in S317.

次にライブビュー用の撮像パラメータで撮影動作が開始し、フレームメモリ108上に全PD−RAWデータが取得され(S318)、RAW画像用の現像パラメータを用いて現像処理部112が現像処理を行って2D表示用画像データを生成する。現像された2D表示用画像データは2D用VRAMへ配置され(S319)、リターン処理に進む(S322)。   Next, the shooting operation starts with the shooting parameters for live view, all PD-RAW data is acquired on the frame memory 108 (S318), and the development processing unit 112 performs development processing using the development parameters for RAW images. 2D display image data is generated. The developed 2D display image data is placed in the 2D VRAM (S319), and the process proceeds to return processing (S322).

一方、S316の判定処理で非選択合成モードでないことが判定された場合、拡張2D用VRAMデータ(図7のS314参照)が生成済みであるか否かについて判定される(S320)。拡張2D用VRAMデータが生成済みである場合、該データをRAM113から取得して2D用VRAMへ配置する処理が実行され(S321)、即座に2D表示が行われる。その後、S317からS319の処理が行われる。すなわち、S321にて拡張2D用VRAMデータを用いて表示画面上に画像を表示させ、その間にバックグラウンド処理で2D表示用に後続の画像データ(第1画像データ)を生成することができる。   On the other hand, when it is determined in the determination process of S316 that the mode is not the non-selective synthesis mode, it is determined whether or not the extended 2D VRAM data (see S314 in FIG. 7) has been generated (S320). When the extended 2D VRAM data has been generated, a process of acquiring the data from the RAM 113 and arranging it in the 2D VRAM is executed (S321), and 2D display is immediately performed. Thereafter, the processing from S317 to S319 is performed. That is, in S321, an image can be displayed on the display screen using the extended 2D VRAM data, and subsequent image data (first image data) can be generated for 2D display during the background process.

以上のように、本実施形態によれば、3D表示状態から2D表示状態への移行期間に、2D表示切替え前の3D表示状態を設け、この状態で2D表示の準備処理を行うことにより、3D表示から2D表示への切替えが速やかに行われる。よって、ユーザは切替えの待ち時間によるストレスを感じることなく、3D表示から2D表示へと円滑に切り替えて表示画像を視認できる。   As described above, according to the present embodiment, the 3D display state before switching to the 2D display is provided in the transition period from the 3D display state to the 2D display state, and the preparation process for 2D display is performed in this state, thereby 3D Switching from display to 2D display is performed promptly. Therefore, the user can visually switch the display from the 3D display to the 2D display smoothly without feeling the stress due to the switching waiting time.

なお、前記実施形態では、第1の選択合成処理を行う第1PD選択合成部106と、第2の選択合成処理を行う第2PD選択合成部151により実現される画像データ処理を例示した。本構成により、第1PD選択合成部106の出力する画像データを記憶手段に一旦格納しておいた後で、第2PD選択合成部151によりステレオ画像データを生成することができる。これに限らず、第1および第2の選択合成処理を1つのデータ処理手段で行う実施形態や、設定モード毎に処理を行う複数のデータ処理手段を備えた実施形態でもよい。   In the embodiment, the image data processing realized by the first PD selection / synthesis unit 106 that performs the first selection / synthesis process and the second PD selection / synthesis unit 151 that performs the second selection / synthesis process is exemplified. With this configuration, after the image data output from the first PD selection / combination unit 106 is temporarily stored in the storage unit, the second PD selection / combination unit 151 can generate stereo image data. However, the present invention is not limited to this, and an embodiment in which the first and second selection / combination processes are performed by one data processing unit, or an embodiment having a plurality of data processing units that perform processing for each setting mode may be used.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

105 撮像素子
106 第1PD選択合成部
109 CPU
114 表示制御装置
119 タッチパネル検出部
151 第2PD選択合成部
401 マイクロレンズ
402a〜i フォトダイオード
105 Image sensor 106 First PD selection / synthesis unit 109 CPU
114 Display Control Device 119 Touch Panel Detection Unit 151 Second PD Selection / Composition Unit 401 Micro Lens 402a to i Photodiode

Claims (7)

各マイクロレンズに対して撮像光学系の射出瞳の異なる領域を通過した光束を受光して光電変換する複数の光電変換部を撮像素子が有し、該撮像素子により取得した画像データの表示制御を行う撮像装置であって、
前記複数の光電変換部から選択した得た信号により右目用画像データおよび左目用画像データをそれぞれ生成する処理と、前記複数の光電変換部の出力する信号から2次元表示用の第1画像データを生成する処理を行うデータ処理手段と、
前記右目用画像データおよび左目用画像データを用いる立体視表示制御と、前記第1画像データを用いる2次元表示制御を行う制御手段を備え、
前記制御手段は、前記立体視表示制御を行うか、または前記立体視表示制御から前記2次元表示制御へ移行させる準備処理を行うか、または前記2次元表示制御を行うかを判定し、前記立体視表示制御から前記2次元表示制御へ移行させる準備処理にて前記右目用画像データまたは前記左目用画像データから2次元表示用の第2画像データを生成し、前記2次元表示制御へ切替える際に、前記第2画像データの表示制御を行うとともに前記データ処理手段による前記第1画像データの生成処理を制御することを特徴とする撮像装置。
The imaging device has a plurality of photoelectric conversion units that receive and photoelectrically convert light beams that have passed through different areas of the exit pupil of the imaging optical system for each microlens, and control display of image data acquired by the imaging device. An imaging device to perform,
Processing for generating right-eye image data and left-eye image data based on signals obtained from the plurality of photoelectric conversion units, and first image data for two-dimensional display from signals output from the plurality of photoelectric conversion units. Data processing means for performing the generation process;
Control means for performing stereoscopic display control using the right-eye image data and left-eye image data and two-dimensional display control using the first image data;
The control means determines whether to perform the stereoscopic display control, to perform a preparation process for shifting from the stereoscopic display control to the two-dimensional display control, or to perform the two-dimensional display control, and to perform the stereoscopic display control. When generating the second image data for two-dimensional display from the image data for the right eye or the image data for the left eye in the preparation process for shifting from the visual display control to the two-dimensional display control, and switching to the two-dimensional display control An image pickup apparatus that controls display of the second image data and controls generation processing of the first image data by the data processing means.
前記データ処理手段は、前記複数の光電変換部の出力から前記右目用画像データに係る信号を選択して合成する第1モードと、前記複数の光電変換部の出力から前記左目用画像データに係る信号を選択して合成する第2モードと、前記複数の光電変換部の出力を全て取得する第3モードを有する第1の選択合成手段を備え、
前記制御手段は、前記立体視表示制御から前記2次元表示制御へ移行させる準備処理にて、前記第1の選択合成手段を前記第1モードに設定して取得した前記右目用画像データ、または前記第1の選択合成手段を前記第2モードに設定して取得した前記左目用画像データから前記第2画像データを生成する処理を制御することを特徴とする請求項1に記載の撮像装置。
The data processing unit is configured to select and synthesize a signal related to the right-eye image data from outputs of the plurality of photoelectric conversion units; and to output the left-eye image data from outputs of the plurality of photoelectric conversion units. A first selection / synthesis unit having a second mode for selecting and combining signals and a third mode for acquiring all the outputs of the plurality of photoelectric conversion units;
The control means includes the right-eye image data acquired by setting the first selection / combination means to the first mode in the preparation process for shifting from the stereoscopic display control to the two-dimensional display control, or The imaging apparatus according to claim 1, wherein a process for generating the second image data from the left-eye image data acquired by setting the first selection / combination unit to the second mode is controlled.
前記第3モードに設定された前記第1の選択合成手段が出力した画像データを記憶する記憶手段を備え、
前記データ処理手段は、前記記憶手段に記憶された画像データから前記右目用画像データの生成に用いるデータを選択して合成するモードと、前記記憶手段に記憶された画像データから前記左目用画像データの生成に用いるデータを選択して合成するモードを有する第2の選択合成手段を備えることを特徴とする請求項2に記載の撮像装置。
Storage means for storing the image data output by the first selection / combination means set in the third mode;
The data processing unit selects and combines data used for generating the right-eye image data from the image data stored in the storage unit; and the left-eye image data from the image data stored in the storage unit The imaging apparatus according to claim 2, further comprising a second selection / combination unit having a mode for selecting and combining data used for generating the data.
前記撮像装置への操作指示に用いる接触検出手段を備え、
前記制御手段は、前記接触検出手段からの信号により、検出対象の接近状態を判定して前記立体視表示制御から前記2次元表示制御へ移行させる準備処理を行うことを特徴とする請求項1から3のいずれか1項に記載の撮像装置。
Contact detection means used for operating instructions to the imaging device,
The control unit performs a preparation process for determining an approaching state of a detection target based on a signal from the contact detection unit and shifting from the stereoscopic display control to the two-dimensional display control. 4. The imaging device according to any one of 3.
前記制御手段は、前記接触検出手段からの信号により、検出対象の接触状態を判定して前記2次元表示制御を行うことを特徴とする請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the control unit determines the contact state of a detection target based on a signal from the contact detection unit and performs the two-dimensional display control. 前記撮像装置の設定操作を行う際に用いる操作部材を備え、
前記制御手段は、前記操作部材による操作信号を取得した場合に前記2次元表示制御を行うことを特徴とする請求項1から5のいずれか1項に記載の撮像装置。
An operation member used when performing a setting operation of the imaging apparatus;
The imaging apparatus according to claim 1, wherein the control unit performs the two-dimensional display control when an operation signal from the operation member is acquired.
各マイクロレンズに対して撮像光学系の射出瞳の異なる領域を通過した光束を受光して光電変換する複数の光電変換部を撮像素子が有し、該撮像素子により取得した画像データの表示制御を行う撮像装置にて実行される制御方法であって、
立体視表示制御を行うか、または2次元表示制御を行うか、または前記立体視表示制御から前記2次元表示制御へ移行させる準備処理を行うか、を判定する判定ステップと、
前記判定ステップにて前記立体視表示制御を行うことが判定された場合、前記複数の光電変換部から選択して取得した信号により右目用画像データおよび左目用画像データを生成して表示制御を行うステップと、
前記判定ステップにて前記2次元表示制御を行うことが判定された場合、前記複数の光電変換部の出力する信号から2次元表示用の第1画像データを生成して表示制御を行うステップと、
前記判定ステップにて前記立体視表示制御から前記2次元表示制御へ移行させる準備処理を行うことが判定された場合、前記右目用画像データまたは前記左目用画像データから2次元表示用の第2画像データを生成し、前記2次元表示制御へ切替える際に、前記第2画像データの表示制御を行うとともに前記第1画像データの生成処理を行うステップを有することを特徴とする撮像装置の制御方法。

The imaging device has a plurality of photoelectric conversion units that receive and photoelectrically convert light beams that have passed through different areas of the exit pupil of the imaging optical system for each microlens, and control display of image data acquired by the imaging device. A control method executed by an imaging device to perform,
A determination step of determining whether to perform stereoscopic display control, to perform two-dimensional display control, or to perform preparation processing for shifting from the stereoscopic display control to the two-dimensional display control;
If it is determined in the determination step that the stereoscopic display control is to be performed, display control is performed by generating right-eye image data and left-eye image data based on a signal selected and acquired from the plurality of photoelectric conversion units. Steps,
When it is determined in the determination step that the two-dimensional display control is performed, the first image data for two-dimensional display is generated from the signals output from the plurality of photoelectric conversion units, and the display control is performed;
If it is determined in the determination step that preparation processing for shifting from the stereoscopic display control to the two-dimensional display control is performed, a second image for two-dimensional display is generated from the right-eye image data or the left-eye image data. A method for controlling an imaging apparatus, comprising the steps of performing display control of the second image data and generation processing of the first image data when generating data and switching to the two-dimensional display control.

JP2012076778A 2012-03-29 2012-03-29 Image pickup device and control method thereof Pending JP2013207678A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012076778A JP2013207678A (en) 2012-03-29 2012-03-29 Image pickup device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012076778A JP2013207678A (en) 2012-03-29 2012-03-29 Image pickup device and control method thereof

Publications (1)

Publication Number Publication Date
JP2013207678A true JP2013207678A (en) 2013-10-07

Family

ID=49526336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012076778A Pending JP2013207678A (en) 2012-03-29 2012-03-29 Image pickup device and control method thereof

Country Status (1)

Country Link
JP (1) JP2013207678A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005136541A (en) * 2003-10-29 2005-05-26 Sharp Corp Apparatus and method for stereoscopic image display
JP2008005203A (en) * 2006-06-22 2008-01-10 Nikon Corp Image reproducing device
WO2011118089A1 (en) * 2010-03-24 2011-09-29 富士フイルム株式会社 3d imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005136541A (en) * 2003-10-29 2005-05-26 Sharp Corp Apparatus and method for stereoscopic image display
JP2008005203A (en) * 2006-06-22 2008-01-10 Nikon Corp Image reproducing device
WO2011118089A1 (en) * 2010-03-24 2011-09-29 富士フイルム株式会社 3d imaging device

Similar Documents

Publication Publication Date Title
KR101691551B1 (en) Photographing apparatus and method
US20140028806A1 (en) Imaging device and imaging method
US8823778B2 (en) Imaging device and imaging method
US10587860B2 (en) Imaging apparatus and method for controlling same
KR101889932B1 (en) Apparatus and Method for photographing image
US8902294B2 (en) Image capturing device and image capturing method
JP2017005689A (en) Image processing system and image processing method
JP5627438B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5932363B2 (en) Imaging apparatus and control method thereof
JP5640383B2 (en) Imaging device
JP5871535B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US9369698B2 (en) Imaging apparatus and method for controlling same
JP6917803B2 (en) Imaging equipment, control methods, and programs
JP2012124650A (en) Imaging apparatus, and imaging method
JP5963550B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6071748B2 (en) Imaging apparatus and control method thereof
JP2013207678A (en) Image pickup device and control method thereof
JP6138222B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP6161307B2 (en) Imaging apparatus and control method thereof
JP6289515B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2014090318A (en) Imaging apparatus and control method of the same
JP2014146962A (en) Image pickup device and control method of the same
JP2014222268A (en) Imaging device and imaging device control method
JP2014206562A (en) Imaging apparatus and control method therefor
JP2014102400A (en) Imaging apparatus and method for controlling imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170207