JP2014110442A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2014110442A
JP2014110442A JP2012262458A JP2012262458A JP2014110442A JP 2014110442 A JP2014110442 A JP 2014110442A JP 2012262458 A JP2012262458 A JP 2012262458A JP 2012262458 A JP2012262458 A JP 2012262458A JP 2014110442 A JP2014110442 A JP 2014110442A
Authority
JP
Japan
Prior art keywords
imaging
processing
imaging unit
image
unit group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012262458A
Other languages
Japanese (ja)
Inventor
Shohei Tsutsumi
正平 堤
慶太 ▲高▼谷
Keita Takatani
Hidenori Kawai
秀紀 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012262458A priority Critical patent/JP2014110442A/en
Publication of JP2014110442A publication Critical patent/JP2014110442A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus having a plurality of imaging parts suitably arranged.SOLUTION: A plurality of imaging parts arranged in an imaging apparatus include: determination means having an imaging part group arranged in concentric shape and an imaging part group arranged in lattice shape; determination means for determining an image processing mode for image data photographed by the imaging apparatus; and selection means for selecting an imaging part used for imaging depending on the mode. The determination means determines one or more modes which contain at least one of: a re-focus processing, a field-angle change processing, viewpoint position change processing, noise reduction processing, resolution conversion processing, HDR processing, distant estimation, and parallax estimation.

Description

本発明は、撮像装置に関する。より詳細には、多視点の画像データを撮像する撮像装置に関する。   The present invention relates to an imaging apparatus. More specifically, the present invention relates to an imaging apparatus that captures multi-viewpoint image data.

これまで、カメラのピント調整を誤って撮像した場合は、ピント調整をやり直して再撮像する必要があった。また、奥行きの異なる複数の被写体に対してそれぞれにピントが合った画像を得たい場合には、被写体毎にピントを合わせた撮像を複数回行う必要があった。   In the past, if the camera focus was mistakenly imaged, it was necessary to re-focus and re-image. In addition, when it is desired to obtain images that are in focus with respect to a plurality of subjects having different depths, it is necessary to perform imaging with the subject in focus several times.

近年、光学系に新たな光学素子を追加することで複数視点からの画像を取得し、後で画像処理によってピント位置を調節すること(リフォーカス)が可能なライトフィールドフォトグラフィという技術が発展している。   In recent years, a technology called light field photography has been developed that can acquire images from multiple viewpoints by adding new optical elements to the optical system, and later adjust the focus position (refocus) by image processing. ing.

この技術を用いれば、撮像後にピント調整を行えるため、撮像時のピント調整の失敗を画像処理で補うことができるという利点がある。さらに、画像処理方法を変えることで画像中の任意の被写体にピントを合わせた複数の画像を一枚の撮像画像から得る事ができ、撮像回数を減らす事ができるという利点もある。   If this technique is used, since focus adjustment can be performed after imaging, there is an advantage that failure of focus adjustment during imaging can be compensated by image processing. Furthermore, by changing the image processing method, it is possible to obtain a plurality of images focused on an arbitrary subject in the image from one captured image, and there is an advantage that the number of times of imaging can be reduced.

ライトフィールドフォトグラフィでは、複数視点の画像データから、空間中の複数の位置について、それぞれの位置を通過する光線の方向と強度(ライトフィールド、以下、「LF」という。)を計算する。そして、得られたLFの情報を用いて、仮想の光学系を通過して仮想のセンサに結像した場合の画像を計算する。このような仮想の光学系やセンサを適宜設定する事で、リフォーカスも可能となる。LFに関する数学的性質や数学的基礎などはR.NGらによって議論されている(非特許文献1)。   In light field photography, the direction and intensity of light passing through each position (light field, hereinafter referred to as “LF”) is calculated for a plurality of positions in space from image data from a plurality of viewpoints. Then, using the obtained LF information, an image when passing through the virtual optical system and forming an image on the virtual sensor is calculated. Refocusing is also possible by appropriately setting such virtual optical systems and sensors. R. NG et al. Discuss mathematical properties and mathematical foundations related to LF (Non-patent Document 1).

LFを取得するための撮像技術としては、小型のカメラ(個眼カメラ)を並べたカメラアレイが知られている。カメラアレイでは、取得したLFから、仮想センサ上の画像データを撮像後に合成することができる。   As an imaging technique for acquiring LF, a camera array in which small cameras (single-eye cameras) are arranged is known. In the camera array, image data on the virtual sensor can be synthesized from the acquired LF after imaging.

LFから仮想センサ上の画像を合成する方法として、取得した複数枚の画像データを仮想的なセンサ上に射影変換し加算して平均化する方法が知られている(特許文献1)。   As a method for synthesizing an image on a virtual sensor from LF, a method is known in which a plurality of acquired image data are subjected to projective transformation on a virtual sensor, added and averaged (Patent Document 1).

また、複数視点の画像データを、上述したリフォーカス処理のほかに、ダイナミックレンジを広げるHDR処理や、距離や視差を推定する処理に用いることもできる。   In addition to the refocus processing described above, the image data of a plurality of viewpoints can also be used for HDR processing for expanding the dynamic range and processing for estimating distance and parallax.

国際公開第2008/050904号International Publication No. 2008/050904

R.NG, M.Levoy, M.Bredif, G.Duval, M. Horowitz, P.Hanrahan,”Light Field Photography with a Hand-held Plenoptic Camera”(Stanford Tech ReportCTSR 2005-02, 2005)R.NG, M.Levoy, M.Bredif, G.Duval, M. Horowitz, P. Hanrahan, “Light Field Photography with a Hand-held Plenoptic Camera” (Stanford Tech Report CTSR 2005-02, 2005)

カメラアレイを用いて複数視点の画像データを用いて上述した各種の処理機能を実現することが可能であるものの、個眼カメラが各々の機能に適した配置に必ずしもなっていない場合がある。   Although the above-described various processing functions can be realized using image data of a plurality of viewpoints using a camera array, the single-eye camera may not always be arranged appropriately for each function.

本発明に係る撮像装置は、複数の撮像部を有する撮像装置であって、前記複数の撮像部は、同心円状に配置される撮像部群と、格子状に配置される撮像部群とにより構成されることを特徴とする。   The imaging device according to the present invention is an imaging device having a plurality of imaging units, and the plurality of imaging units includes an imaging unit group arranged concentrically and an imaging unit group arranged in a grid pattern. It is characterized by being.

本発明によれば、各種の機能に適した位置に個眼カメラを配置することにより、複数の機能に適した撮像装置を提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the imaging device suitable for a some function by arrange | positioning a single eye camera in the position suitable for various functions.

実施例1に係る撮像装置の外観の一例を示す図である。1 is a diagram illustrating an example of an appearance of an imaging apparatus according to Embodiment 1. FIG. 実施例1に係る撮像装置の構成の一例を示す図である。1 is a diagram illustrating an example of a configuration of an imaging apparatus according to Embodiment 1. FIG. 実施例1に係る撮像装置の撮像部の一例を示す図である。FIG. 3 is a diagram illustrating an example of an imaging unit of the imaging apparatus according to the first embodiment. 合成処理を説明するための図である。It is a figure for demonstrating a synthetic | combination process. 合成処理を説明するための図である。It is a figure for demonstrating a synthetic | combination process. 実施例1に係る撮像装置の処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of processing of the imaging apparatus according to the first embodiment. 撮像装置の変形例を示す図である。It is a figure which shows the modification of an imaging device. 撮像装置の他の変形例を示す図である。It is a figure which shows the other modification of an imaging device. 撮像装置の外観の一例を示す図である。It is a figure which shows an example of the external appearance of an imaging device.

以下、図面を参照して本発明を実施するための形態について説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

図1は、本実施例に係る撮像装置100の外観の一例を示す図である。図1は撮像装置100の前面側(撮像部が配置される面)から見た斜視図である。   FIG. 1 is a diagram illustrating an example of an appearance of the imaging apparatus 100 according to the present embodiment. FIG. 1 is a perspective view of the imaging apparatus 100 as viewed from the front side (surface on which an imaging unit is disposed).

図1に示すように撮像装置100の前面には複数の撮像部101−112が同心円状に配置され、かつ、同心円状の内部に複数の撮像部113−116が格子状に配置されることによってカメラアレイを形成している。すなわち、図1の撮像装置100は、第1の撮像部群が第1の形状に配置され、第2の撮像部群が第1の形状とは異なる第2の形状に配置される例を示している。   As shown in FIG. 1, a plurality of image pickup units 101-112 are concentrically arranged on the front surface of the image pickup apparatus 100, and a plurality of image pickup units 113-116 are arranged in a lattice shape inside the concentric circles. A camera array is formed. That is, the imaging apparatus 100 in FIG. 1 shows an example in which the first imaging unit group is arranged in the first shape and the second imaging unit group is arranged in a second shape different from the first shape. ing.

なお、図1の例においては、第1の撮像部群が12個の撮像部を有し、第2の撮像部群が4個の撮像部を有する例を挙げて説明しているが、複数の形状を成す撮像部が含まれていればよく、図1で説明する例に限定されるものではない。また、図示していないが、撮像装置100は、ボタン、タッチパネルディスプレイ、ジョグダイヤルなど各種のインターフェイスなどの他の機能を有することができる。   In the example of FIG. 1, the first imaging unit group has 12 imaging units and the second imaging unit group has 4 imaging units. It is only necessary to include an imaging unit having a shape as described above, and the present invention is not limited to the example described with reference to FIG. Although not shown, the imaging apparatus 100 can have other functions such as various interfaces such as buttons, a touch panel display, and a jog dial.

図2は、図1に示す撮像装置100の構成の一例を示す図である。CPU201は、RAM202をワークメモリとして使用して、ROM203に格納されたOSや各種プログラムを実行する。また、CPU201は、システムバス200を介して、撮像装置100の各構成を制御する。RAM202は、撮像光学系の制御結果を示すフォーカス設定及び絞り設定など撮像部101−116の状態を示す情報である撮像パラメータなどを格納する。ROM203は、撮像部101−116の相対的な位置関係並びに各撮像部の撮像素子の画素ピッチ、光のエネルギーの受光効率、及び撮像部の焦点距離(画角)などを示すカメラ設計パラメータなどを格納する。なお、図示していないが、各撮像部101−116のROMに当該撮像部のカメラ設計パラメータを格納するようにしてもよい。   FIG. 2 is a diagram illustrating an example of the configuration of the imaging apparatus 100 illustrated in FIG. The CPU 201 executes the OS and various programs stored in the ROM 203 using the RAM 202 as a work memory. Further, the CPU 201 controls each component of the imaging device 100 via the system bus 200. The RAM 202 stores imaging parameters, which are information indicating the state of the imaging units 101-116, such as focus settings and aperture settings that indicate control results of the imaging optical system. The ROM 203 stores the relative positional relationship of the imaging units 101 to 116, the pixel pitch of the imaging element of each imaging unit, the light receiving efficiency of light energy, the camera design parameters indicating the focal length (view angle) of the imaging unit, and the like. Store. Although not shown, the camera design parameters of the image capturing unit may be stored in the ROM of each image capturing unit 101-116.

CPU201は、コンピュータグラフィックス(CG)生成部207及び表示制御部204を制御してモニタ213にユーザインタフェイス(UI)を表示させる。また、CPU201は、撮影ボタン163や操作部164を介してユーザ指示を受信する。そして、CPU201は、ユーザ指示に従い、撮像時の被写体距離、焦点距離、絞り、露光時間、及びフラッシュの発光などの撮影条件の設定をすることができる。また、CPU201は、ユーザ指示に従い、撮像の指示、及び撮像した画像の表示設定を行うことができる。CG生成部207は、UIを実現するための文字やグラフィックスなどのデータを生成する。   The CPU 201 controls the computer graphics (CG) generation unit 207 and the display control unit 204 to display a user interface (UI) on the monitor 213. Further, the CPU 201 receives a user instruction via the shooting button 163 and the operation unit 164. Then, the CPU 201 can set shooting conditions such as a subject distance, a focal length, an aperture, an exposure time, and a flash emission according to a user instruction. Further, the CPU 201 can perform an imaging instruction and display setting of the captured image in accordance with a user instruction. The CG generation unit 207 generates data such as characters and graphics for realizing the UI.

ユーザから撮影を指示されると、CPU201は、ユーザの指示に対応した光学系の制御方法を光学系制御方法生成部209から取得する。次に、CPU201は、取得した光学系の制御方法に基づいて光学系制御部210に撮像を指示する。この撮像指示を受信した光学系制御部210は、フォーカスを合わせ、絞りを調節し、又はシャッタを開閉するなどの撮像光学系の制御を行う。また、光学系制御部210は、撮像光学系の制御結果を示すフォーカス設定及び絞り設定など撮像部101−116の状態を示す情報である撮像パラメータをRAM202に格納する。なお、一つの光学系制御部210によって各撮像部101−116の撮像光学系を制御するのではなく、CPU201と通信可能な光学系制御部を各撮像部101−116に備えてもよい。   When photographing is instructed by the user, the CPU 201 acquires an optical system control method corresponding to the user's instruction from the optical system control method generation unit 209. Next, the CPU 201 instructs the optical system control unit 210 to perform imaging based on the acquired optical system control method. Upon receiving this imaging instruction, the optical system control unit 210 controls the imaging optical system such as adjusting the focus, adjusting the aperture, or opening and closing the shutter. In addition, the optical system control unit 210 stores, in the RAM 202, imaging parameters that are information indicating the state of the imaging units 101-116, such as focus settings and aperture settings that indicate the control results of the imaging optical system. Instead of controlling the imaging optical system of each imaging unit 101-116 with one optical system control unit 210, each imaging unit 101-116 may be provided with an optical system control unit that can communicate with the CPU 201.

撮像部101−116はそれぞれ、被写体からの光をCCDやCMOSなどの撮像センサ307において受光する。詳細は図3に関連して後述する。撮像部101−116は、撮像センサ307が出力するアナログ信号をアナログ−デジタル(A/D)変換した撮像データ(以下、RAWデータ)を、一旦、撮像部101−116内のバッファメモリに保持する。バッファメモリに保持されたRAWデータは、CPU201の制御により、順次、RAM202の所定領域に格納される。   Each of the imaging units 101 to 116 receives light from a subject in an imaging sensor 307 such as a CCD or a CMOS. Details will be described later with reference to FIG. The imaging unit 101-116 temporarily holds imaging data (hereinafter, RAW data) obtained by analog-digital (A / D) conversion of an analog signal output from the imaging sensor 307 in a buffer memory in the imaging unit 101-116. . The RAW data held in the buffer memory is sequentially stored in a predetermined area of the RAM 202 under the control of the CPU 201.

デジタル信号処理部208は、RAM202の所定領域に格納された複数のRAWデータ(以下、RAWデータ群)から画像データを生成する現像処理を行う。またデジタル信号処理部208は、RAWデータ群および生成した画像データをRAM202の所定領域に格納する。なお、現像処理には、複数のRAWデータを合成する合成処理、デモザイキング処理、ホワイトバランス処理、ガンマ処理、及びノイズ低減処理などが含まれる。また、デジタル信号処理部208は、撮影後の画像データに対してズーム倍率を変更し、変更後の画像データを生成する処理を行うことができる。生成した画像データにはフォーカス距離、ズーム倍率および被写界深度などを示す現像処理時のパラメータ(以下、画像生成パラメータ)が付加される。画像生成パラメータは、例えばユーザから指定された値に基づいて生成される。また、例えば初回現像時などにおいては初期設定値を画像生成パラメータとして用いることができる。また、RAWデータ群には少なくとも撮像パラメータが付加されるが、外部の画像処理装置による現像処理を考慮して、カメラ設計パラメータを付加してもよい。   The digital signal processing unit 208 performs development processing for generating image data from a plurality of RAW data (hereinafter, RAW data group) stored in a predetermined area of the RAM 202. The digital signal processing unit 208 stores the RAW data group and the generated image data in a predetermined area of the RAM 202. The development process includes a composition process for combining a plurality of RAW data, a demosaicing process, a white balance process, a gamma process, a noise reduction process, and the like. Further, the digital signal processing unit 208 can change the zoom magnification with respect to the image data after photographing, and can perform processing for generating the changed image data. Parameters for development processing (hereinafter referred to as image generation parameters) indicating the focus distance, zoom magnification, depth of field, and the like are added to the generated image data. The image generation parameter is generated based on a value designated by the user, for example. In addition, for example, at the time of initial development, an initial setting value can be used as an image generation parameter. In addition, although at least imaging parameters are added to the RAW data group, camera design parameters may be added in consideration of development processing by an external image processing apparatus.

CPU201は、表示制御部204を制御して、RAM202の所定領域に格納された画像データをモニタ213に表示する。圧縮伸長部212は、RAM202の所定領域に格納された画像データをJPEGやMPEGなどのフォーマットに変換するエンコード処理を行う。また、圧縮伸長部212は、必要ならば、RAWデータ群をロスレス圧縮する処理を行う。   The CPU 201 controls the display control unit 204 to display image data stored in a predetermined area of the RAM 202 on the monitor 213. The compression / decompression unit 212 performs an encoding process for converting image data stored in a predetermined area of the RAM 202 into a format such as JPEG or MPEG. Further, the compression / decompression unit 212 performs a process for lossless compression of the RAW data group, if necessary.

CPU201は、表示制御部204を制御して、RAM202の所定領域に格納された画像データをモニタ213に表示する。圧縮伸長部212は、RAM202の所定領域に格納された画像データをJPEGやMPEGなどのフォーマットに変換するエンコード処理、必要ならば、RAWデータ群をロスレス圧縮する処理を行う。   The CPU 201 controls the display control unit 204 to display image data stored in a predetermined area of the RAM 202 on the monitor 213. The compression / decompression unit 212 performs an encoding process for converting image data stored in a predetermined area of the RAM 202 into a format such as JPEG or MPEG, and if necessary, a process for lossless compression of a RAW data group.

インタフェイス(I/F)205は、例えばメモリカードやUSBメモリなどの記録メディア206を読み書きする機能及び有線や無線のネットワークに接続する機能を有する。I/F205は、CPU201の指示に従い、例えばRAM202に格納されたJPEGやMPEGフォーマットの画像データおよびRAWデータ群を外部のメディアやサーバ装置に出力したり、外部の記録メディアやサーバ装置から各種データを入力する。   An interface (I / F) 205 has a function of reading and writing a recording medium 206 such as a memory card or a USB memory, and a function of connecting to a wired or wireless network. In accordance with an instruction from the CPU 201, the I / F 205 outputs, for example, JPEG or MPEG format image data and RAW data stored in the RAM 202 to an external medium or server device, or outputs various data from an external recording medium or server device. input.

画像生成パラメータ生成部211は、デジタル信号処理部208における現像処理に必要な画像生成パラメータを生成する。   The image generation parameter generation unit 211 generates image generation parameters necessary for development processing in the digital signal processing unit 208.

<各撮像部の構成例>
図3のブロック図は、撮像部101の構成例を示す図である。なお、図3には撮像部101の構成例を示すが、他の撮像部102−116もほぼ同様の構成を有する。ただし、撮像部101−116の画角、フォーカスおよび絞りなどの設定は、必ずしもすべて同一の構成でなくてもよい。
<Configuration example of each imaging unit>
The block diagram of FIG. 3 is a diagram illustrating a configuration example of the imaging unit 101. FIG. 3 shows a configuration example of the imaging unit 101, but the other imaging units 102-116 have substantially the same configuration. However, the settings such as the angle of view, the focus, and the aperture of the imaging units 101 to 116 do not necessarily have the same configuration.

被写体からの光は、フォーカスレンズ群301a、絞り302a、固定レンズ群303a、シャッタ304a、赤外線カットフィルタ305、カラーフィルタ306を通過して、CMOSセンサやCCDなどの撮像センサ307上に結像する。A/D変換部308は、撮像センサ素子が出力するアナログ信号をA/D変換する。バッファ309は、A/D変換部308が出力するRAWデータを一時的に格納し、CPU201の要求に応じて、RAWデータをシステムバス200を介してRAM202に転送する。   Light from the subject passes through a focus lens group 301a, a diaphragm 302a, a fixed lens group 303a, a shutter 304a, an infrared cut filter 305, and a color filter 306, and forms an image on an image sensor 307 such as a CMOS sensor or a CCD. The A / D conversion unit 308 performs A / D conversion on the analog signal output from the imaging sensor element. The buffer 309 temporarily stores the RAW data output from the A / D conversion unit 308 and transfers the RAW data to the RAM 202 via the system bus 200 in response to a request from the CPU 201.

なお、図3(a)に示すレンズ群と絞りの配置は一例であり、異なる配置でもよい。例えば、一部またはすべての撮像部がテレセントリック性などのレンズ性能を向上させるための固定レンズ群303aをもたなくてもよい。   The arrangement of the lens group and the diaphragm shown in FIG. 3A is an example and may be different. For example, some or all of the imaging units may not have the fixed lens group 303a for improving lens performance such as telecentricity.

(画像合成処理)
図4および図5を参照してデジタル信号処理部208による画像の合成の概念について説明する。図4(a)は異なる距離にある被写体を撮像部401〜403で撮影した様子を表している。
(Image composition processing)
The concept of image synthesis by the digital signal processing unit 208 will be described with reference to FIGS. 4 and 5. FIG. 4A illustrates a state where subjects at different distances are captured by the imaging units 401 to 403.

図4(a)において、撮像部401〜403は撮像部101〜116の中で代表的な3つの撮像部を図示したものである。点線404〜406は仮想的なピント位置(ピントを合わせようとする位置)の中で代表的な3枚の仮想的なピント位置を図示したものである。図4(a)に示すように、被写体407〜409はそれぞれ距離の異なる位置に置かれている。   In FIG. 4A, imaging units 401 to 403 illustrate three typical imaging units among the imaging units 101 to 116. Dotted lines 404 to 406 illustrate three typical virtual focus positions among the virtual focus positions (positions to be focused). As shown in FIG. 4A, the subjects 407 to 409 are placed at different distances.

図4(b)は、撮像部401で取得した画像410を表す。撮像部402、403で取得する画像は、画像410において、各被写体404〜406の距離に応じた視差分だけ被写体がずれた画像になる。   FIG. 4B shows an image 410 acquired by the imaging unit 401. Images acquired by the imaging units 402 and 403 are images in which the subject is shifted by the amount of parallax corresponding to the distance between the subjects 404 to 406 in the image 410.

図5はデジタル信号処理部208によって再構成された(合成された)画像の概念図である。画像501は仮想的なピント位置を点線406に設定したときの再構成後の画像である。画像501では被写体407にピントが合っており、被写体408、409にはボケが発生している。   FIG. 5 is a conceptual diagram of an image reconstructed (combined) by the digital signal processing unit 208. An image 501 is an image after reconstruction when the virtual focus position is set to the dotted line 406. In the image 501, the subject 407 is in focus, and the subjects 408 and 409 are blurred.

画像502は仮想的なピント位置を点線405にしたとき、画像503は仮想的なピント位置を点線404にしたときのそれぞれの再構成後の画像である。画像502、503はそれぞれピントが合った被写体は408、409である。このように仮想的なピントを動かすことで、好きな被写体にピントを合わせた画像を得ることができる。   An image 502 is a reconstructed image when the virtual focus position is a dotted line 404 when the virtual focus position is a dotted line 405. In the images 502 and 503, the subjects in focus are 408 and 409, respectively. By moving the virtual focus in this way, it is possible to obtain an image that focuses on a favorite subject.

この合成処理の例では、仮想的なピント位置を制御することにより、所定の被写体にピントを合わせると同時に他の被写体をボケさせることが可能となる。合成処理の例はこれに限らず、例えば、画角を変更する処理、視点位置を変更する処理、ノイズを低減するノイズ低減処理、ダイナミックレンジを広げるHDR処理や、解像度を上げる高解像度化処理であっても良い。   In this example of composition processing, by controlling the virtual focus position, it is possible to focus on a predetermined subject and simultaneously blur other subjects. Examples of the synthesis process are not limited to this. For example, a process for changing the angle of view, a process for changing the viewpoint position, a noise reduction process for reducing noise, an HDR process for expanding the dynamic range, and a high resolution process for increasing the resolution. There may be.

<撮像装置の処理フロー>
図6は、撮像装置の処理の一例を示すフローチャートである。
<Processing flow of imaging device>
FIG. 6 is a flowchart illustrating an example of processing of the imaging apparatus.

ステップS601において、光学系制御方法生成部209は、予め設定された複数のモード(機能)のうち、使用するモードを決定する。複数のモードには、例えば次のモードが挙げられる。すなわち、リフォーカス処理を行うモード、画角変更処理を行うモード、視点位置変更処理を行うモード、ノイズ低減処理を行うモード、画像の解像度を変換させ解像度変換処理を行うモード、HDR処理を行うモード、距離・視差推定を行うモードである。なお、上述したモード以外のモードが含まれていてよい。使用するモードについては、例えばユーザから操作部164を介して入力された情報に基づいて光学系制御方法生成部209が決定することができる。例えば、ユーザは不図示のジョグダイヤルやスイッチディスプレイ上のタッチパネルを介して、使用するモードを撮像装置100に入力することができる。   In step S601, the optical system control method generation unit 209 determines a mode to be used among a plurality of preset modes (functions). Examples of the plurality of modes include the following modes. That is, a mode for performing a refocus process, a mode for performing a view angle changing process, a mode for performing a viewpoint position changing process, a mode for performing noise reduction processing, a mode for performing resolution conversion processing by converting the resolution of an image, and a mode for performing HDR processing In this mode, distance / disparity estimation is performed. Note that modes other than the modes described above may be included. The mode to be used can be determined by the optical system control method generation unit 209 based on information input from the user via the operation unit 164, for example. For example, the user can input a mode to be used to the imaging apparatus 100 via a jog dial (not shown) or a touch panel on a switch display.

ステップS602において、光学系制御方法生成部209は、ステップS601で決定したモードに応じて、撮像に用いる撮像部を選択する。すなわち、光学系制御方法生成部209は、光学系制御部210を介して制御する撮像部を決定する。   In step S602, the optical system control method generation unit 209 selects an imaging unit to be used for imaging according to the mode determined in step S601. That is, the optical system control method generation unit 209 determines an imaging unit to be controlled via the optical system control unit 210.

撮像後にピント位置を変更するリフォーカス処理を行う場合、格子状に配置された撮像部群を用いるよりも同心円状に配置された撮像部群を用いる方が画像を加工したり編集したりする処理に適している。例えば、リフォーカス時に被写界深度を制御したり、ボケを付与する場合には、同心円状に配置された撮像部群の方が自然なボケを再現することができる。   When performing refocus processing to change the focus position after imaging, processing using the imaging unit group arranged concentrically rather than using the imaging unit group arranged in a grid is a process for processing or editing an image Suitable for For example, when controlling the depth of field at the time of refocusing or adding blur, the image pickup unit group arranged concentrically can reproduce natural blur.

一方、格子状に配置された撮像部群は、同心円状に配置された撮像部群よりも計算誤差が少なくなるので、距離・視差推定に適している。   On the other hand, the imaging unit group arranged in a lattice shape has a smaller calculation error than the imaging unit group arranged in a concentric circle, and thus is suitable for distance / disparity estimation.

このように、使用するモードに応じて好ましい撮像部群が異なる。よって、ステップS602においては、モードに応じて撮像に用いる撮像部を選択する。なお、ステップS602においては、撮像部群の全ての撮像部を、撮像に用いる撮像部として選択しなくてもよい。光学系制御方法生成部209は、モードに応じて撮像に用いる撮像部群を決定し、決定した撮像部群の中から撮像に用いる撮像部を選択してもよい。例えば、決定したモードの処理をより精細に行う場合にはより多くの撮像部を選択し、決定したモードの処理をより高速に行う場合には、より少ない撮像部を選択してもよい。   Thus, a preferable imaging unit group differs depending on the mode to be used. Therefore, in step S602, the imaging unit used for imaging is selected according to the mode. In step S602, it is not necessary to select all the imaging units of the imaging unit group as imaging units used for imaging. The optical system control method generation unit 209 may determine an imaging unit group to be used for imaging according to the mode, and may select an imaging unit to be used for imaging from the determined imaging unit group. For example, more imaging units may be selected when the determined mode processing is performed more precisely, and fewer imaging units may be selected when the determined mode processing is performed at higher speed.

なお、ステップS601では1つのモードが決定される場合を例として説明しているが、ステップS702で複数のモードが決定されてもよい。例えば、リフォーカス処理と距離推定処理とが決定がされてもよい。この場合、ステップS602において、光学系制御方法生成部209は、決定されたモードに従って、同心円状に配置された撮像部と、格子状の配置された撮像部との両方を、撮像に用いる撮像部として選択してもよい。   In addition, although the case where one mode is determined is described as an example in step S601, a plurality of modes may be determined in step S702. For example, a refocus process and a distance estimation process may be determined. In this case, in step S602, the optical system control method generation unit 209 uses both the imaging units arranged concentrically and the imaging units arranged in a grid shape for imaging according to the determined mode. You may choose as

ステップS603で、光学系制御部210は、ステップS602で選択された撮像部を用いて撮像を行う。撮像した画像データは、RAM202に記録される。   In step S603, the optical system control unit 210 performs imaging using the imaging unit selected in step S602. The captured image data is recorded in the RAM 202.

ステップS603で、CPU201はデジタル信号処理部208を制御して、ステップS603で撮像された画像データに対して、ステップS601で決定したモードに従って画像処理を行う。   In step S603, the CPU 201 controls the digital signal processing unit 208 to perform image processing on the image data captured in step S603 according to the mode determined in step S601.

以上のように、本実施例においては、第1の撮像部群が同心円状に配置され、かつ、同心円状の内部に第2の撮像部群が格子状に配置されたカメラアレイを形成している。係る構成により、撮像後の画像処理において使用するモードに応じて、使用する撮像部を選択することできる。そして、このように選択された撮像部を介して得られる画像データを用いることにより、各モードに応じて好適な画像処理を行うことができる。   As described above, in this embodiment, a camera array is formed in which the first imaging unit group is concentrically arranged and the second imaging unit group is arranged in a lattice shape inside the concentric circle. Yes. With such a configuration, an imaging unit to be used can be selected according to a mode used in image processing after imaging. Then, by using the image data obtained through the imaging unit selected in this way, suitable image processing can be performed according to each mode.

実施例1では、第1の撮像部群が同心円状に配置され、かつ、同心円状の内部に第2の撮像部群が格子状に配置されたカメラアレイを形成するように構成された撮像装置の例を説明した。実施例2においては、各種の変形例について説明する。   In the first embodiment, an imaging apparatus configured to form a camera array in which the first imaging unit group is arranged concentrically and the second imaging unit group is arranged in a concentric circle inside the grid. Explained the example. In the second embodiment, various modifications will be described.

図7は、実施例1で説明した図1とは逆に、格子状の撮像部701−704の内部に同心円状の撮像部705−712が配置される撮像装置700の例を示している。なお、図7の例では、同心円状の撮像部705−712の内部にさらに撮像部713が配置されている例を示しているが、撮像部713は配置されていてもいなくてもよい。   FIG. 7 shows an example of an imaging apparatus 700 in which concentric imaging units 705-712 are arranged inside a grid-like imaging unit 701-704, contrary to FIG. 1 described in the first embodiment. In the example of FIG. 7, an example in which the imaging unit 713 is further arranged inside the concentric imaging units 705 to 712 is shown, but the imaging unit 713 may or may not be arranged.

図8は、図7で示す撮像装置700を変形した例である撮像装置800を示している。すなわち、同心円状に配置されている撮像部805−812と格子状に配置されている撮像部801−804とが横に並行に配置されている例を示している。なお、図7で説明したように、同心円状に配置されている撮像部805−812の内部の撮像部813は、配置されてもいなくてもよい。   FIG. 8 shows an imaging apparatus 800 that is a modified example of the imaging apparatus 700 shown in FIG. That is, an example is shown in which the imaging units 805-812 arranged concentrically and the imaging units 801-804 arranged in a grid are arranged side by side in parallel. Note that, as described with reference to FIG. 7, the imaging unit 813 inside the imaging units 805-812 arranged concentrically may or may not be arranged.

以上のように、第1の撮像部群が第1の形状に配置され、第2の撮像部群が第1の形状とは異なる第2の形状に配置されるいずれの場合についても、本発明を適用することは可能である。   As described above, the present invention is applicable to any case where the first imaging unit group is arranged in the first shape and the second imaging unit group is arranged in the second shape different from the first shape. It is possible to apply

<撮像装置の外観>
図9は、撮像装置の外観の一例を示す図である。図9(a)は、正面図である。図9(b)は平面図である。図9(c)は底面図である。図9(d)は左側面図である。図9(e)は右側面図である。図9(f)は背面図である。
<Appearance of imaging device>
FIG. 9 is a diagram illustrating an example of the appearance of the imaging apparatus. FIG. 9A is a front view. FIG. 9B is a plan view. FIG. 9C is a bottom view. FIG. 9D is a left side view. FIG. 9E is a right side view. FIG. 9F is a rear view.

(その他の実施形態)
なお、上記の例では、複数の撮像部が同心円状に配置されるものとして説明した。しかしながら、必ずしも同心円である必要はなく、楕円状に配置されていてもよい。また、上記の例では、第1の撮像部群と第2の撮像部群とが2つの形状を形成する場合を例に挙げて説明したが、第3の撮像部群を設けるなど3つ以上の形状を形成してもよい。
(Other embodiments)
In the example described above, a plurality of imaging units are described as being concentrically arranged. However, they are not necessarily concentric circles and may be arranged in an elliptical shape. In the above example, the case where the first image pickup unit group and the second image pickup unit group form two shapes has been described as an example, but there are three or more such as providing a third image pickup unit group. The shape may be formed.

また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   The object of the present invention can also be achieved by executing the following processing. That is, a storage medium that records a program code of software that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus is stored in the storage medium. This is the process of reading the code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention.

Claims (7)

複数の撮像部を有する撮像装置であって、
前記複数の撮像部は、同心円状に配置される撮像部群と、格子状に配置される撮像部群とにより構成されることを特徴とする撮像装置。
An imaging apparatus having a plurality of imaging units,
The plurality of imaging units are configured by an imaging unit group arranged concentrically and an imaging unit group arranged in a lattice shape.
前記撮像装置で撮像された画像データの画像処理のモードを決定する決定手段と、
前記モードに応じて撮像に使用する撮像部を選択する選択手段と、
をさらに有することを特徴とする請求項1に記載の撮像装置。
Determining means for determining an image processing mode of image data captured by the imaging device;
Selection means for selecting an imaging unit to be used for imaging according to the mode;
The imaging apparatus according to claim 1, further comprising:
前記決定手段は、1つ以上のモードを決定することを特徴とする請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the determining unit determines one or more modes. 前記モードは、リフォーカス処理、画角変更処理、視点位置変更処理、ノイズ低減処理、解像度変換処理、HDR処理、距離推定、および視差推定の少なくとも1つを含むことを特徴とする請求項2または3に記載の撮像装置。   3. The mode according to claim 2, wherein the mode includes at least one of refocus processing, angle of view change processing, viewpoint position change processing, noise reduction processing, resolution conversion processing, HDR processing, distance estimation, and parallax estimation. 3. The imaging device according to 3. 前記格子状に配置される撮像部群は、前記同心円状に配置される撮像部群の内部に配置されることを特徴とする請求項1から4のいずれかに記載の撮像装置。   The imaging device according to any one of claims 1 to 4, wherein the imaging unit group arranged in a lattice shape is arranged inside the imaging unit group arranged in a concentric shape. 前記同心円状に配置される撮像部群は、前記格子状に配置される撮像部群の内部に配置されることを特徴とする請求項1から4のいずれかに記載の撮像装置。   The imaging device according to claim 1, wherein the imaging unit group arranged concentrically is arranged inside the imaging unit group arranged in the lattice shape. 前記格子状に配置される撮像部群は、前記同心円状に配置される撮像部群と並行に配置されることを特徴とする請求項1から4のいずれかに記載の撮像装置。   5. The imaging device according to claim 1, wherein the imaging unit group arranged in a lattice shape is arranged in parallel with the imaging unit group arranged in a concentric shape. 6.
JP2012262458A 2012-11-30 2012-11-30 Imaging apparatus Pending JP2014110442A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012262458A JP2014110442A (en) 2012-11-30 2012-11-30 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012262458A JP2014110442A (en) 2012-11-30 2012-11-30 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2014110442A true JP2014110442A (en) 2014-06-12

Family

ID=51030863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012262458A Pending JP2014110442A (en) 2012-11-30 2012-11-30 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2014110442A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160100785A (en) * 2015-02-16 2016-08-24 삼성전자주식회사 Data Processing Device For Processing Multiple Sensor Data and System including the Same
US11049212B2 (en) 2015-02-16 2021-06-29 Samsung Electronics Co., Ltd. Data processing device for processing multiple sensor data and system including the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160100785A (en) * 2015-02-16 2016-08-24 삼성전자주식회사 Data Processing Device For Processing Multiple Sensor Data and System including the Same
US11049212B2 (en) 2015-02-16 2021-06-29 Samsung Electronics Co., Ltd. Data processing device for processing multiple sensor data and system including the same
KR102359268B1 (en) * 2015-02-16 2022-02-08 삼성전자주식회사 Data Processing Device For Processing Multiple Sensor Data and System including the Same

Similar Documents

Publication Publication Date Title
JP6055332B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP5956808B2 (en) Image processing apparatus and method
JP5854984B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2013201752A5 (en)
JP6159097B2 (en) Image processing apparatus, imaging apparatus, control method, and program
US9924155B2 (en) Imaging apparatus and method for controlling same
JP6095266B2 (en) Image processing apparatus and control method thereof
JP2014157425A (en) Imaging device and control method thereof
JP2017005689A (en) Image processing system and image processing method
JP6016516B2 (en) Image processing apparatus, control method therefor, image processing program, and imaging apparatus
JP2014110444A (en) Imaging device
JP6053276B2 (en) Imaging apparatus, control method therefor, and image processing apparatus
JP2016028468A (en) Imaging apparatus and control method thereof and program
JP2012156747A (en) Imaging apparatus, image composition method, and program
JP2014110442A (en) Imaging apparatus
US9369698B2 (en) Imaging apparatus and method for controlling same
JP5895587B2 (en) Image recording apparatus, image recording method, image reproducing apparatus, and image reproducing method
JP6491442B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6210836B2 (en) IMAGING DEVICE, IMAGING CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP5744642B2 (en) Image processing apparatus, image processing method, and program.
JP6585890B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP6757245B2 (en) Video playback device, imaging device, video playback method and program
JP6138222B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2019208214A (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP2015084517A (en) Image processing apparatus, image processing method, program and recording medium