JP2006135823A - Image processor, imaging apparatus and image processing program - Google Patents

Image processor, imaging apparatus and image processing program Download PDF

Info

Publication number
JP2006135823A
JP2006135823A JP2004324590A JP2004324590A JP2006135823A JP 2006135823 A JP2006135823 A JP 2006135823A JP 2004324590 A JP2004324590 A JP 2004324590A JP 2004324590 A JP2004324590 A JP 2004324590A JP 2006135823 A JP2006135823 A JP 2006135823A
Authority
JP
Japan
Prior art keywords
image
parallax
pixel
images
pixel information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004324590A
Other languages
Japanese (ja)
Inventor
Hidetoshi Wada
秀俊 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004324590A priority Critical patent/JP2006135823A/en
Publication of JP2006135823A publication Critical patent/JP2006135823A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for reducing image quality deterioration in the case of generating a single image on the basis of a plurality of images. <P>SOLUTION: This image processor generates a single image on the basis of pixel information of a plurality of input images. The image processor has a compositing means 115 capable of obtaining at least a part of pixels in the single image by compositing pixel information of at least two input images among the plurality of input images. The compositing means changes composition ratios of pixel information on the basis of information about a parallax between the input images. In addition, the image processor changes methods for generating the single image on the basis of the information about the parallax between the input images. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description


本発明は、複眼光学系等を用いて取得された複数の画像に基づいて単一画像を生成する装置およびこれを備えた撮像装置に関する。

The present invention relates to an apparatus for generating a single image based on a plurality of images acquired using a compound eye optical system or the like, and an imaging apparatus including the apparatus.

従来、2組の撮像系を用いて共通(同一)の被写体を撮影して得られる2つの画像を合成することにより高精細な単一の画像を得る複眼撮像装置が提案されている。(例えば、特許文献1、2参照)。この複眼撮像装置では、左側撮像系と右側撮像系とを用意し、左側撮像系と右側撮像系とでサンプリング点を空間位相で1/2ピッチずらして被写体を撮影するとともに、左側撮像系で得られた画像と右側撮像系で得られた画像とを合成することにより、1つの撮像系で被写体を撮影した場合に比べて高解像度な1つの出力画像を得ることができる。   2. Description of the Related Art Conventionally, there has been proposed a compound eye imaging apparatus that obtains a single high-definition image by synthesizing two images obtained by photographing a common (identical) subject using two sets of imaging systems. (For example, see Patent Documents 1 and 2). In this compound-eye imaging device, a left imaging system and a right imaging system are prepared, and the left imaging system and the right imaging system capture a subject with a sampling point shifted by ½ pitch in the spatial phase. By synthesizing the obtained image and the image obtained by the right imaging system, it is possible to obtain one output image having a higher resolution than when a subject is photographed by one imaging system.

この原理を、カラー画像に応用することも可能であり、この場合、各撮影光学系に対してベイヤー配列やストライプ配列等のカラーフィルタを有するイメージセンサを備える方法と、撮影光学系ごとに色感度特性の異なるイメージセンサを用いる方法とがある。   This principle can also be applied to color images. In this case, each imaging optical system is provided with an image sensor having a color filter such as a Bayer arrangement or a stripe arrangement, and the color sensitivity for each imaging optical system. There is a method using image sensors having different characteristics.

ここで、各撮影光学系の光軸がずれて視差を有する場合、複数の画像の合成による高精細な画像を得る効果が低減される。そして、この視差の影響は、被写体までの距離により変わる。   Here, when the optical axes of the photographing optical systems are shifted to have parallax, the effect of obtaining a high-definition image by combining a plurality of images is reduced. The influence of this parallax varies depending on the distance to the subject.

このことについて図8を用いて説明する。図8において、601、602は複眼光学系を構成する個々の撮影光学系であり、それぞれの撮影光学系はイメージセンサ603、604上に同一被写体の像を結像させる。   This will be described with reference to FIG. In FIG. 8, reference numerals 601 and 602 denote individual photographing optical systems constituting a compound eye optical system, and each photographing optical system forms an image of the same subject on image sensors 603 and 604.

各イメージセンサはモザイク状もしくはストライプ状のカラーフィルタを持ち、それぞれ単独でカラー画像を撮像する。イメージセンサ603、604からの画素信号がカメラ信号処理回路605、606により処理されて2つの画像が生成され、これら画像を画像合成処理回路607によって合成することにより、高解像度の単一画像(以下、合成画像という)が生成される。   Each image sensor has a mosaic or striped color filter and picks up a color image independently. The pixel signals from the image sensors 603 and 604 are processed by the camera signal processing circuits 605 and 606 to generate two images, and these images are combined by the image combining processing circuit 607 to obtain a high-resolution single image (hereinafter, referred to as “image”). , Referred to as a composite image).

この構成において、2つの撮影光学系601、602は、その光軸が互いにずれており、特定の被写体位置に対して角度θ傾斜した状態に配置される。ここで、角度θを輻輳角という。
特許第3478796号公報(段落0016〜0019、図1〜4等) 特開平5−265081号公報(段落0002〜0005、図11等)
In this configuration, the two photographing optical systems 601 and 602 are arranged in a state where their optical axes are shifted from each other and inclined by an angle θ with respect to a specific subject position. Here, the angle θ is referred to as a convergence angle.
Japanese Patent No. 3478796 (paragraphs 0016-0019, FIGS. 1-4, etc.) JP-A-5-265081 (paragraphs 0002 to 0005, FIG. 11 etc.)

輻輳角θを、両撮影光学系601、602の光軸が図8の被写体位置bにて交差するように設定した場合、被写体位置a、cでは最適な輻輳角が異なるために、各撮影光学系により撮影された画像上での被写体位置に視差によるずれが生じてしまう。   When the convergence angle θ is set so that the optical axes of the two photographing optical systems 601 and 602 intersect at the subject position b in FIG. 8, the optimum convergence angle is different at the subject positions a and c. Deviation due to parallax occurs in the subject position on the image captured by the system.

この様子を図9を用いて説明する。図9には、複数の画像を合成して得られた合成画像を表している。図中の円は被写体である。   This will be described with reference to FIG. FIG. 9 shows a composite image obtained by combining a plurality of images. The circle in the figure is the subject.

被写体の位置が図8におけるbの場合、輻輳角が適切に設定されているために、画像ずれのない高精細な合成画像が出力される。被写体位置が図8におけるaもしくはcの場合、輻輳角が適切でないため、イメージセンサ603、604のそれぞれから出力される画像は互いに左右にずれた画像となり、これらを合成した後の合成画像でも画像ずれが現れてしまう。   When the position of the subject is b in FIG. 8, since the convergence angle is appropriately set, a high-definition composite image without image displacement is output. When the subject position is “a” or “c” in FIG. 8, since the convergence angle is not appropriate, the images output from the image sensors 603 and 604 are images shifted from each other to the left and right. Deviation appears.

なお、図8では、水平方向のみの一次元方向に配置された複数の撮影光学系を用いた場合について説明しているが、複数の撮影光学系が水平方向及び垂直方向の二次元方向に配置された場合には、画像ずれも水平方向及び垂直方向の二次元方向に現れる。   Note that FIG. 8 illustrates a case where a plurality of photographing optical systems arranged in a one-dimensional direction only in the horizontal direction is used. However, a plurality of photographing optical systems are arranged in a two-dimensional direction in the horizontal direction and the vertical direction. In such a case, image shift also appears in the two-dimensional direction of the horizontal direction and the vertical direction.

ここで、輻輳角と被写体撮像位置のずれとの関係について図10を用いて説明する。撮影光学系601、602を無限遠合焦状態に設定した場合、これらの光軸は平行となり、それぞれの光軸はイメージセンサ603、604の中心を通る。イメージセンサ603、604間に空間的オフセットを持たせるときは、光軸に対するセンサ位置をずらす。この状態で、撮影光学系601は、被写体距離dの位置に対して輻輳角θを持ち、該撮影光学系601に対応するイメージセンサ603により撮像される画像は、無限遠合焦状態に設定した場合無限遠合焦状態に設定した場合の光軸位置に対してずれ量eだけオフセットした画像となる。   Here, the relationship between the convergence angle and the shift of the subject imaging position will be described with reference to FIG. When the photographing optical systems 601 and 602 are set to an infinitely focused state, these optical axes are parallel, and the respective optical axes pass through the centers of the image sensors 603 and 604. When providing a spatial offset between the image sensors 603 and 604, the sensor position with respect to the optical axis is shifted. In this state, the photographing optical system 601 has a convergence angle θ with respect to the position of the subject distance d, and an image picked up by the image sensor 603 corresponding to the photographing optical system 601 is set to an infinite focus state. In this case, the image is offset by the shift amount e with respect to the optical axis position when the infinite focus state is set.

このときの被写体距離dとずれ量eとの関係を求める。撮影光学系601、602と被写体距離の位置とで構成される3角形と、撮影光学系601とイメージセンサ603の中心とイメージセンサ603のずれ位置とで構成される3角形とは相似であるので、センサ間距離をs、焦点距離をfとすると、
s/d=e/f
となる。したがって、
e=(s・f)/d ・・・(1)
となる。
At this time, the relationship between the subject distance d and the shift amount e is obtained. A triangle formed by the photographing optical systems 601 and 602 and the object distance position is similar to a triangle formed by the center of the photographing optical system 601 and the image sensor 603 and the shift position of the image sensor 603. If the distance between sensors is s and the focal length is f,
s / d = e / f
It becomes. Therefore,
e = (s · f) / d (1)
It becomes.

これを図に示すと図11に実線で示すようなグラフとなる。横軸は被写体距離d、縦軸はずれ量eである。このグラフからも分かるように、近距離領域において被写体距離が増加するとずれ量eが急激に増加する。   When this is shown in the figure, a graph as shown by a solid line in FIG. 11 is obtained. The horizontal axis represents the subject distance d, and the vertical axis represents the shift amount e. As can be seen from this graph, when the subject distance increases in the short distance region, the shift amount e increases rapidly.

なお、図11には、被写体距離「1」の位置にて光軸が交差するように両撮影光学系の輻輳角を合わせて光学特性を設定した場合の特性を点線で示している。この場合、被写体距離が「1」より遠くなるとずれ量は負の値となり、「1」より近い場合に比べて反対側にずれることが分かる。   In FIG. 11, the dotted line indicates the characteristic when the optical characteristic is set by matching the convergence angles of the two photographing optical systems so that the optical axes intersect at the position of the subject distance “1”. In this case, when the subject distance is longer than “1”, the shift amount becomes a negative value, and it is understood that the shift amount is shifted to the opposite side as compared with the case where the subject distance is closer than “1”.

このように近距離では、視差によるずれ量が急激に大きくなる。これは複数の画像を合成した場合に画像ずれとして合成画像を劣化させるものである。例えば、被写体距離が2〜5mでずれ量が0となる輻輳角を設定したとすると、設定被写体距離よりも近距離での撮影時、特にマクロ撮影時には画像ずれ量が大きくなってしまう。   Thus, at a short distance, the amount of deviation due to parallax increases rapidly. This deteriorates the combined image as an image shift when a plurality of images are combined. For example, if the convergence angle at which the subject distance is 2 to 5 m and the deviation amount is 0 is set, the amount of image deviation becomes large at the time of shooting at a shorter distance than the set subject distance, particularly at the time of macro shooting.

本発明は、複数の画像に基づいて単一画像を生成する場合の画質の劣化を低減することができるようにした画像処理装置、撮像装置および画像処理プログラムを提供することを目的の1つとしている。   An object of the present invention is to provide an image processing apparatus, an imaging apparatus, and an image processing program capable of reducing deterioration in image quality when a single image is generated based on a plurality of images. Yes.

1つの観点としての本発明は、複数の入力画像の画素情報に基づいて単一画像を生成する画像処理装置(画像処理プログラム)であって、該単一画像における少なくとも一部の画素を、該複数の入力画像のうち少なくとも2つの入力画像の画素情報を合成して得る合成手段(合成ステップ)を有する。そして、該合成手段(合成ステップ)は、該入力画像間の視差に関する情報に基づいて画素情報の合成比率を変更する。   The present invention as one aspect is an image processing apparatus (image processing program) that generates a single image based on pixel information of a plurality of input images, and at least some of the pixels in the single image are Combining means (synthesizing step) is obtained by combining pixel information of at least two of the plurality of input images. Then, the synthesizing unit (synthesizing step) changes the synthesis ratio of the pixel information based on the information regarding the parallax between the input images.

また、他の観点としての本発明の画像処理装置(画像処理プログラム)は、複数の入力画像の画素情報に基づいて単一画像を生成する画像生成手段(画像生成ステップ)を有し、該画像生成手段(画像生成ステップ)は、該入力画像間の視差に関する情報に基づいて、該単一画像の生成方法を変更する。   Further, an image processing apparatus (image processing program) according to another aspect of the present invention includes image generation means (image generation step) that generates a single image based on pixel information of a plurality of input images. The generation means (image generation step) changes the generation method of the single image based on information on the parallax between the input images.

本発明によれば、視差に応じた合成比率で入力画像の画素情報を合成することで単一画像を生成したり、視差に応じて該単一画像の生成方法を変更したりすることにより、視差の影響による画質劣化の少ない高画質の単一画像を得ることができる。   According to the present invention, by generating a single image by combining the pixel information of the input image at a combination ratio according to the parallax, or by changing the generation method of the single image according to the parallax, A high-quality single image with little image quality degradation due to the influence of parallax can be obtained.

図1には、本発明の実施例1である画像処理装置(画像処理部)を備えた撮像装置の構成を示している。図1において、101、102、103、104はそれぞれ視差を持つ撮影光学系であり、これら4つの撮影光学系101〜104により複眼光学系が構成される。4つの撮影光学系101〜104の光軸は、後述する設定被写体距離の位置にて互いに交差(輻輳)している。   FIG. 1 shows a configuration of an imaging apparatus including an image processing apparatus (image processing unit) that is Embodiment 1 of the present invention. In FIG. 1, reference numerals 101, 102, 103, and 104 denote photographing optical systems having parallax, and these four photographing optical systems 101 to 104 constitute a compound eye optical system. The optical axes of the four photographing optical systems 101 to 104 intersect (converge) with each other at a position of a set subject distance described later.

なお、本実施例では、4つの撮影光学系により複眼光学系が構成される場合について説明するが、本発明における複眼光学系を構成する撮影光学系の数はこれに限られるものではない。   In this embodiment, a case where a compound eye optical system is constituted by four photographing optical systems will be described, but the number of photographing optical systems constituting the compound eye optical system in the present invention is not limited to this.

105、106、107、108はそれぞれ、各撮影光学系により形成された被写体像を光電変換する撮像素子(イメージセンサ)である。   Reference numerals 105, 106, 107, and 108 denote image sensors (image sensors) that photoelectrically convert subject images formed by the respective photographing optical systems.

109、110、111、112はそれぞれ、各撮像素子からの画素信号に対して信号処理を行い、YUV信号もしくはRGB信号(以下、撮像信号と称する)を出力するカメラ信号処理回路である。そして、この撮像信号により画像(入力画像)が形成される。   Reference numerals 109, 110, 111, and 112 denote camera signal processing circuits that perform signal processing on pixel signals from the respective image sensors and output YUV signals or RGB signals (hereinafter referred to as imaging signals). An image (input image) is formed by this imaging signal.

113は4つの撮像素子105〜108と4つのカメラ信号処理回路109〜112とを同期して駆動する撮像素子駆動・同期信号発生回路である。   Reference numeral 113 denotes an image sensor driving / synchronizing signal generation circuit that drives the four image sensors 105 to 108 and the four camera signal processing circuits 109 to 112 in synchronization.

120は画像処理部である。この画像処理部120において、114は4つの撮像素子105〜108による入力画像間の視差を検出する視差検出回路である。但し、本実施例では、撮像素子間の距離は固定値であるので、視差量検知は任意の2つの映像信号(図では、カメラ信号処理回路109,110からの映像信号)のみで各入力画像間の視差を検出する。なお、各撮像素子間の距離が異なる場合は、4つのカメラ信号処理回路109〜112からの映像信号に基づいて各入力画像間の視差を検出することができる。   Reference numeral 120 denotes an image processing unit. In the image processing unit 120, reference numeral 114 denotes a parallax detection circuit that detects parallax between input images by the four imaging elements 105 to 108. However, in this embodiment, since the distance between the image sensors is a fixed value, each input image is detected only with any two video signals (video signals from the camera signal processing circuits 109 and 110 in the figure). Detect parallax between. In addition, when the distance between each image pick-up element differs, the parallax between each input image is detectable based on the video signal from the four camera signal processing circuits 109-112.

115は合成処理回路であり、4つの入力画像の画素値(画素情報)に基づいて高解像度な単一の合成画像を生成する合成処理回路である。   Reference numeral 115 denotes a synthesis processing circuit, which is a synthesis processing circuit that generates a single high-resolution synthesized image based on pixel values (pixel information) of four input images.

130は上記撮像素子駆動・同期信号発生回路113および画像処理部120等、本撮像装置の制御全体を司るコントローラとしてのCPUである。   Reference numeral 130 denotes a CPU as a controller that controls the entire image pickup apparatus, such as the image pickup element driving / synchronizing signal generation circuit 113 and the image processing unit 120.

ここで撮影光学系と撮像素子の配列について図2を用いて説明する。図2において、201は絞りであり、4つの撮影光学系101〜104に入射する光量を制限すると共に該撮影光学系101〜104の光学特性を向上させる。   Here, the arrangement of the photographing optical system and the image sensor will be described with reference to FIG. In FIG. 2, reference numeral 201 denotes an aperture that restricts the amount of light incident on the four photographing optical systems 101 to 104 and improves the optical characteristics of the photographing optical systems 101 to 104.

101〜104は図1に示した4つの撮影光学系、105〜108は同4つの撮像素子である。4つの撮影光学系101〜104同士および4つの撮像素子105〜108同士はそれぞれ同一平面上に配列されており、それぞれ撮影光学系とそれに対応する撮像素子からなる4つの撮像系は、同一被写体を撮像する。これら、絞り201、4つの撮影光学系101〜104からなる複眼光学系および4つの撮像素子105〜108により撮像系が構成される。   Reference numerals 101 to 104 denote the four photographing optical systems shown in FIG. 1, and reference numerals 105 to 108 denote the four imaging elements. The four imaging optical systems 101 to 104 and the four imaging elements 105 to 108 are arranged on the same plane, and each of the four imaging systems including the imaging optical system and the imaging element corresponding thereto captures the same subject. Take an image. The diaphragm 201, the compound eye optical system including the four photographing optical systems 101 to 104, and the four imaging elements 105 to 108 constitute an imaging system.

図3には、撮像素子105〜108の配列を、受光面側から見て示している。これら4つの撮像素子105は、同一半導体基板(図示せず)上に互いに独立に駆動可能に構成されている。但し、1つの撮像素子を4つの撮像エリアに区切り、各撮像エリアから出力された画素信号から各視差画像を生成するようにしてもよいし、共通の基板を有さず互いに独立した部品としての撮像素子を4つ用いてもよい。   FIG. 3 shows the arrangement of the imaging elements 105 to 108 as viewed from the light receiving surface side. These four image sensors 105 are configured to be driven independently from each other on the same semiconductor substrate (not shown). However, one imaging device may be divided into four imaging areas, and each parallax image may be generated from the pixel signal output from each imaging area, or as a component independent of each other without having a common substrate Four image sensors may be used.

図3においては、撮像素子105の水平方向に隣接して撮像素子106が配置され、これら撮像素子105、106の垂直方向にそれぞれ隣接して撮像素子107、108が配置されている。   In FIG. 3, the image sensor 106 is disposed adjacent to the image sensor 105 in the horizontal direction, and the image sensors 107 and 108 are disposed adjacent to the image sensor 105 and 106 in the vertical direction.

そして、これらの撮像素子105〜108の光学中心が、互いに水平方向に0.5画素分、垂直方向に0.5画素分ずつずれるように各撮像素子に対応する撮影光学系が配置されている。これにより、同一光学平面上に各撮像素子による撮像領域を展開すると、4つの撮像素子105〜108の画素が水平および垂直方向にいわゆる入れ子状態となり、結果的に1つの撮像素子の画素数に対して水平方向に2倍、垂直方向に2倍の全体で4倍の解像度を持つ単一画像が生成されることになる。   The imaging optical systems corresponding to the imaging elements are arranged so that the optical centers of the imaging elements 105 to 108 are shifted by 0.5 pixels in the horizontal direction and 0.5 pixels in the vertical direction. . As a result, when the imaging region of each imaging device is developed on the same optical plane, the pixels of the four imaging devices 105 to 108 are so-called nested in the horizontal and vertical directions, and as a result, the number of pixels of one imaging device is reduced. Thus, a single image having a resolution of 4 times in total is generated twice as much in the horizontal direction and twice in the vertical direction.

この入れ子状態の画素配列を図4に示す。図4において、P105は撮像素子105の画素であり、P106は撮像素子106の画素である。また、P107は撮像素子107の画素であり、P108は撮像素子108の画素である。(0,0)、(1,0)等の座標は各撮像素子における画素の位置を示している。また、実際には、各撮像素子の光学中心は、上述した0.5画素分だけではなく、任意の設定被写体距離における視差補正分も合わせて互いにオフセットして配置される。   This nested pixel array is shown in FIG. In FIG. 4, P <b> 105 is a pixel of the image sensor 105, and P <b> 106 is a pixel of the image sensor 106. P107 is a pixel of the image sensor 107, and P108 is a pixel of the image sensor 108. Coordinates such as (0, 0) and (1, 0) indicate the position of the pixel in each image sensor. In practice, the optical centers of the respective image sensors are arranged not only for the above-described 0.5 pixels but also for the amount of parallax correction at an arbitrarily set subject distance so as to be offset from each other.

撮像素子駆動・同期信号発生回路113は、4つの撮像素子105〜108と4つのカメラ信号処理回路109〜112を同期して駆動し、ある水平期間では撮像素子105、106を駆動するとともにカメラ信号処理回路109、110から撮像信号を合成処理回路115に出力させ、次の水平期間では撮像素子107、108を駆動するとともにカメラ信号処理回路111、112から撮像信号を合成処理回路115に出力させる。   The image pickup device driving / synchronizing signal generation circuit 113 drives the four image pickup devices 105 to 108 and the four camera signal processing circuits 109 to 112 in synchronization, drives the image pickup devices 105 and 106 and camera signals in a certain horizontal period. The imaging signals are output from the processing circuits 109 and 110 to the synthesis processing circuit 115. In the next horizontal period, the imaging elements 107 and 108 are driven, and the imaging signals are output from the camera signal processing circuits 111 and 112 to the synthesis processing circuit 115.

視差量検出回路114は、入力画像間で公知のパターンマッチング処理を行い、該入力画像間の視差量を検出する。視差による入力画像間で被写体撮像位置のずれ、つまりは画像ずれが0になる被写体距離である設定被写体距離に被写体がある場合には、各撮像素子によって撮像される被写体は、各撮像素子の撮像面における同じ位置にて撮像される。   The parallax amount detection circuit 114 performs a known pattern matching process between input images, and detects the parallax amount between the input images. When there is a subject at a set subject distance, which is a subject distance at which the subject imaging position shifts between input images due to parallax, that is, the subject distance at which the image displacement is zero, the subject imaged by each imaging device Images are taken at the same position on the surface.

しかし、被写体が設定被写体距離よりも近いかもしくは遠いときには、各撮像素子の撮像面における被写体撮像位置がずれる。このずれ量は視差に対応した大きさとなり、上記パターンマッチングによって該画像ずれ量、すなわち画像上に現れた視差量を検出することができる。なお、この画像ずれ量ないし視差量が請求項にいう「視差に関する情報」に相当するが、これらに限らず、視差によって変化する情報や視差量に結びつく情報であればいずれでもよい。   However, when the subject is closer or farther than the set subject distance, the subject imaging position on the imaging surface of each imaging element is shifted. This shift amount has a magnitude corresponding to the parallax, and the image shift amount, that is, the parallax amount appearing on the image can be detected by the pattern matching. The amount of image shift or the amount of parallax corresponds to “information about parallax” in the claims, but is not limited thereto, and any information may be used as long as the information changes due to the parallax or information associated with the amount of parallax.

例えば、撮像装置から被写体までの距離を測定する測距ユニットを設けることにより、各撮影光学系間の間隔(基線長)は分かっているので一義的に視差量を算出することもできる。さらに、撮影者が被写体までの距離に関する撮影モードに基づいて視差量を推定的に取得してもよい。撮影モードには、設定被写体距離よりも近距離の被写体を撮影するための近距離(マクロ)撮影モードや、設定被写体距離近傍の被写体を撮影するための標準撮影モードや、設定被写体距離よりも遠距離の被写体を撮影するための遠距離撮影モードなどが考えられる。   For example, by providing a distance measuring unit that measures the distance from the imaging device to the subject, the distance (baseline length) between the imaging optical systems is known, so that the amount of parallax can be calculated uniquely. Furthermore, the photographer may estimate the parallax amount based on the shooting mode related to the distance to the subject. Shooting modes include a close-up (macro) shooting mode for shooting subjects that are closer than the set subject distance, a standard shooting mode for shooting subjects near the set subject distance, and a farther distance than the set subject distance. A long-distance shooting mode for shooting a subject at a distance can be considered.

合成処理回路115には、前述したように、4つのカメラ信号処理回路109〜112から、ある水平期間では撮像素子105と撮像素子106からの画素信号に基づいて生成された撮像信号が入力され、次の水平期間では撮像素子107と撮像素子108からの画素信号に基づいて生成された撮像信号が入力される。なお、以下において、各撮像素子からの画素信号に基づいて生成された撮像信号を、該撮像素子に対応した撮像信号という。また、撮像信号は、各画像の1画素ごとの画素値(画素情報)を表す。   As described above, the image processing signal generated based on the pixel signals from the image sensor 105 and the image sensor 106 is input to the synthesis processing circuit 115 from the four camera signal processing circuits 109 to 112 in a certain horizontal period. In the next horizontal period, an image pickup signal generated based on pixel signals from the image pickup element 107 and the image pickup element 108 is input. In the following, an image signal generated based on a pixel signal from each image sensor is referred to as an image signal corresponding to the image sensor. The imaging signal represents a pixel value (pixel information) for each pixel of each image.

合成処理回路115は、視差検出回路114が検出した視差が0の場合、すなわち被写体が設定被写体距離にある場合には、カメラ信号処理回路から入力される撮像信号を、ある水平期間では撮像素子105に対応する撮像信号と撮像素子106に対応する撮像信号とを1画素ごとにそのままの値(画素値)で交互に出力し、次の水平期間では撮像素子107に対応する撮像信号と撮像素子108に対応する撮像信号とを1画素ごとにそのままの値で交互に出力する。これにより、4つの撮像素子105〜108からの撮像信号(つまりは画素)が入れ子状態になった、図4に示した画素配列を有する高解像度の合成画像が生成されることになる。   When the parallax detected by the parallax detection circuit 114 is 0, that is, when the subject is at the set subject distance, the synthesis processing circuit 115 outputs the imaging signal input from the camera signal processing circuit to the imaging element 105 in a certain horizontal period. And the image pickup signal corresponding to the image pickup element 106 are alternately output with the same value (pixel value) as it is for each pixel, and in the next horizontal period, the image pickup signal corresponding to the image pickup element 107 and the image pickup element 108 are output. Are alternately output as they are for each pixel. As a result, a high-resolution composite image having the pixel arrangement shown in FIG. 4 in which the imaging signals (that is, pixels) from the four imaging elements 105 to 108 are nested is generated.

一方、被写体距離が設定被写体距離とは異なる場合、すなわち視差による画像ずれが発生する場合には、合成処理回路115は、4つの撮像素子105〜108のうち特定の撮像素子に対応する撮像信号を基準撮像信号として、該基準撮像信号および他の撮像素子に対応する撮像信号を合成して生成した合成撮像信号と該基準撮像信号とを1画素ごとに出力する。本実施例では、撮像素子105に対応する撮像信号を基準撮像信号とする。   On the other hand, when the subject distance is different from the set subject distance, that is, when an image shift due to parallax occurs, the synthesis processing circuit 115 outputs an imaging signal corresponding to a specific imaging element among the four imaging elements 105 to 108. As a reference imaging signal, a synthesized imaging signal generated by synthesizing the imaging signal corresponding to the reference imaging signal and another imaging element and the reference imaging signal are output for each pixel. In this embodiment, an imaging signal corresponding to the imaging element 105 is set as a reference imaging signal.

図4に示す合成画像において、画素間隔が水平方向と垂直方向とで等しく、この距離を1とすると、画素P105(0,0)を基準として画素P106(0,0)は水平方向に1離れ、垂直方向には離れていない(すなわち、0離れている)。また、画素P107(0,0)は水平方向に0、垂直方向に1離れている。また、画素P108は水平方向に1、垂直方向に1離れており、画素中心距離で見れば約1.4離れている。すなわち、画素P105を基準とすると、画素P106と画素P107は水平方向・垂直方向の違いはあるが同じ距離だけ離れており、画素P108が最も遠くに位置する。   In the composite image shown in FIG. 4, when the pixel interval is equal in the horizontal direction and the vertical direction, and this distance is 1, the pixel P106 (0, 0) is separated by 1 in the horizontal direction with reference to the pixel P105 (0, 0). , Not vertically separated (ie, zero apart). The pixel P107 (0, 0) is 0 in the horizontal direction and 1 in the vertical direction. Further, the pixel P108 is 1 in the horizontal direction and 1 in the vertical direction, and is about 1.4 away from the pixel center distance. That is, with reference to the pixel P105, the pixel P106 and the pixel P107 are separated by the same distance although there is a difference between the horizontal direction and the vertical direction, and the pixel P108 is located farthest.

被写体距離が設定被写体距離と異なる場合には、視差の影響により合成画像の画像ずれが発生する。そして前述の通り、撮像素子105に対応する撮像信号、つまりは撮像素子105により撮影された画像を基準とすると、撮像素子106により撮影される画像は水平方向に影響し、撮像素子107により撮影される画像は垂直方向に影響し、撮像素子108により撮影される画像は水平方向および垂直方向に影響する。   When the subject distance is different from the set subject distance, an image shift of the composite image occurs due to the influence of parallax. As described above, on the basis of an image signal corresponding to the image sensor 105, that is, an image captured by the image sensor 105, an image captured by the image sensor 106 affects the horizontal direction and is captured by the image sensor 107. The image that is captured affects the vertical direction, and the image captured by the image sensor 108 affects the horizontal and vertical directions.

そこで、本実施例では、被写体距離が視差による影響が0である設定被写体距離の場合、つまりは視差検出回路114により視差が検出されない場合には、合成処理回路115で各撮像素子により撮影された画像をそのまま入れ子状態にすることで合成画像を生成する。言い換えれば、合成画像の各画素を、各入力画像の画素値を持った画素とする。   Therefore, in this embodiment, when the subject distance is the set subject distance in which the influence of the parallax is zero, that is, when the parallax is not detected by the parallax detection circuit 114, the image is captured by each image sensor by the synthesis processing circuit 115. A composite image is generated by nesting images as they are. In other words, each pixel of the composite image is a pixel having a pixel value of each input image.

一方、視差検出回路114により視差が検出された場合には、撮像素子105により撮影された画像(第1の画像、以下、基準画像という)の各画素値を、合成画像において該基準画像の画素に対応する画素の画素値として用いるとともに、検出された視差量に応じた比率で基準画像の画素値と撮像素子106、撮像素子107又は撮像素子108により撮影された画像の画素値とを合成して得られた画素値を、該基準画像に対応する画素の間を補間する画素の画素値として用いる。以下、このように複数の入力画像の画素値を合成して合成画像の1つの画素を生成することを画素値合成処理という。   On the other hand, when parallax is detected by the parallax detection circuit 114, each pixel value of an image (first image, hereinafter referred to as a reference image) captured by the image sensor 105 is used as a pixel of the reference image in the composite image. And the pixel value of the reference image and the pixel value of the image photographed by the image sensor 106, the image sensor 107, or the image sensor 108 at a ratio according to the detected amount of parallax. The pixel value obtained in this way is used as the pixel value of the pixel that interpolates between the pixels corresponding to the reference image. Hereinafter, the generation of one pixel of a combined image by combining the pixel values of a plurality of input images in this way is referred to as a pixel value combining process.

この画素値合成処理では、合成画像において撮像素子105により撮影された基準画像に対応する画素に水平方向にて隣接する画素(以下、水平隣接画素という)の画素値は、該基準画像の画素値と図3において撮像素子105に隣接する撮像素子106による撮影画像(第2の画像)の画素値とを合成して得る。また、合成画像において基準画像に対応する画素に垂直方向にて隣接する画素(以下、垂直隣接画素という)の画素値は、該基準画像の画素値と撮像素子105に垂直方向にて隣接する撮像素子107による撮影画像(第2の画像)の画素値とを合成して得る。さらに、合成画像において基準画像に対応する画素に水平方向および垂直方向に距離1ずつ離れた画素(以下、斜め隣接画素という)の画素値は、該基準画像の画素値と撮像素子105に対して水平・垂直方向にて離れた撮像素子108による撮影画像(第2の画像)の画素値とを合成して得る。   In this pixel value composition processing, the pixel value of a pixel (hereinafter referred to as a horizontal adjacent pixel) that is adjacent in the horizontal direction to a pixel corresponding to the reference image captured by the image sensor 105 in the composite image is the pixel value of the reference image. 3 and the pixel value of the image (second image) taken by the image sensor 106 adjacent to the image sensor 105 in FIG. Further, the pixel value of the pixel adjacent to the pixel corresponding to the reference image in the synthesized image in the vertical direction (hereinafter referred to as the vertical adjacent pixel) is the image value adjacent to the pixel value of the reference image in the vertical direction. It is obtained by synthesizing the pixel value of the photographed image (second image) by the element 107. Furthermore, the pixel value of a pixel (hereinafter referred to as a diagonally adjacent pixel) that is one distance apart in the horizontal direction and the vertical direction from the pixel corresponding to the reference image in the composite image is the pixel value of the reference image and the image sensor 105. It is obtained by synthesizing the pixel values of the image (second image) taken by the image sensor 108 separated in the horizontal and vertical directions.

さらに詳しく説明すると、水平隣接画素の画素値の合成には、該水平隣接画素に対して水平方向両側にて隣接する、基準画像の2つの画素の画素値を用い、また垂直隣接画素の画素値の合成には、該垂直隣接画素に対して垂直方向両側にて隣接する、基準画像の2つの画素の画素値を用いる。さらに、斜め隣接画素の画素値の合成には、該斜め隣接画素に対して水平方向および垂直方向に1ずつ離れた、基準画像の4つの画素の画素値を用いる。   More specifically, for the synthesis of pixel values of horizontal adjacent pixels, the pixel values of two pixels of the reference image that are adjacent to the horizontal adjacent pixels on both sides in the horizontal direction are used, and the pixel values of the vertical adjacent pixels are also used. In the synthesis, the pixel values of two pixels of the reference image that are adjacent to the vertical adjacent pixels on both sides in the vertical direction are used. Further, pixel values of four pixels of the reference image that are separated by one in the horizontal direction and the vertical direction with respect to the diagonally adjacent pixels are used for the synthesis of the pixel values of the diagonally adjacent pixels.

そして、本実施例の画素値合成処理では、視差量に応じて合成比率を連続的に変化させる。この関係を数式で表すと以下の通りである。   In the pixel value synthesis process of the present embodiment, the synthesis ratio is continuously changed according to the amount of parallax. This relationship is expressed as follows:

ここで、Jは撮像素子106による撮影画像の画素値に対する合成係数(補間係数ともいう)であり、Kは撮像素子107による撮影画像の画素値に対する合成係数である。Lは撮像素子108により撮影画像の画素値に対する合成係数である。これらの合成係数は、視差検出回路114により検出された視差量に応じて1から0まで連続的に変化する。具体的には、視差量が大きいほど合成係数を小さく設定する。     Here, J is a synthesis coefficient (also referred to as an interpolation coefficient) for the pixel value of the captured image by the image sensor 106, and K is a synthesis coefficient for the pixel value of the captured image by the image sensor 107. L is a synthesis coefficient for the pixel value of the captured image by the image sensor 108. These synthesis coefficients continuously change from 1 to 0 according to the amount of parallax detected by the parallax detection circuit 114. Specifically, the larger the parallax amount is, the smaller the synthesis coefficient is set.

視差検出回路114により検出された視差量が0のとき、すなわち被写体距離が設定被写体距離と等しい場合は、合成係数J、K、Lをいずれも1とし、上記数式による計算結果を基準画像に対する水平隣接画素、垂直隣接画素および斜め隣接画素の画素値として出力する。   When the amount of parallax detected by the parallax detection circuit 114 is 0, that is, when the subject distance is equal to the set subject distance, all of the synthesis coefficients J, K, and L are set to 1, and the calculation result by the above formula is the horizontal to the reference image. Output as pixel values of adjacent pixels, vertical adjacent pixels, and diagonally adjacent pixels.

また、検出された視差量が0ではないとき、すなわち被写体距離が設定被写体距離と異なる場合は、視差量が大きいほど合成係数J、K、Lを0に近づける。これにより、基準画像に対する被写体撮像位置ずれの大きな撮像素子106、107、108による撮影画像の画素値の合成量を少なくして、合成画像における被写体撮像位置ずれの大きな画像の影響を小さくする。   When the detected amount of parallax is not 0, that is, when the subject distance is different from the set subject distance, the synthesis coefficients J, K, and L are made closer to 0 as the amount of parallax increases. Accordingly, the amount of the pixel value of the captured image by the imaging elements 106, 107, and 108 having a large subject imaging position deviation with respect to the reference image is reduced, and the influence of the image having a large subject imaging position deviation in the synthesized image is reduced.

図5には、横軸を被写体距離とし、縦軸を被写体撮像位置ずれ量、すなわち視差量としたグラフを示している。また、その下に、横軸を同じ被写体距離とし、縦軸を合成係数J、K、Lとしたグラフを示している。   FIG. 5 shows a graph in which the horizontal axis is the subject distance and the vertical axis is the subject imaging position deviation amount, that is, the parallax amount. Further, below the graph, the horizontal axis is the same subject distance, and the vertical axis is the synthesis coefficients J, K, and L.

ここでは設定被写体距離を1としており、設定被写体距離で視差量は0となる。このときは、合成処理回路115では全ての撮像素子による撮影画像の画素値をそのまま用いて高解像度合成画像を出力する。すなわち、図に示すように合成係数J、K、Lを1とする。   Here, the set subject distance is 1, and the parallax amount is 0 at the set subject distance. At this time, the synthesis processing circuit 115 outputs a high-resolution synthesized image using the pixel values of the captured images obtained by all the image sensors as they are. That is, the synthesis coefficients J, K, and L are set to 1 as shown in the figure.

被写体距離が1よりも短い近接撮影時などには、視差量が急激に増加するので、増加する視差量に応じて合成係数J、K、Lを1から0側に変化させる。上述したように、合成画像における撮像素子105により撮影された基準画像に対応する画素からは撮像素子108の画素に対応する画素が一番遠いため、視差の影響が一番大きい撮像素子108による撮影画像の画素値に対する合成係数Lの視差量の増加に対する減少率を、撮像素子106、107による撮影画像の画素値に対する合成係数J、Kの減少率より大きくしている。   When the subject distance is shorter than 1, for example, close-up shooting, the amount of parallax increases abruptly. Therefore, the synthesis coefficients J, K, and L are changed from 1 to 0 according to the increased amount of parallax. As described above, since the pixel corresponding to the pixel of the image sensor 108 is farthest from the pixel corresponding to the reference image captured by the image sensor 105 in the composite image, the image is captured by the image sensor 108 having the greatest parallax effect. The decrease rate of the synthesis coefficient L with respect to the pixel value of the image with respect to the increase in the amount of parallax is larger than the decrease rate of the synthesis coefficients J and K with respect to the pixel value of the captured image by the imaging elements 106 and 107.

このように、合成処理回路115は、被写体距離が短くなるにつれて急激に増大する視差量に応じて、視差の影響によって画像ずれを発生させる撮像素子106、107、108による撮影画像の画素値の基準画像の画素値に対する合成比率(割合)減少させることにより、視差の影響を少なくする。   As described above, the composition processing circuit 115 uses the reference values of the pixel values of the captured images by the image sensors 106, 107, and 108 to generate image shifts due to the influence of the parallax in accordance with the parallax amount that rapidly increases as the subject distance becomes shorter. The effect of parallax is reduced by reducing the composition ratio (ratio) with respect to the pixel value of the image.

また、被写体距離が1よりも長い遠距離撮影時には、視差量は近接撮影と比較すると、被写体距離の増加に対して緩やかに増加する。そして、これに応じて合成係数J、K、Lも減少させる。このときも、近接撮影時と同様に、合成画像の画像ずれに影響の大きい撮像素子108による撮影画像の画素値に対する合成係数Lの減少率を、撮像素子106、107による撮影画像の画素値に対する合成係数であるJ、Kの減少率よりも大きくする。   In addition, when the subject distance is longer than 1, the amount of parallax increases more slowly as the subject distance increases compared to close-up photography. In accordance with this, the synthesis coefficients J, K, and L are also decreased. At this time as well, as in close-up shooting, the reduction rate of the synthesis coefficient L with respect to the pixel value of the captured image by the image sensor 108 that has a large influence on the image shift of the composite image is set to It is made larger than the reduction rate of J and K which are synthesis coefficients.

図6には、本実施例における処理を、コンピュータプログラムである画像処理プログラムにより行う場合のフローチャートを示している。この画像処理プログラムは、図1に示したコントローラとしてのCPU130により実行される。   FIG. 6 shows a flowchart when the processing in this embodiment is performed by an image processing program which is a computer program. This image processing program is executed by the CPU 130 as the controller shown in FIG.

該処理をスタートすると、まずステップ(図ではSと略す)101において、CPU130からの命令により、撮像素子105〜108およびカメラ信号処理回路109〜112による撮像が行われ、カメラ信号処理回路109〜112はそれぞれ入力画像を生成する。   When the processing is started, first, in step (abbreviated as S in the figure) 101, imaging by the imaging elements 105 to 108 and the camera signal processing circuits 109 to 112 is performed according to an instruction from the CPU 130, and the camera signal processing circuits 109 to 112 are performed. Each generate an input image.

次に、ステップ102では、視差検出回路114が視差量の検出を行う。検出方法としては、前述したように、入力画像間でのパターンマッチング、被写体までの測距、撮影モード検出によるもの等が用いられる。   Next, in step 102, the parallax detection circuit 114 detects the amount of parallax. As a detection method, as described above, pattern matching between input images, distance measurement up to a subject, detection by photographing mode, and the like are used.

そして、ステップ103では、CPU130からの命令により、合成処理回路115は、検出した視差量と式(2)〜(5)とを用いて複数の入力画像から1つの合成画像を生成し、出力する。   In step 103, in accordance with an instruction from the CPU 130, the composition processing circuit 115 generates and outputs one composite image from a plurality of input images using the detected amount of parallax and the equations (2) to (5). .

以上説明したように、本実施例によれば、視差を持つ複数の光学系を用いて撮影した入力画像の画素値を用いて単一の合成画像を出力する撮像装置において、視差がない場合には複数の入力画像の画素値をそのまま用いることにより高解像度な合成画像を得ることができる。一方、視差がある場合には、その視差の量に応じて基準となる入力画像の画素値と他の入力画像の画素値との合成比率を、視差量の増加に対して減少させるよう連続的に変えることにより、視差による画像ずれの少ない、高画質で自然な合成画像を得ることができる。このように、視差量の有無に応じて合成画像の生成方法を変更することで、視差の影響による画質劣化を最小限に抑えることができる。   As described above, according to the present embodiment, when there is no parallax in an imaging apparatus that outputs a single composite image using pixel values of an input image captured using a plurality of optical systems having parallax. Can obtain a high-resolution composite image by using the pixel values of a plurality of input images as they are. On the other hand, when there is a parallax, the composition ratio between the pixel value of the reference input image and the pixel value of the other input image is continuously reduced according to the amount of the parallax as the parallax amount increases. By changing to, it is possible to obtain a high-quality and natural composite image with little image shift due to parallax. In this way, by changing the method for generating a composite image according to the presence or absence of the amount of parallax, image quality degradation due to the influence of parallax can be minimized.

なお、本実施例では、(2) 〜(5)の計算式により表される、2点を通る直線上にある画素を参照して補間計算を行う1次補間法を用いて水平、垂直および斜め隣接画素の画素値を算出する場合について説明したが、その他、隣の画素の画素値をそのまま用いる最近傍法(ニヤレストネイバー)や、周辺の画素を参照して3次多項式で表した曲線式で補間するバイキュービック(3次補間)法等を用いてもよい。   In this embodiment, horizontal, vertical, and vertical using a primary interpolation method that performs interpolation calculation with reference to pixels on a straight line passing through two points represented by the calculation formulas (2) to (5). The case where the pixel value of the diagonally adjacent pixel is calculated has been described. In addition, a nearest neighbor method using the pixel value of the adjacent pixel as it is (nearest neighbor), or a curve represented by a cubic polynomial with reference to surrounding pixels A bicubic (third-order interpolation) method that interpolates using equations may be used.

また、上記実施例では、視差がない場合とある場合とで合成画像の生成方法を変更する場合について説明したが、視差量が所定値(例えば、実質的に合成画像における視差の影響が無視できる程度の視差量)より小さい場合と大きい場合とで合成画像の生成方法を変更するようにしてもよい。すなわち、視差が所定値より小さい場合には複数の入力画像の画素値をそのまま用い、視差が所定値より大きい場合には、その視差の量に応じて基準となる入力画像の画素値と他の入力画像の画素値との合成比率を、視差量の増加に対して減少させる。   In the above embodiment, the case where the method of generating the composite image is changed depending on whether there is no parallax or not is described. However, the parallax amount is a predetermined value (for example, the influence of the parallax in the composite image can be substantially ignored). The composite image generation method may be changed depending on whether it is smaller or larger than the amount of parallax. That is, when the parallax is smaller than the predetermined value, the pixel values of the plurality of input images are used as they are, and when the parallax is larger than the predetermined value, the pixel value of the reference input image according to the amount of the parallax and other values The composition ratio with the pixel value of the input image is decreased with respect to the increase in the amount of parallax.

また、本実施例において説明した単一の合成画像は、静止画像であってもよいし、動画の1フレーム画像であってもよい。すなわち、本実施例の撮像装置は、静止画カメラとしてもビデオカメラとしても使用することができる。   In addition, the single composite image described in the present embodiment may be a still image or a single frame image of a moving image. That is, the imaging apparatus of the present embodiment can be used as both a still image camera and a video camera.

さらに、上記実施例1では、画像処理装置に相当する画像処理部が撮像装置に一体的に組み込まれている場合について説明したが、本発明の画像処理装置はパーソナルコンピュータ等、撮像装置とは別の装置であってもよい。この場合、複眼光学系と撮像素子を有する撮像装置によって撮影された複数の画像を、ケーブルを介して、または半導体メモリ、光ディスク、磁気ディスク等の記録媒体やインターネット、LAN等のネットワークを介して画像処理装置に取り込み、該画像処理装置において上述した方法により合成画像を生成する。   Further, in the first embodiment, the case where the image processing unit corresponding to the image processing apparatus is integrated in the imaging apparatus has been described. However, the image processing apparatus of the present invention is different from the imaging apparatus such as a personal computer. The apparatus may be used. In this case, a plurality of images taken by an image pickup apparatus having a compound eye optical system and an image pickup device are imaged via a cable, a recording medium such as a semiconductor memory, an optical disk, or a magnetic disk, or a network such as the Internet or a LAN. The image is taken into a processing apparatus, and a composite image is generated in the image processing apparatus by the method described above.

図7には、上記実施例1にて説明した撮像装置およびこれを搭載した電子機器の例を示している。   FIG. 7 shows an example of the imaging apparatus described in the first embodiment and an electronic apparatus equipped with the imaging apparatus.

図7(A)には、撮像装置としてのカード型カメラを示している。701はカメラ本体、702は図2に示した複眼光学系を有する撮像系である。また、703は撮影動作を開始させるための撮影ボタン、704はファインダー窓、705はフラッシュ発光部である。   FIG. 7A shows a card type camera as an imaging device. Reference numeral 701 denotes a camera body, and reference numeral 702 denotes an image pickup system having the compound eye optical system shown in FIG. Reference numeral 703 denotes a shooting button for starting a shooting operation, reference numeral 704 denotes a finder window, and reference numeral 705 denotes a flash light emitting unit.

図7(B)には、撮像装置を搭載した電子機器であるパーソナルコンピュータを示している。710はコンピュータ本体、711は本体710に対して開閉可能なディスプレイ部である。ディスプレイ部711の上部には、撮像装置712が上下に回転可能に取り付けられている。713は図2に示した撮像系である。   FIG. 7B illustrates a personal computer that is an electronic device on which an imaging device is mounted. Reference numeral 710 denotes a computer main body, and reference numeral 711 denotes a display unit that can be opened and closed with respect to the main body 710. An imaging device 712 is attached to the upper portion of the display unit 711 so as to be rotatable up and down. Reference numeral 713 denotes the imaging system shown in FIG.

なお、図7(B)に示したコンピュータ以外に、携帯電話、PDA(Personal Digital Assistance)その他の各種電子機器に実施例1の撮像装置を搭載することができる。   In addition to the computer shown in FIG. 7B, the image pickup apparatus according to the first embodiment can be mounted on various electronic devices such as a mobile phone, a PDA (Personal Digital Assistance), and the like.

本発明の実施例1である画像処理部を備えた撮像装置の構成を示すブロック図。1 is a block diagram illustrating a configuration of an imaging apparatus including an image processing unit that is Embodiment 1 of the present invention. 実施例1の撮像装置における撮像系の構成を示す模式図。FIG. 3 is a schematic diagram illustrating a configuration of an imaging system in the imaging apparatus according to the first embodiment. 実施例1の撮像系を構成する撮像素子の配列を示す図。FIG. 3 is a diagram illustrating an arrangement of image pickup elements that form the image pickup system according to the first embodiment. 実施例1の画像処理部で生成される合成画像の画素配列を示す図。FIG. 3 is a diagram illustrating a pixel array of a composite image generated by the image processing unit according to the first embodiment. 視差量と合成係数との関係を示すグラフ。The graph which shows the relationship between parallax amount and a synthetic | combination coefficient. 実施例1の撮像装置の動作を示すフローチャート。6 is a flowchart illustrating the operation of the imaging apparatus according to the first embodiment. 本発明の実施例2である撮像装置およびこれを搭載した電子機器を示す概略図。Schematic which shows the imaging device which is Example 2 of this invention, and an electronic device carrying this. 従来の複眼撮像装置の構成を示すブロック図。The block diagram which shows the structure of the conventional compound eye imaging device. 被写体位置と合成画像上での画像ずれとの関係を示す模式図。The schematic diagram which shows the relationship between a to-be-photographed object position and the image shift | offset | difference on a synthesized image. 輻輳角と被写体撮像位置のずれとの関係を示す模式図。The schematic diagram which shows the relationship between the convergence angle and the shift | offset | difference of a to-be-photographed object position. 被写体距離と被写体撮像位置のずれ量との関係を示すグラフ。The graph which shows the relationship between a to-be-photographed object distance and the deviation | shift amount of a to-be-photographed object position.

符号の説明Explanation of symbols

101〜104 撮影光学系(複眼光学系)
105〜108 撮像素子
201 絞り
701 カード型カメラ
710 パーソナルコンピュータ
101-104 Imaging optical system (compound eye optical system)
105-108 Image sensor 201 Aperture 701 Card type camera 710 Personal computer

Claims (10)

複数の入力画像の画素情報に基づいて単一画像を生成する画像処理装置であって、
前記単一画像における少なくとも一部の画素を、前記複数の入力画像のうち少なくとも2つの入力画像の画素情報を合成して得る合成手段を有し、
該合成手段は、前記入力画像間の視差に関する情報に基づいて前記画素情報の合成比率を変更することを特徴とする画像処理装置。
An image processing device that generates a single image based on pixel information of a plurality of input images,
Combining means for obtaining at least some of the pixels in the single image by combining pixel information of at least two input images of the plurality of input images;
The synthesizing unit changes the synthesis ratio of the pixel information based on information on parallax between the input images.
前記単一画像は、第1の入力画像の画素情報に対応する画素と、該第1の入力画像および第2の入力画像の画素情報を合成して得られた画素とを含み、
前記合成手段は、前記第1および第2の入力画像の画素情報間の合成比率を変更することを特徴とする請求項1に記載の画像処理装置。
The single image includes a pixel corresponding to the pixel information of the first input image and a pixel obtained by combining the pixel information of the first input image and the second input image,
The image processing apparatus according to claim 1, wherein the combining unit changes a combining ratio between pixel information of the first and second input images.
前記合成手段は、前記視差が大きいほど前記第1の入力画像の画素情報に対する前記第2の入力画像の画素情報の合成比率を小さくすることを特徴とする請求項2に記載の画像処理装置。   3. The image processing apparatus according to claim 2, wherein the synthesizing unit reduces the synthesis ratio of the pixel information of the second input image with respect to the pixel information of the first input image as the parallax increases. 複数の入力画像の画素情報に基づいて単一画像を生成する画像生成手段を有し、
該画像生成手段は、前記入力画像間の視差に関する情報に基づいて、前記単一画像の生成方法を変更することを特徴とする画像処理装置。
Image generating means for generating a single image based on pixel information of a plurality of input images;
The image processing device changes the method for generating the single image based on information on parallax between the input images.
前記画像生成手段は、前記視差がない又は所定値より小さい場合は、前記単一画像の各画素を前記各入力画像の画素情報に対応した画素とし、前記視差がある又は前記所定値より大きい場合は、前記単一画像における少なくとも一部の画素を、前記複数の入力画像のうち少なくとも2つの入力画像の画素情報を合成して得ることを特徴とする請求項4に記載の画像処理装置。   If the parallax does not exist or is smaller than a predetermined value, the image generation means sets each pixel of the single image as a pixel corresponding to pixel information of each input image, and if the parallax is present or larger than the predetermined value The image processing apparatus according to claim 4, wherein at least some of the pixels in the single image are obtained by combining pixel information of at least two input images of the plurality of input images. 前記視差に関する情報を取得する視差取得手段を有することを特徴とする請求項1から5のいずれか1つに記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a parallax acquisition unit configured to acquire information regarding the parallax. 複眼光学系と、
該複眼光学系により形成された複数の被写体像を光電変換する撮像素子と、
該撮像素子からの出力に基づいて生成された複数の入力画像の画素情報に基づいて単一画像を生成する請求項1から6のいずれか1つに記載の画像生成装置とを有することを特徴とする撮像装置。
A compound eye optical system;
An image sensor that photoelectrically converts a plurality of subject images formed by the compound eye optical system;
7. The image generating apparatus according to claim 1, wherein the image generating apparatus generates a single image based on pixel information of a plurality of input images generated based on an output from the imaging element. An imaging device.
請求項7に記載の撮像装置を有することを特徴とする電子機器。   An electronic apparatus comprising the imaging device according to claim 7. 複数の画像の画素情報に基づいて単一画像を生成する、コンピュータ上で動作する画像処理プログラムであって、
前記複数の画像を入力するステップと、
前記単一画像における少なくとも一部の画素を、前記複数の入力画像のうち少なくとも2つの画像の画素情報を合成して得る合成ステップと、
前記入力画像間の視差に関する情報を取得するステップとを有し、
前記合成ステップにおいて、前記視差に関する情報に基づいて前記画素情報の合成比率を変更することを特徴とする画像処理プログラム。
An image processing program operating on a computer that generates a single image based on pixel information of a plurality of images,
Inputting the plurality of images;
A synthesis step of obtaining at least some of the pixels in the single image by synthesizing pixel information of at least two images of the plurality of input images;
Obtaining information on parallax between the input images,
An image processing program characterized in that, in the combining step, a combining ratio of the pixel information is changed based on information on the parallax.
複数の画像を入力するステップと、
該複数の入力画像の画素情報に基づいて単一画像を生成する画像生成ステップと、
前記入力画像間の視差に関する情報を取得するステップとを有し、
前記画像生成ステップにおいて、前記視差に関する情報に基づいて、前記単一画像の生成方法を変更することを特徴とする、コンピュータ上で動作する画像処理プログラム。

Inputting multiple images;
An image generation step of generating a single image based on pixel information of the plurality of input images;
Obtaining information on parallax between the input images,
An image processing program operating on a computer, wherein, in the image generation step, a method for generating the single image is changed based on information on the parallax.

JP2004324590A 2004-11-09 2004-11-09 Image processor, imaging apparatus and image processing program Pending JP2006135823A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004324590A JP2006135823A (en) 2004-11-09 2004-11-09 Image processor, imaging apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004324590A JP2006135823A (en) 2004-11-09 2004-11-09 Image processor, imaging apparatus and image processing program

Publications (1)

Publication Number Publication Date
JP2006135823A true JP2006135823A (en) 2006-05-25

Family

ID=36728919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004324590A Pending JP2006135823A (en) 2004-11-09 2004-11-09 Image processor, imaging apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP2006135823A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007142050A1 (en) * 2006-06-07 2007-12-13 Olympus Corporation Image processing device, image processing method, and image signal processing program
JP2008225671A (en) * 2007-03-09 2008-09-25 Ricoh Co Ltd Image input device and personal identification device
EP2054850A1 (en) * 2006-10-12 2009-05-06 Ricoh Company, Ltd. Image input apparatus, image input method, personal authentication apparatus, and electronic apparatus
WO2009110626A1 (en) * 2008-03-04 2009-09-11 Ricoh Company, Ltd. Personal authentication device and electronic device
JP2011172174A (en) * 2010-02-22 2011-09-01 Ricoh Co Ltd Imaging apparatus, distance image capturing device, and manufacturing method thereof
US8204282B2 (en) 2007-09-14 2012-06-19 Ricoh Company, Ltd. Image input device and personal authentication device
CN101414354B (en) * 2007-09-14 2013-01-23 株式会社理光 Image input device and personal authentication device
US8941749B2 (en) 2011-05-09 2015-01-27 Canon Kabushiki Kaisha Image processing apparatus and method for image synthesis
JP2017034722A (en) * 2016-11-04 2017-02-09 株式会社ニコン Image processing system and imaging apparatus
US9992393B2 (en) 2010-06-03 2018-06-05 Nikon Corporation Image-capturing device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007329621A (en) * 2006-06-07 2007-12-20 Olympus Corp Image processing device, image processing method and image signal processing program
WO2007142050A1 (en) * 2006-06-07 2007-12-13 Olympus Corporation Image processing device, image processing method, and image signal processing program
EP2054850A1 (en) * 2006-10-12 2009-05-06 Ricoh Company, Ltd. Image input apparatus, image input method, personal authentication apparatus, and electronic apparatus
EP2054850A4 (en) * 2006-10-12 2011-06-15 Ricoh Co Ltd Image input apparatus, image input method, personal authentication apparatus, and electronic apparatus
US8085312B2 (en) * 2006-10-12 2011-12-27 Ricoh Company, Ltd. Image input apparatus, image input method, personal authentication apparatus, and electronic apparatus
JP2008225671A (en) * 2007-03-09 2008-09-25 Ricoh Co Ltd Image input device and personal identification device
US8204282B2 (en) 2007-09-14 2012-06-19 Ricoh Company, Ltd. Image input device and personal authentication device
CN101414354B (en) * 2007-09-14 2013-01-23 株式会社理光 Image input device and personal authentication device
WO2009110626A1 (en) * 2008-03-04 2009-09-11 Ricoh Company, Ltd. Personal authentication device and electronic device
US8611614B2 (en) 2008-03-04 2013-12-17 Ricoh Company, Limited Personal authentication device and electronic device
JP2011172174A (en) * 2010-02-22 2011-09-01 Ricoh Co Ltd Imaging apparatus, distance image capturing device, and manufacturing method thereof
US9992393B2 (en) 2010-06-03 2018-06-05 Nikon Corporation Image-capturing device
US10511755B2 (en) 2010-06-03 2019-12-17 Nikon Corporation Image-capturing device
US10955661B2 (en) 2010-06-03 2021-03-23 Nikon Corporation Image-capturing device
US8941749B2 (en) 2011-05-09 2015-01-27 Canon Kabushiki Kaisha Image processing apparatus and method for image synthesis
JP2017034722A (en) * 2016-11-04 2017-02-09 株式会社ニコン Image processing system and imaging apparatus

Similar Documents

Publication Publication Date Title
US8885067B2 (en) Multocular image pickup apparatus and multocular image pickup method
JP4699995B2 (en) Compound eye imaging apparatus and imaging method
JP4976310B2 (en) Imaging device
JP5640143B2 (en) Imaging apparatus and imaging method
JP5385462B2 (en) Monocular stereoscopic imaging apparatus, shading correction method for monocular stereoscopic imaging apparatus, and program for monocular stereoscopic imaging apparatus
JP4529840B2 (en) Imaging apparatus, image processing method, and program
JP5036482B2 (en) Image processing apparatus, image processing method, and image processing program
JP5493054B2 (en) Image pickup device for picking up three-dimensional moving image and plane moving image, and image pickup apparatus equipped with the image pickup device
JP2008015754A (en) Image pickup device, image processor and image processing method
JP2009159226A (en) Imaging element, focus detection device, focus adjustment device and imaging apparatus
WO2004114677A1 (en) Image processing method and device, and program
TW201143384A (en) Camera module, image processing apparatus, and image recording method
WO2012073727A1 (en) Imaging device and focal position detection method
JP6037224B2 (en) Image processing apparatus, imaging apparatus, and program
JP2006135823A (en) Image processor, imaging apparatus and image processing program
JP4735978B2 (en) Image processing apparatus, image processing method, and program
WO2012169301A1 (en) Image pickup device imaging three-dimensional moving image and two-dimensional moving image, and image pickup apparatus mounting image pickup device
JP4703504B2 (en) Image processing apparatus, image processing method, and program
JP2009047734A (en) Imaging apparatus and image processing program
JP6790038B2 (en) Image processing device, imaging device, control method and program of image processing device
JP4496883B2 (en) Image processing method, image processing apparatus, program, and recording medium
JP2009047735A (en) Imaging apparatus and image processing program
JP2011182325A (en) Image pickup device
JP6507527B2 (en) Imaging device and imaging device
JP2015094834A (en) Image capturing device, image capturing system, method of controlling image capturing device, program, and storage medium