JP2012147087A - Apparatus and method for generating image - Google Patents

Apparatus and method for generating image Download PDF

Info

Publication number
JP2012147087A
JP2012147087A JP2011001978A JP2011001978A JP2012147087A JP 2012147087 A JP2012147087 A JP 2012147087A JP 2011001978 A JP2011001978 A JP 2011001978A JP 2011001978 A JP2011001978 A JP 2011001978A JP 2012147087 A JP2012147087 A JP 2012147087A
Authority
JP
Japan
Prior art keywords
image
images
pixel
image generation
relative position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011001978A
Other languages
Japanese (ja)
Inventor
Tsuneyuki Hagiwara
恒幸 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011001978A priority Critical patent/JP2012147087A/en
Publication of JP2012147087A publication Critical patent/JP2012147087A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To easily generate a composite image with high resolution without performing a pixel interpolation processing.SOLUTION: A multi-eye camera includes: a plurality of photographic lenses which are two-dimensionally arranged; imaging elements which individually image subject images which are image-formed by the respective photographic lenses; and a composite processing section 25 compositing the plurality of images obtained from the respective imaging elements. The composite processing section 25 includes: a relative position detecting section 40; a superposition section 41; and a pixel arranging section 42. The relative position detecting section 40 detects relative positions of a reference image with respect to remaining images. The superposition section 41 superposes the plurality of images so that deviation based on the relative position becomes zero on a virtual image region in which pixels are increased. The pixel arranging section 42 generates a single composite image by selecting and arranging a pixel whose center is the nearest to centers of respective pixels constituting the virtual image region from the plurality of superposed images.

Description

本発明は、視差の異なる複数の画像を用いて単一の高解像度の画像を生成する画像生成装置及び方法に関する。   The present invention relates to an image generation apparatus and method for generating a single high-resolution image using a plurality of images having different parallaxes.

従来、マイクロレンズアレイにより単一の受光素子の受光面上に結像される複数の低解像度な物体縮小像から単一の高解像度な物体像を生成する画像再構成装置が知られている(特許文献1)。マイクロレンズアレイは、複数のマイクロレンズを二次元状に配列して一体化されている。この装置は、複数の物体縮小像を用いて物体縮小像間の相対位置を、基準の物体縮小画像に対する全ての物体縮小画像との相対位置を算定し、算定した相対位置に基づいて各物体縮小像の画素を、拡大した同一領域(所定の画像メモリ領域)上に再配置して多画素化した単一の物体像を生成し、その後、再配置した単一の物体象の欠失した画素の補間処理を行った後に、エッジ強調等の鮮鋭化処理を施して単一の高精細な合成画像を生成している。   2. Description of the Related Art Conventionally, there is known an image reconstruction device that generates a single high-resolution object image from a plurality of low-resolution object reduced images formed on a light-receiving surface of a single light-receiving element by a microlens array ( Patent Document 1). The microlens array is formed by integrating a plurality of microlenses in a two-dimensional manner. This device calculates the relative position between the reduced object images using a plurality of reduced object images, the relative position of all the reduced object images with respect to the reference reduced object image, and reduces each object based on the calculated relative position. Pixels of the image are rearranged on the same enlarged area (predetermined image memory area) to generate a single object image with multiple pixels, and then the rearranged pixels of the single object image deleted After performing the interpolation processing, sharpening processing such as edge enhancement is performed to generate a single high-definition composite image.

特開2003−141529号公報JP 2003-141529 A

しかしながら、特許文献1に記載の発明では、基準の物体縮小像の画素を、拡大した同一領域にスケールに合わせて配置し、続いて他の物体縮小像の画素を相対位置に基づいて同一領域内に配置して単一の物体像を生成しているため、物体とマイクロレンズアレイとの物体距離によっては欠失画素を含むことになる。これにより、欠失画素をその周辺の画素値を用いて補間する補間処理が必要になり、処理に時間がかかるおそれがある。   However, in the invention described in Patent Document 1, the pixels of the reference reduced object image are arranged in the same enlarged area in accordance with the scale, and then the pixels of the other reduced object image are placed in the same area based on the relative positions. Since a single object image is generated by disposing the pixel, the deleted pixel is included depending on the object distance between the object and the microlens array. As a result, an interpolation process for interpolating the missing pixel using the surrounding pixel values is required, and the process may take time.

本発明は上記事情に鑑みてなされたものであり、画素補間等の面倒な処理を行わずに合成処理を簡便に行うことができる画像生成装置及び方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image generation apparatus and method capable of simply performing a synthesis process without performing a troublesome process such as pixel interpolation.

本発明を例示する画像生成装置の一態様は、複数の画像のうちの基準の画像に対する残りの画像の相対位置を検出する相対位置検出手段と;前記複数の画像を、多画素化した仮想の画像領域上で前記検出した相対位置に基づいてずれがゼロとなるように重ね合わせる重合手段と;前記仮想の画像領域を構成する各画素の中心に、中心が最も近い画素を、重ね合わせた複数の画像の中から選択して配置していく画素配置手段と;を備えるものである。   An aspect of the image generating apparatus exemplifying the present invention includes: a relative position detecting unit that detects a relative position of a remaining image with respect to a reference image of a plurality of images; Superimposing means for superimposing on the image area based on the detected relative position so that the deviation is zero; a plurality of pixels in which the pixel closest to the center is superimposed on the center of each pixel constituting the virtual image area And a pixel arrangement unit that selects and arranges from among the images.

本発明の画像生成装置によれば、多画素化した仮想の画像領域を構成する各画素の中心に、中心が最も近い画素を、重ね合わせた複数の画像の中から選択して配置していくため、仮想の画像領域内で欠失する画素が生じることはがない。よって、補間処理を必要としないので、合成処理を簡素化することができる。   According to the image generating apparatus of the present invention, a pixel having the closest center is selected from a plurality of superimposed images and arranged at the center of each pixel constituting a virtual image area having multiple pixels. Therefore, pixels that are deleted in the virtual image region never occur. Therefore, since no interpolation process is required, the synthesis process can be simplified.

本発明を採用した多眼カメラを示す前方斜視図である。It is a front perspective view which shows the multi-lens camera which employ | adopted this invention. 多眼カメラの後方斜視図である。It is a rear perspective view of a multi-view camera. 多眼カメラの電気的構成を説明するブロック図である。It is a block diagram explaining the electrical structure of a multi-view camera. 合成処理部の構成を示すブロック図である。It is a block diagram which shows the structure of a synthetic | combination process part. 多眼カメラの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of a multi-view camera. 合成処理を説明するフローチャートである。It is a flowchart explaining a synthetic | combination process. 撮影レンズ及び撮像素子を例えば2×2で配列して被写体を撮像する状況を模式的に説明する説明図である。It is explanatory drawing which illustrates typically the condition which arranges a photographic lens and an image sensor with 2x2, for example, and picturizes a photographic subject. 図7で説明した撮像素子で撮像した4つの画像データを模式的に説明する説明図である。FIG. 8 is an explanatory diagram schematically illustrating four image data captured by the image sensor described in FIG. 7. 被写体と撮像素子との相対位置を求めて被写体像を基準にした姿勢で表示した状態を説明する説明図である。It is explanatory drawing explaining the state displayed by the attitude | position based on the to-be-photographed image, calculating | requiring the relative position of a to-be-photographed object and an image pick-up element. 仮想の画像領域上で各画像データを重ね合わせた状態を説明する説明図である。It is explanatory drawing explaining the state which overlap | superposed each image data on the virtual image area. 仮想の画像領域を構成する各画素の中心に、中心が最も近い画素を、重ね合わせた複数の画像の中から選択して配置していく様子を説明する説明図である。It is explanatory drawing explaining a mode that the pixel with the nearest center is selected from the several superimposed image and arrange | positioned in the center of each pixel which comprises a virtual image area | region. 水平方向光学解像度、及び水平方向ナイキスト解像度の式に用いた記号を説明するための説明図である。It is explanatory drawing for demonstrating the symbol used for the formula of a horizontal direction optical resolution and a horizontal direction Nyquist resolution. 手振れ補正の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of camera shake correction.

多眼カメラ10は、図1に示すように、16個の撮影開口11がカメラボディ12の前面に設けられている。各撮影開口11の奥には、撮影レンズ、及び撮像素子が配されており、これら撮影開口、撮影レンズ、及び撮像素子が個眼撮像部を構成する。   As shown in FIG. 1, the multi-lens camera 10 has 16 shooting openings 11 provided on the front surface of the camera body 12. A photographing lens and an imaging element are arranged in the back of each photographing opening 11, and the photographing opening, the photographing lens, and the imaging element constitute a single-eye imaging unit.

各撮像素子は、例えば5M〜10Mの低画素で、かつ消費電力の少ない撮像素子が用いられている。また、各撮影レンズの光軸は、略平行になっている。各撮像素子は、撮影レンズの光軸に対して撮像面が垂直になるように配されている。   As each imaging device, for example, an imaging device with a low pixel of 5M to 10M and low power consumption is used. Further, the optical axes of the photographing lenses are substantially parallel. Each imaging element is arranged so that the imaging surface is perpendicular to the optical axis of the imaging lens.

多眼カメラ10は、カメラボディ12の上面にシャッタボタン13、及び電源スイッチ14が配されており、1回のシャッタレリーズにより、例えば16個の画像データを取得し、これら画像データを合成して高精細な一つの画像データを生成する。   The multi-lens camera 10 is provided with a shutter button 13 and a power switch 14 on the upper surface of the camera body 12, and acquires, for example, 16 pieces of image data by one shutter release, and synthesizes these image data. One high-definition image data is generated.

撮影開口11は、二次元状に配列されている。撮影開口11のx,y方向の間隔は、疑似ランダム系列であるM系列に従った所定の周期パターンに設定される。この場合、M系列の自己相関関数は、デルタ(δ)関数に近く、ピーク以外では相関関数値が一定となる特徴を備えている。   The imaging openings 11 are arranged in a two-dimensional manner. The interval in the x and y directions of the imaging aperture 11 is set to a predetermined periodic pattern according to the M sequence that is a pseudo-random sequence. In this case, the autocorrelation function of the M sequence is close to the delta (δ) function, and has a feature that the correlation function value is constant except for the peak.

なお、撮影開口11の間隔は、2値の疑似ランダム系列であれば、M系列以外に、Q系列(平方剰余系列)、Gold系列、Walsh符号等のものを使用することも可能である。また、撮影開口11は、二次元方向の間隔が疑似ランダム系列である所定の周期パターンに設定されていれば、16個に限ることはない。   In addition, as long as the space | interval of the imaging | photography opening 11 is a binary pseudorandom series, things other than M series, such as Q series (square remainder series), Gold series, Walsh code, etc., can also be used. The number of imaging apertures 11 is not limited to 16 as long as the interval in the two-dimensional direction is set to a predetermined periodic pattern that is a pseudo-random sequence.

カメラボディ12の背後には、図2に示すように、LCD15が配されている。LCD15には、タッチパネル操作部が組み込まれている。変倍操作は、タッチパネル操作部を利用して操作する。勿論、LCD15には、メニューの文字や操作ボタン等の絵柄が表示され、操作し易くなっている。   An LCD 15 is arranged behind the camera body 12 as shown in FIG. A touch panel operation unit is incorporated in the LCD 15. The scaling operation is performed using the touch panel operation unit. Of course, the LCD 15 displays a menu character, a picture such as an operation button, and the like, making it easy to operate.

図3に示すように、各撮像素子20には、AFE21、及びフレームメモリ22がそれぞれ接続されており、撮影レンズ23により結像する被写体像を撮像して画像信号をAFE21に出力する。   As shown in FIG. 3, each image sensor 20 is connected to an AFE 21 and a frame memory 22, picks up a subject image formed by the photographing lens 23, and outputs an image signal to the AFE 21.

AFE21は、周知のCDS(相関二重サンプリング)/AGC(ゲイン・コントロール・アンプ回路)、A/D、及び信号処理回路で構成されており、CPU24とともにTGから供給されるパルスに同期して動作する(図示なし)。信号処理回路は、デジタルの画像データを取り込み、画素欠陥補正やホワイトバランス補正、ガンマ補正などの補正を行う。   The AFE 21 includes a well-known CDS (correlated double sampling) / AGC (gain control amplifier circuit), A / D, and a signal processing circuit, and operates in synchronization with a pulse supplied from the TG together with the CPU 24. (Not shown). The signal processing circuit captures digital image data and performs corrections such as pixel defect correction, white balance correction, and gamma correction.

CPU24には、LCD15に設けたタッチパネル操作部から各種の操作信号が入力される(図示なし)。CPU24は、1回のレリーズ操作で複数の画像データを各フレームメモリ22に同時に取り込む。各画像データは、低解像な縮小画像データとなっており、フレームメモリ22に個別に取り込まれた後、合成処理部25に読み出される。合成処理部25は、視差の異なる複数の画像データを利用して高解像度な合成画像データを生成する。   Various operation signals are input to the CPU 24 from a touch panel operation unit provided on the LCD 15 (not shown). The CPU 24 simultaneously loads a plurality of image data into each frame memory 22 by one release operation. Each image data is reduced-resolution image data with low resolution, and is individually taken into the frame memory 22 and then read out to the synthesis processing unit 25. The composition processing unit 25 generates high-resolution composite image data using a plurality of image data having different parallaxes.

また、多眼カメラ10には、測距部(測距手段)26、角速度センサ(振れ検出手段)27、移動量算出部(移動量算出手段)28、及び移動機構(移動手段)29が配されている。また、撮影レンズ23の合焦を個別に行う合焦機構30が撮影レンズ23毎に配されている。角速度センサ27は、多眼カメラ10のブレを検出し、検出したブレ情報を移動量算出部28に送る。   In addition, the multi-lens camera 10 includes a distance measuring unit (ranging unit) 26, an angular velocity sensor (shake detecting unit) 27, a movement amount calculating unit (movement amount calculating unit) 28, and a moving mechanism (moving unit) 29. Has been. A focusing mechanism 30 for individually focusing the photographing lens 23 is provided for each photographing lens 23. The angular velocity sensor 27 detects a shake of the multi-lens camera 10 and sends the detected shake information to the movement amount calculation unit 28.

測距部26は、複数の画像データのうちの少なくとも2つの画像データを取り込み、これら2つの画像データに基づいて両画像の相対的なずれ量を求め、求めたずれ量から被写体距離を算出し、全ての合焦機構30を制御して、被写体距離に応じた合焦位置に全ての撮影レンズ23を個別に移動させる。   The distance measuring unit 26 captures at least two of the plurality of image data, calculates a relative shift amount between the two images based on the two image data, and calculates a subject distance from the calculated shift amount. All the focusing mechanisms 30 are controlled, and all the photographing lenses 23 are individually moved to a focusing position according to the subject distance.

例えば三角測量の原理を用いた三角測距法では、2つの画像データを撮像した撮像素子20の中心間隔(基線長)d、撮影レンズ23の焦点距離f、視差δとすると、被写体距離Lを三角形の比例関係から成り立つ「L=f×d/δ」の式を用いて求める。求めた被写体距離の情報は、移動量算出部28に送られる。なお、2つの画像データは、基線長dが最も長い撮像素子20から得られる画像データを用いるのが好適である。   For example, in the triangulation method using the principle of triangulation, if the center distance (base line length) d of the image sensor 20 that captured two image data, the focal length f of the photographing lens 23, and the parallax δ, the subject distance L is It is obtained by using an equation “L = f × d / δ” that is formed by a proportional relationship of triangles. The obtained subject distance information is sent to the movement amount calculation unit 28. Note that it is preferable to use image data obtained from the image sensor 20 having the longest baseline length d as the two image data.

移動量算出部28は、角速度センサ27で検出した振れに基づいて移動機構29による撮像素子20毎の移動量を算出する。算出した移動量の情報は、移動機構29に送られる。これらの移動量の情報には、移動量以外に移動方向の情報も含んでいる。   The movement amount calculation unit 28 calculates the movement amount for each image sensor 20 by the movement mechanism 29 based on the shake detected by the angular velocity sensor 27. Information on the calculated movement amount is sent to the movement mechanism 29. These pieces of movement information include movement direction information in addition to the movement amount.

移動機構29は、撮像素子20毎に配されており、例えばボイスコイルやステッピングモータ等のアクチュエータを含み、アクチュエータを利用して移動量算出部28で算出した移動量に基づいて撮像素子20を光軸に対して直交する方向に瞬時に移動させる。   The moving mechanism 29 is arranged for each image pickup device 20, and includes an actuator such as a voice coil or a stepping motor, for example. The moving mechanism 29 uses the actuator to light the image pickup device 20 based on the movement amount calculated by the movement amount calculation unit 28. Instantly move in a direction perpendicular to the axis.

ROM31は、各種プログラムやプログラムの実行に必要な設定値を予め記憶している。RAM32は、CPU24のワークメモリとして、また、各部の一時的なメモリとして使用される。これらCPU24、ROM31、RAM32、LCDドライバ33、I/F34、及び合成処理部25はバス35により接続されている。   The ROM 31 stores various programs and setting values necessary for executing the programs in advance. The RAM 32 is used as a work memory for the CPU 24 and as a temporary memory for each unit. The CPU 24, ROM 31, RAM 32, LCD driver 33, I / F 34, and composition processing unit 25 are connected by a bus 35.

なお、撮影レンズ23をズームレンズ、又は焦点距離切り替えタイプのレンズとしてもよい。この場合には、変倍操作に同期して全ての撮影レンズを変倍するように構成すればよい。   The photographing lens 23 may be a zoom lens or a focal length switching type lens. In this case, all the photographing lenses may be configured to change magnification in synchronization with the magnification operation.

CPU24は、画像合成部25で生成した合成画像データを、I/F34を介して記録部36に記録する。なお、圧縮部を設け、合成画像データを、例えばJPEG方式で圧縮した形式で記録してもよい。また、CPU24は、合成画像データに基づいて表示用画像データを生成し、表示用画像データをLCDドライバ33に送り、表示用画像データをLCDドライバ33の制御によりLCD15にスルー画像として表示する。   The CPU 24 records the composite image data generated by the image composition unit 25 in the recording unit 36 via the I / F 34. Note that a compression unit may be provided to record the composite image data in a format compressed by, for example, the JPEG method. Further, the CPU 24 generates display image data based on the composite image data, sends the display image data to the LCD driver 33, and displays the display image data on the LCD 15 as a through image under the control of the LCD driver 33.

CPU24は、撮像素子20の電荷蓄積時間(電子シャッタ)を各々制御し、また、特定の撮像素子20から得られる画像データに基づいて被写体の輝度を測定し、この測定結果に基づいて全部の撮像素子20の電子シャッタの値を変えて露出を制御する。   The CPU 24 controls the charge accumulation time (electronic shutter) of the image sensor 20, measures the luminance of the subject based on the image data obtained from the specific image sensor 20, and performs all imaging based on the measurement result. The exposure is controlled by changing the value of the electronic shutter of the element 20.

合成処理部25は、図4に示すように、相対位置検出部40、重合部41、画素配置部42、ボケ除去処理部43、及び縮小処理部44で構成されている。相対位置検出部40は、複数の画像の位置合わせを行うために、複数の画像のうちの基準の画像に対する残りの画像との相対位置をそれぞれ算出する。重合部41は、複数の画像を、多画素化した仮想の画像領域上で各相対位置に基づいてズレがゼロとなるように重ね合わせる。画素配置部42は、前記仮想の画像領域を構成する各画素の中心に、中心が最も近い画素を、重ね合わせた複数の画像の中から選択して配置していくことで単一の高解像度な合成画像データを生成する。ボケ除去処理部43は、合成画像データに対して、例えばデコンボリューション処理を行ってボケの影響を取り除く。縮小処理部44は、ボケ除去処理済みの合成画像データに対して、例えばバイリニア法により縮小処理を行って最終的な合成画像データを出力する。   As illustrated in FIG. 4, the composition processing unit 25 includes a relative position detection unit 40, a superposition unit 41, a pixel arrangement unit 42, a blur removal processing unit 43, and a reduction processing unit 44. The relative position detection unit 40 calculates a relative position of each of the plurality of images with respect to the remaining image with respect to the reference image in order to align the plurality of images. The superimposing unit 41 superimposes a plurality of images on a virtual image area having multiple pixels so that the deviation is zero based on each relative position. The pixel arrangement unit 42 selects and arranges a pixel having the closest center at the center of each pixel constituting the virtual image area from a plurality of superimposed images, thereby providing a single high resolution. Simple composite image data is generated. The blur removal processing unit 43 performs, for example, deconvolution processing on the composite image data to remove the influence of blur. The reduction processing unit 44 performs reduction processing on the composite image data that has been subjected to blur removal processing, for example, by a bilinear method, and outputs final composite image data.

次に上記構成の作用を、図5を参照しながら簡単に説明する。多眼カメラ10は、電源スイッチ14をオンすると、移動機構29が撮像素子20を初期位置にセットする(S−1)。初期位置は、撮像面の中心が光軸に一致する位置になっている。手振れ補正処理が開始される(S−2)。なお、手振れ補正処理についての詳しい説明は後述する。   Next, the operation of the above configuration will be briefly described with reference to FIG. When the multi-eye camera 10 turns on the power switch 14, the moving mechanism 29 sets the image sensor 20 to the initial position (S-1). The initial position is a position where the center of the imaging surface coincides with the optical axis. The camera shake correction process is started (S-2). A detailed description of the camera shake correction process will be described later.

シャッタボタン13の半押し操作に応答して(S−3)、測距部26が被写体距離を算出し(S−4)、合焦機構30が被写体距離に基づいて全部の撮影レンズ23を合焦位置に移動させる(S−5)。そして、シャッタボタン13の全押し操作に応答して(S−6)、全ての撮像素子20を駆動して視差の異なる複数の画像データをフレームメモリ22に取り込むようにCPU24が制御する(S−7)。取得した複数の画像データは、合成処理部25に送られ、ここで、単一の高画質な合成画像データが生成される(S−8)。合成画像データは、記録部36に送られ、記録される(S−9)。なお、シャッタボタン13の全押し操作の後に、各撮影レンズ23の合焦動作を行うようにしてもよい。   In response to the half-pressing operation of the shutter button 13 (S-3), the distance measuring unit 26 calculates the subject distance (S-4), and the focusing mechanism 30 aligns all the photographing lenses 23 based on the subject distance. Move to the focal position (S-5). Then, in response to the full-pressing operation of the shutter button 13 (S-6), the CPU 24 controls to drive all the image sensors 20 and capture a plurality of image data having different parallaxes into the frame memory 22 (S-). 7). The acquired plurality of image data is sent to the composition processing unit 25, where a single high-quality composite image data is generated (S-8). The composite image data is sent to the recording unit 36 and recorded (S-9). In addition, after the shutter button 13 is fully pressed, the focusing operation of each photographing lens 23 may be performed.

ここで、合成処理部25の処理について図6を参照しながら説明する。まず、撮影レンズ23a〜23dを、図7に示すように、2行(x方向)×2列(y方向)に配列した場合、各撮像素子20A〜20Dから取得したデジタルの画像データA〜Dには、図8に示すように、被写体50の縮小像50a〜50dが映っている。   Here, the processing of the synthesis processing unit 25 will be described with reference to FIG. First, when the photographing lenses 23a to 23d are arranged in 2 rows (x direction) × 2 columns (y direction) as shown in FIG. 7, digital image data A to D acquired from the respective image sensors 20A to 20D. As shown in FIG. 8, reduced images 50a to 50d of the subject 50 are shown.

各画像データA〜Dの4つのマス目A1〜A4,B1〜B4,C1〜C4、D1〜D4は、各撮像素子20A〜20Dの2×2=4画素に対応する画素(ピクセル)を表している。図8に示す画像データA〜Dは、撮像素子20A〜20Dの姿勢を基準に縮小像50a〜50dを表示しており、縮小像50a〜50dは、撮影レンズ23a〜23d間の視差、及び撮影レンズ23a〜23dや撮像素子20A〜20Dのアライメント誤差等を含む姿勢で表示されている。   Four squares A1 to A4, B1 to B4, C1 to C4, and D1 to D4 of each image data A to D represent pixels (pixels) corresponding to 2 × 2 = 4 pixels of the imaging elements 20A to 20D. ing. The image data A to D shown in FIG. 8 display reduced images 50a to 50d based on the orientations of the image sensors 20A to 20D. The reduced images 50a to 50d are parallax between the photographing lenses 23a to 23d and photographing. It is displayed in a posture including alignment errors of the lenses 23a to 23d and the image sensors 20A to 20D.

相対位置検出部40は、複数の画像データA〜Dを取り込み、ある基準の画像データA〜Dと任意の一つの画像データA〜Dとの縮小像50a〜50dの相関演算により縮小像50a〜50d間の相対位置を求めていくことで、基準の画像データA〜Dの縮小像50a〜50dに対する残りの画像データA〜Dの縮小像50a〜50d間の相対位置をそれぞれ算出する(S−10)。基準の画像データA〜Dに対する全ての画像データA〜Dのずれ量(シフト量)は、撮像素子20A〜20Dの画素を単位として求めればよい。   The relative position detection unit 40 takes in a plurality of image data A to D, and performs a correlation operation of the reduced images 50a to 50d between certain reference image data A to D and any one of the image data A to D, thereby reducing the reduced images 50a to 50d. The relative positions between the reduced images 50a to 50d of the remaining image data A to D with respect to the reduced images 50a to 50d of the reference image data A to D are calculated by obtaining the relative positions between 50d (S- 10). The shift amount (shift amount) of all the image data A to D with respect to the reference image data A to D may be obtained in units of pixels of the image sensors 20A to 20D.

縮小像50a〜50d間の相対位置の検出は、エッジ座標の平均や輝度の重心等を用いる。これにより、縮小像50a〜50dと撮像素子A〜Dとの相対位置、すなわち、縮小像50a〜50dを基準とする各画像データA〜Dの姿勢ずれ(位置ずれ、回転ずれ、倍率ずれ)を検出することができる。画像データA〜Dは、縮小像50a〜50dの姿勢を基準に表示すると、図9に示すように、各画像データA〜Dの姿勢がずれている。   Detection of the relative position between the reduced images 50a to 50d uses an average of edge coordinates, a gravity center of luminance, or the like. As a result, the relative position between the reduced images 50a to 50d and the image sensors A to D, that is, the posture deviation (position deviation, rotation deviation, magnification deviation) of each of the image data A to D with reference to the reduced images 50a to 50d. Can be detected. When the image data A to D are displayed based on the postures of the reduced images 50a to 50d, the postures of the image data A to D are shifted as shown in FIG.

重合部41は、図10に示すように、複数の画像データA〜Dを、縮小像50a〜50dのずれ量がゼロになるように各画像データA〜Dを回転、平行、及び拡縮等の処理を行って、多画素化した仮想の画像領域(メモリ)51上で重ね合わせる(S−11)。仮想の画像領域51の画素51a〜51pは、各画像データA〜Dの画素B1〜B4,C1〜C4、D1〜D4の1/4のサイズに設定している。   As shown in FIG. 10, the superposition unit 41 rotates, parallels, enlarges and reduces each of the image data A to D so that the shift amount of the reduced images 50 a to 50 d becomes zero. Processing is performed to superimpose the image on the virtual image area (memory) 51 having multiple pixels (S-11). The pixels 51a to 51p in the virtual image area 51 are set to a size that is 1/4 of the pixels B1 to B4, C1 to C4, and D1 to D4 of each image data A to D.

ここで、フレームメモリ22に記憶されているのは、画素単位のデータであって、仮想的な画像領域51の行列は、必ずしもフレームメモリ22の各画素と1対1に対応していない。従来、仮想的な画像領域51の1画素とフレームメモリ22の1画素とがずれているため、仮想的な画像領域51の1画素は、フレームメモリ22における複数画素の組み合わせに対応させている。そこで、仮想的な画像領域51の1画素の値を、対応するフレームメモリ22の複数画素によって画素補間をしていた。   Here, what is stored in the frame memory 22 is data in pixel units, and the matrix of the virtual image area 51 does not necessarily correspond to each pixel of the frame memory 22 on a one-to-one basis. Conventionally, since one pixel of the virtual image area 51 and one pixel of the frame memory 22 are shifted, one pixel of the virtual image area 51 corresponds to a combination of a plurality of pixels in the frame memory 22. Therefore, pixel interpolation of the value of one pixel in the virtual image area 51 is performed by a plurality of pixels in the corresponding frame memory 22.

しかし、本実施形態では、画素配置部42は、図11に示すように、仮想の画像領域51を構成する各画素51a〜51pの中心51aa〜51paに、中心A1a〜D1aが最も近い縮小像50a〜50dの画素A1〜A4,B1〜B4,C1〜C4、D1〜D4を、重ね合わせた複数の画像データA〜Dの中から選択して配置していく(S−12)。   However, in the present embodiment, as shown in FIG. 11, the pixel arrangement unit 42 is a reduced image 50a in which the centers A1a to D1a are closest to the centers 51aa to 51pa of the pixels 51a to 51p constituting the virtual image region 51. The pixels A1 to A4, B1 to A4, B1 to B4, C1 to C4, and D1 to D4 of ˜50d are selected and arranged from the plurality of superimposed image data A to D (S-12).

図11では、画像データA1の画素A1の中心A1aとの距離をH1、画像データB1の画素B1の中心B1aとの距離をH2、画像データC1の画素C1の中心C1aとの距離をH3、画像データD1の画素D1の中心D1aとの距離をH4として、中心51aaとの間の直線距離の関係をH3>H1>H2>H4とすると、仮想の画像領域51の画素51aに最も近いのは中心D1aであるので、中心D1aをもつ画像データDの画素D1の値がセットされる。続いて画素51bに最も近い中心をもつ画像データA〜Dの画素を、画素A2,B2、C2,D2の中から選択する。同様にして残りの画素51c〜51pに対しても選択していく。このようにして得た仮想の画像領域51の各画素の値は、画素配置部42に設けたバッファメモリに順次書き込まれる。これにより、画素補間が必要ないので、単一の高解像度な合成画像データを簡素に生成することができる。   In FIG. 11, the distance from the center A1a of the pixel A1 of the image data A1 is H1, the distance from the center B1a of the pixel B1 of the image data B1 is H2, the distance from the center C1a of the pixel C1 of the image data C1 is H3, and the image If the distance from the center D1a of the pixel D1 of the data D1 is H4 and the relationship of the linear distance to the center 51aa is H3> H1> H2> H4, the center closest to the pixel 51a in the virtual image region 51 is the center. Since it is D1a, the value of the pixel D1 of the image data D having the center D1a is set. Subsequently, the pixel of the image data A to D having the center closest to the pixel 51b is selected from the pixels A2, B2, C2, and D2. Similarly, the remaining pixels 51c to 51p are selected. The value of each pixel in the virtual image area 51 obtained in this way is sequentially written in the buffer memory provided in the pixel arrangement unit 42. Thereby, since pixel interpolation is not required, a single high-resolution composite image data can be simply generated.

なお、縮小像と撮像位置との相対位置が良く再現する場合には、被写体距離毎に縮小像と撮像素子との相対位置関係を予め計測して記憶しておき、被写体距離に応じて相対位置を読み出して使用するように構成してもよい。   When the relative position between the reduced image and the imaging position is reproduced well, the relative positional relationship between the reduced image and the image sensor is measured and stored in advance for each subject distance, and the relative position according to the subject distance is stored. May be read and used.

バッファメモリから読み出した合成画像データに対して、ボケ除去処理部43は、例えばデコンボリューション処理を行ってボケの影響を取り除く(S−13)。そして、ボケ除去処理済みの合成画像データに対して、縮小処理部44は、例えばバイリニア法により縮小処理を行う(S−14)。合成処理部25は、縮小処理済みのデータを最終的な合成画像データとして出力する(S−15)。   The blur removal processing unit 43 performs, for example, a deconvolution process on the composite image data read from the buffer memory to remove the influence of the blur (S-13). Then, the reduction processing unit 44 performs reduction processing by, for example, the bilinear method on the composite image data that has been subjected to the blur removal processing (S-14). The composition processing unit 25 outputs the reduced data as final composite image data (S-15).

上記実施形態では、仮想の画像領域の画素に、中心が最も近い画素を複数の画像データの中から選択して当て嵌めているが、中心までの距離があまりにも遠い画素を当て嵌める場合には問題が生じるおそれがある。この場合には、閾値を予め決めておき、閾値を越える距離の場合には、その仮想の画像領域の画素に対しては、その周辺の画素に基づいて補完するように構成してもよい。   In the above embodiment, the pixel having the closest center to the pixel of the virtual image region is selected from a plurality of pieces of image data and applied, but when applying a pixel that is too far from the center Problems may arise. In this case, a threshold value may be determined in advance, and if the distance exceeds the threshold value, the pixels in the virtual image area may be complemented based on the surrounding pixels.

多眼カメラ10としては、低画素の撮像素子20を用いて高い解像度の画像を得るのが好適である。そして、合成画像データの鮮鋭度の低下を防止するために、撮影レンズ23と撮像素子20との間にローパスフィルタ(低域通過フィルタ)を設けない。すなわちローパスフィルタを使用せずに撮像した画像データを用いて合成する。   As the multi-lens camera 10, it is preferable to obtain a high-resolution image using a low-pixel imaging device 20. In order to prevent the sharpness of the composite image data from being lowered, no low-pass filter (low-pass filter) is provided between the photographing lens 23 and the image sensor 20. That is, the image data is synthesized using image data captured without using a low-pass filter.

撮影レンズ23の光学解像度は、撮像素子20により定まるナイキスト解像度よりも、例えば2倍以上高く、また、合成画像データの解像度よりも低い。そこで、撮像素子20がローパスフィルタ無しの画像を撮像し、合成処理部25がローパスフィルタ無しの画像データを用いて合成する。なお、ローパスフィルタを設けても良い。その場合は前述の要領で帯域を設定する。   The optical resolution of the photographic lens 23 is, for example, twice or more higher than the Nyquist resolution determined by the image sensor 20, and lower than the resolution of the composite image data. Therefore, the image sensor 20 captures an image without the low-pass filter, and the composition processing unit 25 synthesizes the image using image data without the low-pass filter. A low pass filter may be provided. In that case, the bandwidth is set as described above.

上記のような構成により、撮像素子20により定まるナイキスト周波数以下の複数の画像を合成して撮影レンズ23と撮像素子20が持つ解像力を余さず引き出した、撮像素子20の解像度より高い解像度の画像データを得ることができる。   With the configuration as described above, a plurality of images having a Nyquist frequency or lower determined by the image sensor 20 are combined to draw out the resolving power of the image pickup lens 23 and the image sensor 20 with a higher resolution than that of the image sensor 20. Data can be obtained.

なお、手触れ補正処理については、図13に示すように、電源スイッチ14をオンすることに応答して角速度センサ27を常に監視する(S−16)。移動量算出部28は、角速度センサ27が振れを検出することに応答して(S−17)、検出した振れに基づいて移動機構29による撮像素子20毎の移動量を算出する(S−18)。移動機構29は、算出した移動量に応じて撮像素子20を移動させ、手ぶれを補正する(S−19)。   As for the hand touch correction process, as shown in FIG. 13, the angular velocity sensor 27 is constantly monitored in response to turning on the power switch 14 (S-16). In response to the angular velocity sensor 27 detecting the shake (S-17), the movement amount calculation unit 28 calculates the movement amount for each image sensor 20 by the movement mechanism 29 based on the detected shake (S-18). ). The moving mechanism 29 moves the image sensor 20 according to the calculated movement amount, and corrects camera shake (S-19).

上記実施形態では、撮像素子20を移動しているが、撮像素子20の代わりに、撮影レンズ23を移動するように構成してもよいし、両方を移動する構成としてもよい。   In the above embodiment, the image sensor 20 is moved. However, instead of the image sensor 20, the photographic lens 23 may be moved, or both may be moved.

上記実施形態で説明した撮像素子としては、CCDやCMOS等のイメージセンサを用いることができる。また、上記実施形態においては、撮像装置として多眼式のデジタルカメラを例に説明したが、本発明ではこれに限るものではなく、例えば、カメラ付き携帯電話やビデオカメラ等に本発明を適用しても良い。   As the image sensor described in the above embodiment, an image sensor such as a CCD or a CMOS can be used. In the above embodiment, a multi-lens digital camera has been described as an example of the imaging device. However, the present invention is not limited to this, and the present invention is applied to, for example, a camera-equipped mobile phone or a video camera. May be.

CMOSには、1回のシャッタレリーズに対して複数のフレーム画像データを高速に取り込むことが可能なタイプがある。このタイプを用いる場合、1回のシャッタレリーズで複数の画像データを撮像素子毎に時系列的に取得することができる。この場合は、画素配置部42の後に、フレーム画像データである合成画像データを平均処理する複数フレーム平均化手段を設ける。この複数フレーム平均化手段は、複数の撮影素子から先に取り込んだ画像データに基づいて生成した先の画像データに対して、前記撮像素子から次に取り込んだ画像データに基づいて生成した次の合成画像データを平均化処理していく。1回のシャッタレリーズで得られる撮像素子1個当たりの画像データの数に応じてこの処理を繰り返す。つまり、1回のシャッタレリーズで得られる撮像素子1個当たりの画像データに基づいて生成される複数の合成画像データを平均すればよい。なお、むやみに複数のフレーム画像データに分けて合成画像データを生成して平均化するよりも、平均フレーム画像データの枚数を減らして、複数のフレーム画像データを基準画素の座標により多く当て嵌めるように構成してもよい。   There is a type of CMOS that can capture a plurality of frame image data at a high speed for one shutter release. When this type is used, a plurality of image data can be acquired for each image sensor in a time series with one shutter release. In this case, a plurality of frame averaging means for averaging the composite image data which is the frame image data is provided after the pixel arrangement unit 42. The multi-frame averaging means generates a next composition generated based on the next image data captured from the image sensor with respect to the previous image data generated based on the image data previously captured from the plurality of imaging elements. Image data is averaged. This process is repeated in accordance with the number of image data per image sensor obtained by one shutter release. That is, a plurality of composite image data generated based on image data per image sensor obtained by one shutter release may be averaged. Note that the number of the average frame image data is reduced and more of the plurality of frame image data is applied to the coordinates of the reference pixel than when the composite image data is generated and averaged by dividing it into a plurality of frame image data. You may comprise.

本発明の相対位置検出手段としては、2つの画像の被写体像間のシフト量に関する相関演算を行って、画像間の相対位置を算出する。同様な手順を繰り返すことで、ある基準の画像に対する残りの全ての画像の相対位置を算出する。   The relative position detection means of the present invention calculates the relative position between the images by performing a correlation calculation on the shift amount between the subject images of the two images. By repeating the same procedure, the relative positions of all the remaining images with respect to a certain reference image are calculated.

相対位置検出手段で検出した相対位置に基づいて撮影レンズから被写体までの距離を求めることができる。この場合には、少なくとも2つの画像の相関演算により被写体距離を求めることができる。算出した被写体距離には、撮影レンズや撮像素子のアライメント誤差分が反映されている。   The distance from the photographic lens to the subject can be obtained based on the relative position detected by the relative position detecting means. In this case, the subject distance can be obtained by the correlation calculation of at least two images. The calculated subject distance reflects the alignment error of the photographing lens and the image sensor.

視差の異なる複数の画像は、例えば他のデジタルカメラから取り込んで記録手段に記録した画像であってもよいし、該装置自身で撮像して取り込むように構成してもよい。この場合には、二次元状に配列した複数の撮影レンズと、前記撮影レンズにより結像される被写体像を個別に撮像する複数の撮像素子と、を備えればよい。基準の画像としては、複数の撮像素子のうちの配列略中心に配置した撮像素子から取得した画像とするのが好適である。   The plurality of images having different parallaxes may be, for example, images captured from other digital cameras and recorded in a recording unit, or may be configured to be captured and captured by the apparatus itself. In this case, a plurality of photographing lenses arranged two-dimensionally and a plurality of image sensors that individually capture subject images formed by the photographing lenses may be provided. It is preferable that the reference image is an image acquired from an image pickup element arranged at the approximate center of the plurality of image pickup elements.

撮影時に手振れを防止すると、より高解像度な画像を生成することができる。この場合には、撮影レンズ又は撮像素子の振れを検出する振れ検出手段と、各撮影レンズとこれに対応する撮像素子とを撮影光軸に直交する方向に相対的に移動させる移動手段と、前記撮影レンズと前記撮像素子とを相対的に移動させる移動手段の移動量を前記検出した振れに基づいて算出する移動量算出手段と、を備えればよい。   If camera shake is prevented during shooting, a higher resolution image can be generated. In this case, shake detecting means for detecting shake of the photographic lens or the image sensor, moving means for relatively moving each photographic lens and the corresponding image sensor in a direction perpendicular to the photographic optical axis, What is necessary is just to provide the movement amount calculation means for calculating the movement amount of the movement means for relatively moving the photographic lens and the imaging element based on the detected shake.

撮像装置としては、低画素の撮像素子を用いて高い解像度の画像を得るのが好適である。そして、合成画像の鮮鋭度の低下を防止するために、撮影レンズと撮像素子との間にローパスフィルタ(低域通過フィルタ)を用いないので取得する画像を用いて合成するのが好適である。撮影レンズの光学解像度は、撮影レンズと撮像素子等で構成される1つの撮像系である撮像部(カメラ)の数をmとすると撮像素子のピクセルピッチの、例えば2/√m倍以下とする(ピクセルピッチの2倍がナイキスト波長)。また、合成画像の画素数は、各撮像部の撮像素子の画素数をKとするとK〜mK画素とする。光学解像度はレンズのFナンバー:F、波長:λとすると、光学解像度=F×λである。たとえばλ=550nm、F=2.8とすると光学解像度は1.54μmとなる。最近の小型カメラモジュールの光学解像度は1/9インチ光学サイズのVGA撮像素子(出力画素640×480)で2.5μm程度であるので、例えば撮像部の数m=16とすると、2×2.5/4/0.55=2.2、つまりFナンバーを2.2以下とすると合成画素出力をm倍にできる。640×480×16=4915200と約500万画素出力となる。通常、収差の影響で解像力は理想通り得られないので、Fナンバーは1/2〜1/2.5倍程度に余裕を見ておいたほうが良い。その場合F=1.1〜0.88となる。より厳密には以下の合成出力のナイキスト波長における光学系のMTFが目標値以上になるように設計する。一般的な設計目標は最低10%である。   As an imaging device, it is preferable to obtain an image with a high resolution using a low-pixel imaging device. In order to prevent the sharpness of the composite image from being lowered, it is preferable to synthesize using an acquired image because a low-pass filter (low-pass filter) is not used between the photographing lens and the image sensor. The optical resolution of the photographic lens is, for example, 2 / √m times or less of the pixel pitch of the imaging device, where m is the number of imaging units (cameras) that are one imaging system including the photographic lens and the imaging device. (Two times the pixel pitch is the Nyquist wavelength). Further, the number of pixels of the composite image is K to mK pixels, where K is the number of pixels of the image sensor of each imaging unit. The optical resolution is F × λ where the F number of the lens is F and the wavelength is λ. For example, when λ = 550 nm and F = 2.8, the optical resolution is 1.54 μm. The optical resolution of a recent small camera module is about 2.5 μm with a 1/9 inch optical size VGA image pickup device (output pixel 640 × 480). For example, if the number of image pickup units m = 16, 2 × 2. If 5/4 / 0.55 = 2.2, that is, if the F number is 2.2 or less, the combined pixel output can be multiplied by m. 640 × 480 × 16 = 4915200, which is about 5 million pixel output. Usually, since the resolving power cannot be obtained as desired due to the influence of aberration, it is better to allow a margin of about 1/2 to 1 / 2.5 times the F number. In that case, F = 1.1 to 0.88. More strictly, the MTF of the optical system at the Nyquist wavelength of the following synthesized output is designed to be equal to or greater than the target value. A general design goal is a minimum of 10%.

撮像素子は光学的ローパスフィルタ無しの画像を取得し、合成処理手段はローパスフィルタ無しの画像を用いて合成するのが好適である。また光学的ローパスフィルタをそれぞれのレンズに用いる場合の減衰特性は、合成出力のナイキスト波長=2×撮像素子のピクセルピッチ×√(撮像素子数/出力画素数)以上で十分減衰するようなものを用いればよい。   It is preferable that the image pickup device acquires an image without an optical low-pass filter, and the combining processing unit combines the images using an image without a low-pass filter. The attenuation characteristics when using an optical low-pass filter for each lens are such that the Nyquist wavelength of the composite output = 2 × pixel pitch of the image sensor × √ (number of image sensors / number of output pixels) or more is sufficient. Use it.

各撮影レンズの前には、撮影開口が設けられている。撮影開口は撮影レンズ及び撮像素子と同じに二次元状に配列されている。撮影開口を二次元方向(x、y方向)に均等な間隔で配すると、生成画像の一部に周期的に変化するぼけ像(モアレ等)が生成される。そこで、各撮影開口のx、y方向の間隔を、2値の疑似ランダム系列である所定の周期パターンにそれぞれ設定するのが自然なぼけ画像が得られるので好適である。   In front of each photographing lens, a photographing aperture is provided. The photographing apertures are two-dimensionally arranged in the same manner as the photographing lens and the image sensor. When the photographing apertures are arranged at equal intervals in the two-dimensional direction (x, y direction), a blurred image (moire or the like) that periodically changes is generated in a part of the generated image. Therefore, it is preferable to set the intervals in the x and y directions of the photographing apertures to a predetermined periodic pattern that is a binary pseudo-random sequence because a natural blurred image can be obtained.

つまり、各撮影開口をx、y方向に配置する点列を0,1の2値に対応させてなる各撮影開口のx、y方向の配列パターンが、自己相関関数が略デルタ関数となる点列の個数を周期として周期的疑似ランダム系列をなすものである。   That is, the array pattern in the x and y directions of each imaging aperture corresponding to the binary sequence of 0 and 1 in which the point sequence for arranging each imaging aperture in the x and y directions is such that the autocorrelation function is a substantially delta function. A periodic pseudo-random sequence is formed with the number of columns as a period.

各撮影開口のx、y方向の間隔は、M系列に従った所定の周期パターンにするのが好適である。この場合、撮影開口を配置するx方向、及びy方向の点列の個数が(2nー1)個であり、撮影開口のx方向、及びy方向の間隔がM系列をなす。   The intervals in the x and y directions of the photographing apertures are preferably set to a predetermined periodic pattern according to the M series. In this case, the number of point sequences in the x direction and y direction in which the imaging aperture is arranged is (2n−1), and the intervals in the x direction and y direction of the imaging aperture form an M series.

なお、2値の疑似ランダム系列であれば、M系列以外に、Q系列(平方剰余系列)、Gold系列、Walsh符号等のものを使用することも可能である。   As long as it is a binary pseudo-random sequence, in addition to the M sequence, it is also possible to use a Q sequence (square remainder sequence), Gold sequence, Walsh code, or the like.

各撮像素子は、1回のシャッタリーズに応答して視差の異なる複数の画像を同時に取り込む。生成した高解像度の画像は、圧縮して記録部に記録するのが好適である。   Each image sensor simultaneously captures a plurality of images having different parallaxes in response to one shutter. The generated high resolution image is preferably compressed and recorded in the recording unit.

なお、本実施例ではカメラの配置をランダム配列にしたが、そのほかの実施例として、配置は従来通りの方眼配置とし、電気的にランダム配列となるカメラモジュールのみを選択しても良い。その場合、ランダム配列にM系列を用いても良いし、所定の確率密度関数を用いて、「0」と「1」を発生する乱数発生手段によって、アクティブとするカメラモジュールを撮影のたびに切り替えても良い。所定の確率密度関数は例えば均一関数。   In this embodiment, the camera arrangement is a random arrangement. However, as another embodiment, the arrangement may be a conventional grid arrangement, and only camera modules that are electrically random arrangement may be selected. In that case, the M sequence may be used for the random array, or the camera module to be activated is switched every time shooting is performed by a random number generating means for generating “0” and “1” using a predetermined probability density function. May be. The predetermined probability density function is, for example, a uniform function.

電気的に切り替え可能とする場合、例えばM系列乱数を使用する場合、使用する周期と、カメラ数を切り替えるようにしても良い。そうすることによってマクロ撮影など、物体とカメラが近づく場合、周期長とカメラ数を減らし、ボケを小さくし、ボケが大きすぎることを調整できる。   When electrical switching is possible, for example, when using M-sequence random numbers, the period to be used and the number of cameras may be switched. By doing so, when the object and the camera are close to each other, such as macro photography, the period length and the number of cameras can be reduced, the blur can be reduced, and the blur can be adjusted to be too large.

電気的に切り替える場合、出力画像の画素ごとに使用するカメラ数を切り替えても良い。そうすることにより、画像処理の利用を組み合わせ被写体ごとに最適なボケを作ることが可能となる。   When switching electrically, the number of cameras used for each pixel of the output image may be switched. By doing so, it is possible to create an optimum blur for each subject by combining the use of image processing.

電気的に切り替える場合、ピントの合ったところのカメラは画素数を増やすため多くのカメラを用い、ピントの合っていない、ボケ領域のカメラ数減らしても良い。   In the case of electrical switching, a large number of cameras may be used as the cameras in focus to increase the number of pixels, and the number of unfocused cameras in a blurred area may be reduced.

10 多眼カメラ
11 撮影開口
13 シャッタボタン
20 撮像素子
23 撮影レンズ
25 合成処理部
28 移動量算出部
29 移動機構
40 相対位置検出部
41 重合部
42 画素配置部
DESCRIPTION OF SYMBOLS 10 Multi-lens camera 11 Image | photographing opening 13 Shutter button 20 Image pick-up element 23 Shooting lens 25 Composition processing part 28 Movement amount calculation part 29 Movement mechanism 40 Relative position detection part 41 Superposition part 42 Pixel arrangement part

Claims (9)

視差の異なる複数の画像を使用して単一の高解像度の画像を生成する画像生成装置において、
前記複数の画像のうちの基準の画像に対する残りの画像の相対位置を検出する相対位置検出手段と、
前記複数の画像を、多画素化した仮想の画像領域上で前記検出した相対位置に基づいてずれがゼロとなるように重ね合わせる重合手段と、
前記仮想の画像領域を構成する各画素の中心に、中心が最も近い画素を、重ね合わせた複数の画像の中から選択して配置していく画素配置手段と、
を備えることを特徴とする画像生成装置。
In an image generation apparatus that generates a single high-resolution image using a plurality of images having different parallaxes,
A relative position detecting means for detecting a relative position of the remaining image with respect to a reference image among the plurality of images;
A superimposing means for superimposing the plurality of images on a virtual image area having a plurality of pixels so that the deviation is zero based on the detected relative position;
A pixel arrangement unit that selects and arranges a pixel having the closest center at the center of each pixel constituting the virtual image region from a plurality of superimposed images;
An image generation apparatus comprising:
請求項1記載の画像生成装置において、
前記複数の画像のうちの少なくとも2つの画像の相関演算により被写体距離を算出する測距手段を備えることを特徴とする画像生成装置。
The image generation apparatus according to claim 1.
An image generating apparatus comprising distance measuring means for calculating a subject distance by a correlation calculation of at least two images of the plurality of images.
請求項1又は2記載の画像生成装置において、
二次元状に配列した複数の撮影レンズと、
前記撮影レンズにより結像される被写体像を個別に撮像する複数の撮像素子と、
を備えていることを特徴とする画像生成装置。
The image generation apparatus according to claim 1 or 2,
A plurality of taking lenses arranged two-dimensionally;
A plurality of image sensors that individually image subject images formed by the photographing lens;
An image generation apparatus comprising:
請求項3記載の画像生成装置において、
前記撮影レンズとこれに対応する撮像素子とを撮影光軸に直交する方向に相対的に移動させる移動手段と、
該装置の振れを検出する振れ検出手段と、
前記撮影レンズと前記撮像素子とを相対的に移動させる前記移動手段の移動量を、前記検出した振れに基づいて算出する前記移動量算出手段と、
を備えたことを特徴とする画像生成装置。
The image generation apparatus according to claim 3.
Moving means for relatively moving the photographing lens and the image sensor corresponding thereto in a direction perpendicular to the photographing optical axis;
Shake detecting means for detecting shake of the device;
The movement amount calculating means for calculating the movement amount of the moving means for relatively moving the photographic lens and the imaging element based on the detected shake;
An image generation apparatus comprising:
請求項3又は4に記載の画像生成装置において、
前記各撮像素子は、ローパスフィルタ無しの画像を出力することを特徴とする画像生成装置。
In the image generation device according to claim 3 or 4,
Each of the image sensors outputs an image without a low-pass filter.
請求項3ないし5いずれか1項に記載の画像生成装置において、
前記各撮影レンズの前に撮影開口を有し、
前記各撮影開口のx、y方向の間隔は、2値の疑似ランダム系列である所定の周期パターンにそれぞれ設定されていることを特徴とする画像生成装置。
The image generation device according to any one of claims 3 to 5,
Having a photographic aperture in front of each photographic lens;
An interval in the x and y directions of each imaging aperture is set to a predetermined periodic pattern that is a binary pseudo-random sequence.
請求項6に記載の画像生成装置において、
前記撮影開口のx、y方向の間隔は、所定の周期パターンがM系列をなすことを特徴とする画像生成装置。
The image generation apparatus according to claim 6.
An image generating apparatus characterized in that a predetermined periodic pattern forms an M series with respect to an interval in the x and y directions of the photographing aperture.
視差の異なる複数の画像を使用して単一の高解像度の画像を生成する画像生成方法において、
前記複数の画像のうちの基準の画像に対する残りの画像の相対位置を算出する相対位置検出ステップと、
前記複数の画像を、多画素化した仮想の画像領域上で前記検出した相対位置に基づいてずれがゼロとなるように重ね合わせる重合ステップと、
前記仮想の画像領域を構成する各画素の中心に、中心が最も近い画素を、重ね合わせた複数の画像の中から選択して配置していく画素配置ステップと、
を含むことを特徴とする画像生成方法。
In an image generation method for generating a single high-resolution image using a plurality of images having different parallaxes,
A relative position detecting step of calculating a relative position of the remaining image with respect to a reference image among the plurality of images;
A superposition step of superimposing the plurality of images on a virtual image area having a plurality of pixels so that the deviation is zero based on the detected relative position;
A pixel arrangement step of selecting and arranging a pixel having the closest center at the center of each pixel constituting the virtual image region from a plurality of superimposed images;
An image generation method comprising:
請求項8記載の画像生成方法において、
前記複数の画像のうちの少なくとも2つの画像の相関演算により被写体距離を算出する測距ステップを含むことを特徴とする画像生成方法。
The image generation method according to claim 8.
An image generation method comprising a distance measuring step of calculating a subject distance by a correlation calculation of at least two images of the plurality of images.
JP2011001978A 2011-01-07 2011-01-07 Apparatus and method for generating image Withdrawn JP2012147087A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011001978A JP2012147087A (en) 2011-01-07 2011-01-07 Apparatus and method for generating image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011001978A JP2012147087A (en) 2011-01-07 2011-01-07 Apparatus and method for generating image

Publications (1)

Publication Number Publication Date
JP2012147087A true JP2012147087A (en) 2012-08-02

Family

ID=46790249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011001978A Withdrawn JP2012147087A (en) 2011-01-07 2011-01-07 Apparatus and method for generating image

Country Status (1)

Country Link
JP (1) JP2012147087A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016167014A1 (en) * 2015-04-16 2016-10-20 三菱電機株式会社 Image processing device and method, program, and recording medium
CN111164959A (en) * 2017-11-10 2020-05-15 奥林巴斯株式会社 Image processing apparatus, image processing method, and image processing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016167014A1 (en) * 2015-04-16 2016-10-20 三菱電機株式会社 Image processing device and method, program, and recording medium
JPWO2016167014A1 (en) * 2015-04-16 2017-11-09 三菱電機株式会社 Image processing apparatus and method, program, and recording medium
US10269128B2 (en) 2015-04-16 2019-04-23 Mitsubishi Electric Corporation Image processing device and method, and recording medium
CN111164959A (en) * 2017-11-10 2020-05-15 奥林巴斯株式会社 Image processing apparatus, image processing method, and image processing program
CN111164959B (en) * 2017-11-10 2021-08-03 奥林巴斯株式会社 Image processing apparatus, image processing method, and recording medium

Similar Documents

Publication Publication Date Title
JP5739640B2 (en) Imaging device and imaging apparatus
JP4985808B2 (en) Imaging apparatus and program
JP5468482B2 (en) Imaging device
JP6372983B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
EP2882183B1 (en) Electronic apparatus and method of controlling the same
WO2012036019A1 (en) Monocular 3d-imaging device, shading correction method for monocular 3d-imaging device, and program for monocular 3d-imaging device
JP2007221423A (en) Imaging apparatus
JP2010230879A (en) Double eye camera device
US9521395B2 (en) Imaging apparatus and method for controlling same
JP2006162991A (en) Stereoscopic image photographing apparatus
CN107637067B (en) Image processing apparatus and image processing method
CN104580921A (en) Imaging apparatus and its control method
RU2567438C1 (en) Image forming device and method of controlling same
JP2011075677A (en) Imaging apparatus and imaging method
JP2012133185A (en) Imaging apparatus
JP2012133194A (en) Imaging apparatus
JP2010157863A (en) Compound-eye camera and image processing method
JP2012147087A (en) Apparatus and method for generating image
JP6004741B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP7095774B2 (en) Image sensor and image sensor
WO2016199381A1 (en) Image processing apparatus and image processing method
JP2012124650A (en) Imaging apparatus, and imaging method
JP6124703B2 (en) Imaging apparatus and control method thereof
JP6728005B2 (en) Imaging device, imaging method, and program
JP6138222B2 (en) Image processing apparatus, imaging apparatus, control method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140401