JP2011182237A - Compound-eye imaging device, and image processing method in the same - Google Patents

Compound-eye imaging device, and image processing method in the same Download PDF

Info

Publication number
JP2011182237A
JP2011182237A JP2010045496A JP2010045496A JP2011182237A JP 2011182237 A JP2011182237 A JP 2011182237A JP 2010045496 A JP2010045496 A JP 2010045496A JP 2010045496 A JP2010045496 A JP 2010045496A JP 2011182237 A JP2011182237 A JP 2011182237A
Authority
JP
Japan
Prior art keywords
image
eye
imaging device
pixel
compound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010045496A
Other languages
Japanese (ja)
Inventor
Keiichiro Kagawa
景一郎 香川
Jun Tanida
純 谷田
Naoki Fukada
直紀 深田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Original Assignee
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC filed Critical Osaka University NUC
Priority to JP2010045496A priority Critical patent/JP2011182237A/en
Publication of JP2011182237A publication Critical patent/JP2011182237A/en
Pending legal-status Critical Current

Links

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve an accuracy of distance measurement in a compound-eye imaging device for obtaining a plurality of spectroscopic images. <P>SOLUTION: One of n-types of optical filters 7 is arranged for every facet unit 9 including a minute optical lens 5. As the n-types of optical filters 7, filters each having a characteristic where wavelengths or wavelength bands permeating in common on a transmission spectrum are present, are selected for optional two types of optical filters. Accordingly, since a part appearing in common in two optional facet images in a compound-eye image are present when a general object is imaged, parallax information can be extracted from the common part. Since the accuracy of distance measurement depends on the amount of parallax information, the distance measurement accuracy is improved by increasing certainty of acquisition of parallax information. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、単一の物体に由来する複数の物体像を複数の撮像光学系を用いて取得する複眼撮像装置、及び該装置で得られたデータを処理する画像処理方法に関する。   The present invention relates to a compound-eye imaging apparatus that acquires a plurality of object images derived from a single object using a plurality of imaging optical systems, and an image processing method that processes data obtained by the apparatus.

電子商取引、電子アーカイブ、遠隔病理診断等、様々な分野において、高い色再現性を持つ画像の取得が重要になっている。従来の一般的な撮像装置は3原色を用いたものであり、被写体の忠実な色を再現するには不十分であった。これに対し、被写体からの画像を多くの原色の画像として得ることができるマルチスペクトルカメラと呼ばれる撮像装置が近年提案されている。マルチスペクトルカメラは被写体に対する多波長の分光画像を得るものであり、いくつかの方式が知られているが、その1つとして複眼撮像装置を利用したものがある。   In various fields such as electronic commerce, electronic archiving, and remote pathological diagnosis, it is important to acquire images with high color reproducibility. A conventional general imaging apparatus uses three primary colors, and is insufficient to reproduce the faithful color of the subject. On the other hand, an imaging device called a multispectral camera that can obtain an image from a subject as an image of many primary colors has been recently proposed. A multispectral camera obtains a multi-wavelength spectral image of a subject, and several methods are known, and one of them uses a compound eye imaging device.

複眼撮像装置は、複数の微小光学レンズが2次元的に配置された光学レンズアレイと、該光学レンズアレイの各光学レンズによってそれぞれ形成された単一の被写体に対する多数の個眼像を撮像する1個の固体撮像素子と、を組み合わせたものである(非特許文献1など参照)。光学レンズアレイの各光学レンズは平面上で2次元的に分散配置されているため、固体撮像素子の検出面上に形成される各個眼像は、被写体に対し僅かずつ異なった角度から見た像(視差を有する像)になっている。このため、個眼像を集めた複眼像には、被写体の3次元形状に関する情報のほか高解像度化の情報が含まれている。そこで、少しずつ異なる個眼像を多数用いることにより、より多くの情報量に基づいて再構成画像を生成することができ、各個眼像の解像度以上に高精細の再構成画像を得ることができる。   The compound-eye imaging device captures a plurality of single-eye images of an optical lens array in which a plurality of micro optical lenses are two-dimensionally arranged and a single subject formed by each optical lens of the optical lens array. This is a combination of a solid-state image sensor (see Non-Patent Document 1, etc.). Since each optical lens of the optical lens array is two-dimensionally distributed on the plane, each single-eye image formed on the detection surface of the solid-state image sensor is an image viewed from a slightly different angle with respect to the subject. (Image having parallax). For this reason, a compound eye image obtained by collecting single-eye images includes information on high resolution in addition to information on the three-dimensional shape of the subject. Therefore, by using a large number of individual images slightly different from each other, it is possible to generate a reconstructed image based on a larger amount of information, and it is possible to obtain a reconstructed image having a higher definition than the resolution of each individual eye image. .

特許文献1などに記載のように、上記複眼撮像装置をマルチスペクトルカメラに利用する場合、光学レンズアレイの前方にレンズ毎に異なる透過波長を有するバンドパスフィルタ(カラーフィルタ)が設置される。これにより、各個眼像は特定の波長情報を有するものとなる。このような特定波長の情報を有する複眼像に基づく画像信号に対し所定のデータ処理を行うことにより被写体上の微小領域毎に距離を推定し、その距離情報を用いて画像の再構成処理を行うことにより、特定の波長情報を持つ複数の分光画像を得ることができる。   As described in Patent Document 1, for example, when the compound-eye imaging device is used in a multispectral camera, a band-pass filter (color filter) having a different transmission wavelength for each lens is installed in front of the optical lens array. Thereby, each single eye image has specific wavelength information. By performing predetermined data processing on an image signal based on a compound eye image having information of such a specific wavelength, a distance is estimated for each minute region on the subject, and image reconstruction processing is performed using the distance information. Thus, a plurality of spectral images having specific wavelength information can be obtained.

しかしながら、上記従来の複眼撮像装置を用いたマルチスペクトルカメラでは、被写体の反射スペクトル特性によっては、異なるバンドパスフィルタを通した個眼像同士で画像の相関性が全くない、つまり、2つの個眼像の間で共通の部分が全く存在しないという場合がある。そうした場合、視差による画像間の位置ずれを補正する際に十分な補正ができなくなり、距離情報が正確に求まらないために画像再構成の精度が低下することがある。また、被写体から到来する光はバンドパスフィルタを通過する際に大きく減衰してしまうため固体撮像素子に入射する光量が少なくなり、特にリアルタイムの撮像を行う際に画像のS/Nが低いという問題もある。   However, in the multispectral camera using the above conventional compound eye imaging device, depending on the reflection spectral characteristics of the subject, there is no correlation between the single eye images that have passed through different bandpass filters. There may be no common part between the images. In such a case, sufficient correction cannot be performed when correcting the positional deviation between images due to parallax, and distance information cannot be obtained accurately, so that the accuracy of image reconstruction may be reduced. In addition, since the light coming from the subject is greatly attenuated when passing through the bandpass filter, the amount of light incident on the solid-state imaging device is reduced, and particularly when the real-time imaging is performed, the S / N of the image is low. There is also.

また、それ以外に次のような問題もある。複眼撮像装置において固体撮像素子には一般的にCMOSセンサが利用されることが多い。CMOSセンサではローリングシャッタと呼ばれる機能を利用して、各行の受光素子による画素信号を行毎に時間差をもって読み出すことができる。複眼撮像装置においてこのローリングシャッタ機能を利用すると、複眼像の中で時間差をもった一連の個眼像を得ることができる。これを利用して1枚の複眼像から物体の動きを検出することが特許文献2に記載されている。また、位相の相違する複数種のスリットパターンをもつ光を順次、被写体に照射し、それに対応して得られる複眼像を利用して被写体の3次元形状を計測することが特許文献3に記載されている。   In addition, there are the following problems. In a compound eye imaging device, a CMOS sensor is often used for a solid-state imaging device. The CMOS sensor can read out pixel signals from the light receiving elements in each row with a time difference for each row by using a function called a rolling shutter. When this rolling shutter function is used in a compound-eye imaging device, a series of single-eye images having a time difference in a compound-eye image can be obtained. Patent Document 2 describes that the movement of an object is detected from a single compound eye image using this. Patent Document 3 describes that a subject is sequentially irradiated with light having a plurality of types of slit patterns having different phases, and a three-dimensional shape of the subject is measured using a compound eye image obtained correspondingly. ing.

一連の個眼像の時間差が一定であると、時間周波数成分がゼロ点をもち、その場合、正確な空間(位置)情報が得られなくなり、動き検出や3次元形状計測の精度が低下するおそれがある。   If the time difference between a series of single-eye images is constant, the time-frequency component has a zero point, and in that case, accurate spatial (position) information cannot be obtained, and the accuracy of motion detection and three-dimensional shape measurement may be reduced. There is.

また、特許文献4、5などに記載のように、複数の低解像の個眼像から単一の高解像の画像を再構成するために様々な方法が提案されているが、これらは専ら空間的分解能を高めることを目的としたものであり、特定の波長スペクトルを有する複数の個眼像に基づいてそれぞれ高い波長分解能を持つ分光画像を再構成することは考慮されていない。   In addition, as described in Patent Documents 4 and 5 and the like, various methods have been proposed for reconstructing a single high-resolution image from a plurality of low-resolution single-eye images. The purpose is exclusively to increase the spatial resolution, and it is not considered to reconstruct a spectral image having a high wavelength resolution based on a plurality of single-eye images having a specific wavelength spectrum.

また、複眼撮像装置では多数の光学レンズが配列されたレンズアレイを利用しているために、レンズを機械的に移動させて合焦位置を見いだすオートフォーカス機能を導入することは困難である。一般的に、複眼撮像装置は単眼撮像装置に比べて焦点深度が深く、合焦となる距離範囲は比較的広いものの、測距可能範囲を広げるためには被写界深度をさらに拡大することが必要となる。   In addition, since the compound-eye imaging apparatus uses a lens array in which a large number of optical lenses are arranged, it is difficult to introduce an autofocus function for mechanically moving the lens to find out a focus position. In general, a compound-eye imaging device has a deeper depth of focus than a monocular imaging device, and the distance range for focusing is relatively wide, but the depth of field can be further expanded in order to expand the range that can be measured. Necessary.

特開2003−163938号公報JP 2003-163938 A 特開2008−244649号公報JP 2008-244649 A 特開2008−224629号公報JP 2008-224629 A 特開2003−141529号公報JP 2003-141529 A 特開2005−167484号公報JP 2005-167484 A

太田淳監修、「CMOSイメージセンサの最新動向−高性能化、高機能化から応用展開まで−」、“第13章 複眼撮像システム−TOMBO−”(谷田純著)、シーエムシー出版、2007年4月Supervised by Satoshi Ota, “Latest Trends in CMOS Image Sensors—From High Performance and High Functionality to Application Deployment”, “Chapter 13 Compound Eye Imaging System-TOMBO” (by Jun Tanida), CM Publishing, 2007 4 Moon

本発明は上記課題に鑑みてなされたものであり、色再現性を高めることを意図した複眼撮像装置において、視差による個眼像間の位置ずれの補正を精度良く行うことにより、複画像から単一画像を再構成する際の精度を向上させることを主たる目的としている。   The present invention has been made in view of the above problems, and in a compound eye imaging device intended to improve color reproducibility, it is possible to correct a single image from a plurality of images by accurately correcting misalignment between individual images due to parallax. The main purpose is to improve the accuracy when one image is reconstructed.

また本発明に係る複眼撮像装置の画像処理方法の一つの目的は、1枚の複眼像に含まれる複数の個眼像に時間差をもたせる場合に、その時間差を適切に設定することにより、画像演算処理の精度を向上し、複眼像から単一画像を再構成する場合のほか動き検出や3次元形状計測などの精度を向上させることである。   Another object of the image processing method of the compound-eye imaging apparatus according to the present invention is to perform image computation by appropriately setting the time difference when a plurality of single-eye images included in one compound-eye image have time differences. In addition to improving the accuracy of processing and reconstructing a single image from a compound eye image, the accuracy of motion detection and three-dimensional shape measurement is improved.

また本発明に係る複眼撮像装置の画像処理方法の別の目的は、特定の波長スペクトルを有する複数の個眼像に基づいてそれぞれ高い波長分解能を持つ分光画像を比較的簡単な処理により再構成することである。   Another object of the image processing method of the compound eye imaging device according to the present invention is to reconstruct a spectral image having a high wavelength resolution based on a plurality of single-eye images having a specific wavelength spectrum by relatively simple processing. That is.

また本発明に係る複眼撮像装置の画像処理方法の別の目的は、オートフォーカスなどを機械的な駆動系を用いることなく被写界深度を拡大し、測距の適用距離範囲を広げて複眼像から単一画像を再構成する際の精度を向上させることである。   Another object of the image processing method of the compound-eye imaging device according to the present invention is to enlarge the depth of field without using a mechanical drive system such as autofocus, and to expand the applicable distance range of the distance measurement to obtain a compound eye image. To improve the accuracy when reconstructing a single image.

上記目的を達成するために成された第1発明に係る複眼撮像装置は、m(mは4以上の整数)個の微小光学レンズが2次元的に配列されたレンズアレイと、複数の微小受光部が2次元的に配列された1個の固体撮像素子と、を具備し、前記各微小光学レンズによる被写体の個眼像を前記固体撮像素子の受光面上の異なる領域に結像させてm枚の個眼像に対応した画像信号を取得し、この画像信号から単一又は複数の再構成画像を生成する複眼撮像装置において、
前記m個の微小光学レンズの全て又は一部にそれぞれ対応して所定の波長透過特性をもつ光学フィルタを配置し、該最大m個の光学フィルタは波長透過特性が互いに相違するn(nは2以上の整数)種類の光学フィルタを少なくとも1つずつ含み、該n種の光学フィルタのうちの任意の2種の光学フィルタは波長について相関性を有することを特徴としている。
In order to achieve the above object, a compound eye imaging device according to a first invention comprises a lens array in which m (m is an integer of 4 or more) micro optical lenses are two-dimensionally arranged, and a plurality of micro light receiving devices. A solid-state imaging device having a two-dimensionally arranged portion, and forming a single-eye image of a subject by each of the micro optical lenses in different areas on the light-receiving surface of the solid-state imaging device. In a compound eye imaging device that acquires an image signal corresponding to a single eye image and generates a single or a plurality of reconstructed images from the image signal,
Optical filters having a predetermined wavelength transmission characteristic are arranged corresponding to all or a part of the m micro optical lenses, and the maximum m optical filters have different wavelength transmission characteristics n (n is 2). It is characterized in that it includes at least one of the above integer) types of optical filters, and any two of the n types of optical filters are correlated with respect to wavelength.

2種の光学フィルタが「波長について相関性を有する」状態とは、その2種の光学フィルタが或る波長又は或る波長帯域において共に実質的に非ゼロの透過率を有する、換言すれば、共通に透過する波長又は波長帯域が存在することをいう。   A state in which two optical filters are “correlated with respect to wavelength” means that the two optical filters have substantially non-zero transmittance at a certain wavelength or a certain wavelength band, in other words, It means that there is a wavelength or wavelength band that is transmitted in common.

本発明に係る複眼撮像装置によれば、一般的な被写体を撮影する場合に、n種類の光学フィルタのうちの2つの異なる種類の光学フィルタを通した個眼像同士で少なくとも一部に共通する部分が現れる。個眼像上で共通部分が存在することは視差情報を取り出し可能であることを意味する。したがって、ごく特殊な被写体を除けば、通常、いずれの個眼像の組み合わせからも視差情報を取り出すことができ、その視差情報を利用して被写体上の微小領域毎の距離を高い精度で算出することができる。この距離情報の精度が高まることにより、距離情報を利用した画像(分光画像)の再構成の精度も高まる。   According to the compound-eye imaging device of the present invention, when photographing a general subject, at least a part of the single-eye images that have passed through two different types of optical filters among the n types of optical filters are shared. A part appears. The presence of a common part on a single image means that disparity information can be extracted. Therefore, except for very special subjects, normally, parallax information can be extracted from any combination of single-eye images, and the distance for each minute region on the subject is calculated with high accuracy using the parallax information. be able to. By increasing the accuracy of the distance information, the accuracy of reconstruction of an image (spectral image) using the distance information is also increased.

なお、基本的には、m個の微小光学レンズの全てにそれぞれ対応して光学フィルタが配置されるが、一部に光学フィルタが配置されない微小光学レンズが存在してもよい。このように光学フィルタが配置されない微小光学レンズに対応して得られる個眼像には被写体の色に依らずに全ての輝度情報が含まれるから、例えばこの個眼像を基準個眼像として用いることができる。また、固体撮像素子の画素毎に異なる光学フィルタが配置され、微小光学レンズに配置されたカラーフィルタと組み合わせることにより、実質的なフィルタ種を増やすようにしてもよい。また、光学フィルタが設けられている個眼と設けられていない個眼との光量差を補うために、ND(ニュートラルデンシティ)フィルタを取り付けてもよい。   Basically, the optical filters are arranged corresponding to all of the m micro optical lenses, but there may be micro optical lenses in which no optical filter is arranged in part. Since the single-eye image obtained corresponding to the micro optical lens in which no optical filter is arranged in this way includes all luminance information regardless of the color of the subject, for example, this single-eye image is used as a reference single-eye image. be able to. Further, a different optical filter may be arranged for each pixel of the solid-state imaging device, and a substantial filter type may be increased by combining with a color filter arranged in the micro optical lens. Further, an ND (neutral density) filter may be attached in order to compensate for a light amount difference between a single eye provided with an optical filter and a single eye provided with no optical filter.

この第1発明に係る複眼撮像装置では、様々な方向からの視差情報をバランス良く収集することが好ましいから、前記m個の微小光学レンズに対し前記n種の光学フィルタをそれぞれ同数又は最大1個の個数差で割り当てるようにするとよい。   In the compound eye imaging device according to the first aspect of the present invention, it is preferable to collect parallax information from various directions in a balanced manner. Therefore, the same number or at most one of the n types of optical filters for the m micro optical lenses, respectively. It is good to allocate by the number difference.

また、特定の波長や波長帯域について視差情報が片寄ることは好ましくないから、前記微小光学レンズに対応して2次元的に配列される前記光学フィルタの各次元方向において、隣接する同一種の2個の光学フィルタの間隔が採り得る全ての間隔となるように同一種の光学フィルタが分散配置されているようにするとよい。ここで、「隣接する同一種の2個の光学フィルタの間隔」とは、一方の次元方向において、同一種の2個の光学フィルタが間に別種の光学フィルタを挟まずに隣接している場合を最小単位の「1」とし、この最小単位の整数倍とする。   In addition, since it is not preferable that the parallax information is shifted with respect to a specific wavelength or wavelength band, two adjacent ones of the same type in each dimension of the optical filter arranged in a two-dimensional manner corresponding to the micro optical lens. It is preferable that the optical filters of the same type are dispersedly arranged so that the intervals of the optical filters are all possible intervals. Here, “the interval between two adjacent optical filters of the same type” means that two optical filters of the same type are adjacent to each other without sandwiching another type of optical filter in one dimension. Is “1” as the minimum unit, and is an integral multiple of this minimum unit.

また、2次元的な個眼像の中の中央の個眼像を基準個眼像として考えると、外周側に位置する個眼像ほど基準個眼像との視差が大きくなり、それだけ視差情報の精度が向上する。そこで、n種類の光学フィルタの中で波長透過特性に重要なものとそうでないものとがある場合、前者を外周側に優先的に割り当てるほうがよい。   In addition, when the central single-eye image in the two-dimensional single-eye image is considered as the reference single-eye image, the parallax with the reference single-eye image increases as the single-eye image located on the outer peripheral side increases, Accuracy is improved. Therefore, when there are n types of optical filters that are important for wavelength transmission characteristics and those that are not so, it is better to preferentially assign the former to the outer peripheral side.

また上記目的を達成するために成された第2発明に係る複眼撮像装置は、複数の微小光学レンズが2次元的に配列されたレンズアレイと、複数の微小受光部が2次元的に配列された1個の固体撮像素子と、を具備し、前記レンズアレイの各微小光学レンズで結像された被写体の個眼像を前記固体撮像素子の受光面上の異なる領域に結像させ、各個眼像をローリングシャッタにより時間差を持って順に読み出し、読み出された画像信号から再構成画像を生成する複眼撮像装置において、
前記複数の微小光学レンズを 行方向及び列方向に等ピッチである格子点上の位置からその2次元面に平行な方向に微小光学レンズ毎に独立にずらして配置することにより、複数の個眼像の対応画素同士に対し個眼像の組み合わせによって異なる独立な時間差を与えるようにしたことを特徴としている。
In addition, a compound eye imaging device according to the second invention made to achieve the above object includes a lens array in which a plurality of minute optical lenses are two-dimensionally arranged, and a plurality of minute light receiving portions are two-dimensionally arranged. A single solid-state image sensor, and a single-eye image of a subject imaged by each micro-optical lens of the lens array is formed on different areas on the light-receiving surface of the solid-state image sensor. In a compound eye imaging device that sequentially reads an image with a time difference by a rolling shutter and generates a reconstructed image from the read image signal,
By disposing the plurality of micro optical lenses by shifting each micro optical lens independently from each other in a direction parallel to the two-dimensional plane from a position on a lattice point having an equal pitch in the row direction and the column direction, A feature is that an independent time difference is given to the corresponding pixels of the image depending on the combination of the single eye images.

なお、レンズアレイにおける微小光学レンズの配置の行方向及び列方向と、固体撮像素子における微小受光部の配列の行方向及び列方向とは一致していなくてもよい。両者の例えば行方向の角度ずれを適宜に定めることにより、ローリングシャッタによる露光・信号読み出しを行ったときに各個眼像の時間遅れを略一定にすることができる。このとき、第2発明に係る複眼撮像装置では、微小光学レンズが完全には格子点上に配置されておらず意図的に位置ずれが与えられているため、任意の2枚の個眼像を選択したときの時間差が一致することは殆ど起こりえない。そのため、対応する画素間の時間間隔が一定にはならず、複眼像の情報に基づいて画像再構成等の演算処理を行う際に高精度の演算を行うことができる。その結果、従来よりも高精細な再構成画像を得ることができる。   Note that the row direction and the column direction of the arrangement of the micro optical lenses in the lens array do not have to coincide with the row direction and the column direction of the arrangement of the micro light receiving parts in the solid-state imaging device. By appropriately determining the angular deviation between the two in the row direction, for example, the time delay of each eye image can be made substantially constant when exposure and signal readout are performed by the rolling shutter. At this time, in the compound eye imaging device according to the second aspect of the present invention, since the micro optical lens is not completely arranged on the lattice point and is intentionally displaced, two arbitrary eye images are captured. It is unlikely that the time differences when selected will match. Therefore, the time interval between corresponding pixels does not become constant, and high-precision computation can be performed when computation processing such as image reconstruction is performed based on information of a compound eye image. As a result, a reconstructed image with higher definition than before can be obtained.

また上記目的を達成するために成された第3発明に係る複眼撮像装置は、複数の微小光学レンズが2次元的に配列されたレンズアレイと、複数の微小受光部が2次元的に配列された1個の固体撮像素子と、を具備し、前記レンズアレイの各微小光学レンズで結像された被写体の個眼像を前記固体撮像素子の受光面上の異なる領域に結像させてそれぞれm枚の個眼像に対応した画像信号を取得し、この画像信号から再構成画像を生成する複眼撮像装置において、
前記レンズアレイの各微小光学レンズに収差を与えることにより、当該装置と被写体との間の距離が所定の範囲内で該距離に依らずに同一像高に対する点像分布関数を光軸に対し回転対称として揃えるようにしたことを特徴としている。
A compound eye imaging device according to a third aspect of the invention made to achieve the above object includes a lens array in which a plurality of minute optical lenses are two-dimensionally arranged, and a plurality of minute light receiving portions are two-dimensionally arranged. A solid-state image sensor, and a single-eye image of a subject imaged by each micro-optical lens of the lens array is formed in different areas on the light-receiving surface of the solid-state image sensor, and m In a compound eye imaging device that acquires an image signal corresponding to a single eye image and generates a reconstructed image from the image signal,
By giving aberration to each micro optical lens of the lens array, the distance between the device and the subject is within a predetermined range, and the point spread function for the same image height is rotated with respect to the optical axis regardless of the distance. It is characterized by being arranged symmetrically.

即ち、これは結像光学系により意図的に劣化した、つまりボケた画像を与えるものであるが、同一像高に対する点像分布関数が揃っていれば、そのボケはデフォーカスには依存しないので、ウェイブフロント・コーディング(Wavefront coding)の理論を利用した信号処理により、実質的に深い被写界深度を得ることができる。それによって、機械的なオートフォーカスなどを用いることなく、測距の適用距離範囲を拡げることができるので、装置構成が簡単になる。   In other words, this gives an image that is intentionally degraded by the imaging optical system, that is, a blurred image. However, if the point spread function for the same image height is prepared, the blur does not depend on defocusing. Substantially deep depth of field can be obtained by signal processing using the theory of wavefront coding. As a result, the range of applicable distance measurement can be expanded without using mechanical autofocus and the like, so that the apparatus configuration is simplified.

もちろん、第1〜第3発明に係る複眼撮像装置はそれぞれ単独で用いることができるほか、適宜組み合わせることができる。   Of course, the compound-eye imaging devices according to the first to third inventions can be used alone or in combination as appropriate.

また上記目的を達成するために成された第4発明は、第1発明に係る複眼撮像装置において複数の個眼像に基づいて被写体の分光画像を再構成する画像処理方法であって、
固体撮像素子の受光面からの離間距離を仮定した仮想的な被写体平面上の各座標に光学フィルタの種類識別情報及び時間情報を加えた再構成画像平面を想定し、各個眼像の各画素の画素値を、受光面上でのその画素の画素座標、その個眼像に割り当てられた光学フィルタの種類、その画素における固体撮像素子での蓄積開始時刻、に基づいて前記再構成画像平面に幾何的逆投影する逆投影ステップと、
前記逆投影ステップにより画素値が得られない再構成画像平面上の欠損画素について、その空間的及び時間的に近傍の画素値を用いて補間処理を行う補間ステップと、
前記逆投影ステップ及び前記補間ステップにより充足された再構成画像上の各画素について、その画像に対応した光学フィルタの波長情報を用い波長に対する原スペクトル推定を行うスペクトル推定ステップと、
を実行することにより被写体の分光画像を取得することを特徴としている。
A fourth invention made to achieve the above object is an image processing method for reconstructing a spectral image of a subject based on a plurality of single-eye images in the compound-eye imaging apparatus according to the first invention,
Assuming a reconstructed image plane obtained by adding the type identification information and time information of the optical filter to each coordinate on the virtual object plane assuming the separation distance from the light receiving surface of the solid-state imaging device, each pixel of each eye image The pixel value is geometrically plotted on the reconstructed image plane based on the pixel coordinates of the pixel on the light receiving surface, the type of optical filter assigned to the single eye image, and the accumulation start time at the solid-state imaging device at the pixel. A backprojecting step for performing a backprojection,
An interpolation step for performing interpolation using a pixel value that is spatially and temporally adjacent to a missing pixel on the reconstructed image plane from which no pixel value is obtained by the backprojection step;
For each pixel on the reconstructed image satisfied by the backprojection step and the interpolation step, a spectrum estimation step for performing an original spectrum estimation for a wavelength using wavelength information of an optical filter corresponding to the image;
To obtain a spectral image of the subject.

また上記目的を達成するために成された第5発明は、第1発明に係る複眼撮像装置において複数の個眼像に基づいて被写体の分光画像を再構成する画像処理方法であって、
固体撮像素子の受光面からの離間距離を仮定した仮想的な被写体平面上の各座標に光学フィルタの種類識別情報及び時間情報を加えた再構成画像平面を想定し、該平面上の再構成画像上の各画素から、幾何的投影法により、同一種類の光学フィルタが割り当てられ、空間的及び時間的に対応する1乃至複数の個眼像の画素を見つけ出す投影ステップと、
前記投影ステップにより見いだされた個眼像内の1つの画素の画素値を再構成画像上の画素に充てる、又は、複数の個眼像内の対応する画素の画素値を用いた補正処理により画素値を計算して該計算値を再構成画像上の画素に充てる画素値決定ステップと、
前記投影ステップ及び前記画素値決定ステップにより充足された再構成画像上の各画素について、その画像に対応した光学フィルタの波長情報を用い波長に対する原スペクトル推定を行うスペクトル推定ステップと、
を実行することにより被写体の分光画像を取得することを特徴としている。
A fifth invention made to achieve the above object is an image processing method for reconstructing a spectral image of a subject based on a plurality of single-eye images in the compound-eye imaging apparatus according to the first invention,
Assuming a reconstructed image plane obtained by adding optical filter type identification information and time information to each coordinate on a virtual object plane assuming a separation distance from the light receiving surface of the solid-state imaging device, a reconstructed image on the plane is assumed. From each of the above pixels, a projecting step of finding one or more single-eye image pixels that are assigned the same type of optical filter by geometric projection and that correspond spatially and temporally;
A pixel value of one pixel in the single-eye image found by the projection step is assigned to a pixel on the reconstructed image, or a pixel is obtained by correction processing using pixel values of corresponding pixels in the plurality of single-eye images. A pixel value determining step of calculating a value and applying the calculated value to a pixel on the reconstructed image;
For each pixel on the reconstructed image satisfied by the projection step and the pixel value determination step, a spectrum estimation step for performing an original spectrum estimation for a wavelength using wavelength information of an optical filter corresponding to the image;
To obtain a spectral image of the subject.

なお、第4又は第5発明に係る画像処理方法で用いられる複眼撮像装置は、例えば固体撮像素子のローリングシャッタによる露光・読み出し機能を利用することにより、各個眼像に時間情報を与えるようにすることができる。   Note that the compound eye imaging device used in the image processing method according to the fourth or fifth invention provides time information to each individual eye image by using, for example, an exposure / readout function by a rolling shutter of a solid-state imaging device. be able to.

第4又は第5発明に係る画像処理方法によれば、比較的簡単な演算処理により、比較的高解像の分光画像を得ることができる。   According to the image processing method of the fourth or fifth aspect of the invention, a comparatively high-resolution spectral image can be obtained by a comparatively simple arithmetic process.

また上記目的を達成するために成された第6発明は、第3発明に係る複眼撮像装置において各個眼像を画像処理して焦点ボケを軽減する画像処理方法であって、
個眼像を中央領域とそれを取り囲む複数の環状部の領域とに分割し、分割された領域毎にそれぞれ単一の逆フィルタによりボケを除去する領域分割処理ステップと、
前記領域分割処理ステップによる処理後の領域を統合する領域統合ステップと、
を有することを特徴としている。
A sixth aspect of the invention made to achieve the above object is an image processing method for reducing defocusing by subjecting each individual eye image to image processing in the compound eye imaging device according to the third aspect of the invention.
An area division processing step that divides a single-eye image into a central area and a plurality of annular areas surrounding the central area and removes blur by a single inverse filter for each divided area;
A region integration step of integrating the regions after processing by the region division processing step;
It is characterized by having.

前述のように第3発明に係る複眼撮像装置では、同一像高に対する点像分布関数が回転対称に揃えられているので、1枚の個眼像が分割された複数の領域のそれぞれで点像分布関数の変化は小さい。そのため、それぞれ単一の逆フィルタを用いて焦点ボケを除去することができる。   As described above, in the compound eye imaging device according to the third aspect of the present invention, the point spread function for the same image height is aligned in rotational symmetry, so that a point image is obtained in each of a plurality of regions into which a single eye image is divided. The change of the distribution function is small. Therefore, it is possible to remove the focal blur using a single inverse filter.

一般に複眼撮像装置において深い焦点深度を得るためには、装置から被写体までの距離を推定した後にその距離に応じたボケを含む点像分布関数を計算し、煩雑な反複計算を行って焦点ボケを除去する必要があった。これに対し、第6発明に係る画像処理方法によれば、点像分布関数が像高にのみ依存するので、反復計算を行うことなく、単に複数の逆フィルタの組み合わせにより少ない計算量でもって深い被写界深度を得ることができる。   In general, in order to obtain a deep depth of focus in a compound-eye imaging device, after estimating the distance from the device to the subject, a point spread function including blur corresponding to the distance is calculated, and complicated blurring calculation is performed to reduce the focal blur. It was necessary to remove. On the other hand, according to the image processing method of the sixth invention, since the point spread function depends only on the image height, it is deep with a small amount of calculation by simply combining a plurality of inverse filters without performing iterative calculation. The depth of field can be obtained.

また第6発明に係る画像処理方法では、前記領域分割処理ステップは隣接する複数の領域の境界を挟んで一部が重複するように各領域を設定し、前記領域統合ステップは領域が重複する部分について繋ぎ合わせ処理を行うようにするとよい。繋ぎ合わせ処理は例えばαブレンディングなどを用いることができる。これによれば、領域の境界での画像の繋がりが良好になるので測距の精度向上が可能である。   In the image processing method according to the sixth aspect of the invention, the area dividing process step sets each area so that a part thereof overlaps with the boundary between a plurality of adjacent areas, and the area integration step includes a part where the areas overlap. It is preferable to perform the joining process for. For example, α blending can be used for the joining process. According to this, since the image connection at the boundary of the region becomes good, the accuracy of distance measurement can be improved.

第1発明に係る複眼撮像装置によれば、被写体の色、つまり被写体の反射スペクトル分布に殆ど影響を受けることなく、個眼像間の視差情報を適切に取り出すことができ、また、光学フィルタによる光量の減少も小さいので感度が向上する。これにより、例えば被写体の測距精度を向上させることができる。また、第1発明に係る複眼撮像装置を用いた第4及び第5発明に係る画像処理方法によれば、比較的簡単な計算で、つまりは短時間で且つ比較的低コストのハードウエアで、適度に高解像の分光画像を再構成することができる。   According to the compound eye imaging device according to the first aspect of the invention, it is possible to appropriately extract the parallax information between the single-eye images without being substantially affected by the color of the subject, that is, the reflection spectrum distribution of the subject. Since the decrease in the amount of light is small, sensitivity is improved. Thereby, for example, the ranging accuracy of the subject can be improved. In addition, according to the image processing method according to the fourth and fifth inventions using the compound eye imaging device according to the first invention, with relatively simple calculation, that is, with hardware in a short time and relatively low cost, A moderately high resolution spectral image can be reconstructed.

また第2発明に係る複眼撮像装置によれば、複数の個眼像における対応画素同士の時間間隔が僅かに不均一になるので、時間周波数成分におけるゼロ点発生が回避され、それだけ高精細な画像を再構成することが可能となる。   According to the compound eye imaging device of the second invention, the time intervals between corresponding pixels in a plurality of single-eye images are slightly non-uniform, so that the generation of zero points in the time-frequency component is avoided, and the high-definition image is accordingly generated. Can be reconfigured.

また第3発明に係る複眼撮像装置及び該複眼撮像装置を用いた第6発明に係る画像処理方法によれば、比較的簡単な計算で、つまりは短時間で且つ比較的低コストのハードウエアで、深い被写界深度を実現することができる。それにより、例えば機械的なオートフォーカスなどを用いることなく、測距の距離範囲を従来よりも広げることができる。   In addition, according to the compound eye imaging device according to the third invention and the image processing method according to the sixth invention using the compound eye imaging device, it is possible to perform relatively simple calculation, that is, with a short time and relatively low cost hardware. A deep depth of field can be realized. Thereby, for example, the range of distance measurement can be expanded more than before without using mechanical autofocus or the like.

本発明の一実施例である複眼撮像装置の要部の概略構成図。1 is a schematic configuration diagram of a main part of a compound eye imaging apparatus that is an embodiment of the present invention. 本実施例の複眼撮像装置における光学レンズ及び光学フィルタの配置の説明図。Explanatory drawing of arrangement | positioning of the optical lens and optical filter in the compound-eye imaging device of a present Example. 本実施例の複眼撮像装置における光学レンズの配置の説明図。Explanatory drawing of arrangement | positioning of the optical lens in the compound-eye imaging device of a present Example. 受光面上の1個の画素で得られる画像信号に含まれる情報の概念を示す図。The figure which shows the concept of the information contained in the image signal obtained by one pixel on a light-receiving surface. 本実施例の複眼撮像装置における画像入力から画像出力までの処理の流れを示す概念図。The conceptual diagram which shows the flow of the process from the image input in the compound eye imaging device of a present Example to an image output. 複眼像に含まれる各個眼像の時間的な関係を示す概念図。The conceptual diagram which shows the temporal relationship of each single eye image contained in a compound eye image. 本実施例の複眼撮像装置における撮像モデルを示す概念図。The conceptual diagram which shows the imaging model in the compound eye imaging device of a present Example. 簡易型再構成方法における第1のアルゴリズムの処理の概念図。The conceptual diagram of the process of the 1st algorithm in a simple-type reconstruction method. 図8のアルゴリズムにおける欠損画素の補正方法を示す概念図。The conceptual diagram which shows the correction method of the defect pixel in the algorithm of FIG. 簡易型再構成方法における第2のアルゴリズムの処理の概念図。The conceptual diagram of the process of the 2nd algorithm in a simple reconstruction method. 基本的な測距処理の手順の一例を示すフローチャート。The flowchart which shows an example of the procedure of a basic ranging process. 測距方法の第1のアルゴリズムの処理の概念図。The conceptual diagram of the process of the 1st algorithm of a ranging method. 測距方法の第2のアルゴリズムの処理の概念図。The conceptual diagram of the process of the 2nd algorithm of a ranging method. 測距方法の第3のアルゴリズムの処理の概念図。The conceptual diagram of the process of the 3rd algorithm of a ranging method. 光学レンズ及び光学フィルタの配置決定方法の一例の説明図。Explanatory drawing of an example of the arrangement | positioning determination method of an optical lens and an optical filter. 本実施例の複眼撮像装置における被写界深度拡大の手法の説明図。Explanatory drawing of the technique of the depth-of-field expansion in the compound-eye imaging device of a present Example. 本実施例の複眼撮像装置における被写界深度拡大の手法の説明図。Explanatory drawing of the technique of the depth-of-field expansion in the compound-eye imaging device of a present Example. 本実施例の複眼撮像装置における被写界深度拡大の手法の説明図。Explanatory drawing of the technique of the depth-of-field expansion in the compound-eye imaging device of a present Example. 本実施例の複眼撮像装置において相関性のあるフィルタを用いたことの効果を説明するための模式図。The schematic diagram for demonstrating the effect of having used the filter with correlation in the compound-eye imaging device of a present Example. 本実施例の複眼撮像装置において相関性のあるフィルタを用いた場合の評価値と距離との関係を示す図。The figure which shows the relationship between the evaluation value at the time of using a filter with correlation in the compound-eye imaging device of a present Example, and distance.

以下、本発明の一実施例である複眼撮像装置について、添付図面を参照して説明する。
図1は本実施例の複眼撮像装置の要部の概略構成図、図2及び図3は本実施例の複眼撮像装置における光学レンズ及び光学フィルタの配置の説明図である。
Hereinafter, a compound eye imaging apparatus according to an embodiment of the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a schematic configuration diagram of a main part of the compound-eye imaging apparatus of the present embodiment, and FIGS. 2 and 3 are explanatory diagrams of the arrangement of optical lenses and optical filters in the compound-eye imaging apparatus of the present embodiment.

図1に示すように、本実施例の複眼撮像装置は、被写体100から到来する光を結像して撮像する画像入力部1と、画像入力部1で取得された複数の個眼像を含む複眼像に対応した画像信号をデジタル化するA/D変換部10と、デジタル化された画像信号に基づいて再構成画像(分光画像)を生成するデータ処理部11と、再構成された画像を表示する表示部12と、を備える。   As illustrated in FIG. 1, the compound-eye imaging apparatus according to the present embodiment includes an image input unit 1 that forms an image of light arriving from an object 100 and a plurality of single-eye images acquired by the image input unit 1. An A / D conversion unit 10 that digitizes an image signal corresponding to a compound eye image, a data processing unit 11 that generates a reconstructed image (spectral image) based on the digitized image signal, and a reconstructed image And a display unit 12 for displaying.

画像入力部1は、典型的にはCMOSイメージセンサである1個の固体撮像素子2と、被写体100から到来する光をそれぞれ集光する複数(図1では16個)の微小光学レンズ5を含むレンズアレイ4と、各微小光学レンズ5の直前に該レンズ5と略一対一に配設された複数の光学フィルタ7を含むフィルタアレイ6と、レンズアレイ4と固体撮像素子2の受光面3との間に設けられた隔壁部材8と、を備える。   The image input unit 1 includes a single solid-state imaging device 2 that is typically a CMOS image sensor, and a plurality (16 in FIG. 1) of micro optical lenses 5 that collect light coming from the subject 100, respectively. A lens array 4, a filter array 6 including a plurality of optical filters 7 disposed approximately one-on-one with the lens 5 immediately before each micro optical lens 5, and the light receiving surface 3 of the lens array 4 and the solid-state imaging device 2. And a partition wall member 8 provided between the two.

1個の光学フィルタ7と、対応する1個の微小光学レンズ5と、その微小光学レンズ5によって形成される個眼像を撮影する固体撮像素子2上の受光面3の区分された領域と、を1つの個眼ユニット9とすると、画像入力部1は集積された複数(図1では16個)の個眼ユニット9からなるものと捉えることができる。また、1個の光学フィルタ7とこれに対応する1個の微小光学レンズ5とは1個のレンズ・フィルタユニットとして捉えることができる。ただし、後述するように、一部の微小光学レンズ5には光学フィルタ7が設けられていなくてもよい。隔壁部材8は、各微小光学レンズ5を通過して固体撮像素子2の受光面3へと向かう光が各個眼ユニット9同士の間で干渉しないように、光の進行方向や拡がりを規制するものである。図1では撮像ユニットは16個であり、図2では25個であるが、個眼ユニット9の個数はさらに多数であってもよいし、逆に少数であってもよい。   One optical filter 7, one corresponding micro optical lens 5, and a divided region of the light receiving surface 3 on the solid-state imaging device 2 that captures a single-eye image formed by the micro optical lens 5; Is a single eye unit 9, the image input unit 1 can be regarded as being composed of a plurality (16 in FIG. 1) of individual eye units 9. Further, one optical filter 7 and one corresponding micro optical lens 5 can be regarded as one lens / filter unit. However, as will be described later, some of the micro optical lenses 5 may not be provided with the optical filter 7. The partition member 8 regulates the traveling direction and spread of the light so that the light passing through the micro optical lenses 5 and traveling toward the light receiving surface 3 of the solid-state imaging device 2 does not interfere between the individual unit 9. It is. In FIG. 1, the number of imaging units is 16, and in FIG. 2, the number is 25. However, the number of single-eye units 9 may be larger or may be smaller.

図1中に記載したように、固体撮像素子2の受光面3上で2次元的に配列された画素の2次元的な配列方向をx’方向、y’方向とし、x’、y’に直交する高さ方向をzとする。レンズアレイ4及びフィルタアレイ6はそれぞれ、z軸に略直交する面、つまり受光面3と略平行な面内で2次元的に配列されている(ただし、レンズアレイ4と受光面3との間の離間距離を微小光学レンズ5毎に僅かに相違させるような配置も含むものする)。一方、図1及び図2(a)に示すように、レンズアレイ4における微小光学レンズ5の配列、及び、フィルタアレイ6における光学フィルタ7の配列はx’軸、y’軸に沿ったものではなく、レンズ・フィルタユニットの配列方向は受光面3上の画素の配列方向(x’、y’方向)に対し、z軸を中心に所定角度Θだけ回転するようにずらされている。したがって、微小光学レンズ5、光学フィルタ7、及び固体撮像素子2の受光面3を被写体100からz軸方向に見た状態は図2(a)に示すようになる。後述するが、このy’方向は固体撮像素子2からの信号読み出しの際にローリングシャッタが実行される方向でもある。なお、微小光学レンズの配置を決める2つの並進ベクトルは、必ずしも直行している必要はなく、微小光学レンズを菱形状に配列してもよい。   As described in FIG. 1, the two-dimensional arrangement direction of the pixels arranged two-dimensionally on the light receiving surface 3 of the solid-state imaging device 2 is defined as x ′ direction and y ′ direction, and x ′ and y ′. The orthogonal height direction is z. The lens array 4 and the filter array 6 are two-dimensionally arranged in a plane substantially perpendicular to the z-axis, that is, in a plane substantially parallel to the light receiving surface 3 (however, between the lens array 4 and the light receiving surface 3). In this case, an arrangement in which the separation distance is slightly different for each micro optical lens 5 is also included. On the other hand, as shown in FIGS. 1 and 2A, the arrangement of the micro optical lenses 5 in the lens array 4 and the arrangement of the optical filters 7 in the filter array 6 are not along the x ′ axis and the y ′ axis. The lens / filter unit arrangement direction is shifted with respect to the pixel arrangement direction (x ′, y ′ direction) on the light receiving surface 3 so as to rotate by a predetermined angle Θ about the z axis. Accordingly, a state in which the micro optical lens 5, the optical filter 7, and the light receiving surface 3 of the solid-state imaging device 2 are viewed from the subject 100 in the z-axis direction is as shown in FIG. As will be described later, the y ′ direction is also a direction in which a rolling shutter is executed when a signal is read from the solid-state imaging device 2. Note that the two translation vectors that determine the arrangement of the micro optical lenses are not necessarily orthogonal, and the micro optical lenses may be arranged in a rhombus shape.

フィルタアレイ6に含まれる複数の光学フィルタ7はいずれも、特定の狭い波長帯域の光のみを透過させるバンドパスフィルタではなく、所定の透過スペクトルを有する光学的なフィルタである。図2(a)の例では、透過スペクトルが互いに相違する6種類の光学フィルタ7a〜7fが用いられている。この光学フィルタ7a〜7fは例えば、マゼンタ、シアン、黄、ピンク、青、近赤外、の6種類とすることができる。その場合の光学フィルタ7a〜7fの透過スペクトルの一例を図2(b)に示す。   Each of the plurality of optical filters 7 included in the filter array 6 is not a bandpass filter that transmits only light in a specific narrow wavelength band, but an optical filter having a predetermined transmission spectrum. In the example of FIG. 2A, six types of optical filters 7a to 7f having different transmission spectra are used. The optical filters 7a to 7f can be, for example, six types of magenta, cyan, yellow, pink, blue, and near infrared. An example of the transmission spectrum of the optical filters 7a to 7f in that case is shown in FIG.

本実施例の複眼撮像装置において、複数種類の光学フィルタ7a〜7fの透過スペクトルの特徴は、任意の2種類の光学フィルタが波長について相関性を有するように決められていることである。即ち、6種類の光学フィルタ7a〜7fのうちのいずれの2種類の組み合わせにおいても、実質的に或る程度の透過率が得られる共通の波長又は波長帯域が存在する。ここで「実質的に或る程度の透過率」とは図2(b)のスペクトルからみると0.3〜0.5程度である。   In the compound eye imaging device of the present embodiment, the characteristics of the transmission spectra of the plurality of types of optical filters 7a to 7f are that any two types of optical filters are determined to have a correlation with respect to wavelength. That is, in any two types of combinations of the six types of optical filters 7a to 7f, there is a common wavelength or wavelength band that can substantially obtain a certain degree of transmittance. Here, “substantially a certain degree of transmittance” is about 0.3 to 0.5 when viewed from the spectrum of FIG.

フィルタアレイ6にはそれぞれほぼ同数の光学フィルタ7a〜7fが含まれる。また、同一種類の光学フィルタ同士は、行方向、列方向(X’方向、Y’方向)のそれぞれにおいて、可能な限り間隔がばらつくように位置が割り当てられる。例えば微小光学レンズ5と光学フィルタ7との組であるレンズ・フィルタユニットがX’方向にmx行、Y’方向にmy列(総個数:mx×my)に配置されている場合、X’方向には1〜mx−1、Y’方向には1〜my−1の間で様々な間隔が混在するようにするとよい。ここでいうレンズ・フィルタユニットの「間隔」とは、図3に示すように、mx行、my列、の等ピッチ間隔の格子点上にレンズ・フィルタユニットの中心が来るように配置されているとしたときの隣接する格子点間の距離を1としたものである。したがって、レンズ・フィルタユニットの「間隔」は1、2、3、…、と整数である。 The filter array 6 includes approximately the same number of optical filters 7a to 7f. In addition, the positions of the optical filters of the same type are assigned such that the intervals are varied as much as possible in each of the row direction and the column direction (X ′ direction, Y ′ direction). For example a lens filter units 'm x row direction, Y' X is a set of a micro-optical lens 5 and the optical filter 7 direction m y columns (the total number: m x × m y) if located on the , '1 to m x -1 in the direction, Y' X may different intervals between 1 to m y -1 in the direction so as to mix. The "distance" of a lens filter unit referred to herein, as shown in FIG. 3, m x rows, m y columns, the center of the lens filter unit on the grid points of equal pitch intervals is placed flush in The distance between adjacent lattice points is assumed to be 1. Therefore, the “interval” of the lens / filter unit is an integer such as 1, 2, 3,.

ただし、各レンズ・フィルタユニットはmx行、my列、の完全な等ピッチ間隔の格子点上に配置されているのではなく、図3右に示すように、同一平面内でそれぞれ格子点上から微小な変位量をもってずれて配置されている。この微小変位量やその変位方向はレンズ・フィルタユニット毎に異なることが望ましく、例えば所定の制約条件(変位量の上限など)の下でランダムに変位量と変位方向とが与えられるようにするとよい。こうした特徴的な構造や配置を採ることの利点は後述する。 However, the lens filter unit m x rows, m y column, rather than being disposed on the lattice points of a complete equal pitch interval, as shown in FIG. 3 the right, respectively lattice points in the same plane They are displaced from the top with a small amount of displacement. The minute displacement amount and the displacement direction are preferably different for each lens / filter unit. For example, the displacement amount and the displacement direction may be randomly given under a predetermined constraint condition (such as an upper limit of the displacement amount). . The advantages of adopting such a characteristic structure and arrangement will be described later.

ここで、光学レンズ及び光学フィルタの配置の決定方法の一例を図15を参照して説明する。
まず、レンズアレイ4のサイズ、つまりX’方向及びY’方向にそれぞれ配列される微小光学レンズ5の個数(NX×NY)と、光学フィルタ7の種類の数(NW)を設定する。例えば、図15の例では、NX×NY=5×5、NWは6である。次に、2次元的なレンズ配列(NX×NY)に対して、外周側から1周ずつ、その周内に配置する種別毎の光学フィルタ7の個数を決める。基本的には、1周の中で全種類の光学フィルタ7の個数が等しくなるようにするが、等分に割り当てできない場合には、例えば重要な光学フィルタ7への割り当てを増やす等の適宜の調整を加えるものとする。そして、或る1周中への光学フィルタ7の割り当て個数が決まったならば次に内周側に移り、内周側の1周への光学フィルタ7の割り当て個数を決める。こうして、最内周まで順次割り当て個数を決めるが、全体でそれぞれの種類の光学フィルタの割り当て個数に大幅な(この場合2以上の)不均等が生じた場合には、外周側に戻って割り当てを見直す。
Here, an example of a method for determining the arrangement of the optical lens and the optical filter will be described with reference to FIG.
First, the size of the lens array 4, that is, the number of micro optical lenses 5 arranged in the X ′ direction and the Y ′ direction (N X × N Y ) and the number of types of optical filters 7 (N W ) are set. . For example, in the example of FIG. 15, N X × N Y = 5 × 5 and N W is 6. Next, with respect to the two-dimensional lens arrangement (N X × N Y ), the number of optical filters 7 for each type to be arranged in the circumference is determined one round from the outer circumference side. Basically, the number of all types of optical filters 7 is made equal in one rotation. However, when the number of optical filters 7 cannot be equally divided, for example, an appropriate allocation such as increasing the number of important optical filters 7 is used. Adjustments shall be added. When the number of optical filters 7 to be assigned to one round is determined, the process moves to the inner circumference side, and the number of optical filters 7 to be assigned to one inner circumference side is determined. In this way, the number of assignments is sequentially determined up to the innermost circumference, but if there is a large (two or more in this case) non-uniformity in the number of assignments of each type of optical filter as a whole, the assignment is returned to the outer circumference side. Review.

いま図15の例では(a)に示すように、最外周の1周中に配置できる光学フィルタの個数は16であるから、重要な4種類の光学フィルタf1、f2、f3、f4を3個ずつ割り当て、そのほかの2種類の光学フィルタf5、f6を2個ずつ割り当てる。その1つ内側の1周中に配置できる光学フィルタの個数は8である。先の外周側では光学フィルタf5、f6は光学フィルタf1、f2、f3、f4よりも数が少ないため、ここでは光学フィルタf5、f6を2個ずつ割り当て、そのほかの4種類の光学フィルタf1、f2、f3、f4を1個ずつ割り当てる。これにより、6種類の光学フィルタf1〜f6は全て4個ずつ均等に割り当てられる。なお、ここでは中心の1個の微小光学レンズには光学フィルタを割り当てずにおき、この個眼ユニットで得られる個眼像を基準とする。   In the example of FIG. 15, as shown in FIG. 15A, the number of optical filters that can be arranged in one outermost circumference is 16, so three important four types of optical filters f1, f2, f3, and f4 are provided. Each of the other two types of optical filters f5 and f6 is assigned. The number of optical filters that can be arranged in one inner circle is eight. Since the optical filters f5, f6 are smaller in number than the optical filters f1, f2, f3, f4 on the outer peripheral side, two optical filters f5, f6 are assigned here, and the other four types of optical filters f1, f2 are assigned here. , F3, and f4 are assigned one by one. As a result, all of the six types of optical filters f1 to f6 are equally assigned by four. Here, an optical filter is not assigned to one central micro optical lens, and a single eye image obtained by this single eye unit is used as a reference.

上述のように複数種の光学フィルタの割り当てが完了したならば、それぞれ割り当てられた個数に従って、X’方向、Y’方向ともに、同一種の光学フィルタの間隔がそれぞれ1〜Nx−1(ここでは4)、1〜NY−1(ここでは4)でできるだけばらつくように、光学フィルタの位置を入れ替える。実際には全ての種類の光学フィルタについて間隔が満遍なくばらつくようにすることは困難であるため、重要な光学フィルタについて優先的に配置するとよい。図15の例では、f1、f2、f3を特に重要な光学フィルタとして優先的に、間隔が満遍なくばらつくように配置した結果、図15(b)に示す配置となる。
もちろん、以上の手順は一例であり、配置決定手法はこれに限らない。
When the assignment of a plurality of types of optical filters is completed as described above, the interval between the same type of optical filters is 1 to N x −1 (here, in both the X ′ direction and the Y ′ direction, depending on the number of assigned numbers. Then, 4), the position of the optical filter is changed so as to vary as much as possible from 1 to N Y −1 (here, 4). In practice, it is difficult to make the intervals uniform and uniform for all types of optical filters. Therefore, it is preferable to preferentially arrange important optical filters. In the example of FIG. 15, f1, f2, and f3 are preferentially arranged as particularly important optical filters so that the intervals are evenly distributed. As a result, the arrangement shown in FIG. 15B is obtained.
Of course, the above procedure is an example, and the arrangement determination method is not limited to this.

図5は本実施例の複眼撮像装置における画像入力から分光画像出力までの処理の流れを示す概念図である。
被写体100から到来する光を上述した画像入力部1で撮影すると、固体撮像素子2の受光面3上に並行して形成される複数の個眼像を光電変換した画像信号がデータ処理部11に入力される。即ち、データ処理部11には個眼ユニット9と同数の個眼像を含む複眼像に対応した画像信号が入力される。データ処理部11では、この複数の個眼像に対して測距処理を行うことにより各画素毎の距離情報を示す距離分布を求め、また、距離分布を利用して多次元点像分布関数を求め、これら情報を利用して画像の再構成処理又は超解像処理のいずれかを実行して、最終的に複数の分光画像を形成する。以下、これらの処理について説明する。
FIG. 5 is a conceptual diagram showing the flow of processing from image input to spectral image output in the compound eye imaging apparatus of the present embodiment.
When light arriving from the subject 100 is captured by the image input unit 1 described above, an image signal obtained by photoelectrically converting a plurality of single-eye images formed in parallel on the light receiving surface 3 of the solid-state imaging device 2 is input to the data processing unit 11. Entered. That is, an image signal corresponding to a compound eye image including the same number of single-eye images as the single-eye unit 9 is input to the data processing unit 11. The data processing unit 11 obtains a distance distribution indicating distance information for each pixel by performing distance measurement processing on the plurality of single-eye images, and uses the distance distribution to obtain a multidimensional point spread function. Then, using these pieces of information, either image reconstruction processing or super-resolution processing is executed to finally form a plurality of spectral images. Hereinafter, these processes will be described.

まず、画像入力部1で得られる複眼像について説明する。図4は図2(a)中の1個の画素で得られる画像信号に含まれる情報の概念を示す図である。上述したように、複数の個眼ユニット9は互いに異なる位置にあるため、画像信号には被写体100と個眼ユニット9との位置関係を示す空間x、y、zの情報が含まれる。また、被写体100から到来する光は固体撮像素子2の受光面3に到達するまでに光学フィルタ7を通過するから、画像信号には光学フィルタ7に関する波長λの情報(厳密に言えば、固体撮像素子2の光電変換の波長特性も含む)が含まれる。さらにまた、この固体撮像素子2では受光面3上の全ての画素で電荷蓄積のタイミングが同一ではなく、ローリングシャッタを利用して図2(a)中に示した方向にライン毎に順番に露光を行って得られた信号を読み出す。したがって、画像信号には時間tの情報も含まれる。   First, a compound eye image obtained by the image input unit 1 will be described. FIG. 4 is a diagram showing a concept of information included in an image signal obtained by one pixel in FIG. As described above, since the plurality of single-eye units 9 are at different positions, the image signal includes information on the spaces x, y, and z indicating the positional relationship between the subject 100 and the single-eye unit 9. Further, since light arriving from the subject 100 passes through the optical filter 7 before reaching the light receiving surface 3 of the solid-state imaging device 2, information on the wavelength λ relating to the optical filter 7 (strictly speaking, solid-state imaging) (Including the wavelength characteristics of photoelectric conversion of the element 2). Furthermore, in this solid-state imaging device 2, the charge accumulation timing is not the same for all the pixels on the light receiving surface 3, and the rolling shutter is used to sequentially expose each line in the direction shown in FIG. The signal obtained by performing is read. Therefore, information on time t is also included in the image signal.

図6は複眼像に含まれる各個眼像の時間的な関係を示す概念図である。上述したように固体撮像素子2の受光面3上の画素配列とレンズ・フィルタユニットの配列とが角度Θだけずれているため、受光面3上には、図6(a)に示すように、y’方向にずれた状態で個眼像が結像される。ローリングシャッタによる露光・信号読み出しは、図6(b)に示すように、x’方向のライン毎にy’方向に順番に実行される。そのため、例えば図6(c)に示すように、固体撮像素子2の受光面3上に形成された9個の個眼像は1〜9の番号順に少しずつ時間がずれた連続画像とみなすことができる。   FIG. 6 is a conceptual diagram showing a temporal relationship between individual eye images included in a compound eye image. As described above, since the pixel arrangement on the light receiving surface 3 of the solid-state imaging device 2 and the arrangement of the lens / filter unit are shifted by an angle Θ, on the light receiving surface 3, as shown in FIG. A single eye image is formed in a state shifted in the y ′ direction. As shown in FIG. 6B, exposure / signal readout by the rolling shutter is executed in order in the y ′ direction for each line in the x ′ direction. Therefore, for example, as shown in FIG. 6C, the nine single-eye images formed on the light receiving surface 3 of the solid-state imaging device 2 are regarded as continuous images that are slightly shifted in time in the order of numbers 1 to 9. Can do.

図3に示した等ピッチ間隔の格子点上に整然とレンズ・フィルタユニットが配列されている場合、各個眼像の時間ずれ(図6(b)におけるT/N)は同一になる。その場合、時間的に連続するいずれの個眼像の組み合わせをとっても、個眼像上の対応画素同士の時間ずれは同一となる。これに対し、この実施例の複眼撮像装置では、上述したように各レンズ・フィルタユニットに独立に微小変位が与えられているため、各個眼像の時間ずれは完全には同一ではない。それにより、時間的に連続する個眼像の組み合わせによって時間ずれが微妙に相違する。このように時間ずれが微妙に相違するため、後述する超解像再構成法を用いて複眼像から画像再構成を行うときに時間方向の再現性が向上する。   When the lens and filter units are arranged in an orderly manner on the lattice points at equal pitch intervals shown in FIG. 3, the time shifts (T / N in FIG. 6B) of the individual eye images are the same. In that case, the time shift between the corresponding pixels on the single-eye image is the same regardless of the combination of any single-eye image that is temporally continuous. On the other hand, in the compound-eye imaging apparatus of this embodiment, since the minute displacement is independently given to each lens / filter unit as described above, the time shifts of the individual eye images are not completely the same. As a result, the time difference is slightly different depending on the combination of single-eye images that are temporally continuous. Since the time difference is slightly different in this way, reproducibility in the time direction is improved when image reconstruction is performed from a compound eye image using a super-resolution reconstruction method described later.

図7はこの複眼撮像装置における撮像モデルを示す概念図である。図7(a)に示すように、或る仮想的な物体(被写体)上に存在する物点P(x,y,z)の個眼ユニットiに対する受光面3上の像点をP’(x’,y’,0)とする。被写体が持つ情報、つまり原情報をf(x,y,z,λ,t)としたとき、複眼像g(x’,y’)は次の(1)式で定義される。
τc(i)(λ):個眼ユニットiに含まれる光学フィルタ種cの透過スペクトル
τp(x’,y’,λ):像点P’(x’,y’,0)を捉える画素に対応した光学フィルタの透過スペクトル
s(λ):固体撮像素子2の光電変換特性の波長依存性
i(x,y,z,λ;x’,y’):個眼ユニットiに含まれる光学レンズの結像特性
t(y’,t):y’の位置にある画素の蓄積時間窓幅
(ui,vi):個眼ユニットiに含まれる微小光学レンズの中心座標
i:個眼ユニットiに含まれる微小光学レンズの焦点距離(ただし、ピンホールレンズであると仮定する)
FIG. 7 is a conceptual diagram showing an imaging model in this compound eye imaging apparatus. As shown in FIG. 7A, an image point on the light receiving surface 3 for an individual unit i of an object point P (x, y, z) existing on a certain virtual object (subject) is represented by P ′ ( x ′, y ′, 0). When the information held by the subject, that is, the original information is f (x, y, z, λ, t), the compound eye image g (x ′, y ′) is defined by the following equation (1).
τ c (i) (λ): Transmission spectrum of the optical filter type c included in the single eye unit i τ p (x ′, y ′, λ): Captures the image point P ′ (x ′, y ′, 0) Transmission spectrum of optical filter corresponding to pixel s (λ): wavelength dependence of photoelectric conversion characteristics of solid-state imaging device 2 h i (x, y, z, λ; x ′, y ′): included in individual eye unit i Imaging characteristics of the optical lens to be obtained w t (y ′, t): accumulation time window width of the pixel at the position of y ′
(u i , v i ): center coordinates of the micro optical lens included in the single eye unit i f i : focal length of the micro optical lens included in the single eye unit i (assuming that it is a pinhole lens)

上記蓄積時間窓幅wt(y’,t)は次式により定義される。
ここで、Taは固体撮像素子2の蓄積時間であり、ys、Δy’は図7(b)に示すように、固体撮像素子2の受光面3上の各画素の位置及びピッチに関するパラメータである。
(1)式で分かるように、複眼像g(x’,y’)は、本来、被写体100が有する原情報f(x,y,z,λ,t)に対し、撮像に伴う空間情報x、y、z、波長情報λ、及び時間情報tが重畳された5次元の情報となっている。この5次元情報g(x’,y’)から原情報f(x,y,z,λ,t)を求める作業がデータ処理部11で実行される画像再構成処理であり、その際に必要なz情報を求めるのが測距処理であると言える。
The accumulation time window width w t (y ′, t) is defined by the following equation.
Here, T a is the accumulation time of the solid-state image sensor 2, and y s and Δ y ′ are related to the position and pitch of each pixel on the light receiving surface 3 of the solid-state image sensor 2 as shown in FIG. It is a parameter.
As can be seen from the equation (1), the compound eye image g (x ′, y ′) is originally the spatial information x associated with the imaging with respect to the original information f (x, y, z, λ, t) that the subject 100 has. , Y, z, wavelength information λ, and time information t are five-dimensional information superimposed. The operation for obtaining the original information f (x, y, z, λ, t) from the five-dimensional information g (x ′, y ′) is an image reconstruction process executed by the data processing unit 11 and is necessary at that time. It can be said that it is the distance measurement process that obtains such z information.

本実施例の複眼撮像装置における画像再構成手法には、大別して、簡易型再構成法と超解像再構成法とがある。次に、これらの方法について説明する。   Image reconstruction methods in the compound-eye imaging apparatus of the present embodiment are roughly classified into a simple reconstruction method and a super-resolution reconstruction method. Next, these methods will be described.

[簡易型再構成方法]
簡易型再構成方法とは文字通り、比較的簡単な演算処理により低解像の複眼像に基づいてより高解像の画像を再構成する手法である。簡易型再構成方法としては2つのアルゴリズムのいずれかを採用することができる。いずれのアルゴリズムでも、図7(a)で説明したような撮像モデルを考え、或る仮想物体に対し、仮想物体上の各物点の座標(x,y,z)という3次元情報に、光学フィルタ種類識別番号c、蓄積開始時刻t、の2次元情報を加えた、5次元の再構成画像を想定する。この再構成画像上の各画素を埋める作業が画像再構成処理である。
[Simple reconfiguration method]
The simple reconstruction method is literally a method of reconstructing a higher resolution image based on a low resolution compound eye image by relatively simple arithmetic processing. One of two algorithms can be adopted as the simple reconstruction method. In any algorithm, the imaging model described with reference to FIG. 7A is considered, and for a certain virtual object, the three-dimensional information called coordinates (x, y, z) of each object point on the virtual object is optically converted. Assume a five-dimensional reconstructed image to which two-dimensional information of filter type identification number c and accumulation start time t is added. An operation for filling each pixel on the reconstructed image is an image reconstruction process.

[1]簡易型再構成方法の第1のアルゴリズム(図8参照)
第1のアルゴリズムでは、複眼像の各画素が持つ画素値を、その画素が存在する個眼像に割り当てた光学フィルタの種類識別番号c及び画素信号の蓄積開始時刻tに対応し、受光面から所定距離z離れた位置に存在する仮想平面(x,y,c,tの4次元画像)に逆投影する。例えば図8の例では、複眼像上の或る画素(x’,y’)の画素値を、その画素が属する個眼ユニット9に含まれる光学フィルタ7の種類識別番号c(この例ではc=#6)、複眼像上の画素座標(x’,y’)から計算される再構成画像上の画素座標(x,y)、座標y’から計算される蓄積開始時刻t(この例ではt=tm-1)、及び、画素座標(x,y)と蓄積開始時刻tとで与えられる距離z、に位置する再構成画像上の画素に割り当てる。複眼像上の全ての画素の画素値を同様にして仮想平面上に逆投影することによって、再構成画像上の各画素を埋める。
[1] First algorithm of simplified reconstruction method (see FIG. 8)
In the first algorithm, the pixel value of each pixel of the compound eye image corresponds to the type identification number c of the optical filter assigned to the monocular image in which the pixel exists and the accumulation start time t of the pixel signal. Back projection is performed on a virtual plane (a four-dimensional image of x, y, c, t) existing at a position separated by a predetermined distance z. For example, in the example of FIG. 8, the pixel value of a certain pixel (x ′, y ′) on the compound eye image is set as the type identification number c (in this example, c) of the optical filter 7 included in the unit eye unit 9 to which the pixel belongs. = # 6), the pixel coordinate (x, y) on the reconstructed image calculated from the pixel coordinate (x ′, y ′) on the compound eye image, and the accumulation start time t calculated from the coordinate y ′ (in this example) t = t m-1 ) and a distance z given by the pixel coordinates (x, y) and the accumulation start time t. Each pixel on the reconstructed image is filled by back projecting the pixel values of all the pixels on the compound eye image onto the virtual plane in the same manner.

ただし、こうした逆投影では仮想物体上の全ての座標に画素値が与えられるとは限らず、情報が与えられない欠損画素が生じる。そこで、図9に示すように、欠損画素についてはその周囲(図9ではx、yの2次元的にしか示していないが、波長λ、時間tを加えた4次元的な周囲)の複数の充足画素の画素値を用いた補間処理により画素値を推算し、その推算画素値で埋める。これにより、再構成画像上の全ての画素の画素値を決める。その後に、再構成画像上の画素(x,y,z,t)について光学フィルタ種類識別番号cの情報を用いて波長に対する原スペクトル推定を行う。これにより、被写体の分光画像を取得する。   However, in such back projection, pixel values are not always given to all coordinates on the virtual object, and defective pixels for which information is not given are generated. Therefore, as shown in FIG. 9, a plurality of defective pixels are surrounded by a plurality of pixels (four-dimensional surroundings including wavelength λ and time t, which are shown only in two dimensions x and y in FIG. 9). The pixel value is estimated by interpolation processing using the pixel value of the sufficient pixel, and is filled with the estimated pixel value. Thereby, the pixel values of all the pixels on the reconstructed image are determined. Thereafter, the original spectrum is estimated with respect to the wavelength of the pixel (x, y, z, t) on the reconstructed image using the information of the optical filter type identification number c. Thereby, a spectral image of the subject is acquired.

[2]簡易型再構成方法の第2のアルゴリズム(図10参照)
第2のアルゴリズムでは、第1のアルゴリズムとは逆に、再構成画像上の1つの画素(x,y,z,c,t)から、複眼像中の対応する複数の画素を見つけ出し、その複数の画素の画素値、個眼像の光学フィルタ種類識別番号c、画素信号の蓄積開始時刻t、を統合することで、又はその複数の画素の1つを選択することで再構成画像上の画素を埋める。例えば図10の例では、4次元空間上の或る画素(x,y,c,t)について、その光学フィルタ種類識別番号c(この例ではc=#6)をもつ個眼像に対し、再構成画像上の画素座標(x,y)から計算される複眼像上の画素座標(x’,y’)、及び座標y’から計算される蓄積開始時刻t’、を計算し、蓄積開始時刻t’が最もt(この場合にはt=tm-1)に近い個眼像を選ぶ。そして、その個眼像の画素座標(x’,y’)にある画素の画素値を元の再構成画像上の画素(x,y,c,t)の画素値とする。或いは、蓄積開始時刻t’が最もtに近い個眼像を選ぶのではなく、tに近い複数の個眼像を選び、近い順に大きな重み付けを与えて複数の対応画素の画素値から補間処理により画素値を求めてもよい。
[2] Second algorithm of simplified reconstruction method (see FIG. 10)
In the second algorithm, contrary to the first algorithm, a plurality of corresponding pixels in the compound eye image are found from one pixel (x, y, z, c, t) on the reconstructed image, and the plurality of the pixels are found. A pixel on the reconstructed image by integrating the pixel value of the pixel, the optical filter type identification number c of the single eye image, and the accumulation start time t of the pixel signal, or by selecting one of the plurality of pixels Fill. For example, in the example of FIG. 10, for a certain pixel (x, y, c, t) in a four-dimensional space, for a single eye image having the optical filter type identification number c (c = # 6 in this example), Calculate the pixel coordinates (x ′, y ′) on the compound eye image calculated from the pixel coordinates (x, y) on the reconstructed image, and the accumulation start time t ′ calculated from the coordinates y ′, and start accumulation A single eye image with the time t 'closest to t (in this case, t = t m-1 ) is selected. Then, the pixel value of the pixel at the pixel coordinates (x ′, y ′) of the individual eye image is set as the pixel value of the pixel (x, y, c, t) on the original reconstructed image. Alternatively, instead of selecting a single-eye image whose accumulation start time t ′ is closest to t, a plurality of single-eye images that are close to t are selected, and a large weight is given in the closest order, and interpolation processing is performed from pixel values of a plurality of corresponding pixels. The pixel value may be obtained.

再構成画像上の全ての画素の画素値について同様の処理を行うことにより、全ての画素を埋めることができる。この場合、再構成画像上の画素毎に画素値を求めるため、第1のアルゴリズムのような欠損画素は生じず、欠損画素の補間処理は不要である。第1のアルゴリズムと同様に、その後に、再構成画像上の画素(x,y,z,t)について光学フィルタ種類識別番号cの情報を用いて波長に対する原スペクトル推定を行う。これにより、被写体の分光画像を取得する。   By performing the same processing for the pixel values of all the pixels on the reconstructed image, all the pixels can be filled. In this case, since a pixel value is obtained for each pixel on the reconstructed image, a defective pixel as in the first algorithm does not occur, and interpolation processing for the defective pixel is unnecessary. Similar to the first algorithm, the original spectrum is estimated with respect to the wavelength using the information of the optical filter type identification number c for the pixel (x, y, z, t) on the reconstructed image. Thereby, a spectral image of the subject is acquired.

[2]超解像再構成法
超解像再構成法では、複数枚の低解像画像から高解像画像を作成するために従来から知られているBTV(バイラテラル・トータル・バリエイション)法を利用する。この手法は本発明の趣旨ではないので式を挙げて簡単に説明する。超解像再構成法では(1)式に示した5次元の関数のうち、x、yの空間方向の2次元に、波長、時間の2次元を加えた、4次元の点像分布関数を用いる。BTV法の基本的な演算式は次の(2)式である。Xはx,yの2次元画像を列ベクトルで表したものである。
ただし、ArgminX F(X)はF(X)を最小にするXを意味する。
[2] Super-resolution reconstruction method In the super-resolution reconstruction method, a BTV (bilateral total variation) method conventionally known for creating a high-resolution image from a plurality of low-resolution images. Is used. Since this technique is not the gist of the present invention, a simple explanation will be given by giving an expression. In the super-resolution reconstruction method, among the five-dimensional functions shown in equation (1), a four-dimensional point spread function is obtained by adding two dimensions of wavelength and time to two dimensions in the spatial direction of x and y. Use. The basic equation for the BTV method is the following equation (2). X is a two-dimensional image of x, y represented by a column vector.
However, Argmin X F (X) means X that minimizes F (X).

Xに、波長、時間の2次元を加えることによりx,y,λ,tの4次元画像を列ベクトルで表したものとし、上記(2)式を拡張し、(3)式を得る。
これにより、4次元の点空間方向のみならず、波長、時間方向にもバイラテラル拘束が適用される。
By adding two dimensions of wavelength and time to X, it is assumed that a four-dimensional image of x, y, λ, and t is represented by a column vector, and the above expression (2) is expanded to obtain expression (3).
Thereby, the bilateral constraint is applied not only in the four-dimensional point space direction but also in the wavelength and time directions.

さらに、波長分布を滑らかにするために、m次元の波長情報を輝度で規格化した波長情報、又は、輝度とm−1次元の波長情報に変換し、各波長成分の空間的滑らかさの拘束条件と、全ての2つの波長成分の組み合わせに対して空間的な滑らかさの拘束条件と、を加える。カラー画像を考えた場合のBTV法の基本的な演算式は次の(4)式である。
Furthermore, in order to smooth the wavelength distribution, the m-dimensional wavelength information is converted into the wavelength information normalized by the luminance, or the luminance and the m−1-dimensional wavelength information, and the spatial smoothness of each wavelength component is constrained. Conditions and spatial smoothness constraint conditions are added to the combination of all two wavelength components. The basic equation of the BTV method when considering a color image is the following equation (4).

これを拡張すると、次の(5)式が得られる。
一般に知られているようにBTV法はノイズに対するロバスト性が高いので、複眼像のS/Nがあまり良好でない場合でもその影響をあまり受けずに高解像画像を再構成することができる。
Extending this, the following equation (5) is obtained.
As is generally known, the BTV method has high robustness against noise, so that even when the S / N ratio of a compound eye image is not very good, it is possible to reconstruct a high resolution image without being influenced so much.

[測距方法]
次に、本実施例の複眼撮像装置において、複眼像から仮想物体上の各物点の距離を推定する測距方法について説明する。まず、基本的な測距処理の手順の一例を図11に従って説明する。
[Distance measurement method]
Next, a distance measuring method for estimating the distance of each object point on the virtual object from the compound eye image in the compound eye imaging apparatus of the present embodiment will be described. First, an example of a basic distance measurement procedure will be described with reference to FIG.

まず、複数の探索距離の集合である探索距離群Z={z1,z2,…,znz}を設定する。探索距離群Zに属する探索距離それぞれが距離の候補であるから、例えば所定の距離範囲内を所定のステップ幅で漏れなく設定するようにするとよい。次に、探索距離群Zの中から未探索の探索距離を1つ選択し、これを探索試行距離zとする(ステップS2)。その後に、その探索試行距離zの条件の下で再構成画像を作成する(ステップS3)。例えば上記簡易型再構成方法を用いることができる。 First, a search distance group Z = {z 1 , z 2 ,..., Z nz }, which is a set of a plurality of search distances, is set. Since each search distance belonging to the search distance group Z is a distance candidate, for example, a predetermined distance range may be set with a predetermined step width without omission. Next, one unsearched search distance is selected from the search distance group Z, and this is set as a search trial distance z (step S2). Thereafter, a reconstructed image is created under the condition of the search trial distance z (step S3). For example, the simplified reconstruction method can be used.

それから、作成された再構成画像上の1つの後述の評価値未計算の画素(x,y)を選ぶ(ステップS4)。その画素(x,y)に対応する又はその近傍の別の再構成画像上の画素値を取得する(ステップS5)。それから、評価値eを計算する(ステップS6)。そのあと、画素(x,y)について初めて評価値eの計算を行ったか否かを判定し(ステップS7)、初めてであれば、その評価値eをE(x,y)に、その探索試行距離zをD(x,y)に保存する(ステップS9)。一方、ステップS7で評価値eの計算が初めてでないと判定されると、評価値eが既に保存されているE(x,y)よりも大きいか否かを判定する(ステップS8)。e>E(x,y)であれば上記ステップS9に進み、保存されているE(x,y)をeに更新し、探索試行距離の保存値Dも更新する。   Then, one pixel (x, y) whose evaluation value is not calculated, which will be described later, on the generated reconstructed image is selected (step S4). A pixel value on another reconstructed image corresponding to or near the pixel (x, y) is acquired (step S5). Then, an evaluation value e is calculated (step S6). Thereafter, it is determined whether or not the evaluation value e has been calculated for the pixel (x, y) for the first time (step S7). If it is the first time, the evaluation value e is set to E (x, y) and the search trial is performed. The distance z is stored in D (x, y) (step S9). On the other hand, if it is determined in step S7 that the evaluation value e is not calculated for the first time, it is determined whether or not the evaluation value e is larger than the stored E (x, y) (step S8). If e> E (x, y), the process proceeds to step S9, where the stored E (x, y) is updated to e, and the search trial distance storage value D is also updated.

ステップS8で評価値eがE(x,y)以下である場合、及びステップS9でE及びDの更新が終了した後には、再構成画像上の全ての画素について評価値eが計算されたか否かを判定し(ステップS10)、評価値未計算の画素があればステップS4に戻る。したがって、ステップS4〜S10の繰り返しにより、或る1つの探索試行距離zに対する再構成画像上の全画素についての評価値が計算されることになる。ステップS10でYesと判定されるとステップS11に進み、探索距離群Z中の全ての探索距離に対する処理が実施されたか否かを判定する。そして、未探索の距離がある場合にはステップS2に戻る。したがって、ステップS2〜S11の繰り返しにより、探索距離群Zとして設定された全ての探索距離について再構成画像上の全画素に対する評価値に基づく距離の探索が行われる。そして最終的に残ったD(x,y)を各画素の推定距離として出力する(ステップS12)。   If the evaluation value e is equal to or less than E (x, y) in step S8, and after the updating of E and D is completed in step S9, whether the evaluation value e has been calculated for all the pixels on the reconstructed image. (Step S10), and if there is a pixel whose evaluation value has not been calculated, the process returns to step S4. Therefore, by repeating steps S4 to S10, evaluation values for all pixels on the reconstructed image for a certain search trial distance z are calculated. If it determines with Yes at step S10, it will progress to step S11 and it will be determined whether the process with respect to all the search distances in the search distance group Z was implemented. If there is an unsearched distance, the process returns to step S2. Accordingly, by repeating steps S2 to S11, distance search based on the evaluation values for all the pixels on the reconstructed image is performed for all search distances set as the search distance group Z. Finally, the remaining D (x, y) is output as the estimated distance of each pixel (step S12).

測距方法としては次の3つのアルゴリズムのいずれか採用することができる。
[1]測距方法の第1のアルゴリズム(図12参照)
第1のアルゴリズムでは、或る距離z(又は距離分布)を仮定した条件の下で、複眼像中の基準個眼像と同一種類の光学フィルタ(フィルタ種:CBASE)について複眼像から1枚の画像を再構成するとともに、上記基準個眼像とは異なる種類の光学フィルタ(フィルタ種:C1、C2、C3、C4、C5、C6)について複眼像から再構成した画像をそれぞれ白黒化(輝度情報のみを抽出)して統合することにより、2種類の再構成画像を作成する。この2種類の再構成画像の相互相関又は相互情報量を対応する画素毎に計算し、各画素を中心とする所定の大きさの窓内で上記計算値の総和を求めてこれを評価値とする。この評価値を最大化する距離(又は距離分布)がその画素の距離となる。
Any of the following three algorithms can be adopted as the distance measuring method.
[1] First algorithm of distance measuring method (see FIG. 12)
In the first algorithm, one optical compound image is obtained from the compound eye image for the same type of optical filter (filter type: C BASE ) as the reference single-eye image in the compound eye image under a condition assuming a certain distance z (or distance distribution). An image reconstructed from a compound eye image with respect to an optical filter (filter types: C 1 , C 2 , C 3 , C 4 , C 5 , C 6 ) different from the reference single- eye image. Are converted into black and white (extracting only luminance information) and integrated to create two types of reconstructed images. The cross-correlation or mutual information amount of the two types of reconstructed images is calculated for each corresponding pixel, and the sum of the calculated values is obtained within a window having a predetermined size centered on each pixel, and this is used as an evaluation value. To do. The distance (or distance distribution) that maximizes the evaluation value is the distance of the pixel.

[2]測距方法の第2のアルゴリズム(図13参照)
第2のアルゴリズムでは、或る距離z(又は距離分布)を仮定した条件の下で複眼像中の基準個眼像と同一種類の光学フィルタ(フィルタ種:CBASE)について複眼像から1枚の画像を再構成するとともに、上記基準個眼像とは異なる種類の光学フィルタ(フィルタ種:C1、C2、C3、C4、C5、C6)の種類毎に複眼画像からそれぞれ画像を再構成する。そして、前者の1枚の再構成画像と後者の光学フィルタ種類数と同数の再構成画像とのそれぞれの相互相関又は相互情報量を画素毎に計算する。そして、第1のアルゴリズムと同様に、各画素を中心とする所定の大きさの窓内で上記計算値の総和を求めこれを評価値とし、これを最大化する距離(又は距離分布)をその画素の距離とする。
[2] Second algorithm for distance measurement method (see FIG. 13)
In the second algorithm, an optical filter (filter type: C BASE ) of the same type as the reference single-eye image in the compound-eye image under a condition assuming a certain distance z (or distance distribution) The image is reconstructed, and the image from the compound eye image is obtained for each type of optical filter (filter types: C 1 , C 2 , C 3 , C 4 , C 5 , C 6 ) different from the reference single-eye image. Reconfigure. Then, each cross-correlation or mutual information amount of the former one reconstructed image and the same number of reconstructed images as the number of optical filter types is calculated for each pixel. Then, as in the first algorithm, the sum of the above calculated values is obtained within a window of a predetermined size centered on each pixel, and this is used as an evaluation value, and the distance (or distance distribution) that maximizes the calculated value is The pixel distance.

[3]測距方法の第3のアルゴリズム(図14参照)
第3のアルゴリズムでは、第1及び第2のアルゴリズムのように、再構成画像を作成することなく、再構成画像上の画素(x,y)又はその近傍の画素を含めた複数の画素について、基準個眼像と同一種類の光学フィルタ(フィルタ種:CBASE)を持つ全ての個眼像上の対応画素値の集合と、そのほかの光学フィルタ種類(フィルタ種:C1、C2、C3、C4、C5、C6)それぞれを持つ個眼像の対応画素値の集合とを作成する。そして、基準個眼像に関する画素値群と異種光学フィルタそれぞれの画素値群の間の相互情報量の総和を評価値とし、これを最大化する距離又は距離分布をその画素(x,y)の距離とする。このアルゴリズムは再構成画像を作成しないものの、実質的には再構成画像を作成した処理と同等の処理を行うものと解釈することができる。
[3] Third algorithm of distance measuring method (see FIG. 14)
In the third algorithm, as in the first and second algorithms, without creating a reconstructed image, a plurality of pixels including a pixel (x, y) on the reconstructed image or pixels in the vicinity thereof are included. A set of corresponding pixel values on all single- eye images having the same type of optical filter as the reference single-eye image (filter type: C BASE ), and other optical filter types (filter types: C 1 , C 2 , C 3 , C 4 , C 5 , C 6 ), and a set of corresponding pixel values of a single eye image. Then, the sum of the mutual information between the pixel value group related to the reference single-eye image and the pixel value groups of the different optical filters is used as an evaluation value, and the distance or distance distribution that maximizes this is set as the pixel (x, y). Distance. Although this algorithm does not create a reconstructed image, it can be interpreted as performing substantially the same processing as that for creating a reconstructed image.

なお、以上のいずれの測距方法でも、画素の評価値を計算する窓のサイズを固定とせず測距精度が高くなるように適応的に変えたり、評価値に考慮する窓内の画素の重みを適応的に変えたりしてもよい。   In any of the distance measuring methods described above, the size of the window for calculating the pixel evaluation value is not fixed, but is adaptively changed so as to increase the distance measurement accuracy, or the weight of the pixel in the window considered in the evaluation value May be adaptively changed.

以上説明したようにいずれかの測距方法と画像再構成方法との組み合わせにより、被写体上の各画素毎に距離を計算し、被写体全体の距離分布を求めることができる。逆に、距離分布の精度が上がれば、それを利用して再構成画像の解像度を高めることができる。   As described above, the distance distribution of the entire subject can be obtained by calculating the distance for each pixel on the subject by combining any of the distance measuring methods and the image reconstruction method. Conversely, if the accuracy of the distance distribution increases, it can be used to increase the resolution of the reconstructed image.

特に本実施例の複眼撮像装置では、前述のようにフィルタアレイ6に含まれる複数の光学フィルタ7として、バンドパスフィルタではなく波長に関し相関性のある光学フィルタを用いることにより、測距の精度を高めることができる。その理由について、図19に示したごく簡略化した模式図、及び図20に示した評価値と距離との関係を示す図により説明する。いま、被写体として図19(a)に示す反射スペクトルの偏った被写体を想定する。即ち、図19(a)右に示すように、反射スペクトル上でそれぞれ強度ピークが孤立して現れる「A」、「B」、「C」の3つの文字が被写体である。   In particular, in the compound-eye imaging apparatus of the present embodiment, as described above, as the plurality of optical filters 7 included in the filter array 6, an optical filter having a correlation with respect to a wavelength is used instead of a bandpass filter, thereby improving the accuracy of distance measurement. Can be increased. The reason will be described with reference to the simplified schematic diagram shown in FIG. 19 and the relationship between the evaluation value and the distance shown in FIG. Now, it is assumed that the subject has a reflection spectrum biased as shown in FIG. That is, as shown in the right of FIG. 19A, three characters “A”, “B”, and “C” in which intensity peaks appear in isolation on the reflection spectrum are subjects.

図19(c)に示すように、従来のバンドパスフィルタを用いた複眼撮像装置では、透過波長帯域が狭い。このため、被写体を撮影して得られる画像上では、そのバンドパスフィルタの透過ピークと略同波長の反射ピークを有する文字は明瞭に映し出されるものの、離れた波長に反射ピークを有する文字は薄くしか映し出されないか或いは全く消えてしまう。このため、複数の画像間の相関が低く、画像マッチングの精度を高くすることが難しい。その結果、図20(b)に示すように、複数の再構成画像に基づく評価値は、探索距離に対して幅が広くなり、ピーク高も低下する。そのため、真値から大きくずれた別の距離に現れる偽のピークを誤検出してしまい、誤った距離推定を行うおそれが高くなる。   As shown in FIG. 19C, in the compound eye imaging device using the conventional bandpass filter, the transmission wavelength band is narrow. For this reason, on an image obtained by photographing a subject, characters having a reflection peak of approximately the same wavelength as the transmission peak of the bandpass filter are clearly projected, but characters having a reflection peak at a distant wavelength are thin. It is not projected or disappears at all. For this reason, the correlation between a plurality of images is low, and it is difficult to increase the accuracy of image matching. As a result, as shown in FIG. 20B, the evaluation value based on the plurality of reconstructed images becomes wider with respect to the search distance, and the peak height also decreases. For this reason, a false peak appearing at another distance greatly deviating from the true value is erroneously detected, and there is a high possibility that erroneous distance estimation is performed.

これに対し、図19(b)に示すように波長に関し相関性の高いフィルタを用いた複眼撮像装置では、被写体を撮影して得られる画像上では、異なる反射ピークを有する3つの文字がほぼ明瞭に映し出される。このため、複数の画像間の相関が高く、画像マッチングによる位置合わせを高い精度で行うことができる。その結果、図20(a)に示すように、探索距離に対する評価値のピークが明瞭に現れ、より真値に近い距離を推定することが可能となる。   On the other hand, as shown in FIG. 19B, in a compound eye imaging device using a filter having a high correlation with respect to the wavelength, three characters having different reflection peaks are almost clear on an image obtained by photographing a subject. It is projected on. For this reason, the correlation between a plurality of images is high, and alignment by image matching can be performed with high accuracy. As a result, as shown in FIG. 20A, the peak of the evaluation value with respect to the search distance appears clearly, and the distance closer to the true value can be estimated.

前述の距離推定法は、複眼像にピンぼけがないことを前提としている。しかしながら、実際には、物体距離によってはピンぼけが生じるため、距離推定が困難となる場合がある。そこで次に、本実施例の複眼撮像装置において、被写界深度を拡大するために採用している方法について図16〜図18により説明する。ここでは、いわゆるウェイブフロント・コーディング(Wavefront coding)と呼ばれる手法を利用するが、元々の手法では、点像分布関数が物体距離と像高の両方ともに依存しないように撮像光学系を設計する必要がある。これは特に複眼撮像装置のようにレンズの構成要素数が少ない場合には、かなり厳しい要件である。そこで、ここでは像高に対しては或る程度、点像分布関数が相違することを許容し、これを画像処理で補うようにする。即ち、レンズアレイ4に含まれる各微小光学レンズ5に意図的に例えば球面収差などの収差を持たせることにより、或る物体距離範囲内で、その物体距離に依らずに各像高で点像分布関数が光軸に対し回転対称にほぼ一定になるようにする。このとき、像高に対しては点像分布関数が異なることを許容する。   The distance estimation method described above is based on the premise that there is no blur in the compound eye image. However, in reality, depending on the object distance, defocusing may occur, which may make distance estimation difficult. Then, next, the method employ | adopted in order to expand the depth of field in the compound-eye imaging device of a present Example is demonstrated with reference to FIGS. Here, a method called wavefront coding is used. However, in the original method, it is necessary to design the imaging optical system so that the point spread function does not depend on both object distance and image height. is there. This is a very strict requirement especially when the number of components of the lens is small as in a compound eye imaging apparatus. Thus, here, the point spread function is allowed to differ to some extent with respect to the image height, and this is compensated by image processing. That is, by intentionally giving each micro optical lens 5 included in the lens array 4 aberration such as spherical aberration, a point image is obtained at each image height within a certain object distance range regardless of the object distance. The distribution function is made almost constant in rotational symmetry with respect to the optical axis. At this time, the point spread function is allowed to differ with respect to the image height.

意図的に収差が与えられているため個眼像は全体的にボケることになるが、次のような画像処理によって、この焦点ボケを除去する。図16(a)に示すように、或る矩形状の個眼像に対し、中央の矩形状の領域<1>と、それを取り囲む複数のドーナツ状の領域<2>、<3>、<4>の4つの領域に分割する。ただし、例えば領域<1>と<2>、領域<2>と<3>、領域<3>と<4>、とではそれぞれ一部が重複するように領域を設定する。上述のように各像高で点像分布関数が光軸に対し回転対称にほぼ一定であるため、各領域内では点像分布関数の変化は小さいものとみなすことができる。そこで、各領域でそれぞれ単一の逆フィルタを適用してボケを除去する。   Since the aberration is intentionally given, the single-eye image is totally blurred, but this out-of-focus blur is removed by the following image processing. As shown in FIG. 16A, with respect to a certain rectangular eye image, a central rectangular area <1> and a plurality of donut-shaped areas <2>, <3>, < 4> is divided into four areas. However, for example, the regions <1> and <2>, the regions <2> and <3>, and the regions <3> and <4> are set so as to partially overlap each other. As described above, since the point spread function is almost constant rotationally symmetrically with respect to the optical axis at each image height, the change in the point spread function can be regarded as small in each region. Therefore, blur is removed by applying a single inverse filter in each region.

この際、中央の領域<1>については、図16(b)に示すように個眼像から単純に切り出された画像信号に対し逆フィルタを適用する。これに対し、ドーナツ状の領域<2>、<3>、<4>については、微小光学レンズの回転対称性の影響を除去するためにそれぞれxy−rθ変換を行って回転座標系に展開し、その変換後の各領域に含まれる画像信号に対し逆フィルタを適用する。なお、逆フィルタ処理後に周辺の歪み(アーティファクト)を除去するために xy−rθ変換を行う際のθはその両端を角度βだけオーバーラップさせるようにする。   At this time, for the central region <1>, an inverse filter is applied to an image signal simply cut out from a single-eye image as shown in FIG. On the other hand, for the doughnut-shaped regions <2>, <3>, and <4>, in order to remove the influence of the rotational symmetry of the micro-optical lens, the xy-rθ transformation is performed to develop them into the rotating coordinate system. Then, an inverse filter is applied to the image signal included in each region after the conversion. Note that, when performing xy-rθ conversion in order to remove peripheral distortion (artifact) after the inverse filter processing, both ends of the θ overlap by an angle β.

図17(a)に示すように、逆フィルタ処理後の各領域の信号に対し、アーティファクトが生じている可能性がある周辺部を切り取り、それから領域<2>、<3>、<4>については先と逆のrθ」−xy変換をそれぞれ行うことにより直交座標系のドーナツ形状の領域に戻す。各領域を繋ぎ合わせる際には、重複部分には図18に示すようなαブレンディングを行うことにより、領域同士の境界を挟んだ両側が円滑に繋がるようにする。
図18は最も簡単な1次元のαブレンディングを示した図である。画像fA(x)と画像fB(x)とを合成する場合、重複部に対して、αA+αB=1となるように透過率を定め、領域Aの画素値分布fA(x)と領域Bの画素値分布fB(x)とから、次式により合成画像を作成する。
g(x)=αAA(x)+αBB(x)
As shown in FIG. 17 (a), with respect to the signal of each region after the inverse filter processing, a peripheral portion where an artifact may be generated is cut out, and then the regions <2>, <3>, and <4> are cut out. Returns to the donut-shaped region of the Cartesian coordinate system by performing the inverse rθ ”-xy conversion. When connecting the regions, α blending as shown in FIG. 18 is performed on the overlapping portion so that both sides of the boundary between the regions are smoothly connected.
FIG. 18 is a diagram showing the simplest one-dimensional α blending. When the image f A (x) and the image f B (x) are combined, the transmittance is determined so that α A + α B = 1 with respect to the overlapping portion, and the pixel value distribution f A (x ) And the pixel value distribution f B (x) in the region B, a composite image is created by the following equation.
g (x) = α A f A (x) + α B f B (x)

これにより、微小光学レンズの球面収差による焦点ボケが除去された個眼像が得られ、或る程度の広い物体距離範囲に亘って同様の効果が達成できる。   As a result, a single-eye image from which the focal blur due to spherical aberration of the micro optical lens is removed is obtained, and a similar effect can be achieved over a certain wide object distance range.

なお、上記実施例は本発明の一例にすぎず、本発明の趣旨の範囲で適宜変形、追加、修正を行っても本願特許請求の範囲に包含されることは明らかである。例えば、微小光学フィルタとして、波長フィルタを用いるほか、NDフィルタ、偏光フィルタ、位相板、回折格子、ホログラム、その他様々なフィルタを組み合わせて用いることも変形した形態に含まれる。   It should be noted that the above embodiment is merely an example of the present invention, and it is obvious that modifications, additions, and modifications as appropriate within the scope of the present invention are included in the scope of the claims of the present application. For example, in addition to using a wavelength filter as a micro optical filter, a combination of an ND filter, a polarizing filter, a phase plate, a diffraction grating, a hologram, and other various filters is also included in the modified form.

1…画像入力部
2…固体撮像素子
3…受光面
4…レンズアレイ
5…微小光学レンズ
6…フィルタアレイ
7、7a〜7f…光学フィルタ
8… 隔壁部材
9…個眼ユニット
10…A/D変換部
11…データ処理部
12…表示部
100…被写体
DESCRIPTION OF SYMBOLS 1 ... Image input part 2 ... Solid-state image sensor 3 ... Light-receiving surface 4 ... Lens array 5 ... Micro optical lens 6 ... Filter array 7, 7a-7f ... Optical filter 8 ... Partition member 9 ... Individual eye unit 10 ... A / D conversion Unit 11 Data processing unit 12 Display unit 100 Subject

Claims (9)

m(mは4以上の整数)個の微小光学レンズが2次元的に配列されたレンズアレイと、複数の微小受光部が2次元的に配列された1個の固体撮像素子と、を具備し、前記各微小光学レンズによる被写体の個眼像を前記固体撮像素子の受光面上の異なる領域に結像させてm枚の個眼像に対応した画像信号を取得し、この画像信号から単一又は複数の再構成画像を生成する複眼撮像装置において、
前記m個の微小光学レンズの全て又は一部にそれぞれ対応して所定の波長透過特性をもつ光学フィルタを配置し、該最大m個の光学フィルタは波長透過特性が互いに相違するn(nは2以上の整数)種類の光学フィルタを少なくとも1つずつ含み、該n種の光学フィルタのうちの任意の2種の光学フィルタは波長について相関性を有することを特徴とする複眼撮像装置。
a lens array in which m (m is an integer of 4 or more) micro optical lenses are two-dimensionally arranged, and a single solid-state imaging device in which a plurality of micro light receiving units are two-dimensionally arranged. , A single-eye image of the subject by each of the micro optical lenses is formed in different areas on the light receiving surface of the solid-state imaging device, and image signals corresponding to m single-eye images are acquired, and a single image is obtained from this image signal. Alternatively, in a compound eye imaging device that generates a plurality of reconstructed images,
Optical filters having a predetermined wavelength transmission characteristic are arranged corresponding to all or a part of the m micro optical lenses, and the maximum m optical filters have different wavelength transmission characteristics n (n is 2). A compound-eye imaging device comprising at least one optical filter of the above integer) types, and any two of the n types of optical filters are correlated with respect to wavelength.
請求項1に記載の複眼撮像装置であって、
前記m個の微小光学レンズに対し前記n種の光学フィルタをそれぞれ同数又は最大1個の個数差で割り当てるようにしたことを特徴とする複眼撮像装置。
The compound eye imaging device according to claim 1,
A compound-eye imaging apparatus, wherein the n types of optical filters are assigned to the m micro optical lenses with the same number or a maximum number difference of one.
請求項1に記載の複眼撮像装置であって、
前記微小光学レンズに対応して2次元的に配列される前記光学フィルタの各次元方向において、隣接する同一種の2個の光学フィルタの間隔が採り得る全ての間隔となるように同一種の光学フィルタが分散配置されていることを特徴とする複眼撮像装置。
The compound eye imaging device according to claim 1,
The same type of optics so that the intervals between two adjacent optical filters of the same type are all the possible intervals in each dimension of the optical filters arranged two-dimensionally corresponding to the micro optical lens. A compound eye imaging device, wherein filters are arranged in a distributed manner.
複数の微小光学レンズが2次元的に配列されたレンズアレイと、複数の微小受光部が2次元的に配列された1個の固体撮像素子と、を具備し、前記レンズアレイの各微小光学レンズで結像された被写体の個眼像を前記固体撮像素子の受光面上の異なる領域に結像させ、各個眼像をローリングシャッタにより時間差を持って順に読み出し、読み出された画像信号から再構成画像を生成する複眼撮像装置において、
前記複数の微小光学レンズを 行方向及び列方向に等ピッチである格子点上の位置からその2次元面に平行な方向に微小光学レンズ毎に独立にずらして配置することにより、複数の個眼像の対応画素同士に対し個眼像の組み合わせによって異なる独立な時間差を与えるようにしたことを特徴とする複眼撮像装置。
A lens array in which a plurality of micro optical lenses are two-dimensionally arranged, and one solid-state imaging device in which a plurality of micro light receiving units are two-dimensionally arranged, and each micro optical lens of the lens array The single-eye image of the subject imaged in step 1 is formed in different areas on the light receiving surface of the solid-state image sensor, and each single-eye image is sequentially read out with a time difference by a rolling shutter, and reconstructed from the read image signal In a compound eye imaging device that generates an image,
By disposing the plurality of micro optical lenses by shifting each micro optical lens independently from each other in a direction parallel to the two-dimensional plane from a position on a lattice point having an equal pitch in the row direction and the column direction, A compound-eye imaging apparatus characterized by giving different independent time differences to corresponding pixels of an image depending on a combination of single-eye images.
複数の微小光学レンズが2次元的に配列されたレンズアレイと、複数の微小受光部が2次元的に配列された1個の固体撮像素子と、を具備し、前記レンズアレイの各微小光学レンズで結像された被写体の個眼像を前記固体撮像素子の受光面上の異なる領域に結像させてそれぞれm枚の個眼像に対応した画像信号を取得し、この画像信号から再構成画像を生成する複眼撮像装置において、
前記レンズアレイの各微小光学レンズに収差を与えることにより、当該装置と被写体との間の距離が所定の範囲内で該距離に依らずに同一像高に対する点像分布関数を光軸に対し回転対称として揃えるようにしたことを特徴とする複眼撮像装置。
A lens array in which a plurality of micro optical lenses are two-dimensionally arranged, and one solid-state imaging device in which a plurality of micro light receiving units are two-dimensionally arranged, and each micro optical lens of the lens array A single-eye image of the subject imaged in (1) is formed in different areas on the light receiving surface of the solid-state imaging device, and image signals corresponding to m single-eye images are obtained, and reconstructed images are obtained from the image signals. In a compound eye imaging device that generates
By giving aberration to each micro optical lens of the lens array, the distance between the device and the subject is within a predetermined range, and the point spread function for the same image height is rotated with respect to the optical axis regardless of the distance. A compound-eye imaging device characterized by being arranged symmetrically.
請求項1〜3のいずれかに記載の複眼撮像装置において複数の個眼像に基づいて被写体の分光画像を再構成する画像処理方法であって、
固体撮像素子の受光面からの離間距離を仮定した仮想的な被写体平面上の各座標に光学フィルタの種類識別情報及び時間情報を加えた再構成画像平面を想定し、各個眼像の各画素の画素値を、受光面上でのその画素の画素座標、その個眼像に割り当てられた光学フィルタの種類、その画素における固体撮像素子での蓄積開始時刻、に基づいて前記再構成画像平面に幾何的逆投影する逆投影ステップと、
前記逆投影ステップにより画素値が得られない再構成画像平面上の欠損画素について、その空間的及び時間的に近傍の画素値を用いて補間処理を行う補間ステップと、
前記逆投影ステップ及び前記補間ステップにより充足された再構成画像上の各画素について、その画像に対応した光学フィルタの波長情報を用い波長に対する原スペクトル推定を行うスペクトル推定ステップと、
を実行することにより被写体の分光画像を取得することを特徴とする画像処理方法。
An image processing method for reconstructing a spectral image of a subject based on a plurality of single-eye images in the compound-eye imaging device according to claim 1,
Assuming a reconstructed image plane obtained by adding the type identification information and time information of the optical filter to each coordinate on the virtual object plane assuming the separation distance from the light receiving surface of the solid-state image sensor, each pixel of each eye image The pixel value is geometrically plotted on the reconstructed image plane based on the pixel coordinates of the pixel on the light receiving surface, the type of optical filter assigned to the single eye image, and the accumulation start time at the solid-state imaging device at the pixel. A backprojecting step for performing a backprojection,
An interpolation step for performing interpolation using a pixel value that is spatially and temporally adjacent to a missing pixel on the reconstructed image plane from which no pixel value is obtained by the backprojection step;
For each pixel on the reconstructed image satisfied by the backprojection step and the interpolation step, a spectrum estimation step for performing an original spectrum estimation for a wavelength using wavelength information of an optical filter corresponding to the image;
An image processing method characterized in that a spectral image of a subject is acquired by executing.
請求項1〜3のいずれかに記載の複眼撮像装置において複数の個眼像に基づいて被写体の分光画像を再構成する画像処理方法であって、
固体撮像素子の受光面からの離間距離を仮定した仮想的な被写体平面上の各座標に光学フィルタの種類識別情報及び時間情報を加えた再構成画像平面を想定し、該平面上の再構成画像上の各画素から、幾何的投影法により、同一種類の光学フィルタが割り当てられ、空間的及び時間的に対応する1乃至複数の個眼像の画素を見つけ出す投影ステップと、
前記投影ステップにより見いだされた個眼像内の1つの画素の画素値を再構成画像上の画素に充てる、又は、複数の個眼像内の対応する画素の画素値を用いた補正処理により画素値を計算して該計算値を再構成画像上の画素に充てる画素値決定ステップと、
前記投影ステップ及び前記画素値決定ステップにより充足された再構成画像上の各画素について、その画像に対応した光学フィルタの波長情報を用い波長に対する原スペクトル推定を行うスペクトル推定ステップと、
を実行することにより被写体の分光画像を取得することを特徴とする画像処理方法。
An image processing method for reconstructing a spectral image of a subject based on a plurality of single-eye images in the compound-eye imaging device according to claim 1,
Assuming a reconstructed image plane obtained by adding optical filter type identification information and time information to each coordinate on a virtual object plane assuming a separation distance from the light receiving surface of the solid-state imaging device, a reconstructed image on the plane is assumed. From each of the above pixels, a projecting step of finding one or more single-eye image pixels that are assigned the same type of optical filter by geometric projection and that correspond spatially and temporally;
A pixel value of one pixel in the single-eye image found by the projection step is assigned to a pixel on the reconstructed image, or a pixel is obtained by correction processing using pixel values of corresponding pixels in the plurality of single-eye images. A pixel value determining step of calculating a value and applying the calculated value to a pixel on the reconstructed image;
For each pixel on the reconstructed image satisfied by the projection step and the pixel value determination step, a spectrum estimation step for performing an original spectrum estimation for a wavelength using wavelength information of an optical filter corresponding to the image;
An image processing method characterized in that a spectral image of a subject is acquired by executing.
請求項3に記載の複眼撮像装置において各個眼像を画像処理して焦点ボケを軽減する画像処理方法であって、
個眼像を中央領域とそれを取り囲む複数の環状部の領域とに分割し、分割された領域毎に単一の逆フィルタによりボケを除去する領域分割処理ステップと、
前記領域分割処理ステップによる処理後の領域を統合する領域統合ステップと、
を有することを特徴とする画像処理方法。
An image processing method for reducing out-of-focus blur by performing image processing on each single-eye image in the compound-eye imaging device according to claim 3,
An area division processing step that divides a single-eye image into a central area and a plurality of annular areas surrounding the central area, and removes blur by a single inverse filter for each divided area;
A region integration step of integrating the regions after processing by the region division processing step;
An image processing method comprising:
請求項8に記載の画像処理方法であって、
前記領域分割処理ステップは隣接する複数の領域の境界を挟んで一部が重複するように各領域を設定し、前記領域統合ステップは領域が重複する部分について繋ぎ合わせ処理を行うことを特徴とする画像処理方法。
The image processing method according to claim 8, comprising:
The region division processing step sets each region so that a part thereof overlaps across a boundary between a plurality of adjacent regions, and the region integration step performs a joining process on a part where the regions overlap. Image processing method.
JP2010045496A 2010-03-02 2010-03-02 Compound-eye imaging device, and image processing method in the same Pending JP2011182237A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010045496A JP2011182237A (en) 2010-03-02 2010-03-02 Compound-eye imaging device, and image processing method in the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010045496A JP2011182237A (en) 2010-03-02 2010-03-02 Compound-eye imaging device, and image processing method in the same

Publications (1)

Publication Number Publication Date
JP2011182237A true JP2011182237A (en) 2011-09-15

Family

ID=44693271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010045496A Pending JP2011182237A (en) 2010-03-02 2010-03-02 Compound-eye imaging device, and image processing method in the same

Country Status (1)

Country Link
JP (1) JP2011182237A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013190938A1 (en) * 2012-06-21 2013-12-27 オリンパス株式会社 Image capturing module and image capturing device
JPWO2013179620A1 (en) * 2012-05-28 2016-01-18 株式会社ニコン Imaging device
WO2016158957A1 (en) * 2015-03-30 2016-10-06 株式会社ニコン Imaging device, multi-lens camera and method for manufacturing imaging device
JP2018526664A (en) * 2015-06-15 2018-09-13 アグローウィング エルティーディー Multispectral imaging device
WO2020202035A1 (en) * 2019-04-05 2020-10-08 3M Innovative Properties Company Sensor array spectrometer
KR20210065030A (en) * 2019-11-26 2021-06-03 상명대학교산학협력단 Method and apparatus for reconstructing three-dimensional image via a diffraction grating
WO2023048338A1 (en) * 2021-09-27 2023-03-30 상명대학교 산학협력단 Diffraction grating imaging system for reconstructing 3-dimensional image by using laser beam sources having different wavelengths
CN117408881A (en) * 2023-09-28 2024-01-16 上海纬而视科技股份有限公司 Super-resolution image reconstruction method based on insect compound eye vision net nerve membrane

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013179620A1 (en) * 2012-05-28 2016-01-18 株式会社ニコン Imaging device
US9494768B2 (en) 2012-06-21 2016-11-15 Olympus Corporation Image capturing module and image capturing apparatus
JP2014006079A (en) * 2012-06-21 2014-01-16 Olympus Corp Imaging module and imaging device
WO2013190938A1 (en) * 2012-06-21 2013-12-27 オリンパス株式会社 Image capturing module and image capturing device
JPWO2016158957A1 (en) * 2015-03-30 2018-02-01 株式会社ニコン Imaging device, multi-lens camera, and manufacturing method of imaging device
CN107407852A (en) * 2015-03-30 2017-11-28 株式会社尼康 The manufacture method of filming apparatus, poly-lens camera and filming apparatus
WO2016158957A1 (en) * 2015-03-30 2016-10-06 株式会社ニコン Imaging device, multi-lens camera and method for manufacturing imaging device
JP2018526664A (en) * 2015-06-15 2018-09-13 アグローウィング エルティーディー Multispectral imaging device
WO2020202035A1 (en) * 2019-04-05 2020-10-08 3M Innovative Properties Company Sensor array spectrometer
US11802795B2 (en) 2019-04-05 2023-10-31 3M Innovative Properties Company Sensor array spectrometer
KR20210065030A (en) * 2019-11-26 2021-06-03 상명대학교산학협력단 Method and apparatus for reconstructing three-dimensional image via a diffraction grating
KR102317836B1 (en) * 2019-11-26 2021-10-27 상명대학교산학협력단 Method and apparatus for reconstructing three-dimensional image via a diffraction grating
WO2023048338A1 (en) * 2021-09-27 2023-03-30 상명대학교 산학협력단 Diffraction grating imaging system for reconstructing 3-dimensional image by using laser beam sources having different wavelengths
CN117408881A (en) * 2023-09-28 2024-01-16 上海纬而视科技股份有限公司 Super-resolution image reconstruction method based on insect compound eye vision net nerve membrane
CN117408881B (en) * 2023-09-28 2024-05-03 上海纬而视科技股份有限公司 Super-resolution image reconstruction method based on insect compound eye vision net nerve membrane

Similar Documents

Publication Publication Date Title
JP2011182237A (en) Compound-eye imaging device, and image processing method in the same
JP6565371B2 (en) Disparity estimation for multi-viewpoint image system
JP5681954B2 (en) Imaging apparatus and imaging system
JP6509914B2 (en) Image sensor for depth estimation
JP5649091B2 (en) Image capture device and image capture method
JP5904281B2 (en) Image processing method, image processing apparatus, imaging apparatus, and image processing program
JP5618943B2 (en) Image processing method, imaging apparatus, image processing apparatus, and image processing program
US20140192238A1 (en) System and Method for Imaging and Image Processing
JP2014011526A (en) Image processing apparatus, imaging apparatus, and image processing method
JP5943785B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGE PROCESSING DEVICE, AND IMAGING DEVICE CONTROL METHOD
JP5406383B2 (en) Imaging device
KR20070057998A (en) Imaging arrangements and methods therefor
JP2008242658A (en) Three-dimensional object imaging apparatus
CN102112846A (en) Image photographing device, distance computing method for device, and focused image acquiring method
JP6234401B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
TWI687661B (en) Method and device for determining the complex amplitude of the electromagnetic field associated to a scene
US20160261809A1 (en) Disparity in Plenoptic Systems
JP2016111678A (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method thereof
JP6598473B2 (en) Imaging apparatus and image processing apparatus
JP6190119B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP7169363B2 (en) Imaging device
CN117395485A (en) Integrated polarized light field depth perception imaging device and method adopting same
US20160156867A1 (en) Image sensor, image capturing apparatus, focus detection apparatus, image processing apparatus, and control method of image capturing apparatus
US11436700B2 (en) Filter array for demosaicing
JP7009219B2 (en) Image processing method, image processing device, image pickup device, image processing program, and storage medium