JP5896090B1 - Imaging apparatus and colorimetric method - Google Patents

Imaging apparatus and colorimetric method Download PDF

Info

Publication number
JP5896090B1
JP5896090B1 JP2015547191A JP2015547191A JP5896090B1 JP 5896090 B1 JP5896090 B1 JP 5896090B1 JP 2015547191 A JP2015547191 A JP 2015547191A JP 2015547191 A JP2015547191 A JP 2015547191A JP 5896090 B1 JP5896090 B1 JP 5896090B1
Authority
JP
Japan
Prior art keywords
imaging
subject
filter
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015547191A
Other languages
Japanese (ja)
Other versions
JPWO2015182447A1 (en
Inventor
片桐 哲也
哲也 片桐
基広 浅野
基広 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2015547191A priority Critical patent/JP5896090B1/en
Application granted granted Critical
Publication of JP5896090B1 publication Critical patent/JP5896090B1/en
Publication of JPWO2015182447A1 publication Critical patent/JPWO2015182447A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

撮像装置(10)は、被写体を撮像する第1の撮像部(1)と、第1の撮像部(1)の外部に位置して被写体を撮像する第2の撮像部(2)と、測距部(3)と、測色部(4)とを備える。測距部(3)は、第2の撮像部(2)の撮像素子(23)にて撮像された被写体の単眼画像と、第1の撮像部(1)の基準フィルタを介して撮像素子(13)にて撮像された被写体の個眼画像とを用いて、被写体までの距離を測定する。測色部(4)は、測距部(3)にて測定された距離と、上記撮像素子(13)にて、基準フィルタを介して撮像された上記個眼画像と、基準フィルタ以外のフィルタを介して撮像された他の個眼画像とを用いて、基準フィルタ以外のフィルタを透過する波長について被写体の測色値を求める。The imaging device (10) includes a first imaging unit (1) that images a subject, a second imaging unit (2) that is located outside the first imaging unit (1) and images a subject, and a measurement unit. A distance unit (3) and a colorimetric unit (4) are provided. The distance measuring unit (3) is configured to receive a monocular image of the subject imaged by the imaging device (23) of the second imaging unit (2) and a reference filter of the first imaging unit (1). The distance to the subject is measured using the single-eye image of the subject imaged in 13). The color measurement unit (4) includes a distance measured by the distance measurement unit (3), the single-eye image captured by the image sensor (13) via a reference filter, and a filter other than the reference filter. A colorimetric value of the subject is obtained for a wavelength that passes through a filter other than the reference filter, using another single-eye image captured via the.

Description

本発明は、光軸と垂直な方向に並んで配置される複数の撮像光学系を介して被写体を撮像する撮像部を備えた撮像装置と、その撮像装置を用いた被写体の測色方法とに関するものである。   The present invention relates to an imaging device including an imaging unit that images a subject via a plurality of imaging optical systems arranged side by side in a direction perpendicular to an optical axis, and a subject colorimetry method using the imaging device. Is.

微小な光学レンズを2次元的に配置したレンズアレイと固体撮像素子とを用いて被写体を撮像する複眼の撮像装置では、各光学レンズによって固体撮像素子の受光面上に被写体の像(各個眼画像)が形成される。各光学レンズは2次元的に配置されているため、各個眼画像は、被写体に対して僅かずつ異なった角度から見た像(視差を有する像)となる。したがって、各個眼画像を集めた複眼画像には、被写体の3次元形状に関する情報のほか、高解像度化の情報が含まれている。そこで、少しずつ異なる個眼画像を多数用いることにより、より多くの情報量に基づいて再構成画像を生成することができ、各個眼画像の解像度以上に高精細の再構成画像を得ることができる。   In a compound eye imaging device that images a subject using a lens array in which a minute optical lens is two-dimensionally arranged and a solid-state imaging device, an image of the subject (each individual-eye image is formed on the light-receiving surface of the solid-state imaging device by each optical lens. ) Is formed. Since each optical lens is two-dimensionally arranged, each single-eye image is an image (an image having parallax) viewed from a slightly different angle with respect to the subject. Therefore, the compound eye image obtained by collecting each single-eye image includes information on the three-dimensional shape of the subject and information for increasing the resolution. Therefore, by using a large number of individual images slightly different from each other, it is possible to generate a reconstructed image based on a larger amount of information, and it is possible to obtain a reconstructed image having a higher definition than the resolution of each individual eye image. .

特に、特許文献1の撮像装置では、レンズアレイの微小光学レンズの少なくとも一部に対応して、所定の波長透過特性を持つ光学フィルタを配置するとともに、任意の2種の光学フィルタに、波長について相関性を持たせている。なお、上記の相関性とは、共通に透過する波長または波長帯域が存在することを意味している。このように任意の2種の光学フィルタに相関性を持たせることで、上記2種の光学フィルタを介して撮像した個眼画像同士では、少なくとも一部に共通する部分が現れる。このため、上記個眼画像同士の相関が高くなって、画像マッチングによる位置合わせを高精度で行うことが可能となり、被写体までの距離として、より真値に近い距離を推定することが可能となっている。   In particular, in the imaging device of Patent Document 1, an optical filter having a predetermined wavelength transmission characteristic is disposed corresponding to at least a part of the micro optical lens of the lens array, and the wavelength is set in any two types of optical filters. It has a correlation. In addition, said correlation means that the wavelength or wavelength band which permeate | transmits in common exists. In this way, by giving correlation to any two types of optical filters, at least a part common to the single-eye images captured through the two types of optical filters appears. For this reason, the correlation between the single-eye images is increased, and it is possible to perform alignment by image matching with high accuracy, and it is possible to estimate a distance closer to the true value as the distance to the subject. ing.

特開2011−182237号公報(請求項1、段落〔0003〕、〔0005〕、〔0016〕〜〔0018〕、〔0077〕〜〔0079〕、図1、図2、図19、図20等参照)JP, 2011-182237, A (refer to claim 1, paragraphs [0003], [0005], [0016] to [0018], [0077] to [0079], FIG. 1, FIG. 2, FIG. 19, FIG. 20, etc.) )

ところが、特許文献1では、レンズアレイの各個眼を構成する2つの光学レンズを介して撮像した画像を用いて測距を行っている。この場合、レンズアレイの2つの光学レンズ間の距離(基線長)が短いため、測距精度が低下するという問題が生ずる。なお、レンズアレイの2つの光学レンズ間の距離は、装置の小型化等の観点から、極力短くなるように予め設計で決まっている。測距精度等を向上させるべく、各光学レンズ間の距離を長くすることは、レンズアレイの設計変更が必要となり、コスト上昇を招くため、望ましくない。また、2つの光学レンズ間の距離を長くすると、レンズアレイ全体が大きくなり、装置の小型化が図れない。一方で、2つの光学レンズ間の距離が短いために測距精度が低下すると、測定した距離の誤差が大きくなる。その結果、撮像装置から測定した距離に位置する被写体上の任意の点の測色の精度も低下する。   However, in Patent Document 1, distance measurement is performed using images captured through two optical lenses constituting each individual eye of the lens array. In this case, since the distance (base line length) between the two optical lenses of the lens array is short, there arises a problem that the ranging accuracy is lowered. The distance between the two optical lenses of the lens array is determined in advance so as to be as short as possible from the viewpoint of miniaturization of the apparatus. Increasing the distance between the optical lenses in order to improve distance measurement accuracy and the like is not desirable because the design of the lens array needs to be changed and the cost increases. Further, if the distance between the two optical lenses is increased, the entire lens array becomes large, and the apparatus cannot be reduced in size. On the other hand, if the distance measurement accuracy decreases because the distance between the two optical lenses is short, the error in the measured distance increases. As a result, the accuracy of colorimetry at any point on the subject located at a distance measured from the imaging device also decreases.

本発明は、上記の問題点を解決するためになされたもので、その目的は、各個眼画像を形成するための複数のレンズ(撮像光学系)間の距離を変更することなく、測距精度を向上させることができ、これによって、測色の精度も向上させることができる撮像装置と、その撮像装置を用いた被写体の測色方法とを提供することにある。   The present invention has been made in order to solve the above-described problems, and its purpose is to measure distance accuracy without changing the distance between a plurality of lenses (imaging optical systems) for forming individual eye images. Therefore, an object of the present invention is to provide an imaging apparatus capable of improving the accuracy of colorimetry, and a method for measuring the color of a subject using the imaging apparatus.

本発明の一側面に係る撮像装置は、被写体を撮像する第1の撮像部と、前記被写体を撮像する第2の撮像部と、前記第1の撮像部および前記第2の撮像部にて撮像された前記被写体の各画像を用いて、前記被写体までの距離を測定する測距部と、前記測距部にて測定された前記距離を用いて、前記被写体の測色値を求める測色部とを備え、前記第1の撮像部は、光軸と垂直な方向に並んで配置され、同一の視野を持つ複数の第1の撮像光学系と、前記複数の第1の撮像光学系と対応して配置され、複数の分光特性を有する複数の第1の光学フィルタと、対応する位置関係にある前記第1の撮像光学系および前記第1の光学フィルタを介して前記被写体を撮像する複数の撮像領域を有する第1の撮像素子とを含んでおり、前記第2の撮像部は、第2の撮像光学系および第2の光学フィルタと、前記第2の撮像光学系および前記第2の光学フィルタを介して前記被写体を撮像する第2の撮像素子とを有しており、前記第2の撮像部は、前記第1の撮像部の外部に位置しており、前記第2の光学フィルタは、前記複数の第1の光学フィルタのいずれかを基準フィルタとして、その基準フィルタとほぼ同じ分光特性を有しており、前記測距部は、前記第2の撮像素子にて撮像された前記被写体の単眼画像と、前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像とを用いて、前記被写体までの距離を測定し、前記測色部は、前記測距部にて測定された前記距離と、前記第1の撮像素子にて、前記基準フィルタを介して撮像された前記被写体の前記個眼画像と、前記基準フィルタ以外の第1の光学フィルタを介して撮像された前記被写体の他の個眼画像とを用いて、前記基準フィルタ以外の前記第1の光学フィルタを透過する波長について前記被写体の測色値を求める。   An imaging apparatus according to an aspect of the present invention is imaged by a first imaging unit that images a subject, a second imaging unit that images the subject, the first imaging unit, and the second imaging unit. A distance measuring unit that measures the distance to the subject using each of the images of the subject and a color measuring unit that obtains a colorimetric value of the subject using the distance measured by the distance measuring unit. The first imaging unit is arranged side by side in a direction perpendicular to the optical axis, and corresponds to a plurality of first imaging optical systems having the same field of view, and the plurality of first imaging optical systems And a plurality of first optical filters having a plurality of spectral characteristics and a plurality of the first imaging optical system and the plurality of first imaging filters that are in a corresponding positional relationship. A first imaging element having an imaging region, and the second imaging unit includes: The second imaging optical system and the second optical filter, and the second imaging element that images the subject through the second imaging optical system and the second optical filter. The imaging unit is located outside the first imaging unit, and the second optical filter uses one of the plurality of first optical filters as a reference filter and has substantially the same spectrum as the reference filter. The distance measuring unit includes a monocular image of the subject imaged by the second image sensor and the subject imaged by the first image sensor via the reference filter. The distance to the subject is measured using the single-eye image, and the color measurement unit uses the distance measured by the distance measurement unit and the reference filter using the first image sensor. The single-eye image of the subject imaged through Using the other single-eye image of the subject imaged through the first optical filter other than the reference filter, color measurement of the subject with respect to a wavelength that passes through the first optical filter other than the reference filter Find the value.

本発明の他の側面に係る被写体の測色方法は、所望の被写体を撮像する第1の撮像部であって、光軸と垂直な方向に並んで配置され、同一の視野を持ち前記被写体の像をそれぞれ形成する複数の第1の撮像光学系と、前記複数の第1の撮像光学系と対応して配置され、複数の分光特性を有する複数の第1の光学フィルタと、対応する位置関係にある前記第1の撮像光学系および前記第1の光学フィルタを介して形成された前記被写体の像をそれぞれ撮像する複数の撮像領域を有する第1の撮像素子とを含む、前記第1の撮像部を備えた撮像装置を用いた、被写体の測色値を求める測色方法であって、前記撮像装置はさらに、前記第1の撮像部の外部に位置する第2の撮像部であって、前記被写体の像を形成する第2の撮像光学系および第2の光学フィルタと、前記第2の撮像光学系および前記第2の光学フィルタを介して形成された前記被写体の像を撮像する第2の撮像素子とを有しており、前記第2の光学フィルタが、前記複数の第1の光学フィルタのいずれかを基準フィルタとして、その基準フィルタとほぼ同じ分光特性を有している前記第2の撮像部を備えており、前記測色方法は、前記第2の撮像素子にて撮像された前記被写体の単眼画像と、前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像とを用いて、前記被写体までの距離を測定する工程と、測定された前記距離と、前記第1の撮像素子にて、前記基準フィルタを介して撮像された前記被写体の前記個眼画像と、前記基準フィルタ以外の第1の光学フィルタを介して撮像された前記被写体の他の個眼画像とを用いて、前記基準フィルタ以外の前記第1の光学フィルタを透過する波長について前記被写体の測色値を求める工程とを有している。   A subject colorimetric method according to another aspect of the present invention is a first imaging unit that images a desired subject, and is arranged side by side in a direction perpendicular to the optical axis, and has the same field of view, A plurality of first imaging optical systems that respectively form images, a plurality of first optical filters that are arranged corresponding to the plurality of first imaging optical systems and have a plurality of spectral characteristics, and corresponding positional relationships The first imaging optical system and the first imaging device having a plurality of imaging regions that respectively capture images of the subject formed through the first optical filter. A colorimetric method for obtaining a colorimetric value of a subject using an imaging device comprising a unit, wherein the imaging device is further a second imaging unit located outside the first imaging unit, A second imaging optical system for forming an image of the subject; And a second imaging element that images the subject image formed through the second imaging optical system and the second optical filter, and the second optical filter includes: The second imaging unit having substantially the same spectral characteristics as the reference filter, using any one of the plurality of first optical filters as a reference filter. The distance to the subject is measured using a monocular image of the subject imaged by the imaging device and a single-eye image of the subject imaged by the first imaging device via the reference filter. The measured distance, the single image of the subject imaged by the first image sensor via the reference filter, and the first optical filter other than the reference filter. Imaged by By using the other ommatidium images Utsushitai, the wavelengths transmitted through the first optical filter other than the reference filter and a step of obtaining a colorimetric value of the subject.

第1の撮像部の各撮像光学系同士の距離を変更することなく、測距および測色の精度を向上させることができる。   The accuracy of distance measurement and color measurement can be improved without changing the distance between the imaging optical systems of the first imaging unit.

本発明の実施の一形態に係る撮像装置の概略の構成を模式的に示す説明図である。It is explanatory drawing which shows typically the structure of the outline of the imaging device which concerns on one Embodiment of this invention. 上記撮像装置の簡易的な構成を示す説明図である。It is explanatory drawing which shows the simple structure of the said imaging device. 上記撮像装置の第1の撮像部に用いられる各フィルタの分光特性の一例を示すグラフである。It is a graph which shows an example of the spectral characteristic of each filter used for the 1st image pick-up part of the above-mentioned image pick-up device. 上記第1の撮像部にて撮像された被写体の個眼画像(基準画像)と、第2の撮像部2にて撮像された被写体の単眼画像(参照画像)とを模式的に示す説明図である。FIG. 3 is an explanatory diagram schematically showing a single-eye image (standard image) of a subject imaged by the first imaging unit and a monocular image (reference image) of a subject imaged by the second imaging unit 2; is there. 空間上の注目点と、一方のカメラのレンズの主点と、他方のカメラのレンズの主点との位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of the attention point in space, the principal point of the lens of one camera, and the principal point of the lens of the other camera. エピポーラ線上の位置と一致度との関係を示す説明図である。It is explanatory drawing which shows the relationship between the position on an epipolar line, and a coincidence degree. 2次関数による近似から対応点を求める手法を示す説明図である。It is explanatory drawing which shows the method of calculating | requiring a corresponding point from the approximation by a quadratic function. 被写体と上記撮像装置の各部との位置関係を模式的に示す説明図である。It is explanatory drawing which shows typically the positional relationship of a to-be-photographed object and each part of the said imaging device. 上記撮像装置における動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement in the said imaging device. 上記第1の撮像部の各フィルタの分光特性の他の例を示すグラフである。It is a graph which shows the other example of the spectral characteristic of each filter of a said 1st imaging part. 本発明の他の実施の形態に係る撮像装置の構成を示す説明図である。It is explanatory drawing which shows the structure of the imaging device which concerns on other embodiment of this invention. 上記撮像装置に用いられる各フィルタの分光特性を示すグラフである。It is a graph which shows the spectral characteristic of each filter used for the above-mentioned imaging device.

〔実施の形態1〕
本発明の実施の一形態について、図面に基づいて説明すれば、以下の通りである。
[Embodiment 1]
An embodiment of the present invention will be described below with reference to the drawings.

(撮像装置の概略の構成)
図1は、本実施形態の撮像装置10の概略の構成を模式的に示す説明図である。撮像装置10は、第1の撮像部1と、第2の撮像部2と、測距部3と、測色部4とを備えている。第1の撮像部1および第2の撮像部2は、被写体を撮像するものである。第2の撮像部2は、第1の撮像部1の外部に位置している。本実施形態では、第2の撮像部2は、第1の撮像部1と離れて位置しているが、第1の撮像部1と接していてもよい。
(Schematic configuration of the imaging device)
FIG. 1 is an explanatory diagram schematically illustrating a schematic configuration of an imaging apparatus 10 according to the present embodiment. The imaging device 10 includes a first imaging unit 1, a second imaging unit 2, a distance measuring unit 3, and a color measuring unit 4. The first imaging unit 1 and the second imaging unit 2 are for imaging a subject. The second imaging unit 2 is located outside the first imaging unit 1. In the present embodiment, the second imaging unit 2 is located away from the first imaging unit 1, but may be in contact with the first imaging unit 1.

第1の撮像部1は、例えば赤(R)、緑(G)、青(B)、黄(Y)、マゼンタ(M)、シアン(C)の各色の光を透過させるフィルタが配置される領域を有しており、各領域のフィルタと撮像光学系(例えばレンズ)とを介して被写体を撮像する。なお、フィルタの種類は上記の種類に限定されるわけでない。第2の撮像部2は、例えばGの光を透過させるフィルタが配置される領域を有しており、このフィルタと撮像光学系とを介して被写体を撮像する。   In the first imaging unit 1, for example, filters that transmit light of each color of red (R), green (G), blue (B), yellow (Y), magenta (M), and cyan (C) are arranged. An object is imaged through a filter and an imaging optical system (for example, a lens) in each area. The type of filter is not limited to the above type. The second imaging unit 2 has a region where a filter that transmits G light, for example, is arranged, and images a subject via this filter and the imaging optical system.

測距部3は、第1の撮像部1の基準フィルタ(例えばGのフィルタ)を介して撮像された被写体の画像と、第2の撮像部2のフィルタ(例えばGのフィルタ)を介して撮像された被写体の画像とを用いて、被写体までの距離を測定(演算)する。測色部4は、測距部3で測定された被写体までの距離と、第1の撮像部1の各フィルタを介して撮像された被写体の各画像とを用いて、被写体の測色値を求める。測距部3および測色部4は、上記した所定の処理(演算)を行う演算回路で構成可能である。   The distance measuring unit 3 captures an image of a subject captured through a reference filter (for example, a G filter) of the first image capturing unit 1 and a filter of the second image capturing unit 2 (for example, a G filter). The distance to the subject is measured (calculated) using the image of the subject. The color measuring unit 4 uses the distance to the subject measured by the distance measuring unit 3 and each image of the subject imaged through each filter of the first imaging unit 1 to obtain a colorimetric value of the subject. Ask. The distance measuring unit 3 and the color measuring unit 4 can be configured by an arithmetic circuit that performs the predetermined processing (calculation) described above.

図2は、撮像装置10の簡易的な構成を示す説明図である。なお、同図では、第1の撮像部1を簡易的に3つの個眼(カメラ)で構成した場合を示している。撮像装置10は、上記した第1の撮像部1、第2の撮像部2、測距部3、測色部4に加えて、全体制御部5、記憶部6および出力部7をさらに備えている。   FIG. 2 is an explanatory diagram illustrating a simple configuration of the imaging apparatus 10. In the figure, the first imaging unit 1 is simply configured with three individual eyes (cameras). The imaging device 10 further includes an overall control unit 5, a storage unit 6, and an output unit 7 in addition to the first imaging unit 1, the second imaging unit 2, the distance measuring unit 3, and the color measuring unit 4 described above. Yes.

全体制御部5は、撮像装置10の各部の動作を制御するものであり、例えばCPU(Central Processing Unit)およびその周辺回路を備えて構成されている。なお、図2では、全体制御部5の制御信号を破線の矢印で示し、各種データの流れを実線の矢印で示している(他の図面でも同様とする)。   The overall control unit 5 controls the operation of each unit of the imaging apparatus 10, and includes, for example, a CPU (Central Processing Unit) and its peripheral circuits. In FIG. 2, the control signal of the overall control unit 5 is indicated by a dashed arrow, and the flow of various data is indicated by a solid arrow (the same applies to other drawings).

記憶部6は、測距部3にて測定された被写体までの距離、測色部4にて求められた被写体の測色値Z、およびその測色値から得られる被写体のカラー画像(R/G/B)などの情報(データ)を記憶するメモリであり、例えばRAM(Random Access Memory)等の揮発性記憶素子や、ハードディスク等の大容量記憶装置で構成されている。   The storage unit 6 stores the distance to the subject measured by the distance measuring unit 3, the colorimetric value Z of the subject obtained by the colorimetric unit 4, and the color image of the subject obtained from the colorimetric value (R / G / B) is a memory for storing information (data), and is composed of, for example, a volatile storage element such as a RAM (Random Access Memory) or a large-capacity storage device such as a hard disk.

出力部7は、記憶部6に記憶された情報(被写体までの距離、測色値)および測色値に基づいて得られる被写体のカラー画像を出力するものであり、例えばCRTディスプレイ、LCD、有機ELディスプレイなどの表示装置や、プリンタ等の印刷装置で構成されている。なお、出力部7は、撮像装置10の外部に設けられていてもよい。つまり、記憶部6に記憶された情報を、撮像装置10の外部の出力部7に有線または無線で送信し、そこで被写体のカラー画像等を表示または印刷するようにしてもよい。   The output unit 7 outputs information (distance to the subject, colorimetric values) stored in the storage unit 6 and a color image of the subject obtained based on the colorimetric values. For example, the CRT display, LCD, organic It comprises a display device such as an EL display and a printing device such as a printer. Note that the output unit 7 may be provided outside the imaging device 10. That is, the information stored in the storage unit 6 may be transmitted to the output unit 7 outside the imaging device 10 by wire or wirelessly, and a color image or the like of the subject may be displayed or printed there.

次に、撮像装置10の主要部の詳細について説明する。   Next, details of main parts of the imaging apparatus 10 will be described.

(第1の撮像部)
第1の撮像部1は、複数の個眼レンズ11(第1の撮像光学系)と、複数のフィルタ12(第1の光学フィルタ)と、撮像素子13(第1の撮像素子)とを有している。なお、図2では、個眼レンズ11およびフィルタ12の数をそれぞれ3つとしているが、それぞれ2つであってもよく、4つ以上であってもよい。また、各個眼レンズ11は、光軸に垂直な方向に並べて配置されているが、アレイ状に(マトリクス状に)配置されていてもよい。
(First imaging unit)
The first imaging unit 1 includes a plurality of single-lens lenses 11 (first imaging optical system), a plurality of filters 12 (first optical filters), and an imaging element 13 (first imaging element). doing. In FIG. 2, the number of the individual lenses 11 and the filters 12 is three, but may be two or four or more. The individual lenses 11 are arranged side by side in a direction perpendicular to the optical axis, but may be arranged in an array (in a matrix).

1個の個眼レンズ11は、その光軸に沿って配置される1または複数の光学レンズで構成されている。各個眼レンズ11は、同一の視野を持ち、各光軸が互いに略平行となるように、撮像素子13の撮像領域(受光面)に平行な方向に並んで配置されている。なお、以下の説明の便宜上、光軸上に後述するフィルタ12Rが位置する個眼レンズ11を、個眼レンズ11Rと称し、光軸上にフィルタ12Gが位置する個眼レンズ11を、個眼レンズ11Gと称し、光軸上にフィルタ12Bが位置する個眼レンズ11を、個眼レンズ11Bと称する。   One single lens 11 is composed of one or a plurality of optical lenses arranged along the optical axis. The individual lenses 11 have the same field of view, and are arranged side by side in a direction parallel to the imaging region (light receiving surface) of the imaging device 13 so that the optical axes are substantially parallel to each other. For convenience of the following description, a single lens 11 in which a filter 12R (described later) is positioned on the optical axis is referred to as a single lens 11R, and a single lens 11 in which the filter 12G is positioned on the optical axis is referred to as a single lens. The single lens 11 that is referred to as 11G and in which the filter 12B is located on the optical axis is referred to as a single lens 11B.

複数のフィルタ12は、複数の個眼レンズ11の光入射側に、各個眼レンズ11に対応して並んで配置されており、複数の分光特性を有している。なお、複数のフィルタ12は、複数の個眼レンズ11の光出射側に配置されていてもよい。   The plurality of filters 12 are arranged side by side corresponding to each individual lens 11 on the light incident side of the plurality of individual lenses 11 and have a plurality of spectral characteristics. The plurality of filters 12 may be disposed on the light emission side of the plurality of single-lens lenses 11.

図3は、各フィルタ12の分光特性の一例を示している。各フィルタ12は、RGBのいずれかの波長域に透過波長のピークを有する分光特性を有している。ここでは、便宜上、Rの波長域に透過波長のピークを有するフィルタ12を、フィルタ12Rと称し、Gの波長域に透過波長のピークを有するフィルタ12を、フィルタ12Gと称し、Bの波長域に透過波長のピークを有するフィルタ12を、フィルタ12Bと称する。   FIG. 3 shows an example of the spectral characteristics of each filter 12. Each filter 12 has a spectral characteristic having a transmission wavelength peak in any wavelength region of RGB. Here, for convenience, the filter 12 having a transmission wavelength peak in the R wavelength region is referred to as a filter 12R, and the filter 12 having a transmission wavelength peak in the G wavelength region is referred to as a filter 12G. The filter 12 having a transmission wavelength peak is referred to as a filter 12B.

図3のように、フィルタ12R・12G・12Bは、互いに離散的な分光特性を有している。ここで、「互いに離散的な分光特性」とは、互いの分光特性を示すグラフが完全に離れている場合、および一部に重複する波長域があっても、その重複部分の波長域における透過率が、透過率のピークを100%としたときの30%以下(望ましくは20%以下)である場合を指す。   As shown in FIG. 3, the filters 12R, 12G, and 12B have discrete spectral characteristics. Here, “discrete spectral characteristics” means that the graphs showing the spectral characteristics of each other are completely separated, and even if there are overlapping wavelength ranges, the transmission in the overlapping wavelength range The rate is 30% or less (preferably 20% or less) when the transmittance peak is 100%.

撮像素子13は、対応する位置関係にある個眼レンズ11およびフィルタ12を介して被写体を撮像する複数の撮像領域を有するモノクロのイメージセンサで構成されている。イメージセンサとしては、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの複数の画素を有する撮像素子を用いることができる。   The imaging element 13 is configured by a monochrome image sensor having a plurality of imaging areas for imaging a subject via a single lens 11 and a filter 12 that are in a corresponding positional relationship. As the image sensor, an image sensor having a plurality of pixels such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) can be used.

ここで、撮像素子13において、個眼レンズ11Rおよびフィルタ12Rを介して被写体を撮像する撮像領域を、撮像領域13Rとし、個眼レンズ11Gおよびフィルタ12Gを介して被写体を撮像する撮像領域を、撮像領域13Gとし、個眼レンズ11Bおよびフィルタ12Bを介して被写体を撮像する撮像領域を、撮像領域13Bとする。各撮像領域13R・13G・13Bからは受光量に応じた電気信号が出力されるが、その出力はA/D変換され、撮像された画像のデータとして、例えば8ビットで0〜255のデータがRGBのそれぞれについて得られる。図2では、撮像素子13から出力される画像データを、I(R)、I(G)、I(B)で示している。Here, in the imaging device 13, an imaging region in which the subject is imaged through the single lens 11R and the filter 12R is defined as an imaging region 13R, and an imaging region in which the subject is imaged through the single lens 11G and the filter 12G is imaged. An imaging region where the subject is imaged via the single lens 11B and the filter 12B is defined as an imaging region 13B. Each of the imaging regions 13R, 13G, and 13B outputs an electrical signal corresponding to the amount of received light, but the output is A / D converted, and data of the captured image is, for example, 8 bits of 0 to 255 data. Obtained for each of RGB. In FIG. 2, the image data output from the image sensor 13 is denoted by I 1 (R), I 1 (G), and I 1 (B).

個眼レンズ11R、フィルタ12R、撮像領域13Rによって、1つの個眼(カメラ)が構成されており、個眼レンズ11G、フィルタ12G、撮像領域13Gによって、1つの個眼が構成されており、個眼レンズ11B、フィルタ12B、撮像領域13Bによって、1つの個眼が構成されている。各個眼からは、同じ被写体について略視差だけずれた画像のデータが出力される。   The single lens 11R, the filter 12R, and the imaging region 13R constitute one single eye (camera), and the single lens 11G, the filter 12G, and the imaging region 13G constitute one single eye. One eye is constituted by the eye lens 11B, the filter 12B, and the imaging region 13B. From each individual eye, image data of the same subject that is shifted by substantially parallax is output.

(第2の撮像部)
第2の撮像部2は、単眼レンズ21(第2の撮像光学系)と、フィルタ22(第2の光学フィルタ)と、撮像素子23(第2の撮像素子)とを有している。
(Second imaging unit)
The second imaging unit 2 includes a monocular lens 21 (second imaging optical system), a filter 22 (second optical filter), and an imaging element 23 (second imaging element).

1個の単眼レンズ21は、その光軸に沿って配置される1または複数の光学レンズで構成されている。単眼レンズ21の光軸は、第1の撮像部1の各個眼レンズ11の各光軸と略平行となっている。   One monocular lens 21 is composed of one or a plurality of optical lenses arranged along the optical axis. The optical axis of the monocular lens 21 is substantially parallel to the optical axes of the individual lenses 11 of the first imaging unit 1.

フィルタ22は、単眼レンズ21の光入射側に配置されているが、光出射側に配置されていてもよい。フィルタ22は、第1の撮像部1のフィルタ12のいずれかを基準フィルタとして、その基準フィルタとほぼ同じ分光特性を有している。なお、「ほぼ同じ分光特性」とは、完全に分光特性が同じである場合も含むし、分光特性が完全に同じでなくても、分光特性のずれ量(例えば透過ピーク波長のずれ量)が30nm以下である場合も含む。ここでは、フィルタ22は、フィルタ12Gを基準フィルタとして、そのフィルタ12Gと同じ分光特性を有している。フィルタ12Gを基準フィルタとしているのは、Gが視感度の中心的な波長であることによる。なお、フィルタ12Rまたはフィルタ12Bを基準フィルタとし、フィルタ22の分光特性を、フィルタ12Rまたはフィルタ12Bの分光特性と合わせてもよい。このようにほぼ同じ分光特性を有するフィルタ22と基準フィルタをそれぞれ介して撮像された単眼画像と個眼画像を用いることにより、被写体までの距離を精度よく測定することができる。   The filter 22 is disposed on the light incident side of the monocular lens 21, but may be disposed on the light emitting side. The filter 22 has one of the filters 12 of the first imaging unit 1 as a reference filter and has substantially the same spectral characteristics as the reference filter. The “substantially the same spectral characteristics” includes the case where the spectral characteristics are completely the same, and even if the spectral characteristics are not completely the same, the shift amount of the spectral characteristics (for example, the shift amount of the transmission peak wavelength) is This includes cases where the thickness is 30 nm or less. Here, the filter 22 has the same spectral characteristics as the filter 12G with the filter 12G as a reference filter. The reason why the filter 12G is used as a reference filter is that G is a central wavelength of visibility. The filter 12R or the filter 12B may be used as a reference filter, and the spectral characteristics of the filter 22 may be combined with the spectral characteristics of the filter 12R or the filter 12B. Thus, by using a monocular image and a single-eye image captured through the filter 22 and the reference filter having substantially the same spectral characteristics, the distance to the subject can be accurately measured.

撮像素子23は、単眼レンズ21およびフィルタ22を介して被写体を撮像する撮像領域を有するモノクロのイメージセンサで構成されている。上記のイメージセンサとしては、撮像素子13と同様に、例えばCCDやCMOSなどの複数の画素を有する撮像素子を用いることができる。上記撮像領域からは受光量に応じた電気信号が出力されるが、その出力はA/D変換され、撮像された画像のデータとして、例えば8ビットで0〜255のデータが、フィルタ22の透過波長の色(ここでは基準フィルタの透過波長と同じGの色)について得られる。図2では、撮像素子23から出力される画像データを、I(G)で示している。The imaging element 23 is configured by a monochrome image sensor having an imaging area for imaging a subject via a monocular lens 21 and a filter 22. As the image sensor, an image sensor having a plurality of pixels such as a CCD and a CMOS can be used as in the image sensor 13. An electrical signal corresponding to the amount of received light is output from the imaging region. The output is A / D converted, and data of the captured image is, for example, 8-bit data of 0 to 255 transmitted through the filter 22. It is obtained for the color of the wavelength (here, the same G color as the transmission wavelength of the reference filter). In FIG. 2, the image data output from the image sensor 23 is indicated by I 2 (G).

ここで、第2の撮像部2の空間分解能は、撮像素子23の画素数と単眼レンズ21の焦点距離とで決まり、第1の撮像部1の各個眼の空間分解能は、撮像素子13の画素数と各個眼レンズ11の焦点距離とで決まる。本実施形態では、撮像素子13・23の画素ピッチと、各レンズ(単眼レンズ21、個眼レンズ11)の焦点距離とを調整することにより、第2の撮像部2の空間分解能と、第1の撮像部1の各個眼ごとの空間分解能とをほぼ同じにしている。第1の撮像部1と第2の撮像部2とで空間分解能が異なると、後述する測距部3での測距や測色部4での測色における精度が、空間分解能が粗い側に律速されるため、上記のように空間分解能を揃えることで、空間分解能の相違による測距精度や測色精度の低下を回避することができる。   Here, the spatial resolution of the second imaging unit 2 is determined by the number of pixels of the imaging device 23 and the focal length of the monocular lens 21, and the spatial resolution of each individual eye of the first imaging unit 1 is the pixel of the imaging device 13. It is determined by the number and the focal length of each individual lens 11. In the present embodiment, by adjusting the pixel pitch of the image sensors 13 and 23 and the focal length of each lens (monocular lens 21 and single lens 11), the spatial resolution of the second imaging unit 2 and the first The spatial resolution for each individual eye of the imaging unit 1 is made substantially the same. If the first imaging unit 1 and the second imaging unit 2 have different spatial resolutions, the accuracy in the distance measurement by the distance measuring unit 3 and the color measurement by the color measuring unit 4, which will be described later, is on the side where the spatial resolution is coarse. Since the rate is limited, it is possible to avoid a decrease in distance measurement accuracy and color measurement accuracy due to a difference in spatial resolution by aligning the spatial resolution as described above.

本実施形態では、第1の撮像部1および第2の撮像部2において、内部パラメータは、設計とは若干ずれるため、既知の方法によって事前に求めておく。なお、内部パラメータとしては、例えばレンズ(個眼レンズ11、単眼レンズ21)の焦点距離、撮像素子13・23における撮像画像の中心(レンズ光軸との交点)がある。   In the present embodiment, the internal parameters in the first imaging unit 1 and the second imaging unit 2 are slightly different from the design, and thus are obtained in advance by a known method. The internal parameters include, for example, the focal length of the lens (single-lens 11 and monocular lens 21), and the center of the captured image (intersection with the lens optical axis) in the image sensors 13 and 23.

また、第2の撮像部2と、第1の撮像部1の少なくとも1つの個眼(特に基準フィルタを介して被写体を撮像する基準個眼)とおいて、外部パラメータは、設計とは若干ずれるため、既知の方法によって事前に求めておく。なお、外部パラメータとしては、例えば第2の撮像部2と第1の撮像部1の基準個眼との間での姿勢(光軸の向き、光軸方向の位置)がある。さらに、第1の撮像部1において、上記基準個眼と他の個眼との間でも、外部パラメータ(光軸の向き、光軸方向の位置)は既知の方法によって事前に求めておく。   In addition, in the second image pickup unit 2 and at least one single eye of the first image pickup unit 1 (particularly, the reference single eye that picks up the subject through the reference filter), the external parameters slightly deviate from the design. Obtain in advance by a known method. The external parameters include, for example, the posture (the direction of the optical axis and the position in the optical axis direction) between the second imaging unit 2 and the reference single eye of the first imaging unit 1. Furthermore, in the first imaging unit 1, the external parameters (the direction of the optical axis and the position in the optical axis direction) are obtained in advance by a known method even between the reference single eye and the other single eye.

上記した内部パラメータおよび外部パラメータの算出方法としては、例えば“A Flexible New Technique for Camera Calibration, IEEE Transactions on Pattern Analysis and Machine Intelligence, VOL.22, No.11, 1330-1334, November 2000”に記載の方法を採用することができる。   The calculation method of the internal parameter and the external parameter described above is described in, for example, “A Flexible New Technique for Camera Calibration, IEEE Transactions on Pattern Analysis and Machine Intelligence, VOL.22, No.11, 1330-1334, November 2000”. The method can be adopted.

また、本実施形態では、前述した全体制御部5は、第2の撮像部2にて撮像される被写体の画像(単眼画像)と、第1の撮像部1にて基準フィルタを介して撮像される被写体の画像(個眼画像)とがほぼ同じ明るさとなるように、第2の撮像部2および第1の撮像部1における露光を制御する露光制御部として機能している。より具体的には、全体制御部5は、上記の単眼画像と上記の個眼画像とで、各画像の画素値の平均が8ビットで128程度になるように、撮像素子13・23の積分時間を制御する。   Further, in the present embodiment, the overall control unit 5 described above is captured by the second imaging unit 2 through the subject image (monocular image) and the first imaging unit 1 through the reference filter. It functions as an exposure control unit that controls exposure in the second imaging unit 2 and the first imaging unit 1 so that the image of the subject (single-eye image) has substantially the same brightness. More specifically, the overall control unit 5 integrates the image sensors 13 and 23 so that the average pixel value of each image is about 128 with 8 bits in the monocular image and the monocular image. Control the time.

第2の撮像部2で撮像される被写体の単眼画像と、第1の撮像部1で撮像される被写体の個眼画像とで明るさが異なると、これらの画像を用いた測距や測色の精度が低下するため、明るさに起因する測距精度等の低下を回避することができる。   When the monocular image of the subject imaged by the second imaging unit 2 and the single-eye image of the subject imaged by the first imaging unit 1 have different brightness, distance measurement and colorimetry using these images Therefore, it is possible to avoid a decrease in distance measurement accuracy due to brightness.

(測距部)
次に、撮像装置10の測距部3の詳細について説明する。測距部3は、第2の撮像部2の撮像素子23にて撮像された被写体の単眼画像と、第1の撮像部1の基準フィルタ(例えばフィルタ12G)を介して撮像素子13にて撮像された被写体の個眼画像とを用いて、被写体までの距離を測定する。以下、より詳細に説明する。
(Ranging unit)
Next, details of the distance measuring unit 3 of the imaging apparatus 10 will be described. The distance measuring unit 3 captures an image with the imaging element 13 via the monocular image of the subject imaged by the imaging element 23 of the second imaging unit 2 and the reference filter (for example, the filter 12G) of the first imaging unit 1. The distance to the subject is measured using the single eye image of the subject. This will be described in more detail below.

<対応点探索>
図4は、基準フィルタを介して撮像素子13にて撮像された被写体の個眼画像(基準画像)と、第2の撮像部2の撮像素子23にて撮像された被写体の単眼画像(参照画像)とを模式的に示している。測距部3は、まず、上記基準画像における注目点と上記参照画像上で対応する対応点の探索を行う。つまり、参照画像においてエピポーラ線上を走査し、基準画像における注目点との一致度を算出することにより、参照画像上で上記注目点と対応する対応点を求める。そして、このような対応点探索を、基準画像上で注目点をシフトさせながら行う。
<Corresponding point search>
FIG. 4 shows a single-eye image (reference image) of a subject imaged by the image sensor 13 through a reference filter, and a monocular image (reference image) of the subject imaged by the image sensor 23 of the second imaging unit 2. ) Schematically. The distance measuring unit 3 first searches for a corresponding point on the reference image and a corresponding point on the reference image. That is, by scanning the epipolar line in the reference image and calculating the degree of coincidence with the attention point in the base image, the corresponding point corresponding to the attention point is obtained on the reference image. Such a corresponding point search is performed while shifting the point of interest on the reference image.

より具体的には、基準画像上で、対応点を探索したい所定の画素位置(注目点P)を中心に所定の大きさを持つウィンドウ(テンプレートT0)を設定する。同様に、参照画像上にも同じ大きさを持つウィンドウW0を、エピポーラ線E0上に複数設定する。そして、基準画像上におけるテンプレートT0に対する、参照画像上における各ウィンドウW0の一致度(相関度)を求め(テンプレートマッチング)、最も一致度の高いウィンドウW0における中心位置の画素を対応点Qとする。   More specifically, a window (template T0) having a predetermined size around a predetermined pixel position (attention point P) for which a corresponding point is to be searched is set on the reference image. Similarly, a plurality of windows W0 having the same size on the reference image are set on the epipolar line E0. Then, the degree of coincidence (correlation degree) of each window W0 on the reference image with respect to the template T0 on the standard image is obtained (template matching), and the pixel at the center position in the window W0 having the highest degree of coincidence is set as the corresponding point Q.

ここで、上記のエピポーラ線E0について説明を補足しておく。図5は、空間上の注目点Xと、一方のカメラのレンズの主点Oと、他方のカメラのレンズの主点Oとの位置関係を示している。主点Oと主点Oとを結ぶ直線が、一方のカメラによって撮像される基準画像と交わる点をeとし、他方のカメラによって撮像される参照画像と交わる点をeとする。主点Oと注目点Xとを結ぶ直線は、参照画像上に直線として投影される。この直線のことをエピポーラ線Eと呼ぶ。すなわち、主点Oと注目点Xとを結ぶ直線上の複数の点X、X、X、・・・Xは、参照画像のエピポーラ線E上に並ぶ。したがって、参照画像においてエピポーラ線E上を走査し、基準画像における注目点との一致度を算出することにより、参照画像上で上記注目点と対応する対応点を求めることができる。Here, the description of the epipolar line E0 will be supplemented. Figure 5 illustrates the positional relationship between the target point X in the space, a main point O L of one camera lens, and the principal point O R of the other camera lens. The straight line connecting the principal point O L and the principal point O R is a point of intersection with the reference image captured by one camera and e L, the point of intersection with the reference image captured by the other camera and e R. Straight line connecting the target point X and the principal point O L is projected as a straight line on the reference image. This straight line is called an epipolar line E. That is, the principal point O L a plurality of points on the straight line connecting the point of interest X X 1, X 2, X 3, ··· X L is arranged on the epipolar line E of the reference image. Therefore, by scanning the epipolar line E in the reference image and calculating the degree of coincidence with the attention point in the standard image, it is possible to obtain the corresponding point corresponding to the attention point on the reference image.

なお、エピポーラ線の算出方法としては、実際にエピポーラ線を測定する方法、画像上の点から数学的に求める方法、カメラパラメータから計算により求める方法、等があるが、いずれも公知の手法であるため、ここではその詳細な説明を省略する。   In addition, as an epipolar line calculation method, there are a method of actually measuring an epipolar line, a method of calculating mathematically from a point on an image, a method of calculating by a camera parameter, etc., all of which are known methods. Therefore, detailed description thereof is omitted here.

上記した一致度は、NCC(Normalized Cross Correlation;正規化相互相関係数)、SAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)などを用いた公知の方法で求めることができる。例えばNCCを用いて一致度を求める場合、以下の数1式によって求めることができる。なお、T(i,j)は、テンプレートT0の画素の輝度値であり、I(i,j)は、参照画像のウィンドウW0の画素の輝度値である。座標(i,j)は、テンプレートT0の幅をM画素、高さをN画素としたとき、テンプレートの左上の座標を(0,0)、右下を(M−1,N−1)とする場合の座標である。   The degree of coincidence described above can be obtained by a known method using NCC (Normalized Cross Correlation), SAD (Sum of Absolute Difference), SSD (Sum of Squared Difference), or the like. For example, when the degree of coincidence is obtained using NCC, it can be obtained by the following equation (1). T (i, j) is the luminance value of the pixel of the template T0, and I (i, j) is the luminance value of the pixel of the window W0 of the reference image. Coordinates (i, j) are, when the template T0 has a width of M pixels and a height of N pixels, the upper left coordinates of the template are (0, 0) and the lower right are (M-1, N-1). It is a coordinate when doing.

Figure 0005896090
Figure 0005896090

図6は、エピポーラ線E0上の位置(座標)と一致度との関係を模式的に示している。一致度の最も高い点(対応点)を求めるにあたっては、図6の曲線の頂点に対応する位置を、対応点の位置とすればよい。このとき、図7に示すように、上記曲線における頂点付近の3点を抽出して2次関数による近似を行い、その頂点に対応する位置を、対応点の位置としてもよい。後者の場合、対応点をより高精度に求めることができる。   FIG. 6 schematically shows the relationship between the position (coordinates) on the epipolar line E0 and the degree of coincidence. In obtaining the point (corresponding point) having the highest degree of coincidence, the position corresponding to the vertex of the curve in FIG. 6 may be set as the position of the corresponding point. At this time, as shown in FIG. 7, three points near the vertex in the curve may be extracted and approximated by a quadratic function, and the position corresponding to the vertex may be set as the position of the corresponding point. In the latter case, the corresponding points can be obtained with higher accuracy.

<三次元位置測定>
測距部3は、上記の対応点探索を行った後、注目点および対応点の各位置(座標)、上述した内部パラメータおよび外部パラメータを用いて、被写体上の各点の三次元位置を測定する。
<3D position measurement>
After performing the above-described corresponding point search, the distance measuring unit 3 measures the three-dimensional position of each point on the subject using the attention point and each position (coordinate) of the corresponding point, and the internal parameter and the external parameter described above. To do.

図8は、XYZ直交座標系におけるZX面での、被写体Obと、第1の撮像部1および第2の撮像部2の各部との位置関係を模式的に示している。ここで、基準フィルタと対応した位置関係にある個眼レンズ11Gと単眼レンズ21との距離(基線長)、すなわち、個眼レンズ11Gの主点Oと単眼レンズ21の主点Oとの距離をbとする。また、個眼レンズ11Gおよび単眼レンズ21の各焦点距離をfとし、個眼レンズ11Gの光軸AX1から撮像素子13における注目点に対応する画素(注目画素)までの距離をuとし、単眼レンズ21の光軸AX2から撮像素子23における対応点に対応する画素(対応画素)までの距離をvとする。なお、光軸AX1・AX2は平行であるとする。FIG. 8 schematically shows the positional relationship between the subject Ob and each part of the first imaging unit 1 and the second imaging unit 2 on the ZX plane in the XYZ orthogonal coordinate system. Here, the distance (baseline length) between the single lens 11G and the monocular lens 21 in the positional relationship corresponding to the reference filter, that is, the principal point O 0 of the single lens 11G and the principal point O 1 of the monocular lens 21. Let b be the distance. Further, each focal length of the single-eye lens 11G and the monocular lens 21 is set to f, and a distance from the optical axis AX1 of the single-eye lens 11G to the pixel (target pixel) corresponding to the target point in the image sensor 13 is set to u. The distance from the optical axis AX2 of 21 to the pixel (corresponding pixel) corresponding to the corresponding point in the image sensor 23 is represented by v. It is assumed that the optical axes AX1 and AX2 are parallel.

基準個眼の個眼レンズ11Gの主点Oを三次元座標の原点とし、被写体Ob上の点の座標を(x,y,z)としたとき、同図より、以下の関係式が得られる。
z:x=f:u (1)
z:(b−x)=f:v (2)
When the principal point O 0 of the single lens 11G of the reference single eye is the origin of the three-dimensional coordinates and the coordinates of the points on the subject Ob are (x, y, z), the following relational expression is obtained from FIG. It is done.
z: x = f: u (1)
z: (b−x) = f: v (2)

上記の2式は、以下のように変形できる。
z=(f/u)・x (1’)
z=(f/v)・(b−x) (2’)
The above two formulas can be modified as follows.
z = (f / u) · x (1 ′)
z = (f / v) · (b−x) (2 ′)

各パラメータ(f、u、v、b)は予めわかっているため、上記の連立方程式を解くことにより、zおよびxを求めることができる。そして、YZ面についても同様に考えることにより、被写体Ob上の点の三次元座標(x,y,z)を求めることができる。このような処理を、基準個眼の複数の画素を注目画素として行うことで、被写体Ob上の複数の点の三次元座標を求めることができ、これによって、被写体Obの三次元形状を求めることができる。   Since each parameter (f, u, v, b) is known in advance, z and x can be obtained by solving the simultaneous equations. By considering the YZ plane in the same way, the three-dimensional coordinates (x, y, z) of the point on the subject Ob can be obtained. By performing such processing using a plurality of pixels of the reference single eye as a target pixel, it is possible to obtain the three-dimensional coordinates of a plurality of points on the subject Ob, thereby obtaining the three-dimensional shape of the subject Ob. Can do.

(測色部)
次に、撮像装置10の測色部4の詳細について説明する。測色部4は、測距部3にて測定された被写体までの距離と、撮像素子13にて、基準フィルタ(フィルタ12G)を介して撮像された被写体の個眼画像と、基準フィルタ以外のフィルタ(フィルタ12R・12B)を介して撮像された被写体の他の個眼画像とを用いて、基準フィルタ以外のフィルタを透過する波長(例えばRやB)について被写体の測色値を求める。なお、基準フィルタを透過する波長(例えばG)についての被写体の測色値は、基準フィルタを介して撮像素子13(撮像領域13G)にて被写体を撮像したときの画素値をそのまま用いればよい。以下、例として、被写体のBの測色値を求める方法について説明する。
(Colorimetric part)
Next, details of the color measurement unit 4 of the imaging apparatus 10 will be described. The colorimetric unit 4 includes the distance to the subject measured by the distance measuring unit 3, the single-eye image of the subject imaged by the imaging device 13 via the reference filter (filter 12G), and a reference filter other than the reference filter. Using the other single-eye images of the subject imaged through the filters (filters 12R and 12B), a colorimetric value of the subject is obtained for a wavelength (for example, R or B) that passes through a filter other than the reference filter. Note that as the colorimetric value of the subject for the wavelength (for example, G) transmitted through the reference filter, the pixel value when the subject is imaged by the image sensor 13 (imaging region 13G) via the reference filter may be used as it is. Hereinafter, as an example, a method for obtaining the colorimetric value of B of the subject will be described.

まず、測色部4は、測距部3にて測定された被写体上の各点の三次元位置から、基準フィルタであるフィルタ12Gを介して撮像素子13(撮像領域13G)にて撮像された被写体の個眼画像における注目点と、フィルタ12Bを介して撮像された被写体の個眼画像上で対応する対応点を検出する。   First, the color measurement unit 4 is imaged by the image sensor 13 (imaging region 13G) from the three-dimensional position of each point on the subject measured by the distance measurement unit 3 through the filter 12G as a reference filter. A point of interest in the single-eye image of the subject and a corresponding point on the single-eye image of the subject captured through the filter 12B are detected.

すなわち、図8において、フィルタ12Gを介して撮像素子13にて撮像された被写体Obの個眼画像を基準画像とし、フィルタ12Bを介して撮像素子13にて撮像された被写体Obの個眼画像を参照画像とする。測距部3により、被写体Ob上の点の座標(x、y、z)がわかっているので、測色部4は、上述した(1’)(2’)の式から、基準画像における注目点(注目画素)と参照画像上で対応する対応点(対応画素)の位置(対応点の光軸AX2からのずれ量v)を求めることができる。   That is, in FIG. 8, a single-eye image of the subject Ob captured by the image sensor 13 through the filter 12G is used as a reference image, and a single-eye image of the subject Ob captured by the image sensor 13 through the filter 12B is used. A reference image is used. Since the distance measurement unit 3 knows the coordinates (x, y, z) of the point on the subject Ob, the color measurement unit 4 uses the above formulas (1 ′) and (2 ′) to draw attention in the reference image. The position of the corresponding point (corresponding pixel) corresponding to the point (target pixel) on the reference image can be obtained (deviation amount v from the optical axis AX2 of the corresponding point).

上記対応点が求まると、測色部4は、求めた対応点の画素値を、フィルタ12Bを透過する波長(B)についての測色値とする。つまり、図8では、被写体Ob上の点と主点Oとを結ぶ線の延長上の点の画素値が、Bの測色値となる。When the corresponding point is obtained, the colorimetric unit 4 sets the pixel value of the obtained corresponding point as a colorimetric value for the wavelength (B) transmitted through the filter 12B. That is, in FIG. 8, the pixel value of a point on the extension of the line connecting the point and the principal point O 1 on the object Ob, the colorimetric values B.

なお、Rの測色値についても上記と同様にして求めることができる。つまり、基準画像はそのままとし(フィルタ12Gを介して撮像された個眼画像とし)、フィルタ12Rを介して撮像された被写体の個眼画像を参照画像として、上記と同様の処理を行うことにより、Rの測色値を求めることができる。   The colorimetric value of R can be obtained in the same manner as described above. That is, by performing the same processing as described above with the standard image as it is (a single-eye image captured through the filter 12G) and the single-eye image of the subject imaged through the filter 12R as a reference image, A colorimetric value of R can be obtained.

以上のように、本実施形態において、測距部3は、第2の撮像部2で撮像された被写体の単眼画像と、第1の撮像部1で撮像された被写体の個眼画像のうち、第2の撮像部2のフィルタ22と分光特性が同じフィルタ12Gを介して撮像された個眼画像とを用いて、被写体までの距離を測定する。第2の撮像部2は、第1の撮像部の外部に位置しているため、フィルタ12Gに対応する個眼レンズ11Gと、第2の撮像部2の単眼レンズ21との距離(基線長)を、第1の撮像部1における隣り合う個眼レンズ11G・11R間の距離よりも容易に長くできる。基線長が長くなることで、測距精度の精度を向上させることができる。また、個眼レンズ11G・11R間の距離を短くするなど、レンズアレイの設計を変更することなく測距を行うことができるため、レンズアレイの設計変更によるコスト上昇や装置の大型化を回避することもできる。   As described above, in the present embodiment, the distance measuring unit 3 includes the monocular image of the subject imaged by the second imaging unit 2 and the single-eye image of the subject imaged by the first imaging unit 1. The distance to the subject is measured using the filter 22G of the second imaging unit 2 and the single-eye image captured through the filter 12G having the same spectral characteristic. Since the second imaging unit 2 is located outside the first imaging unit, the distance (baseline length) between the monocular lens 11G corresponding to the filter 12G and the monocular lens 21 of the second imaging unit 2 Can be easily made longer than the distance between the adjacent single-lens lenses 11G and 11R in the first imaging unit 1. By increasing the base line length, the accuracy of ranging accuracy can be improved. Further, distance measurement can be performed without changing the design of the lens array, such as shortening the distance between the individual lenses 11G and 11R, thereby avoiding an increase in cost and an increase in size of the apparatus due to a change in the design of the lens array. You can also

特に、図2で示したように、第2の撮像部2は第1の撮像部1と離れて位置していていることで、上記の基線長を確実に長くできるので、測距精度を確実に向上させることができる。   In particular, as shown in FIG. 2, the second imaging unit 2 is located away from the first imaging unit 1, so that the above-described baseline length can be reliably increased, so that the ranging accuracy is ensured. Can be improved.

また、測色部4は、測距部3にて測定された被写体までの距離と、基準フィルタ(フィルタ12G)を介して撮像された個眼画像と、基準フィルタ以外のフィルタ12(フィルタ12R・12B)を介して撮像された他の個眼画像とを用いて、基準フィルタ以外のフィルタ12の透過波長について被写体の測色値を求める。上記した測距精度の向上により、測距誤差が小さくなるため、測定された距離に位置する被写体上の任意の点のBやRの測色の精度を向上させることが可能となる。   The color measurement unit 4 also measures the distance to the subject measured by the distance measurement unit 3, the single-eye image captured through the reference filter (filter 12G), and the filter 12 other than the reference filter (filter 12R • 12B) is used to obtain the colorimetric value of the subject for the transmission wavelength of the filter 12 other than the reference filter, using the other single-eye image captured through 12B). By improving the distance measurement accuracy described above, the distance measurement error is reduced, so that it is possible to improve the accuracy of B and R colorimetry at any point on the subject located at the measured distance.

特に、測距部3は、基準フィルタを介して撮像された個眼画像における注目点と単眼画像上で対応する対応点の探索を、注目点をシフトさせながら行い、上述した関係式から被写体上の各点の三次元位置を測定するので、被写体全体の三次元形状を求めることができる。   In particular, the distance measuring unit 3 searches for the corresponding point on the monocular image corresponding to the attention point in the single-eye image captured through the reference filter while shifting the attention point, Since the three-dimensional position of each point is measured, the three-dimensional shape of the entire subject can be obtained.

また、測色部4は、被写体上の各点の三次元位置から、基準フィルタを介して撮像された個眼画像における注目点と他の個眼画像上で対応する対応点を検出し、対応点の画素値を測色値とするので、基準フィルタ以外のフィルタ12を透過する波長についての測色値を精度高く得ることができる。   In addition, the colorimetric unit 4 detects a corresponding point on the single-eye image captured through the reference filter and a corresponding point on the other single-eye image from the three-dimensional position of each point on the subject. Since the pixel value of the point is a colorimetric value, the colorimetric value for the wavelength transmitted through the filter 12 other than the reference filter can be obtained with high accuracy.

また、測色部4で得られる測色値(RやB)や撮像素子13で得られるGの画像データは、記憶部6を介して出力部7に出力され、出力部7にてRGBのカラー画像が表示される。このとき、RGBの各画像は、被写体上の同じ点を表す画素がRGBで一致するように重ね合わされる必要がある。つまり、撮像素子13の各撮像領域13R・13G・13Bで撮像されるRGBの各画像は視差を持っているため、この視差を補正してRGBの各画像を重ね合わせる必要がある。本実施形態では、測距精度の向上により、Gについて求めた距離の誤差が小さく、その求めた距離を用いてGの注目画素と対応するRおよびBの画素の位置(図8の測色時のv)を精度よく求めることができるため、被写体上の同じ点を表す画素がRGBで一致するように、RGBの各画像を精度よく重ね合わせて、視差補正の精度を向上させることができる。すなわち、基線長(図8のbに相当)が長くなることは、測距精度の向上のみならず、視差補正精度の向上にもつながる。   Further, the colorimetric values (R and B) obtained by the colorimetric unit 4 and the G image data obtained by the imaging device 13 are output to the output unit 7 via the storage unit 6, and the output unit 7 outputs RGB data. A color image is displayed. At this time, the RGB images need to be overlaid so that pixels representing the same point on the subject match in RGB. In other words, since the RGB images captured by the imaging regions 13R, 13G, and 13B of the imaging device 13 have parallax, it is necessary to correct the parallax and superimpose the RGB images. In the present embodiment, the error in the distance obtained for G is small due to the improvement in distance measurement accuracy, and the R and B pixel positions corresponding to the target pixel of G using the obtained distance (at the time of color measurement in FIG. 8). V) can be obtained with high accuracy, so that RGB images can be accurately superimposed so that pixels representing the same point on the subject coincide with each other in RGB, thereby improving the accuracy of parallax correction. That is, an increase in the base line length (corresponding to b in FIG. 8) leads not only to improvement in distance measurement accuracy but also to improvement in parallax correction accuracy.

また、図3で示したように、第1の撮像部1のフィルタ12R・12G・12Bは、互いに離散的な分光特性を有しており、各分光特性にほとんど相関性がない(透過波長に共通する部分が少ない)。各分光特性に相関性を持たせた場合、ある波長範囲(400nm〜700nmの波長域)で測色を行う際に、各分光特性に重なりが生じるため、用いるフィルタ12の数(種類)を増大させる必要があるが、各分光特性が離散的であることにより、用いるフィルタ12の数(種類)を少なくできる。これにより、対応する個眼レンズ11の数(種類)も少なくすることができ、装置の小型化、低コスト化を図ることができる。また、少ない個眼数で測距できるため、1個眼あたりの画素数を増大させて分解能を向上させることもできる。   Further, as shown in FIG. 3, the filters 12R, 12G, and 12B of the first imaging unit 1 have discrete spectral characteristics, and there is almost no correlation between the spectral characteristics (in terms of transmission wavelength). There are few common parts). When correlation is given to each spectral characteristic, an overlap occurs in each spectral characteristic when performing colorimetry in a certain wavelength range (400 nm to 700 nm wavelength range), so the number (type) of filters 12 to be used is increased. Although the spectral characteristics are discrete, the number (types) of the filters 12 to be used can be reduced. As a result, the number (type) of the corresponding single-eye lenses 11 can be reduced, and the apparatus can be reduced in size and cost. In addition, since distance measurement can be performed with a small number of eyes, the resolution can be improved by increasing the number of pixels per eye.

また、各分光特性に相関性を持たせた場合、例えばGのフィルタがG以外にもBの光を透過させることになり、Gの測色の精度が低下するため、被写体の画像を表示するときに色再現性が低下する。しかし、本実施形態では、各分光特性が離散的であるため、各色の測色精度の低下による色再現性の低下を抑えることができる。   Further, when correlation is given to each spectral characteristic, for example, the G filter transmits B light in addition to G, and the accuracy of G colorimetry is lowered, so that an image of the subject is displayed. Sometimes color reproducibility deteriorates. However, in this embodiment, since each spectral characteristic is discrete, it is possible to suppress a decrease in color reproducibility due to a decrease in colorimetric accuracy of each color.

なお、本実施形態では、測色可能な波長帯域を、可視域(400nm〜700nm)としているが、この範囲に限定されるわけではなく、紫外域から近赤外域など、イメージセンサの撮像可能範囲で任意に設定可能である。   In the present embodiment, the wavelength band in which colorimetry can be performed is the visible range (400 nm to 700 nm), but is not limited to this range, and the image sensor imaging range such as the ultraviolet range to the near infrared range. Can be set arbitrarily.

<動作>
図9は、撮像装置10において、測距処理及び測色処理を含む動作の流れを示すフローチャートである。図9及び図2を参照して、本実施形態の撮像装置10の動作について説明する。
<Operation>
FIG. 9 is a flowchart showing a flow of operations including distance measurement processing and color measurement processing in the imaging apparatus 10. With reference to FIG. 9 and FIG. 2, the operation of the imaging apparatus 10 of the present embodiment will be described.

全体制御部5の指示により処理が開始されると、第1の撮像部1の各個眼及び第2の撮像部の単眼による被写体Obの撮像を行い(ステップ10)、撮像画像を出力する(ステップ11)。ステップ11では、具体的に、第1の撮像部1の各撮像領域13R・13G・13B及び第2の撮像部の撮像素子23から、撮像された各画像データ(図2におけるI(R),I(G),I(R))を、測距部3に出力する。When the process is started by an instruction from the overall control unit 5, the subject Ob is imaged by each individual eye of the first imaging unit 1 and the monocular of the second imaging unit (step 10), and a captured image is output (step 10). 11). In step 11, specifically, each image data (I 1 (R) in FIG. 2) captured from each imaging region 13R, 13G, 13B of the first imaging unit 1 and the imaging element 23 of the second imaging unit. , I 1 (G), I 1 (R)) are output to the distance measuring unit 3.

測距部3は、第1の撮像部1の基準フィルタを介して撮像素子13にて撮像された被写体の個眼画像(基準画像。例えば、図2ではフィルタ12Gを介して撮像された画像。)における注目点と、第2の撮像部2の撮像素子23にて撮像された被写体の単眼画像(参照画像。図2ではフィルタ22を介して撮像された画像。)における対応点の探索を、基準画像上の注目点をシフトさせながら行う(ステップ12)。   The distance measuring unit 3 is a single-eye image (reference image of the subject imaged by the image sensor 13 through the reference filter of the first imaging unit 1. For example, an image imaged through the filter 12G in FIG. ) And the corresponding points in the monocular image (reference image, which is imaged through the filter 22 in FIG. 2) of the subject imaged by the imaging device 23 of the second imaging unit 2. This is performed while shifting the point of interest on the reference image (step 12).

測距部3は、上記対応点探索を行った後、被写体Ob上の各点の三次元位置を測定する(ステップ13)。その後、測色部3は、上記の被写体Ob上の各点の三次元位置から、基準フィルタを介して撮像素子13にて撮像された被写体の個眼画像における注目点と、基準フィルタ以外のフィルタ(図2ではフィルタ12B)を介して撮像される他の個眼画像上で対応する対応点を検出し(ステップ14)、求めた対応点の画素値を、基準フィルタ以外を透過する波長(図2では波長B)についての測色値とする(ステップ15)。   After performing the corresponding point search, the distance measuring unit 3 measures the three-dimensional position of each point on the subject Ob (step 13). Thereafter, the colorimetric unit 3 uses the three-dimensional position of each point on the subject Ob as described above, a point of interest in a single-eye image of the subject imaged by the imaging device 13 via the reference filter, and a filter other than the reference filter. Corresponding corresponding points are detected on another single-eye image imaged through (filter 12B in FIG. 2) (step 14), and the pixel values of the obtained corresponding points are transmitted through wavelengths other than the reference filter (FIG. 2 is a colorimetric value for wavelength B) (step 15).

(変形例)
図10は、第1の撮像部1の各フィルタ12の分光特性の他の例を示している。各フィルタ12の透過波長は、RGBには限定されない。例えば、図10の破線の曲線で示すように、各フィルタ12として、透過波長のピークがBのピークよりも短波長側にあるフィルタa1と、透過波長のピークがBのピークとGのピークの間にあるフィルタa2と、透過波長のピークがRの波長域にあるフィルタa3とを組み合わせて用いてもよい。また、第2の撮像部2のフィルタ22としては、フィルタa1・a2・a3のいずれかと同じ分光特性を有するものを用いてもよいが、例えば透過波長のピークがGの波長域にあるフィルタa4を用いてもよい。この場合、フィルタa4に最も分光特性が近いフィルタa2を基準フィルタとすればよい。さらに、各フィルタ12に加えて、赤外光を吸収するIRカットフィルタa5を設けてもよい。このように、必ずしも、各フィルタ12及びフィルタ22は、RGBフィルタに限らない。例えば、フィルタ12としては特殊用途のフィルタを用い、フィルタ22としては、汎用的で低コストのRGBのいずれかのフィルタを用いることができ、かつ、実施の形態1と同等の測距精度、測色精度を得ることができる。
(Modification)
FIG. 10 shows another example of the spectral characteristics of each filter 12 of the first imaging unit 1. The transmission wavelength of each filter 12 is not limited to RGB. For example, as shown by the dashed curve in FIG. 10, each filter 12 includes a filter a1 having a transmission wavelength peak shorter than the B peak, and a transmission wavelength peak having a B peak and a G peak. A filter a2 between them and a filter a3 having a transmission wavelength peak in the R wavelength region may be used in combination. Further, as the filter 22 of the second imaging unit 2, a filter having the same spectral characteristics as any of the filters a1, a2, and a3 may be used. For example, a filter a4 having a transmission wavelength peak in the G wavelength range. May be used. In this case, the filter a2 having the closest spectral characteristic to the filter a4 may be used as the reference filter. Furthermore, in addition to each filter 12, an IR cut filter a5 that absorbs infrared light may be provided. Thus, the filters 12 and 22 are not necessarily limited to RGB filters. For example, a special-purpose filter can be used as the filter 12, and any of general-purpose and low-cost RGB filters can be used as the filter 22, and ranging accuracy and measurement equivalent to those in the first embodiment can be used. Color accuracy can be obtained.

〔実施の形態2〕
本発明の他の実施の形態について、図面に基づいて説明すれば、以下の通りである。
[Embodiment 2]
The following will describe another embodiment of the present invention with reference to the drawings.

図11は、本実施形態の撮像装置10の構成を示す説明図である。本実施形態では、撮像装置10の第1の撮像部1の各フィルタ12として、フィルタ12X・12Y・12Zを用い、第2の撮像部2のフィルタ22として、フィルタ22aを用いている。なお、測距部3での測距および測色部4での測色の方法については、実施の形態1と全く同様である。   FIG. 11 is an explanatory diagram illustrating a configuration of the imaging apparatus 10 according to the present embodiment. In the present embodiment, filters 12X, 12Y, and 12Z are used as the filters 12 of the first imaging unit 1 of the imaging apparatus 10, and a filter 22a is used as the filter 22 of the second imaging unit 2. Note that the distance measurement by the distance measurement unit 3 and the color measurement method by the color measurement unit 4 are exactly the same as those in the first embodiment.

図12は、フィルタ12X・12Y・12Zと、フィルタ22aの分光特性を示している。フィルタ22aは、ベイヤー配列のカラーフィルタであり、2×2の4画素のうち、Rを1画素、Gを2画素、Bを1画素に配置し、これを1セットにして規則的に並べたものである。したがって、撮像素子23は、フィルタ22aを介して被写体を撮像することにより、RGBの画像データをIとして出力する。なお、カラーフィルタの色の配列は、上記のR/G/G/B以外にも、C(シアン)/M(マゼンタ)/Y(イエロー)/Gや、W(白)/Y/R/Ir(赤外)、等であってもよい。一方、撮像素子13は、フィルタ12X・12Y・12Zを介して被写体を撮像することにより、XYZの画像データをI(X)、I(Y)、I(Z)として出力する。FIG. 12 shows the spectral characteristics of the filters 12X, 12Y, and 12Z and the filter 22a. The filter 22a is a color filter with a Bayer arrangement, in which 4 pixels of 2 × 2 are arranged such that R is 1 pixel, G is 2 pixels, and B is 1 pixel, and these are arranged as a set regularly. Is. Therefore, the image pickup device 23, by imaging a subject through the filter 22a, and outputs the RGB image data as I 2. In addition to the above R / G / G / B, the color filter colors may be C (cyan) / M (magenta) / Y (yellow) / G or W (white) / Y / R / Ir (infrared), etc. may be sufficient. On the other hand, the imaging device 13 outputs XYZ image data as I 1 (X), I 1 (Y), and I 1 (Z) by imaging the subject through the filters 12X, 12Y, and 12Z.

上記のように、フィルタ22aは、RGBの光を透過させる分光特性を有しているが、図12より、フィルタ22aのBの分光特性は、フィルタ12Zの分光特性とほぼ同じである。そこで、本実施形態では、フィルタ12X・12Y・12Zのうち、フィルタ12Zを基準フィルタとして用いる。   As described above, the filter 22a has a spectral characteristic that allows RGB light to pass therethrough. From FIG. 12, the B spectral characteristic of the filter 22a is substantially the same as the spectral characteristic of the filter 12Z. Therefore, in this embodiment, the filter 12Z is used as the reference filter among the filters 12X, 12Y, and 12Z.

本実施形態のように、第2の撮像部2のフィルタ22aがRGBの光を透過させる場合でも、そのうちのいずれかの波長(上記の例ではB)についての分光特性が、第1の撮像部1のフィルタ12の基準フィルタ(フィルタ12Z)の分光特性とほぼ同じである。これにより、フィルタ12Zを介して撮像される個眼画像と、フィルタ22aを介して撮像される単眼画像とを用いて、実施の形態1と同様に精度の高い測距および測色を行うことが可能となる。   Even when the filter 22a of the second imaging unit 2 transmits RGB light as in the present embodiment, the spectral characteristics for any one of the wavelengths (B in the above example) are the first imaging unit. The spectral characteristic of the reference filter (filter 12Z) of the first filter 12 is almost the same. Thus, high-precision ranging and colorimetry can be performed using the single-eye image captured through the filter 12Z and the monocular image captured through the filter 22a, as in the first embodiment. It becomes possible.

また、本実施形態の撮像装置10は、実施の形態1の構成に加えて画像生成部8をさらに備えている。画像生成部8は、第2の撮像部2のフィルタ22aを介して撮像素子23にて撮像された被写体の画像から、フィルタ22aの透過波長(本実施形態ではRGBの各波長)について画素を補間して表示用のカラー画像を生成する画像処理部である。このような画像生成部8は、上記の画像処理を行う画像処理回路で構成可能である。画像生成部8にて生成されたカラー画像のデータは、実施の形態1で示した記憶部6に出力され、必要に応じて出力部7にて出力(例えば表示)される。   In addition to the configuration of the first embodiment, the imaging device 10 of the present embodiment further includes an image generation unit 8. The image generation unit 8 interpolates pixels for the transmission wavelengths of the filter 22a (RGB wavelengths in this embodiment) from the image of the subject imaged by the imaging device 23 via the filter 22a of the second imaging unit 2. The image processing unit generates a color image for display. Such an image generation unit 8 can be configured by an image processing circuit that performs the image processing described above. The color image data generated by the image generation unit 8 is output to the storage unit 6 described in the first embodiment, and is output (for example, displayed) by the output unit 7 as necessary.

画像生成部8にて表示用のカラー画像を生成するようにすると、第1の撮像部1にて撮像された画像から表示用のカラー画像を生成しなくても済む。したがって、第1の撮像部1で用いるフィルタ12として、本実施形態のようにXYZフィルタ(フィルタ12X・12Y・12Z)を用いることができる。XYZフィルタを用いることで、測色の分野で一般的なXYZの測色値を求めることができ、便利である。   If the image generation unit 8 generates a display color image, it is not necessary to generate a display color image from the image captured by the first imaging unit 1. Therefore, an XYZ filter (filters 12X, 12Y, and 12Z) can be used as the filter 12 used in the first imaging unit 1 as in the present embodiment. By using the XYZ filter, XYZ colorimetric values common in the field of colorimetry can be obtained, which is convenient.

なお、XYZの各画素ごとの測色値は、記憶部6に記憶される。したがって、出力部7にて被写体のカラー画像をRGBのデータに基づいて表示し、カーソルを画像上の任意の点に合わせたとき、その点でのXYZの測色値を表示させるようにすることもできる。   Note that colorimetric values for each pixel of XYZ are stored in the storage unit 6. Accordingly, the color image of the subject is displayed on the output unit 7 based on the RGB data, and when the cursor is set to an arbitrary point on the image, the XYZ colorimetric values at that point are displayed. You can also.

また、フィルタ12としては、上記のXYZフィルタの代わりに、RGB以外のNB(ナローバンド)フィルタを用いることもできる。しかし、出力部7での表示は、RGBのデータに基づいて行われるため、画像生成部8にて表示用のカラー画像を生成しない場合、NBフィルタを介して撮像される画像からRGBの画像データを得る必要がある。この場合、分光特性のずれたNBフィルタを数種類も用意し、得られるデータを加算してRGBのデータを生成する必要があり、計算量が膨大となる。また、NBフィルタの透過波長の帯域が狭く、表示用のRGBの帯域に満たない場合には、表示用画像の色再現性が低下する場合がある。しかし、本実施形態では、画像生成部8にて表示用の画像(RGBの画像)が生成されるため、第1の撮像部1のフィルタ12として、RGB以外のNBフィルタを用いても、上記の不都合が生じることはない。すなわち、フィルタ12として、NBフィルタを用いることが可能となる。   As the filter 12, an NB (narrow band) filter other than RGB can be used instead of the XYZ filter. However, since the display in the output unit 7 is performed based on the RGB data, when the color image for display is not generated in the image generation unit 8, the RGB image data is obtained from the image captured through the NB filter. Need to get. In this case, it is necessary to prepare several types of NB filters having different spectral characteristics, and to add RGB data to generate RGB data, resulting in an enormous amount of calculation. Further, when the transmission wavelength band of the NB filter is narrow and less than the RGB band for display, the color reproducibility of the display image may deteriorate. However, in the present embodiment, since an image for display (RGB image) is generated by the image generation unit 8, even if an NB filter other than RGB is used as the filter 12 of the first imaging unit 1, The inconvenience does not occur. That is, an NB filter can be used as the filter 12.

以上の各実施の形態で説明した撮像装置は、以下のように表現することができ、これによって以下の作用効果を奏する。   The imaging device described in each of the above embodiments can be expressed as follows, and thereby has the following effects.

上記の撮像装置は、被写体を撮像する第1の撮像部と、前記被写体を撮像する第2の撮像部と、前記第1の撮像部および前記第2の撮像部にて撮像された前記被写体の各画像を用いて、前記被写体までの距離を測定する測距部と、前記測距部にて測定された前記距離を用いて、前記被写体の測色値を求める測色部とを備え、前記第1の撮像部は、光軸と垂直な方向に並んで配置され、同一の視野を持つ複数の第1の撮像光学系と、前記複数の第1の撮像光学系と対応して配置され、複数の分光特性を有する複数の第1の光学フィルタと、対応する位置関係にある前記第1の撮像光学系および前記第1の光学フィルタを介して前記被写体を撮像する複数の撮像領域を有する第1の撮像素子とを含んでおり、前記第2の撮像部は、第2の撮像光学系および第2の光学フィルタと、前記第2の撮像光学系および前記第2の光学フィルタを介して前記被写体を撮像する第2の撮像素子とを有しており、前記第2の撮像部は、前記第1の撮像部の外部に位置しており、前記第2の光学フィルタは、前記複数の第1の光学フィルタのいずれかを基準フィルタとして、その基準フィルタとほぼ同じ分光特性を有しており、前記測距部は、前記第2の撮像素子にて撮像された前記被写体の単眼画像と、前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像とを用いて、前記被写体までの距離を測定し、前記測色部は、前記測距部にて測定された前記距離と、前記第1の撮像素子にて、前記基準フィルタを介して撮像された前記被写体の前記個眼画像と、前記基準フィルタ以外の第1の光学フィルタを介して撮像された前記被写体の他の個眼画像とを用いて、前記基準フィルタ以外の前記第1の光学フィルタを透過する波長について前記被写体の測色値を求める。   The imaging apparatus includes a first imaging unit that images a subject, a second imaging unit that images the subject, the first imaging unit, and the second imaging unit. A distance measuring unit that measures the distance to the subject using each image, and a color measuring unit that obtains a colorimetric value of the subject using the distance measured by the distance measuring unit, The first imaging unit is arranged side by side in a direction perpendicular to the optical axis, and is arranged corresponding to the plurality of first imaging optical systems having the same field of view, and the plurality of first imaging optical systems, A plurality of first optical filters having a plurality of spectral characteristics, a first imaging optical system having a corresponding positional relationship, and a plurality of imaging regions for imaging the subject through the first optical filter. And the second imaging unit includes a second imaging optical unit. And a second optical filter, a second imaging element that images the subject via the second imaging optical system and the second optical filter, and the second imaging unit includes: The second optical filter is located outside the first imaging unit, and has one of the plurality of first optical filters as a reference filter and has substantially the same spectral characteristics as the reference filter. And the ranging unit includes a monocular image of the subject imaged by the second image sensor, and a single-eye image of the subject imaged by the first image sensor via the reference filter. The distance to the subject is measured using the colorimetric unit, and the colorimetric unit captures the distance measured by the distance measuring unit and the first image sensor through the reference filter. The single eye image of the subject and the reference film A colorimetric value of the subject is obtained for a wavelength that passes through the first optical filter other than the reference filter, using another single-eye image of the subject imaged through a first optical filter other than .

測距部は、第2の撮像光学系および第2の光学フィルタを介して第2の撮像素子にて撮像された被写体の画像(単眼画像)と、基準フィルタを介して第1の撮像素子にて撮像された被写体の画像(個眼画像)とを用いて、つまり、ほぼ同じ分光特性を持つ光学フィルタを介して撮像された各画像を用いて、被写体までの距離を測定する。このとき、第1の撮像部の外部に第2の撮像部が位置しているので、第1の撮像部の基準フィルタに対応する第1の撮像光学系と、第2の撮像部の第2の撮像光学系との距離(基線長)を、例えば第1の撮像部における各第1の撮像光学系同士の距離よりも長く確保することが可能となる。これにより、測距精度を向上させることができる。また、各第1の撮像光学系同士の距離を変更する(例えば短くする)ことなく測距を行うことができるので、設計変更(各第1の撮像光学系の配置位置の変更)によるコスト上昇を回避することもできる。さらに、2つの第1の撮像光学系間の距離を長くすることなく、測距精度を向上させることができるため、装置の小型化を図ることが可能となる。   The distance measuring unit applies an image of a subject (monocular image) captured by the second image sensor via the second imaging optical system and the second optical filter, and the first image sensor via the reference filter. The distance to the subject is measured using the image of the subject (single-eye image) captured in this manner, that is, using each image captured through optical filters having substantially the same spectral characteristics. At this time, since the second imaging unit is located outside the first imaging unit, the first imaging optical system corresponding to the reference filter of the first imaging unit, and the second of the second imaging unit. It is possible to ensure a distance (baseline length) to the imaging optical system longer than the distance between the first imaging optical systems in the first imaging unit, for example. Thereby, ranging accuracy can be improved. Further, since it is possible to perform distance measurement without changing (for example, shortening) the distance between the first imaging optical systems, the cost increases due to the design change (change in the arrangement position of each first imaging optical system). Can also be avoided. Further, since the distance measurement accuracy can be improved without increasing the distance between the two first imaging optical systems, the apparatus can be downsized.

また、測色部は、測距部にて測定された被写体までの距離と、基準フィルタを介して第1の撮像素子にて撮像された被写体の個眼画像と、基準フィルタ以外の第1の光学フィルタを介して第1の撮像素子にて撮像された被写体の他の個眼画像とを用いて、基準フィルタ以外の第1の光学フィルタを透過する波長について被写体の測色値を求める。上記した測距精度の向上により、測定した距離の誤差が小さくなるため、その距離と複数の個眼画像とを用いて行われる被写体の測色の精度を向上させることができる。   In addition, the color measurement unit includes the distance to the subject measured by the distance measurement unit, the single-eye image of the subject imaged by the first image sensor via the reference filter, and the first other than the reference filter. A colorimetric value of the subject is obtained for a wavelength that passes through the first optical filter other than the reference filter, using another single-eye image of the subject imaged by the first image sensor via the optical filter. Since the error in the measured distance is reduced due to the improvement in the distance measurement accuracy described above, the accuracy of the color measurement of the subject performed using the distance and a plurality of single-eye images can be improved.

前記測距部は、前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像における注目点と前記単眼画像上で対応する対応点の探索を、前記注目点をシフトさせながら行い、前記基準フィルタと対応した位置関係にある第1の撮像光学系と、前記第2の撮像光学系との距離と、前記第1の撮像光学系および前記第2の撮像光学系の各焦点距離と、前記第1の撮像光学系の光軸から前記第1の撮像素子における前記注目点に対応する画素までの距離と、前記第2の撮像光学系の光軸から前記第2の撮像素子における前記対応点に対応する画素までの距離とに基づいて、前記被写体上の各点の三次元位置を測定してもよい。   The distance measuring unit searches the attention point in the monocular image of the subject captured by the first imaging element via the reference filter and the corresponding point corresponding to the monocular image, and uses the attention point as a search point. The distance between the first imaging optical system and the second imaging optical system, which are performed while being shifted and have a positional relationship corresponding to the reference filter, the first imaging optical system, and the second imaging optical system , The distance from the optical axis of the first imaging optical system to the pixel corresponding to the point of interest in the first imaging element, and the second from the optical axis of the second imaging optical system. The three-dimensional position of each point on the subject may be measured based on the distance to the pixel corresponding to the corresponding point in the image sensor.

測距部により被写体上の各点の三次元位置が求まるので、撮像装置から被写体上の各点までの距離のみならず、被写体の三次元形状を測定することができる。   Since the three-dimensional position of each point on the subject is obtained by the distance measuring unit, not only the distance from the imaging device to each point on the subject but also the three-dimensional shape of the subject can be measured.

前記測色部は、前記測距部にて測定された前記被写体上の各点の三次元位置から、前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像における注目点と、前記他の個眼画像上で対応する対応点を検出し、前記対応点の画素値を、前記基準フィルタ以外の第1の光学フィルタを透過する波長についての測色値としてもよい。   The colorimetric unit is a monocular image of the subject imaged by the first image sensor via the reference filter from a three-dimensional position of each point on the subject measured by the distance measuring unit. And a corresponding point corresponding to the other single-eye image is detected, and the pixel value of the corresponding point is used as a colorimetric value for a wavelength that passes through the first optical filter other than the reference filter. Good.

この場合、第1の撮像素子にて得られる各個眼画像から、基準フィルタ以外の第1の光学フィルタを透過する波長についての測色値を確実に得ることができる。   In this case, a colorimetric value for a wavelength that passes through the first optical filter other than the reference filter can be reliably obtained from each single-eye image obtained by the first image sensor.

前記複数の第1の光学フィルタは、互いに離散的な分光特性を有していることが望ましい。各第1の光学フィルタの分光特性がほとんど相関性を持たないようにする、つまり、透過波長に共通性をほとんど持たないようにすることにより、ある波長域(例えば400nm〜700nmの波長域)を測色するにあたって、用いる第1の光学フィルタの数を少なくすることができる。これにより、用いる第1の撮像光学系の数も少なくすることができ、装置の小型化を図ることが可能となる。   It is desirable that the plurality of first optical filters have discrete spectral characteristics. A certain wavelength range (for example, a wavelength range of 400 nm to 700 nm) is obtained by making the spectral characteristics of each first optical filter have little correlation, that is, making the transmission wavelength have little commonality. In the color measurement, the number of first optical filters to be used can be reduced. As a result, the number of first imaging optical systems to be used can be reduced, and the apparatus can be miniaturized.

前記第2の光学フィルタは、赤、緑、青の波長の光を透過させる分光特性を有しており、そのうちのいずれかの波長についての分光特性が、前記基準フィルタの分光特性とほぼ同じであってもよい。   The second optical filter has a spectral characteristic that transmits light of red, green, and blue wavelengths, and the spectral characteristic for any one of the wavelengths is substantially the same as the spectral characteristic of the reference filter. There may be.

第2の光学フィルタがRGBの光を透過させる場合でも、そのうちのいずれかの波長についての分光特性が、第1の光学フィルタの基準フィルタの分光特性とほぼ同じであるので、測距精度や測色の精度を向上させることができる。   Even when the second optical filter transmits RGB light, the spectral characteristics of any one of the wavelengths are almost the same as the spectral characteristics of the reference filter of the first optical filter. Color accuracy can be improved.

上記の撮像装置は、前記第2の光学フィルタを介して前記第2の撮像素子にて撮像された前記被写体の画像から、前記各波長について画素を補間して表示用のカラー画像を生成する画像生成部をさらに備えていてもよい。   The image pickup apparatus generates a color image for display by interpolating pixels for each wavelength from the image of the subject picked up by the second image pickup element via the second optical filter. You may further provide the production | generation part.

この場合、画像生成部にて、第2の撮像素子にて撮像された画像から表示用のカラー画像が生成されるため、第1の撮像部にて撮像された画像から表示用のカラー画像を生成しなくても済む。このため、第1の撮像部で用いる第1の光学フィルタとして、第2の光学フィルタとは異なる分光特性を持つフィルタを用いることができる。したがって、例えば第1の光学フィルタとして、XYZフィルタを用いれば、測色の分野で一般的なXYZの測色値を求めることが可能となる。   In this case, since the color image for display is generated from the image captured by the second image sensor in the image generation unit, the color image for display is generated from the image captured by the first image capture unit. It does not have to be generated. For this reason, a filter having spectral characteristics different from those of the second optical filter can be used as the first optical filter used in the first imaging unit. Therefore, for example, if an XYZ filter is used as the first optical filter, XYZ colorimetric values common in the field of colorimetry can be obtained.

前記第2の撮像素子の画素数と前記第2の撮像光学系の焦点距離とで決まる前記第2の撮像部の空間分解能は、前記第1の撮像素子の画素数と前記第1の撮像光学系の焦点距離とで決まる前記第1の撮像部の各個眼の空間分解能とほぼ同じであることが望ましい。   The spatial resolution of the second imaging unit determined by the number of pixels of the second imaging element and the focal length of the second imaging optical system is the number of pixels of the first imaging element and the first imaging optics. It is desirable that the spatial resolution of each individual eye of the first imaging unit determined by the focal length of the system is substantially the same.

第1の撮像部と第2の撮像部とで空間分解能が異なると、測距や測色の精度は、空間分解能が粗い側に律速されるため、空間分解能の相違による測距精度等の低下を回避することができる。   If the first imaging unit and the second imaging unit have different spatial resolutions, the accuracy of distance measurement and colorimetry is rate-determined to the side where the spatial resolution is coarse, so that the accuracy of distance measurement and the like decreases due to the difference in spatial resolution. Can be avoided.

上記の撮像装置は、前記第2の撮像部にて撮像される前記被写体の単眼画像と、前記第1の撮像部にて前記基準フィルタを介して撮像される前記被写体の個眼画像とがほぼ同じ明るさとなるように、前記第2の撮像部および前記第1の撮像部における露光を制御する露光制御部をさらに備えていてもよい。   In the imaging apparatus, the monocular image of the subject imaged by the second imaging unit and the monocular image of the subject imaged by the first imaging unit via the reference filter are approximately You may further provide the exposure control part which controls the exposure in a said 2nd imaging part and a said 1st imaging part so that it may become the same brightness.

第2の撮像部で撮像される被写体の単眼画像と、第1の撮像部で撮像される被写体の個眼画像とで明るさが異なると、これらの画像を用いた測距や測色の精度が低下するため、明るさに起因する測距精度等の低下を回避することができる。   If the brightness of the monocular image of the subject imaged by the second imaging unit is different from that of the monocular image of the subject imaged by the first imaging unit, the accuracy of distance measurement and colorimetry using these images Therefore, it is possible to avoid a decrease in distance measurement accuracy and the like due to brightness.

前記第2の撮像部は、前記第1の撮像部とは離れて位置していてもよい。この場合、第1の撮像部の基準フィルタに対応する第1の撮像光学系と、第2の撮像部の第2の撮像光学系との距離(基線長)を確実に長くして、測距精度等を確実に向上させることができる。   The second imaging unit may be located away from the first imaging unit. In this case, the distance (baseline length) between the first imaging optical system corresponding to the reference filter of the first imaging unit and the second imaging optical system of the second imaging unit is surely increased to measure the distance. Accuracy and the like can be improved reliably.

また、以上の各実施の形態で説明した被写体の測色方法は、以下のように表現することができ、これによって上述した撮像装置によって得られる効果と同様の効果を得ることができる。   In addition, the subject colorimetry method described in each of the above embodiments can be expressed as follows, and thereby, the same effect as that obtained by the imaging apparatus described above can be obtained.

以上で説明した被写体の測色方法は、所望の被写体を撮像する第1の撮像部であって、光軸と垂直な方向に並んで配置され、同一の視野を持ち前記被写体の像をそれぞれ形成する複数の第1の撮像光学系と、前記複数の第1の撮像光学系と対応して配置され、複数の分光特性を有する複数の第1の光学フィルタと、対応する位置関係にある前記第1の撮像光学系および前記第1の光学フィルタを介して形成された前記被写体の像をそれぞれ撮像する複数の撮像領域を有する第1の撮像素子とを含む、前記第1の撮像部を備えた撮像装置を用いた、被写体の測色値を求める測色方法であって、前記撮像装置はさらに、前記第1の撮像部の外部に位置する第2の撮像部であって、前記被写体の像を形成する第2の撮像光学系および第2の光学フィルタと、前記第2の撮像光学系および前記第2の光学フィルタを介して形成された前記被写体の像を撮像する第2の撮像素子とを有しており、前記第2の光学フィルタが、前記複数の第1の光学フィルタのいずれかを基準フィルタとして、その基準フィルタとほぼ同じ分光特性を有している前記第2の撮像部を備えており、前記測色方法は、前記第2の撮像素子にて撮像された前記被写体の単眼画像と、前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像とを用いて、前記被写体までの距離を測定する工程(ステップ12、ステップ13)と、測定された前記距離と、前記第1の撮像素子にて、前記基準フィルタを介して撮像された前記被写体の前記個眼画像と、前記基準フィルタ以外の第1の光学フィルタを介して撮像された前記被写体の他の個眼画像とを用いて、前記基準フィルタ以外の前記第1の光学フィルタを透過する波長について前記被写体の測色値を求める工程(ステップ14、ステップ15)とを有している。   The subject colorimetric method described above is a first imaging unit that captures a desired subject, and is arranged side by side in a direction perpendicular to the optical axis, and forms an image of the subject with the same field of view. A plurality of first imaging optical systems, and a plurality of first optical filters arranged corresponding to the plurality of first imaging optical systems and having a plurality of spectral characteristics, and in a corresponding positional relationship. And a first image pickup device having a plurality of image pickup areas for picking up images of the subject formed through the first image pickup optical system and the first optical filter. A colorimetric method for obtaining a colorimetric value of a subject using an imaging device, wherein the imaging device is further a second imaging unit located outside the first imaging unit, the image of the subject A second imaging optical system and a second optical film And a second imaging element that captures an image of the subject formed through the second imaging optical system and the second optical filter, and the second optical filter includes: One of the plurality of first optical filters is used as a reference filter, and the second imaging unit having substantially the same spectral characteristics as the reference filter is provided, and the color measurement method includes the second color filter. A distance to the subject is measured using a monocular image of the subject imaged by the imaging device and a single-eye image of the subject imaged by the first imaging device via the reference filter. A step (steps 12 and 13), the measured distance, the single-eye image of the subject imaged through the reference filter by the first image sensor, and a number other than the reference filter; 1 optical filter A step of obtaining a colorimetric value of the subject with respect to a wavelength that passes through the first optical filter other than the reference filter using another single-eye image of the subject imaged via the step (steps 14 and 15). And have.

前記被写体までの距離を測定する工程では、前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像における注目点と前記単眼画像上で対応する対応点の探索を、前記注目点をシフトさせながら行い(ステップ12)、前記基準フィルタと対応した位置関係にある第1の撮像光学系と、前記第2の撮像光学系との距離と、前記第1の撮像光学系および前記第2の撮像光学系の各焦点距離と、前記第1の撮像光学系の光軸から前記第1の撮像素子における前記注目点に対応する画素までの距離と、前記第2の撮像光学系の光軸から前記第2の撮像素子における前記対応点に対応する画素までの距離とに基づいて、前記被写体上の各点の三次元位置を測定することにより、前記被写体までの距離を測定してもよい(ステップ13)。   In the step of measuring the distance to the subject, a search for a corresponding point on the monocular image of the subject imaged by the first imaging element via the reference filter and a corresponding point corresponding to the monocular image is performed. , While shifting the point of interest (step 12), the distance between the first imaging optical system and the second imaging optical system in a positional relationship corresponding to the reference filter, and the first imaging optical System, the focal length of the second imaging optical system, the distance from the optical axis of the first imaging optical system to the pixel corresponding to the point of interest in the first imaging device, and the second imaging The distance to the subject is determined by measuring the three-dimensional position of each point on the subject based on the distance from the optical axis of the optical system to the pixel corresponding to the corresponding point in the second image sensor. May be measured -Up 13).

前記被写体の測色値を求める工程では、前記測距部にて測定された前記被写体上の各点の三次元位置から、前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像における注目点と、前記他の個眼画像上で対応する対応点を検出し(ステップ14)、前記対応点の画素値を、前記基準フィルタ以外の第1の光学フィルタを透過する波長についての測色値としてもよい(ステップ15)。   In the step of obtaining the colorimetric value of the subject, the image picked up by the first image sensor through the reference filter from the three-dimensional position of each point on the subject measured by the distance measuring unit. A point of interest in the single eye image of the subject and a corresponding point corresponding to the other single eye image are detected (step 14), and the pixel value of the corresponding point is transmitted through the first optical filter other than the reference filter. A colorimetric value for the wavelength to be used may be used (step 15).

本発明の撮像装置は、例えば被写体の三次元形状の測定や、美容や医療分野での分光イメージングに利用可能である。   The imaging apparatus of the present invention can be used for, for example, measuring a three-dimensional shape of a subject, and spectral imaging in the beauty and medical fields.

1 第1の撮像部
2 第2の撮像部
3 測距部
4 測色部
5 全体制御部(露光制御部)
8 画像生成部
10 撮像装置
11、11R、11G、11B 個眼レンズ(第1の撮像光学系)
12、12R、12G、12B、12X、12Y、12Z フィルタ(第1の光学フィルタ)
13 撮像素子(第1の撮像素子)
13R、13G、13B 撮像領域
21 単眼レンズ(第2の撮像光学系)
22、22a フィルタ(第2の光学フィルタ)
23 撮像素子(第2の撮像素子)
DESCRIPTION OF SYMBOLS 1 1st imaging part 2 2nd imaging part 3 Distance measuring part 4 Color measuring part 5 Overall control part (exposure control part)
8 Image generation unit 10 Imaging device 11, 11R, 11G, 11B Single lens (first imaging optical system)
12, 12R, 12G, 12B, 12X, 12Y, 12Z filter (first optical filter)
13 Image sensor (first image sensor)
13R, 13G, 13B Imaging region 21 Monocular lens (second imaging optical system)
22, 22a filter (second optical filter)
23 Image sensor (second image sensor)

Claims (12)

被写体を撮像する第1の撮像部と、
前記被写体を撮像する第2の撮像部と、
前記第1の撮像部および前記第2の撮像部にて撮像された前記被写体の各画像を用いて、前記被写体までの距離を測定する測距部と、
前記測距部にて測定された前記距離を用いて、前記被写体の測色値を求める測色部とを備え、
前記第1の撮像部は、
光軸と垂直な方向に並んで配置され、同一の視野を持つ複数の第1の撮像光学系と、
前記複数の第1の撮像光学系と対応して配置され、複数の分光特性を有する複数の第1の光学フィルタと、
対応する位置関係にある前記第1の撮像光学系および前記第1の光学フィルタを介して前記被写体を撮像する複数の撮像領域を有する第1の撮像素子とを含んでおり、
前記第2の撮像部は、
第2の撮像光学系および第2の光学フィルタと、
前記第2の撮像光学系および前記第2の光学フィルタを介して前記被写体を撮像する第2の撮像素子とを有しており、
前記第2の撮像部は、前記第1の撮像部の外部に位置しており、
前記第2の光学フィルタは、前記複数の第1の光学フィルタのいずれかを基準フィルタとして、その基準フィルタとほぼ同じ分光特性を有しており、
前記測距部は、前記第2の撮像素子にて撮像された前記被写体の単眼画像と、前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像とを用いて、前記被写体までの距離を測定し、
前記測色部は、前記測距部にて測定された前記距離と、前記第1の撮像素子にて、前記基準フィルタを介して撮像された前記被写体の前記個眼画像と、前記基準フィルタ以外の第1の光学フィルタを介して撮像された前記被写体の他の個眼画像とを用いて、前記基準フィルタ以外の前記第1の光学フィルタを透過する波長について前記被写体の測色値を求めることを特徴とする撮像装置。
A first imaging unit that images a subject;
A second imaging unit that images the subject;
A distance measuring unit that measures a distance to the subject using each image of the subject imaged by the first imaging unit and the second imaging unit;
A colorimetric unit that obtains a colorimetric value of the subject using the distance measured by the distance measuring unit;
The first imaging unit includes:
A plurality of first imaging optical systems arranged in a direction perpendicular to the optical axis and having the same field of view;
A plurality of first optical filters arranged corresponding to the plurality of first imaging optical systems and having a plurality of spectral characteristics;
A first imaging device having a plurality of imaging regions for imaging the subject via the first imaging optical system and the first optical filter that are in a corresponding positional relationship,
The second imaging unit includes:
A second imaging optical system and a second optical filter;
A second imaging element that images the subject through the second imaging optical system and the second optical filter;
The second imaging unit is located outside the first imaging unit,
The second optical filter has one of the plurality of first optical filters as a reference filter and has substantially the same spectral characteristics as the reference filter,
The distance measuring unit uses a monocular image of the subject imaged by the second image sensor and a single-eye image of the subject imaged by the first image sensor via the reference filter. Measure the distance to the subject,
The color measurement unit includes the distance measured by the distance measurement unit, the single-eye image of the subject imaged by the first image sensor via the reference filter, and other than the reference filter. A colorimetric value of the subject is obtained for a wavelength that passes through the first optical filter other than the reference filter, using another single-eye image of the subject imaged through the first optical filter. An imaging apparatus characterized by the above.
前記測距部は、前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像における注目点と前記単眼画像上で対応する対応点の探索を、前記注目点をシフトさせながら行い、前記基準フィルタと対応した位置関係にある第1の撮像光学系と、前記第2の撮像光学系との距離と、前記第1の撮像光学系および前記第2の撮像光学系の各焦点距離と、前記第1の撮像光学系の光軸から前記第1の撮像素子における前記注目点に対応する画素までの距離と、前記第2の撮像光学系の光軸から前記第2の撮像素子における前記対応点に対応する画素までの距離とに基づいて、前記被写体上の各点の三次元位置を測定することを特徴とする請求項1に記載の撮像装置。   The distance measuring unit searches the attention point in the monocular image of the subject captured by the first imaging element via the reference filter and the corresponding point corresponding to the monocular image, and uses the attention point as a search point. The distance between the first imaging optical system and the second imaging optical system, which are performed while being shifted and have a positional relationship corresponding to the reference filter, the first imaging optical system, and the second imaging optical system , The distance from the optical axis of the first imaging optical system to the pixel corresponding to the point of interest in the first imaging element, and the second from the optical axis of the second imaging optical system. The imaging apparatus according to claim 1, wherein a three-dimensional position of each point on the subject is measured based on a distance to a pixel corresponding to the corresponding point in the imaging element. 前記測色部は、前記測距部にて測定された前記被写体上の各点の三次元位置から、前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像における注目点と、前記他の個眼画像上で対応する対応点を検出し、前記対応点の画素値を、前記基準フィルタ以外の第1の光学フィルタを透過する波長についての測色値とすることを特徴とする請求項2に記載の撮像装置。   The colorimetric unit is a monocular image of the subject imaged by the first image sensor via the reference filter from a three-dimensional position of each point on the subject measured by the distance measuring unit. And a corresponding point corresponding to the other single-eye image is detected, and a pixel value of the corresponding point is set as a colorimetric value for a wavelength that passes through the first optical filter other than the reference filter. The imaging apparatus according to claim 2. 前記複数の第1の光学フィルタは、互いに離散的な分光特性を有していることを特徴とする請求項1から3のいずれかに記載の撮像装置。   The imaging apparatus according to claim 1, wherein the plurality of first optical filters have discrete spectral characteristics. 前記第2の光学フィルタは、赤、緑、青の波長の光を透過させる分光特性を有しており、そのうちのいずれかの波長についての分光特性が、前記基準フィルタの分光特性とほぼ同じであることを特徴とする請求項1から4のいずれかに記載の撮像装置。   The second optical filter has a spectral characteristic that transmits light of red, green, and blue wavelengths, and the spectral characteristic for any one of the wavelengths is substantially the same as the spectral characteristic of the reference filter. The imaging apparatus according to claim 1, wherein the imaging apparatus is provided. 前記第2の光学フィルタを介して前記第2の撮像素子にて撮像された前記被写体の画像から、前記各波長について画素を補間して表示用のカラー画像を生成する画像生成部をさらに備えていることを特徴とする請求項5に記載の撮像装置。   An image generation unit that generates a color image for display by interpolating pixels for each wavelength from the image of the subject imaged by the second imaging element via the second optical filter; The imaging apparatus according to claim 5, wherein 前記第2の撮像素子の画素数と前記第2の撮像光学系の焦点距離とで決まる前記第2の撮像部の空間分解能は、前記第1の撮像素子の画素数と前記第1の撮像光学系の焦点距離とで決まる前記第1の撮像部の各個眼の空間分解能とほぼ同じであることを特徴とする請求項1から6のいずれかに記載の撮像装置。   The spatial resolution of the second imaging unit determined by the number of pixels of the second imaging element and the focal length of the second imaging optical system is the number of pixels of the first imaging element and the first imaging optics. The imaging apparatus according to claim 1, wherein the imaging apparatus has substantially the same spatial resolution as each individual eye of the first imaging unit determined by a focal length of the system. 前記第2の撮像部にて撮像される前記被写体の単眼画像と、前記第1の撮像部にて前記基準フィルタを介して撮像される前記被写体の個眼画像とがほぼ同じ明るさとなるように、前記第2の撮像部および前記第1の撮像部における露光を制御する露光制御部をさらに備えていることを特徴とする請求項1から7のいずれかに記載の撮像装置。   The monocular image of the subject imaged by the second imaging unit and the monocular image of the subject imaged by the first imaging unit via the reference filter have substantially the same brightness. The imaging apparatus according to claim 1, further comprising an exposure control unit that controls exposure in the second imaging unit and the first imaging unit. 前記第2の撮像部は、前記第1の撮像部とは離れて位置していることを特徴とする請求項1から8のいずれかに記載の撮像装置。   The imaging apparatus according to claim 1, wherein the second imaging unit is located away from the first imaging unit. 所望の被写体を撮像する第1の撮像部であって、
光軸と垂直な方向に並んで配置され、同一の視野を持ち前記被写体の像をそれぞれ形成する複数の第1の撮像光学系と、
前記複数の第1の撮像光学系と対応して配置され、複数の分光特性を有する複数の第1の光学フィルタと、
対応する位置関係にある前記第1の撮像光学系および前記第1の光学フィルタを介して形成された前記被写体の像をそれぞれ撮像する複数の撮像領域を有する第1の撮像素子とを含む、前記第1の撮像部を備えた撮像装置を用いた、被写体の測色値を求める測色方法であって、
前記撮像装置はさらに、
前記第1の撮像部の外部に位置する第2の撮像部であって、
前記被写体の像を形成する第2の撮像光学系および第2の光学フィルタと、
前記第2の撮像光学系および前記第2の光学フィルタを介して形成された前記被写体の像を撮像する第2の撮像素子とを有しており、前記第2の光学フィルタが、前記複数の第1の光学フィルタのいずれかを基準フィルタとして、その基準フィルタとほぼ同じ分光特性を有している前記第2の撮像部を備えており、
前記測色方法は、
前記第2の撮像素子にて撮像された前記被写体の単眼画像と、前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像とを用いて、前記被写体までの距離を測定する工程と、
測定された前記距離と、前記第1の撮像素子にて、前記基準フィルタを介して撮像された前記被写体の前記個眼画像と、前記基準フィルタ以外の第1の光学フィルタを介して撮像された前記被写体の他の個眼画像とを用いて、前記基準フィルタ以外の前記第1の光学フィルタを透過する波長について前記被写体の測色値を求める工程とを有していることを特徴とする、被写体の測色方法。
A first imaging unit that images a desired subject,
A plurality of first imaging optical systems that are arranged side by side in a direction perpendicular to the optical axis, each having the same field of view and forming an image of the subject;
A plurality of first optical filters arranged corresponding to the plurality of first imaging optical systems and having a plurality of spectral characteristics;
A first imaging device having a plurality of imaging regions that respectively capture images of the subject formed through the first imaging optical system and the first optical filter in a corresponding positional relationship, A colorimetry method for obtaining a colorimetric value of a subject using an image pickup apparatus including a first image pickup unit,
The imaging device further includes
A second imaging unit located outside the first imaging unit,
A second imaging optical system and a second optical filter for forming an image of the subject;
A second imaging device that captures an image of the subject formed through the second imaging optical system and the second optical filter, and the second optical filter includes the plurality of Including any one of the first optical filters as a reference filter, the second imaging unit having substantially the same spectral characteristics as the reference filter;
The colorimetric method is:
Using the monocular image of the subject imaged by the second image sensor and the single-eye image of the subject imaged by the first image sensor via the reference filter, Measuring the distance;
The measured distance, the single-eye image of the subject imaged through the reference filter, and the first image sensor, imaged through the first optical filter other than the reference filter. A step of obtaining a colorimetric value of the subject for a wavelength that passes through the first optical filter other than the reference filter using another single-eye image of the subject. The colorimetric method of the subject.
前記被写体までの距離を測定する工程では、
前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像における注目点と前記単眼画像上で対応する対応点の探索を、前記注目点をシフトさせながら行い、前記基準フィルタと対応した位置関係にある第1の撮像光学系と、前記第2の撮像光学系との距離と、前記第1の撮像光学系および前記第2の撮像光学系の各焦点距離と、前記第1の撮像光学系の光軸から前記第1の撮像素子における前記注目点に対応する画素までの距離と、前記第2の撮像光学系の光軸から前記第2の撮像素子における前記対応点に対応する画素までの距離とに基づいて、前記被写体上の各点の三次元位置を測定することにより、前記被写体までの距離を測定する、請求項10に記載の被写体の測色方法。
In the step of measuring the distance to the subject,
Searching for the corresponding point on the monocular image of the subject imaged by the first image sensor through the reference filter and corresponding points on the monocular image while shifting the target point, A distance between the first imaging optical system and the second imaging optical system that are in a positional relationship corresponding to a reference filter; and focal lengths of the first imaging optical system and the second imaging optical system; The distance from the optical axis of the first imaging optical system to the pixel corresponding to the point of interest in the first imaging element, and the correspondence in the second imaging element from the optical axis of the second imaging optical system The subject colorimetric method according to claim 10, wherein the distance to the subject is measured by measuring a three-dimensional position of each point on the subject based on the distance to the pixel corresponding to the point.
前記被写体の測色値を求める工程では、
前記被写体までの距離を測定する工程において測定された前記被写体上の各点の三次元位置から、前記基準フィルタを介して前記第1の撮像素子にて撮像された前記被写体の個眼画像における注目点と、前記他の個眼画像上で対応する対応点を検出し、前記対応点の画素値を、前記基準フィルタ以外の第1の光学フィルタを透過する波長についての測色値とする、請求項11に記載の被写体の測色方法。
In the step of obtaining the colorimetric value of the subject,
Attention in the single-eye image of the subject imaged by the first image sensor through the reference filter from the three-dimensional position of each point on the subject measured in the step of measuring the distance to the subject A point and a corresponding point corresponding to the other single-eye image are detected, and a pixel value of the corresponding point is set as a colorimetric value for a wavelength that passes through a first optical filter other than the reference filter. Item 12. A colorimetric method for a subject according to Item 11.
JP2015547191A 2014-05-28 2015-05-20 Imaging apparatus and colorimetric method Expired - Fee Related JP5896090B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015547191A JP5896090B1 (en) 2014-05-28 2015-05-20 Imaging apparatus and colorimetric method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2014109874 2014-05-28
JP2014109874 2014-05-28
JP2015547191A JP5896090B1 (en) 2014-05-28 2015-05-20 Imaging apparatus and colorimetric method
PCT/JP2015/064420 WO2015182447A1 (en) 2014-05-28 2015-05-20 Imaging device and color measurement method

Publications (2)

Publication Number Publication Date
JP5896090B1 true JP5896090B1 (en) 2016-03-30
JPWO2015182447A1 JPWO2015182447A1 (en) 2017-04-20

Family

ID=54698784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015547191A Expired - Fee Related JP5896090B1 (en) 2014-05-28 2015-05-20 Imaging apparatus and colorimetric method

Country Status (2)

Country Link
JP (1) JP5896090B1 (en)
WO (1) WO2015182447A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230045116A (en) * 2021-09-28 2023-04-04 이재성 Subject position detection system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110771152B (en) 2017-06-26 2022-03-01 三菱电机株式会社 Compound-eye imaging device, image processing method, and recording medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006064751A1 (en) * 2004-12-16 2006-06-22 Matsushita Electric Industrial Co., Ltd. Multi-eye imaging apparatus
WO2009026064A2 (en) * 2007-08-21 2009-02-26 Micron Technology, Inc. Multi-array sensor with integrated sub-array for parallax detection and photometer functionality
JP2009253413A (en) * 2008-04-02 2009-10-29 Sharp Corp Imaging device and optical axis control method
JP2011118235A (en) * 2009-12-04 2011-06-16 Ricoh Co Ltd Imaging apparatus
JP2012186755A (en) * 2011-03-08 2012-09-27 Canon Inc Image processing device, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006064751A1 (en) * 2004-12-16 2006-06-22 Matsushita Electric Industrial Co., Ltd. Multi-eye imaging apparatus
WO2009026064A2 (en) * 2007-08-21 2009-02-26 Micron Technology, Inc. Multi-array sensor with integrated sub-array for parallax detection and photometer functionality
JP2009253413A (en) * 2008-04-02 2009-10-29 Sharp Corp Imaging device and optical axis control method
JP2011118235A (en) * 2009-12-04 2011-06-16 Ricoh Co Ltd Imaging apparatus
JP2012186755A (en) * 2011-03-08 2012-09-27 Canon Inc Image processing device, image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230045116A (en) * 2021-09-28 2023-04-04 이재성 Subject position detection system
KR102530307B1 (en) * 2021-09-28 2023-05-08 이재성 Subject position detection system

Also Published As

Publication number Publication date
WO2015182447A1 (en) 2015-12-03
JPWO2015182447A1 (en) 2017-04-20

Similar Documents

Publication Publication Date Title
TWI525382B (en) Camera array systems including at least one bayer type camera and associated methods
US8885067B2 (en) Multocular image pickup apparatus and multocular image pickup method
US7742087B2 (en) Image pickup device
US10438365B2 (en) Imaging device, subject information acquisition method, and computer program
US9008412B2 (en) Image processing device, image processing method and recording medium for combining image data using depth and color information
JP5406151B2 (en) 3D imaging device
JP5927570B2 (en) Three-dimensional imaging device, light transmission unit, image processing device, and program
US8937662B2 (en) Image processing device, image processing method, and program
JPWO2011083669A1 (en) Stereo camera device
US8929685B2 (en) Device having image reconstructing function, method, and recording medium
JP2014230179A (en) Imaging apparatus and imaging method
JP2020088689A (en) Image processing apparatus, imaging apparatus, and image processing method
CN108156383B (en) High-dynamic billion pixel video acquisition method and device based on camera array
JP2016020896A (en) Positional deviation extent measuring method, correction table generating device, image pickup device, and projection device
JP5850648B2 (en) Imaging device
JP5896090B1 (en) Imaging apparatus and colorimetric method
WO2020008832A1 (en) Distance measurement camera
US11647302B2 (en) Method of calibrating image sensor and device for calibrating image sensor
WO2017181381A1 (en) Method and photographing device for acquiring depth information
JP2015148498A (en) Distance measurement device and distance measurement method
JP2014215436A (en) Image-capturing device, and control method and control program therefor
JP2015185998A (en) Image processing device and imaging apparatus
JP2020057967A (en) Image processing device, imaging device, control method of image processing device, and program
US8730370B2 (en) Solid-state imaging device having image pixel position correction to reduce shape distortion
US11263768B2 (en) 3D information calculation apparatuses, 3D measurement apparatuses, 3D information calculation methods, and 3D information calculation programs

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160215

R150 Certificate of patent or registration of utility model

Ref document number: 5896090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees