JP6426753B2 - Imaging system - Google Patents
Imaging system Download PDFInfo
- Publication number
- JP6426753B2 JP6426753B2 JP2016561955A JP2016561955A JP6426753B2 JP 6426753 B2 JP6426753 B2 JP 6426753B2 JP 2016561955 A JP2016561955 A JP 2016561955A JP 2016561955 A JP2016561955 A JP 2016561955A JP 6426753 B2 JP6426753 B2 JP 6426753B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- light
- image
- distance
- infrared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 132
- 238000002834 transmittance Methods 0.000 claims description 93
- 230000005540 biological transmission Effects 0.000 claims description 53
- 230000003287 optical effect Effects 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 32
- 230000003595 spectral effect Effects 0.000 claims description 12
- 239000003086 colorant Substances 0.000 claims description 8
- 230000000903 blocking effect Effects 0.000 claims description 7
- 235000019557 luminance Nutrition 0.000 description 16
- 238000000034 method Methods 0.000 description 15
- 238000001228 spectrum Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 10
- 230000035699 permeability Effects 0.000 description 8
- 230000035945 sensitivity Effects 0.000 description 8
- 238000003860 storage Methods 0.000 description 8
- 238000005286 illumination Methods 0.000 description 7
- 238000000411 transmission spectrum Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000295 emission spectrum Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000012466 permeate Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/12—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Measurement Of Optical Distance (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Description
本発明は、同じ撮像範囲に対して可視光による撮影と赤外光による撮影とを同時に行うことにより情報を取得する撮像システムに関する。 The present invention relates to an imaging system that acquires information by simultaneously performing imaging with visible light and imaging with infrared light in the same imaging range.
一般に、撮像センサ(イメージセンサ)は、可視光だけではなく近赤外にも受光感度があり、監視カメラなどでは、昼間は可視光を撮影し、夜間は、赤外光照明を用いて赤外光を撮影するものなどが知られていた。
また、可視光による撮影と赤外光による撮影を併用して、画像認識の精度の向上図ることが提案されている(たとえば、特許文献1参照)。In general, imaging sensors (image sensors) have sensitivity to light reception not only in visible light but also in near infrared, and with surveillance cameras etc., visible light is photographed in the daytime and infrared light is used at night in the nighttime. It was known to shoot light.
Further, it has been proposed to improve the accuracy of image recognition by using imaging with visible light and imaging with infrared light in combination (see, for example, Patent Document 1).
たとえば、顔認識の場合に、ポスター等の写真の顔も人物の顔と誤認識する場合がある。そこで、特許文献1では、可視光による画像認識と、赤外光による熱検知(体温検知)とから顔を認識するようになっている。 For example, in the case of face recognition, the face of a photo such as a poster may be erroneously recognized as the face of a person. So, in patent document 1, a face is recognized from the image recognition by visible light, and the heat detection (body temperature detection) by infrared light.
この場合に、1つのカメラにより、可視光による撮影と、赤外光による撮影を行い、可視光の画像データを用いた顔認識により特定された顔の位置の温度を赤外光の画像データから認識し、顔認識されるとともに温度が高い領域を顔と認識することができるので、体温より温度が低いポスターの顔写真を人物の顔と誤認識することがない。 In this case, photographing with visible light and photographing with infrared light are performed by one camera, and the temperature of the position of the face specified by face recognition using the image data of visible light is calculated from the image data of infrared light Since the recognition and face recognition and the area where the temperature is high can be recognized as the face, the face photograph of the poster whose temperature is lower than the body temperature is not erroneously recognized as the face of the person.
また、近赤外光と、撮像センサを用いて距離を測定する提案がなされている(たとえば、特許文献2参照)。 Further, a proposal has been made to measure the distance using near-infrared light and an imaging sensor (see, for example, Patent Document 2).
ところで、可視光の画像と、赤外光の画像との両方を同時に撮影する撮影装置の場合に、可視光用の赤外カットフィルタを用いた撮像素子と、赤外光用の可視光カットフィルタを用いた撮像素子との両方を用いる場合には、少なくとも撮像素子が、2つ必要となり、小型化が困難であり、かつ、コストの低減が困難になる。 By the way, in the case of an imaging device that simultaneously captures both an image of visible light and an image of infrared light, an imaging device using an infrared cut filter for visible light and a visible light cut filter for infrared light In the case of using both the imaging device and the imaging device, at least two imaging devices are required, which makes it difficult to miniaturize and to reduce the cost.
また、赤外画像を用いて距離を測定する構成に可視画像の撮影も可能にする構成を加えた場合に、赤外光で被写体に対して設定されたパターンを投射する必要があり、その分撮影装置が大きくなる可能性があり、可視画像と赤外画像を同時に撮影する部分をコンパクトにすることが望まれる。
また、2つの撮像素子を用いる場合に、各撮像素子で撮影された二つの動画データには、多少の位置ずれが生じるので、2つの画像データで同じ座標系を用いて画像処理する場合に、位置ずれを補正する必要が生じる。Further, in the case of adding a configuration that enables photographing of a visible image to a configuration that measures a distance using an infrared image, it is necessary to project a pattern set for the subject with infrared light, There is a possibility that the imaging device may become large, and it is desirable to make a portion that simultaneously captures a visible image and an infrared image compact.
When two image sensors are used, a slight positional deviation occurs in two moving image data captured by each image sensor, so when performing image processing using the same coordinate system for two image data, It is necessary to correct misalignment.
また、赤外カットフィルタと、可視光カットフィルタとを切り替える撮影装置の場合に、フィルタを切り替える構造にコストがかかるとともに、可視画像と赤外画像とを同時に撮影することが困難であり、機会的なフィルタの移動を繰り返すような構造の場合に、時間当たりに撮影されるフレーム数が制限される。 In addition, in the case of an imaging device that switches between an infrared cut filter and a visible light cut filter, the structure for switching the filter is costly, and it is difficult to simultaneously capture a visible image and an infrared image. In the case of a structure in which the movement of the filter is repeated, the number of frames captured per time is limited.
本発明は、前記事情に鑑みてなされたものであり、可視画像の撮影と、赤外画像の撮影とを同時に行って、たとえば、被写体までの距離のデータを被写体の可視画像と共に利用可能とする撮像システムを提供することを目的とする。 The present invention has been made in view of the above-mentioned circumstances, and simultaneously performs photographing of a visible image and photographing of an infrared image, and for example, makes data of the distance to the object available with the visible image of the object It aims at providing an imaging system.
前記課題を解決するために、本発明の撮像システムは、
可視光帯域に透過特性を有し、前記可視光帯域の長波長側に隣接する第1の波長帯域に遮断特性を有し、前記第1の波長帯域内の一部分である第2の波長帯域に透過特性を有する光学フィルタと、
画素毎に受光素子が配置された撮像センサ本体を備え、かつ、前記可視光帯域の透過特性がそれぞれ異なるとともに、前記第2の波長帯域に透過特性を有する4種類以上の領域を備え、当該領域が所定配列で前記撮像センサ本体の各画素に配置されるカラーフィルタを備える撮像センサと、
前記撮像センサ上に像を結ぶレンズを有する光学系と、
前記撮像センサから出力される信号に基づいて、可視光の複数の色の成分の信号と、前記第2の波長帯域に対応する赤外光の成分の信号とを求め、これら信号に基づいて、同じ撮像範囲の可視画像信号および赤外画像信号を同時に出力可能な信号処理手段と、
前記赤外光の光源を備え、所定の投射パターンを被写体に断続的に投射するパターン投射手段と、
前記信号処理手段から出力される前記赤外画像信号から、前記所定の投射パターンが投射されたときに撮像された第1画像データを取得し、前記所定の投射パターンが投射されていないときに撮像された第2画像データを取得し、前記第1画像データと前記第2画像データとの差分から前記所定の投射パターンの反射光のみを含む第3画像データを取得する差分画像データ取得手段と、
前記第3画像データの画素間の自己相関係数を予め定めた所定の画素について算出する自己相関係数取得手段と、
前記所定の画素の自己相関係数に基づいて、前記被写体までの距離を取得する距離取得手段とを備えることを特徴とする。In order to solve the above-mentioned subject, the imaging system of the present invention
In the second wavelength band, which has a transmission characteristic in the visible light band, has a blocking characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band, and is a portion within the first wavelength band An optical filter having transmission characteristics;
The imaging sensor main body in which the light receiving element is disposed for each pixel, and the four or more types of regions having different transmission characteristics in the visible light band and having the transmission characteristics in the second wavelength band, An imaging sensor including a color filter disposed in each pixel of the imaging sensor main body in a predetermined array;
An optical system having a lens that forms an image on the imaging sensor;
Based on the signals output from the imaging sensor, signals of components of plural colors of visible light and signals of components of infrared light corresponding to the second wavelength band are determined, and based on these signals, Signal processing means capable of simultaneously outputting a visible image signal and an infrared image signal of the same imaging range;
Pattern projection means including a light source of the infrared light and intermittently projecting a predetermined projection pattern onto a subject;
First image data captured when the predetermined projection pattern is projected is acquired from the infrared image signal output from the signal processing means, and imaging is performed when the predetermined projection pattern is not projected Differential image data acquisition means for acquiring acquired second image data and acquiring third image data including only reflected light of the predetermined projection pattern from the difference between the first image data and the second image data;
An autocorrelation coefficient acquisition unit that calculates an autocorrelation coefficient between pixels of the third image data for a predetermined predetermined pixel;
A distance acquisition unit may be provided to acquire the distance to the subject based on the autocorrelation coefficient of the predetermined pixel.
このような構成によれば、例えば、可視光帯域の透過特性がそれぞれ異なるとともに、光学フィルタの第2の波長帯域に対応する赤外に透過特性を有する4種類以上の領域を有するカラーフィルタを備える撮像センサと、可視光帯域と可視光帯域から離れた近赤外帯域である第2の波長帯域に透過特性を有する光学フィルタとを備えることにより、信号処理手段が赤外光を除いた各色成分の信号と赤外光成分の信号とを求めることができる。この場合に、赤外カットフィルタを用いなくとも出力される可視画像信号には、赤外光成分が含まれていない状態となる。なお、光学フィルタの第2の波長帯域を通過する赤外光は、カラーフィルタの各領域を通過することになる。また、カラーフィルタの各領域には、可視光を透過せずにせ赤外を透過する赤外(IR)の領域や、白色の光と赤外光を透過する白(W)の領域が含まれてもよい。以下に、可視光帯域と、赤外の第2の波長帯域に光の透過特性を有する光学フィルタをDBPF(ダブル・バンド・パス・フィルタ)と称する場合ある。 According to such a configuration, for example, color filters having four or more types of regions having transmission characteristics in the infrared corresponding to the second wavelength band of the optical filter while having different transmission characteristics in the visible light band are provided. Each color component except the infrared light by providing the imaging sensor and the optical filter having the transmission characteristic in the visible light band and the second wavelength band which is a near infrared band apart from the visible light band. And the signal of the infrared light component can be obtained. In this case, the visible image signal output without using the infrared cut filter does not include the infrared light component. The infrared light passing through the second wavelength band of the optical filter passes through the regions of the color filter. In addition, each region of the color filter includes an infrared (IR) region that transmits visible light but does not transmit visible light and a white (W) region that transmits white light and infrared light. May be Hereinafter, an optical filter having light transmission characteristics in the visible light band and the infrared second wavelength band may be referred to as DBPF (double band pass filter).
また、可視光の各色の領域を通過した各色の可視光成分に含まれる赤外光成分は、DBPFの第2の波長帯域を通過した赤外光だけである。また、例えば、カラーフィルタのIR領域を通過した赤外光成分は、光学フィルタの第2の波長帯域を通過した赤外光の成分である。したがって、可視光に含まれる赤外成分の波長範囲をDBPFにより制限し、カラーフィルタの可視光を遮断するIR領域を通過可能な赤外光の波長範囲が第2の波長帯域を略含むようになっていれば、上述のように波長範囲が制限された赤外成分を、各色の可視光成分から除去することが可能となり、各色の可視光成分に含まれる赤外光成分をより正確に除去することが可能になる。 Moreover, the infrared light component contained in the visible light component of each color which has passed through the area of each color of visible light is only the infrared light which has passed through the second wavelength band of DBPF. Also, for example, the infrared light component that has passed through the IR region of the color filter is the component of the infrared light that has passed through the second wavelength band of the optical filter. Therefore, the wavelength range of the infrared component contained in the visible light is limited by the DBPF, and the wavelength range of the infrared light which can pass through the IR region blocking the visible light of the color filter substantially includes the second wavelength band. If so, it is possible to remove the infrared component whose wavelength range is limited as described above from the visible light component of each color, and more accurately remove the infrared light component contained in the visible light component of each color It will be possible to
これにより、赤外カットフィルタが無くても、従来の赤外カットフィルタを用いた場合に近い自然な可視画像を得ることができるので、赤外カットフィルタの有無を切り替えることなく、可視画像信号と、赤外画像信号とを同時に出力することができ、可視画像上の被写体までの距離を赤外画像から求めることが可能となる。すなわち、被写体の可視画像撮影と赤外画像に基づく被写体までの距離の測定を略同時に行うことが可能となる。 This makes it possible to obtain a natural visible image similar to the case of using a conventional infrared cut filter, even without the infrared cut filter, so that the visible image signal can be obtained without switching the presence or absence of the infrared cut filter. The infrared image signal can be simultaneously output, and the distance to the subject on the visible image can be determined from the infrared image. That is, it becomes possible to perform the measurement of the distance to the subject based on the visible image shooting of the subject and the infrared image substantially simultaneously.
また、1つの撮像素子で上述のカラーフィルタを用いて撮影しているので、可視画像と赤外画像で撮影範囲にずれがでることがなく、基本的に可視画像の各画素と、赤外画像の各画素がそれぞれ対応していることになる。したがって、2つの撮像素子を用いた場合のように位置ずれを補正する必要がない。 Moreover, since imaging is performed using the above-described color filter with one imaging element, the imaging range does not deviate between the visible image and the infrared image, and basically each pixel of the visible image and the infrared image The respective pixels of each correspond to each other. Therefore, it is not necessary to correct positional deviation as in the case of using two imaging elements.
また、被写体に投射した所定の投射パターンの反射光を撮影した第3画像データの各画素について求めた画素間の自己相関係数と、各画素に対応する被写体までの距離との間に相関関係があり、画素の自己相関係数に基づいて被写体までの距離を取得できる。本発明によれば、一つの視点から被写体を撮像して得られる近赤外の第1画像データおよび第2画像データに基づいて距離を計測できるので、距離を計測するために撮像装置を2台使用する必要がない。また、第1画像データおよび第2画像データを取得するために、被写体に投射パターンを投射した状態と、被写体にパターンを投射しない状態とを形成すればよく、基本的には投射パターン自体を変化させる必要がない。よって、パターン投射装置を簡易な構成とすることができる。さらに、撮像に際して特殊な撮像センサを用いる必要がなく、汎用の撮像センサを用いることができる。したがって、撮像システムとしての撮像システムの製造コストを抑えることができる。なお、所定の投射パターンを被写体に投射するために前記光源からの光線の一部分を透過あるいは反射する素子を用いることができる。このような素子としては、フォトマスク、透過型の液晶パネル、反射型の液晶パネル、デジタル・マイクロミラー・デバイスなどの空間変調素子がある。また、パターン投射装置は、これらの素子によって固定された投射パターンを投射するだけではなく、必要に応じて投射パターンを変化させても構わない。さらに、所定の画素として全ての画素に関して自己相関係数を算出してもよいが、被測定物の大きさによっては代表点のみの距離を算出してもよく、その場合は離散的な画素について自己相関係数を演算してもよい。 In addition, the correlation between the autocorrelation coefficient between the pixels obtained for each pixel of the third image data obtained by photographing the reflected light of the predetermined projection pattern projected onto the subject and the distance to the subject corresponding to each pixel The distance to the subject can be obtained based on the autocorrelation coefficient of the pixel. According to the present invention, since the distance can be measured based on the near-infrared first image data and the second image data obtained by imaging the subject from one viewpoint, two imaging devices are required to measure the distance. There is no need to use it. In addition, in order to obtain the first image data and the second image data, it is sufficient to form a state in which the projection pattern is projected on the subject and a state in which the pattern is not projected on the subject. Basically, the projection pattern itself is changed There is no need to Thus, the pattern projection apparatus can be configured simply. Furthermore, it is not necessary to use a special imaging sensor at the time of imaging, and a general-purpose imaging sensor can be used. Therefore, the manufacturing cost of the imaging system as an imaging system can be held down. In addition, in order to project a predetermined | prescribed projection pattern on a to-be-photographed object, the element which permeate | transmits or reflects a part of light ray from the said light source can be used. As such an element, there is a space modulation element such as a photomask, a transmissive liquid crystal panel, a reflective liquid crystal panel, and a digital micro mirror device. Further, the pattern projection apparatus may not only project the projection pattern fixed by these elements, but also may change the projection pattern as needed. Furthermore, although the autocorrelation coefficient may be calculated for all pixels as a predetermined pixel, the distance of only the representative point may be calculated depending on the size of the object to be measured, and in that case, for discrete pixels An autocorrelation coefficient may be calculated.
なお、可視光帯域は、400nmから700nm程度の波長帯域であり、第1の波長帯域が近赤外の波長帯域として700nm程度以上の波長帯域であり、第2の波長帯域は、たとえば、800nm〜1100nm程度の波長帯域またはこの波長帯域に含まれ、かつ、この波長帯域より狭い波長帯域である。 The visible light band is a wavelength band of about 400 nm to 700 nm, the first wavelength band is a wavelength band of about 700 nm or more as a near infrared wavelength band, and the second wavelength band is, for example, 800 nm to It is a wavelength band of about 1100 nm or a wavelength band included in this wavelength band and narrower than this wavelength band.
本発明の前記構成において、前記第3画像データの画素の自己相関係数と前記被写体までの距離とを対応付けた形態で記憶保持しているテーブルを有し、
前記距離取得手段は、前記画素の自己相関係数に基づいて前記テーブルを参照して、前記被写体までの距離を取得することが好ましい。In the above configuration of the present invention, it has a table that stores and holds in a form in which the autocorrelation coefficient of the pixel of the third image data and the distance to the subject are associated.
It is preferable that the distance acquisition unit acquires the distance to the subject by referring to the table based on the autocorrelation coefficient of the pixel.
このような構成によれば、自己相関係数と被写体までの距離との相関関係に基づいて自己相関係数から被写体までの距離を求める際の処理を簡易化することができる。 According to such a configuration, it is possible to simplify the process of obtaining the distance from the autocorrelation coefficient to the subject based on the correlation between the autocorrelation coefficient and the distance to the subject.
また、本発明の前記構成において、前記可視画像信号に基づいて可視画像を表示するモニタを備え、前記モニタ上に表示される前記被写体に対応して、取得された前記被写体までの距離を表示することが好ましい。 In the configuration of the present invention, a monitor for displaying a visible image based on the visible image signal is provided, and the distance to the acquired subject is displayed corresponding to the subject displayed on the monitor. Is preferred.
このような構成によれば、モニタには、被写体が表示された状態で距離が表示されるので、どこの距離を測定しているかが明確になる。たとえば、距離を計測する被写体の近傍に別の物がある場合に、対称となる被写体までの距離を測定したのかその近傍の物までの距離を測定したのか分かり辛い場合があるが、被写体がモニタに表示された状態で距離が表示されることにより、測定対象が明確になり、誤認を防止できる。この場合に撮像範囲に複数の被写体がある場合に、各被写体に対応して距離が表示されることが好ましい。 According to such a configuration, since the distance is displayed on the monitor in a state where the subject is displayed, it becomes clear which distance is being measured. For example, when there is another object in the vicinity of the subject whose distance is to be measured, it may be difficult to understand whether the distance to the symmetrical subject or the distance to an object nearby was measured. By displaying the distance in the state of being displayed, the object to be measured becomes clear, and false recognition can be prevented. In this case, when there are a plurality of subjects in the imaging range, it is preferable that the distances are displayed corresponding to the respective subjects.
また、本発明の前記構成において、前記信号処理手段、前記差分画像データ取得手段、前記自己相関係数取得手段および前記距離取得手段のうちの少なくとも2つが1つのチップ上の電子回路から構成されて、ワンチップ化されていることが好ましい。 In the configuration of the present invention, at least two of the signal processing means, the difference image data acquisition means, the autocorrelation coefficient acquisition means, and the distance acquisition means are composed of an electronic circuit on one chip. Preferably, it is made into one chip.
このような構成によれば、前記信号処理手段、前記差分画像データ取得手段、前記自己相関係数取得手段および前記距離取得手段の全部またはこれらのうちの二つ以上をワンチップ化することにより、撮像システムの部品点数を減らして、コストダウンや装置構成の簡略化や組み立て作業の容易化や小型化等を図ることができる。 According to such a configuration, all or two or more of the signal processing means, the difference image data acquisition means, the autocorrelation coefficient acquisition means and the distance acquisition means are integrated into one chip. By reducing the number of parts of the imaging system, it is possible to achieve cost reduction, simplification of the apparatus configuration, simplification of assembly work, downsizing, and the like.
また、本発明の前記構成において、前記カラーフィルタの各種類の前記領域は、前記可視光帯域より長波長側に透過率が互いに近似する第3の波長帯域を備え、
前記光学フィルタの前記第2の波長帯域が、前記カラーフィルタの各種類の前記領域の前記第3の波長帯域に含まれるように、前記光学フィルタの分光透過特性および前記カラーフィルタの各種類の前記領域の分光透過特性が設定され、
前記第3の波長帯域では、各種類の前記領域の前記透過率の互いの差が当該透過率で20%以内となっていることが好ましい。In the configuration of the present invention, the region of each type of the color filter includes a third wavelength band whose transmittances approximate each other on the longer wavelength side than the visible light band,
The spectral transmission characteristics of the optical filter and the types of the color filter such that the second wavelength band of the optical filter is included in the third wavelength band of the region of each type of the color filter The spectral transmission characteristics of the region are set
In the third wavelength band, the difference between the transmittances of the regions of each type is preferably 20% or less of the transmittance.
このような構成によれば、光学フィルタの第2の波長帯域を通過する赤外光が撮像センサ本体の各画素の受光素子に至り、光電効果により生じる電子の数を増加させることにより、撮像される画像に影響を与えてしまうので、画像信号を処理することにより、光学フィルタを通過した赤外光による影響を抑制することが好ましい。 According to such a configuration, infrared light passing through the second wavelength band of the optical filter reaches the light receiving element of each pixel of the imaging sensor main body, and imaging is performed by increasing the number of electrons generated by the photoelectric effect. It is preferable to suppress the influence of the infrared light which has passed through the optical filter by processing the image signal because it affects the image.
この場合に、カラーフィルタの各種類の領域の色を例えば赤、緑、青、赤外(または白(赤外を含む))とした場合に、可視光帯域と赤外帯域との境界部分では、赤の領域の透過率が略最大となっているとともに、それより長波長側でも透過率が略最大となっている。また、緑および青の領域では、可視光帯域と赤外帯域との境界部分では、透過率が低いが可視光帯域より長波長となるにつれて透過率が増加して最終的に透過率が略最大となり、透過率が略最大となった波長より長波長側でも透過率が略最大となっている。 In this case, when the color of each type of area of the color filter is, for example, red, green, blue, infrared (or white (including infrared)), the boundary portion between the visible light band and the infrared band The transmittance of the red region is substantially maximum, and the transmittance is substantially maximum even on the longer wavelength side. Moreover, in the green and blue regions, the transmittance is low at the boundary between the visible light band and the infrared band, but the transmittance increases as the wavelength becomes longer than the visible light band, and the transmissivity finally reaches a maximum The transmittance is substantially maximum even on the longer wavelength side than the wavelength at which the transmittance is substantially maximum.
この場合に可視光帯域に隣接する赤外帯域、すなわち、赤外帯域の波長が短い領域では、透過率最大となる赤の領域に対して、青および緑の領域の透過率が大きく異なるとともに、青と緑とでも透過率が異なる。また、青と緑の領域では、透過率が長波長側に向かって増加傾向となっており、透過率が略最大となるまで、波長によって透過率が異なる状態となっている。したがって、この部分の波長帯域が第2の波長帯域に含まれる場合に、第2の波長低域を通過した赤外光が可視画像に影響を与えることを防止することが困難となる。すなわち、各領域を通過した光に基づく赤外の画像信号を用いて、赤、緑、青のそれぞれの領域を通過した光に基づく赤、緑、青の画像信号を補正する際に、赤、緑、青の画像信号ごとに、補正すべき赤外成分の量が異なり、各色の信号から同じ赤外成分の信号を減算したのでは、色再現性を高めることが困難になる。 In this case, in the infrared band adjacent to the visible light band, that is, in the region where the wavelength of the infrared band is short, the transmittance of the blue and green regions is significantly different from the red region where the transmittance is maximum. The transmittances of blue and green are different. Further, in the blue and green regions, the transmittance tends to increase toward the long wavelength side, and the transmittance varies depending on the wavelength until the transmittance is substantially maximized. Therefore, when the wavelength band of this portion is included in the second wavelength band, it is difficult to prevent the infrared light passing through the second wavelength low band from affecting the visible image. That is, when correcting an image signal of red, green and blue based on light passing through each area of red, green and blue using an infrared image signal based on light passing through each area, The amount of infrared component to be corrected is different for each of the green and blue image signals, and it is difficult to improve color reproducibility by subtracting the signal of the same infrared component from the signal of each color.
そこで、光学フィルタの第2の波長帯域が赤、緑、青の領域の透過率が略最大となることにより、赤、緑、青の領域の透過率が略近似した状態となる第3の波長帯域に含まれるようにすると、第2の波長帯域を通過するとともに赤、緑、青の領域を通過する光の透過率は、赤、緑、青の領域で略同じになる。すなわち、赤、緑、青の各領域で透過率が大きく異なる波長帯域が、光学フィルタで透過特性を有する可視光帯域と第2の波長帯域との間の遮断特性を有する波長帯域と重なる。 Therefore, the third wavelength is such that the transmittances of the red, green, and blue regions are approximately approximated because the transmittances of the red, green, and blue regions are substantially maximum in the second wavelength band of the optical filter. When included in the band, the transmittances of light passing through the second wavelength band and passing through the red, green, and blue regions become substantially the same in the red, green, and blue regions. That is, wavelength bands with largely different transmittances in the red, green, and blue regions overlap with the wavelength band having the cutoff characteristic between the visible light band having the transmission characteristic of the optical filter and the second wavelength band.
これにより、領域の色によって透過率が大きく異なる波長帯域の光が光学フィルタを通過できず、赤外側では、赤、緑、青の領域で透過率が近似する波長帯域の光が光学フィルタを通過可能となる。 As a result, light of wavelength bands whose transmittances greatly differ depending on the color of the region can not pass through the optical filter, and on the infrared side, light of wavelength bands whose transmittances approximate in red, green and blue regions pass through the optical filter It becomes possible.
なお、各領域は、赤、緑、青、赤外に限られるものではなく、異なる色の領域を用いてもよく、例えば、赤外に代えて可視光帯域の赤、緑、青以外の色や、可視光帯域の略全波長帯域の光を透過する白(クリア(C)やホワイト(W))等であってもよい。また、赤、緑、青も異なる色を用いてもよい。また、白は光の透過率を可視光帯域の全体に渡ってほぼ同様に低くしたものであってもよい。 In addition, each area is not limited to red, green, blue and infrared, and different color areas may be used, for example, colors other than red, green and blue in the visible light band instead of infrared. Alternatively, it may be white (clear (C) or white (W)) or the like that transmits light in substantially the entire wavelength band of the visible light band. Also, red, green and blue may use different colors. Also, white may have the light transmittance almost equally low throughout the visible light band.
また、上述のように光学フィルタの第2の波長帯域を通過する赤外光による可視画像への影響を抑制することが可能になり、色の再現性を向上できる。基本的に第2の波長帯域における各色の領域の透過率は略等しいことが好ましいが、透過率で20%以下の差ならば、上述の赤外光の影響を抑制する画像処理が可能である。なお、第2の波長帯域における透過率の差が透過率で20%以下となる状態とは、第2の波長帯域における各色の領域で最も高い透過率(%)から最も低い透過率(%)を減算した際の透過率の差が%で20以下となる場合である。なお、透過率の差が10%以下となっていることがより好ましい。 Further, as described above, it is possible to suppress the influence on the visible image by the infrared light passing through the second wavelength band of the optical filter, and the color reproducibility can be improved. Basically, it is preferable that the transmittances of the respective color regions in the second wavelength band be substantially equal, but if the transmittances differ by 20% or less, image processing capable of suppressing the above-mentioned influence of infrared light is possible. . The condition that the difference in transmittance in the second wavelength band is 20% or less in terms of transmittance is the highest transmittance (%) to the lowest transmittance (%) in each color region in the second wavelength band. Is a case where the difference in transmittance at the time of subtraction is 20 or less in%. The difference in transmittance is more preferably 10% or less.
また、本発明の前記構成において、前記カラーフィルタは、前記可視光帯域の透過特性がそれぞれ異なるとともに、前記第2の波長帯域に透過特性を有する領域として、前記可視光帯域の透過特性により3種の互いに異なる色成分の領域と、白色となる領域とを備えていることが好ましい。 Further, in the configuration of the present invention, the color filter has three types of transmission characteristics of the visible light band as regions having different transmission characteristics of the visible light band and having transmission characteristics in the second wavelength band. It is preferable to provide the area | region of a mutually different color component, and the area | region which becomes white.
このような構成によれば、カラーフィルタは、3つの異なる色成分の領域と白色の領域を有することになる。3つの色成分としては、例えばRGBの色空間の3つの色成分であっても良いし、他の色空間の各色成分であってもよい。また、白色は、上述の色空間の各色を合わせた色である。例えば、白色Wは、W=R+G+Bとすることが可能である。また、白色の領域は、可視光の色の略全体を透過させる素通しの状態となる領域であってもよい。このようなカラーフィルタを用いても、可視画像と赤外画像を得ることができる。上述のように、RGBの各色成分の領域と、可視光帯域の光を遮断して赤外を透過するIRの領域とを備えたカラーフィルタを用いることも可能であるが、IRのフィルタが可視光をほとんど透過しないのに対して、白色のフィルタは、可視光の多くを透過することになり、輝度を示す領域となる。 According to such a configuration, the color filter has areas of three different color components and a white area. The three color components may be, for example, three color components of the RGB color space, or may be each color component of another color space. In addition, white is a color obtained by combining the respective colors in the color space described above. For example, white W can be W = R + G + B. In addition, the white area may be an area in a transparent state in which substantially the entire color of visible light is transmitted. A visible image and an infrared image can be obtained by using such a color filter. As described above, it is possible to use a color filter provided with regions of each color component of RGB and a region of IR that blocks light in the visible light band and transmits infrared, but IR filters are visible. While little light is transmitted, a white filter transmits a large amount of visible light, which is an area showing luminance.
RGBの3つの領域からなるカラーフィルタにIRの領域を加えると、輝度の情報を含む可視光の情報が一部失われるのに対して、白色の領域を加えると、輝度の情報が増えることになり、可視画像の解像度の向上等を図ることができる。 When the IR region is added to the color filter consisting of three regions of RGB, some of the visible light information including the luminance information is lost, while when the white region is added, the luminance information increases. As a result, the resolution of the visible image can be improved.
本発明の撮像システムによれば、1つの撮像装置で赤外カットフィルタを用いることなく、赤外成分を含まない可視画像と、赤外画像とを得ることができる。したがって、可視画像の撮影と同時に赤外画像を用いて被写体までの距離の測定を行い、可視画像上の被写体の距離を知ることが可能になる。 According to the imaging system of the present invention, it is possible to obtain a visible image and an infrared image which do not contain an infrared component, without using an infrared cut filter in one imaging device. Therefore, it is possible to measure the distance to the subject using the infrared image simultaneously with capturing of the visible image, and to know the distance of the subject on the visible image.
以下、本発明の第1の実施の形態について説明する。
図1は本発明を適用した光学式距離計測機能を有する撮像システムの概略構成図である。撮像システムは、被写体100に対して所定の投射パターンを断続的に投射するパターン投射装置(パターン投射手段)2と、撮像装置3と、パターン投射装置2および撮像装置3を駆動制御するとともに、撮像装置3が取得した画像データを演算処理して被写体100までの距離Dを算出する制御装置4を備えている。なお、本例の被写体は円柱100aと壁100bである。Hereinafter, a first embodiment of the present invention will be described.
FIG. 1 is a schematic block diagram of an imaging system having an optical distance measurement function to which the present invention is applied. The imaging system drives and controls a pattern projection device (pattern projection unit) 2 that intermittently projects a predetermined projection pattern on the subject 100, the imaging device 3, the pattern projection device 2 and the imaging device 3, and captures an image. The control device 4 is provided to calculate the distance D to the subject 100 by performing arithmetic processing on the image data acquired by the device 3. The subject in this example is a cylinder 100a and a wall 100b.
パターン投射装置2は、光源5として波長0.85μmの近赤外線を射出する発光素子(LED)を備えている。また、光源5から被写体100に向かう投射光の光路上に、所定の投射パターンを投射するためのフォトマスク(光源からの光線の一部分を透過する素子)6、プリズム(光学素子)7、および、対物レンズ8を備えている。 The pattern projection device 2 includes a light emitting element (LED) that emits near infrared light having a wavelength of 0.85 μm as the light source 5. Further, a photomask (element for transmitting a part of a light beam from the light source) 6 for projecting a predetermined projection pattern onto the optical path of projection light from the light source 5 toward the subject 100, a prism (optical element) 7, and An objective lens 8 is provided.
図2は、フォトマスク6によって投射されるパターンの一例である。図2に示すように、フォトマスク6は光源5から放出される投射光を部分的に通過させるランダムなパターンを備えている。フォトマスク6はピエゾ素子を備えるフォトマスク移動機構9によって光軸方向に移動可能とされている。 FIG. 2 is an example of a pattern projected by the photomask 6. As shown in FIG. 2, the photomask 6 is provided with a random pattern for partially passing the projection light emitted from the light source 5. The photomask 6 is movable in the optical axis direction by a photomask moving mechanism 9 having a piezoelectric element.
撮像装置3は、撮像素子として、イメージセンサ10を搭載している。また、CCDイメージセンサ10と被写体100との間の光路上に、撮像用の光学系としてのプリズム7と対物レンズ8を備えている。撮像装置3は、パターン投射装置2との間でプリズム7および対物レンズ8を共有している。イメージセンサ10は、インターレース走査方式のCCDイメージセンサであるセンサ本体10aとカラーフィルタ10bとからなっている。また、対物レンズ8およびプリズム7を有する光学系には光学フィルタであるDBPF7dが設けられている。たとえば、DBPF7dは、プリズム7のイメージセンサ10側に設けられている。また、撮像装置3は、後述するように信号処理部(信号処理手段)21を備え、信号処理部21からは可視画像信号22と赤外画像信号23とが出力されるようになっている。なお、赤外画像信号23は、イメージセンサ10から信号処理部21を介して制御装置4に出力されるようになっている。 The imaging device 3 has an image sensor 10 mounted thereon as an imaging element. Further, on the optical path between the CCD image sensor 10 and the subject 100, a prism 7 as an optical system for imaging and an objective lens 8 are provided. The imaging device 3 shares the prism 7 and the objective lens 8 with the pattern projection device 2. The image sensor 10 is composed of a sensor body 10a, which is a CCD image sensor of an interlace scanning method, and a color filter 10b. The optical system having the objective lens 8 and the prism 7 is provided with a DBPF 7 d which is an optical filter. For example, the DBPF 7 d is provided on the image sensor 10 side of the prism 7. Further, the imaging device 3 includes a signal processing unit (signal processing means) 21 as described later, and the signal processing unit 21 is configured to output a visible image signal 22 and an infrared image signal 23. The infrared image signal 23 is output from the image sensor 10 to the control device 4 through the signal processing unit 21.
次に、赤外画像信号を用いて被写体100までの距離を算出する処理を先に説明し、カラーフィルタ10b、DBPF7dおよび信号処理部21を用いた可視画像信号と赤外画像信号とを出力する処理については後述する。ここで画像と記載された場合に近赤外の画像を示すものとし、可視の画像の場合には、可視画像と称する。 Next, a process of calculating the distance to the subject 100 using an infrared image signal is described above, and a visible image signal and an infrared image signal are output using the color filter 10b, the DBPF 7d, and the signal processing unit 21. The processing will be described later. Here, when it is described as an image, a near infrared image is shown, and in the case of a visible image, it is called a visible image.
プリズム7は2個の三角プリズム7a、7bを張り合わせて形成されており、張り合わせ面7cには、パターン投射装置2の光源5からの投射光を透過して被写体100に導くとともに、被写体100からの反射光を投射光の光路とは異なる方向に反射してCCDイメージセンサ10に導く光学特性を備える薄膜が形成されている。これにより、プリズム7から対物レンズ8を介して被写体100に至る投射光の光路と被写体100から対物レンズ8を介してプリズム7に至る反射光の光路が共通となっている。なお、パターン投射装置2による投射照明画角と撮像装置3による撮像画角とは、同一であり、重なっている。 The prism 7 is formed by bonding two triangular prisms 7a and 7b, and projection light from the light source 5 of the pattern projection device 2 is transmitted through the bonding surface 7c and guided to the subject 100, and from the subject 100 A thin film is formed which has optical characteristics for reflecting the reflected light in a direction different from the light path of the projection light and guiding it to the CCD image sensor 10. Thus, the optical path of the projection light from the prism 7 to the subject 100 via the objective lens 8 and the optical path of the reflected light from the subject 100 to the prism 7 via the objective lens 8 are common. The projection illumination angle of view by the pattern projection device 2 and the imaging angle of view by the imaging device 3 are the same and overlap.
制御装置4は、ドライバ11を介してパターン投射装置2の光源5を駆動制御すると共に、撮像装置3のCCDイメージセンサ10を駆動制御する駆動制御部12を備えている。また、制御装置4は、被写体100の撮像によりCCDイメージセンサ10が取得した赤外画像データを一時的に記憶保持する画像メモリ13を備えている。さらに、制御装置4は、差分画像データ取得部(差分画像データ取得手段)14、自己相関係数取得部(自己相関係数取得手段)15、距離取得部(距離取得手段)16およびテーブル記憶部(テーブル記憶手段)17を有している。 The control device 4 includes a drive control unit 12 that controls driving of the light source 5 of the pattern projection device 2 via the driver 11 and controls driving of the CCD image sensor 10 of the imaging device 3. The control device 4 also includes an image memory 13 for temporarily storing infrared image data acquired by the CCD image sensor 10 by imaging the subject 100. Furthermore, the control device 4 includes a difference image data acquisition unit (difference image data acquisition means) 14, an autocorrelation coefficient acquisition unit (autocorrelation coefficient acquisition means) 15, a distance acquisition unit (distance acquisition means) 16 and a table storage unit (Table storage means) 17 is provided.
撮像システムにおいて、信号処理部21および制御装置4は、例えば、ワンチップで構成されている。すなわち、信号処理部21、制御装置4の差分画像データ取得部14、自己相関係数取得部15、距離取得部16、画像メモリ13およびテーブル記憶部は、汎用のマイコンや専用のゲートアレイ等の電子回路(集積回路)から構成されるが、これらが1つのチップに搭載されてワンチップ化されている。なお、信号処理部21、制御装置4の差分画像データ取得部14、自己相関係数取得部15、距離取得部16、画像メモリ13およびテーブル記憶部が汎用のマイコンと専用のゲートアレイとの両方から構成される場合にもワンチップ化することが好ましい。また、信号処理部21、制御装置4の差分画像データ取得部14、自己相関係数取得部15、距離取得部16、画像メモリ13およびテーブル記憶部の全てをワンチップ化する必要はないが、これらのうちの2つ以上で、できるだけ多くがワンチップ化されることが好ましい。ワンチップ化により、コストの低減、小型化、組み立ての容易化等を図ることができる。 In the imaging system, the signal processing unit 21 and the control device 4 are configured by, for example, one chip. That is, the signal processing unit 21, the differential image data acquisition unit 14 of the control device 4, the autocorrelation coefficient acquisition unit 15, the distance acquisition unit 16, the image memory 13 and the table storage unit are general purpose microcomputers or dedicated gate arrays. It consists of electronic circuits (integrated circuits), but these are mounted on one chip and made into one chip. The signal processing unit 21, the differential image data acquisition unit 14 of the control device 4, the autocorrelation coefficient acquisition unit 15, the distance acquisition unit 16, the image memory 13 and the table storage unit are both general purpose microcomputers and dedicated gate arrays. It is preferable to make it one chip also when it is composed of Further, it is not necessary to make all of the signal processing unit 21, the differential image data acquisition unit 14 of the control device 4, the autocorrelation coefficient acquisition unit 15, the distance acquisition unit 16, the image memory 13 and the table storage unit into one chip. It is preferable that as many as possible be made into one chip by two or more of these. By making it into one chip, it is possible to reduce the cost, reduce the size, and facilitate the assembly.
図3は、撮像装置3のCCDイメージセンサ10の垂直同期信号と、パターン投射装置2の光源5を点滅させるための制御信号とを示すタイミングチャートである。図3に示すように、駆動制御部12は、光源5を駆動制御して、所定の投射パターンをCCDイメージセンサ10の奇数フィールドに同期させて投射する。また、駆動制御部12は、CCDイメージセンサ10を駆動制御して、投射パターンが投射された状態で被写体100を撮像して得られる第1画像データを奇数フィールドに取得するとともに、所定の投射パターンが投射されていない状態で被写体100を撮像して得られる第2画像データを偶数フィールドに取得する。さらに、駆動制御部12は撮像装置3を駆動制御して、第1画像データおよび第2画像データを撮像装置3から制御装置4に転送させる。 FIG. 3 is a timing chart showing a vertical synchronization signal of the CCD image sensor 10 of the imaging device 3 and a control signal for causing the light source 5 of the pattern projection device 2 to blink. As shown in FIG. 3, the drive control unit 12 drives and controls the light source 5 to project a predetermined projection pattern in synchronization with the odd field of the CCD image sensor 10. Further, the drive control unit 12 controls the drive of the CCD image sensor 10 to acquire the first image data obtained by imaging the subject 100 in the state where the projection pattern is projected as an odd field, and a predetermined projection pattern. The second image data obtained by imaging the subject 100 in a state where the image is not projected is acquired in the even field. Furthermore, the drive control unit 12 drives and controls the imaging device 3 to transfer the first image data and the second image data from the imaging device 3 to the control device 4.
画像メモリ13は、第1画像データを2次元展開した状態で記憶保持する第1画像メモリ13aと、第2画像データを2次元展開した状態で記憶保持する第2画像メモリ13bを備えている。第1画像メモリ13aに展開される第1画像データ、および、第2画像メモリ13bに展開される第2画像データは、CCDイメージセンサ10による撮像に伴って逐次に更新される。なお、第2メモリに展開された第2画像データは、撮像システムに接続されているモニタ18に逐次に出力可能であり、モニタ18に、後述の可視画像と切替表示可能となっている。 The image memory 13 includes a first image memory 13a that stores and holds the first image data in a two-dimensional expansion state, and a second image memory 13b that stores and holds the second image data in a two-dimensional expansion state. The first image data expanded in the first image memory 13 a and the second image data expanded in the second image memory 13 b are sequentially updated along with imaging by the CCD image sensor 10. The second image data expanded in the second memory can be sequentially output to the monitor 18 connected to the imaging system, and can be switched and displayed on the monitor 18 with a visible image described later.
差分画像データ取得部14は、第1画像メモリ13aに2次元展開されている第1画像データと第2画像メモリ13bに2次元展開されている第2画像データとを取得し、これら第1画像データと第2画像データとの差分を、所定の投射パターンの反射光のみを含む第3画像データとして取得する。本例では、第1画像データおよび第2画像データを各画素の輝度に基づいてモノクロ化した後に、第1画像データから第2画像データを差し引き、第3画像データを取得している。なお、例えば、差分画像データ取得部14が画像メモリ13を制御し、第1画像データおよび第2画像データを取得するようになっている。 The differential image data acquisition unit 14 acquires the first image data two-dimensionally expanded in the first image memory 13a and the second image data two-dimensionally expanded in the second image memory 13b, and these first images The difference between the data and the second image data is acquired as third image data including only the reflected light of a predetermined projection pattern. In this example, after the first image data and the second image data are converted to monochrome based on the luminance of each pixel, the second image data is subtracted from the first image data to acquire the third image data. For example, the difference image data acquisition unit 14 controls the image memory 13 to acquire the first image data and the second image data.
自己相関係数取得部15は、第3画像データの画素間の自己相関係数を各画素Pについて算出する。図4は自己相関係数の算出方法を説明するための第3画像データの模式図である。自己相関係数R(x,y)は、第3画像データの座標(x,y)における画素P(x,y)を含むN×N画素を1ブロックQとして次式で定義する。 The autocorrelation coefficient acquisition unit 15 calculates an autocorrelation coefficient between pixels of the third image data for each pixel P. FIG. 4 is a schematic view of third image data for explaining a method of calculating an autocorrelation coefficient. The autocorrelation coefficient R (x, y) is defined by the following equation with N × N pixels including the pixel P (x, y) at the coordinates (x, y) of the third image data as one block Q.
I(x,y) :輝度
N:ブロックサイズ
<I>:ブロック内の平均輝度
なお、Nは8画素程度が好ましく、1画素毎にこのブロックQをスライドさせてR(x,y)を求める。演算時間の制限がある場合、または距離画像として精細度が低くても良い場合には、複数の画素について自己相関係数R(x,y)を算出する毎にこのブロックQをスライドさせてもよい。なお、上式において<I>2は被測定物体の反射率などによる光量を補正するための規格化因子として用いている。N is preferably about 8 pixels, and this block Q is slid for each pixel to obtain R (x, y). If computation time is limited, or if the definition as a distance image may be low, block Q may be slid each time autocorrelation coefficient R (x, y) is calculated for a plurality of pixels. Good. In the above equation, <I> 2 is used as a normalization factor for correcting the light amount due to the reflectance of the object to be measured.
ここで、本発明の発明者らは、各画素P(x,y)について求めた画素間の自己相関係数R(x,y)と、各画素Pに対応している被写体100までの距離Dとの間に相関関係があり、各画素P(x,y)の自己相関係数R(x,y)に基づいて被写体100までの距離Dを取得できることを見出した。すなわち、パターン投射装置2が結像光学系を構成しており、投射部からある距離に結像点を設定しておけば、フォトマスクによる光点の像の大きさは距離に逆比例し、近接した物体に投射された光点は互いに重なりが生じて自己相関係数が大きくなる。ここで、数学的には自己相関係数のフーリエ変換は一義的に画像を直接フーリエ変換したものと同等である。したがって、第3画像のフーリエ変換と距離との相関関係を取ってもよい。 Here, the inventors of the present invention calculated the autocorrelation coefficient R (x, y) between the pixels obtained for each pixel P (x, y) and the distance to the subject 100 corresponding to each pixel P. It has been found that there is a correlation with D, and the distance D to the subject 100 can be obtained based on the autocorrelation coefficient R (x, y) of each pixel P (x, y). That is, if the pattern projection apparatus 2 constitutes an imaging optical system and the imaging point is set at a certain distance from the projection unit, the size of the image of the light spot by the photomask is inversely proportional to the distance, The light spots projected to the close objects overlap each other, and the autocorrelation coefficient becomes large. Here, mathematically, the Fourier transform of the autocorrelation coefficient is uniquely equivalent to the direct Fourier transform of the image. Therefore, the Fourier transform of the third image may be correlated with the distance.
図5は画素P(x,y)の自己相関係数R(x,y)と、画素P(x,y)に対応する被写体100までの距離Dとの関係を示すグラフである。図5は、撮像システムを固定し、壁100bの前で撮像システムから円柱100aまでの距離を2m〜40cmの間で変化させた場合における自己相関係数R(x,y)と距離Dとの関係を示している。自己相関係数R(x,y)を求める際の画素間の相関距離は4pixelである。図5に示すように、撮像システムと円柱100aとの間の距離Dが短くなるのに伴って、各画素P(x,y)は近傍の画素Pとの相関性が高くなり、各画素P(x,y)の自己相関係数R(x,y)の値が高くなっている。また、自己相関係数R(x,y)と被写体100までの距離Dの間には対応関係があることが認められる。したがって、第3画像データの各画素P(x,y)の自己相関係数R(x,y)を算出すれば、各画素P(x,y)の自己相関係数R(x,y)に基づいて被写体100までの距離Dを把握することが可能となる。 FIG. 5 is a graph showing the relationship between the autocorrelation coefficient R (x, y) of the pixel P (x, y) and the distance D to the subject 100 corresponding to the pixel P (x, y). FIG. 5 shows the autocorrelation coefficient R (x, y) and the distance D when the imaging system is fixed and the distance from the imaging system to the cylinder 100a is changed between 2 m and 40 cm in front of the wall 100 b. It shows the relationship. The correlation distance between pixels at the time of obtaining the autocorrelation coefficient R (x, y) is 4 pixels. As shown in FIG. 5, as the distance D between the imaging system and the cylinder 100 a decreases, the correlation between each pixel P (x, y) and the adjacent pixel P becomes high, and each pixel P The value of the autocorrelation coefficient R (x, y) of (x, y) is high. Further, it is recognized that there is a correspondence between the autocorrelation coefficient R (x, y) and the distance D to the subject 100. Therefore, if the autocorrelation coefficient R (x, y) of each pixel P (x, y) of the third image data is calculated, the autocorrelation coefficient R (x, y) of each pixel P (x, y) is calculated. It is possible to grasp the distance D to the subject 100 based on
次に、距離取得部16は、各画素P(x,y)の自己相関係数R(x,y)が算出されると、テーブル記憶部17に記憶保持されているテーブルを参照して、各画素P(x,y)に対応する被写体100の部位までの距離Dを取得する。また、距離取得部16は、各画素P(x,y)に、取得された距離Dに対応付けられた色を付ける着色処理を施して距離画像データを生成し、この距離画像データをモニタ18に出力可能とし、後述の可視画像と切替表示可能となっている。 Next, when the autocorrelation coefficient R (x, y) of each pixel P (x, y) is calculated, the distance acquisition unit 16 refers to the table stored and held in the table storage unit 17, The distance D to the part of the subject 100 corresponding to each pixel P (x, y) is acquired. In addition, the distance acquisition unit 16 performs coloring processing to color each pixel P (x, y) to be associated with the acquired distance D to generate distance image data, and the distance image data is monitored by the monitor 18. Output, and can be switched and displayed with a visible image described later.
ここで、テーブルは、第3画像データの各画素P(x,y)について算出した自己相関係数R(x,y)と、撮像システムから各画素P(x,y)に対応する被写体100の部位までの距離Dを予め実測し、自己相関係数R(x,y)と被写体100までの距離Dを対応付けた形態で記憶保持したものである。なお、図5の円柱までの距離のグラフに示されるように、自己相関係数R(x,y)と被写体100までの距離Dとの間に線形的な対応が認められる範囲がある場合には、距離取得部16は、テーブルを参照せずに、各画素P(x,y)の自己相関係数R(x,y)に基づいて、被写体100までの距離Dを算出することができる。 Here, the table shows the autocorrelation coefficient R (x, y) calculated for each pixel P (x, y) of the third image data, and the subject 100 corresponding to each pixel P (x, y) from the imaging system. The distance D to the part of the subject is measured in advance, and stored in the form in which the autocorrelation coefficient R (x, y) and the distance D to the subject 100 are associated with each other. In addition, as shown in the graph of the distance to the cylinder in FIG. 5, when there is a range where a linear correspondence can be recognized between the autocorrelation coefficient R (x, y) and the distance D to the subject 100. The distance acquisition unit 16 can calculate the distance D to the subject 100 based on the autocorrelation coefficient R (x, y) of each pixel P (x, y) without referring to the table. .
センサ本体10aには、上述のようにカラーフィルタ10bが設けられている。ここで、赤R、緑G、青Bの各領域があるが赤外IRの領域がないベイヤー配列のカラーフィルタは、基本パターンとなる縦4×横4の16個の領域を有し、8個の領域がGの領域とされ、4個の領域がRとされ、4個の領域がBとされている。それに対して、本実施の形態のカラーフィルタ10bとしては、図8に示すように、ベイヤー配列における8個のGの領域のうちの4個をIRの領域とすることにより、Rが4個、Gが4個、Bが4個、IRが4個となっている。なお、IRの領域を含むカラーフィルタは、図8に示すカラーフィルタ10bに限られるものではなく、様々な配列のカラーフィルタを用いることができる。但し、可視光の各色の領域とIRの領域の両方を含む必要がある。また、RGBの各領域は、一般的なRGBのフィルタであるが、各色の波長範囲に透過率のピークを備えるとともに、近赤外の波長域に透過性を備えることから、図8において、赤の領域をR+IRとし、緑の領域をG+IRとし、青の領域をB+IRとした。 As described above, the color filter 10b is provided on the sensor body 10a. Here, the Bayer-arranged color filter having red R, green G, and blue B regions but no infrared IR region has 16 regions of 4 × 4 serving as a basic pattern. Regions are G regions, 4 regions are R, and 4 regions are B. On the other hand, in the color filter 10b of this embodiment, as shown in FIG. 8, four R among the eight G regions in the Bayer arrangement are used as the IR region, There are four G, four B, and four IR. The color filters including the IR region are not limited to the color filter 10b shown in FIG. 8, and color filters of various arrangements can be used. However, it is necessary to include both the region of each color of visible light and the region of IR. In addition, although each region of RGB is a general RGB filter, since it has a peak of transmittance in the wavelength range of each color and has transmittance in the near infrared wavelength region, in FIG. The region of R is IR, the region of green is G + IR, and the region of blue is B + IR.
本実施の形態におけるRの領域、Gの領域およびBの領域の透過率スペクトルは、図9のグラフに示すようになっている。すなわち、カラーフィルタ10bの赤(R)、緑(G)、青(B)、赤外(IR)の各フィルタの透過率スペクトルが示されており、縦軸が透過率を示し、横軸が波長となっている。グラフにおける波長の範囲は、可視光帯域と近赤外帯域の一部を含むもので、たとえば、300nm〜1100nmの波長範囲を示している。 The transmittance spectra of the R region, the G region, and the B region in the present embodiment are as shown in the graph of FIG. That is, the transmittance spectra of the red (R), green (G), blue (B), and infrared (IR) filters of the color filter 10b are shown, the vertical axis indicates the transmittance, and the horizontal axis is the horizontal axis. It is a wavelength. The wavelength range in the graph includes a part of the visible light band and the near infrared band, and indicates, for example, a wavelength range of 300 nm to 1100 nm.
たとえば、Rの領域は、グラフのR(二重線)に示すように、波長600nmで略最大の透過率となり、その長波長側は、1000nmを超えても透過率が略最大の状態が維持された状態となる。Gの領域は、グラフのG(間隔の広い破線)に示すように、波長が540nm程度の部分に透過率極大となるピークを有し、その長波長側の620nm程度の部分に、透過率極小となる部分がある。また、Gの領域は、透過率極小となる部分より長波長側が上昇傾向となり、850nm程度で透過率が略最大となる。それより長波長側では、1000nmを超えても透過率が略最大となった状態となっている。Bの領域は、グラフのB(間隔の狭い破線)に示すように、波長が460nm程度の部分に透過率が極大となるピークを有し、その長波長側の630nm程度の分部に、透過率が極小となる部分がある。また、それより長波長側が上昇傾向となり、860nm程度で透過率が略最大となり、それより長波長側では、1000nmを超えても透過率が略最大となった状態となっている。IRの領域は、780nm程度から短波長側の光を遮断し、1020nm程度から長波長側の光を遮断し、820nm〜920nm程度の部分が、透過率が略最大となっている。 For example, as shown by R (double line) in the graph, the R region has a substantially maximum transmittance at a wavelength of 600 nm, and the long wavelength side maintains a substantially maximum transmittance even if it exceeds 1000 nm. It will be in the The region G has a peak at which the wavelength reaches a maximum of about 540 nm, as shown by G in the graph (long broken line), and the peak of the transmittance at the long wavelength side of about 620 nm has a minimum There is a part that becomes. Further, in the G region, the longer wavelength side tends to increase from the portion where the transmittance becomes minimum, and the transmittance becomes substantially maximum at about 850 nm. On the longer wavelength side, the transmittance is substantially maximized even if it exceeds 1000 nm. The region B has a peak at which the transmittance is maximum at a wavelength of about 460 nm as shown by B (a narrow broken line in the graph) of the graph, and the peak of about 630 nm on the longer wavelength side is transmitted. There is a part where the rate is minimal. Further, the longer wavelength side tends to increase from that, and the transmittance is substantially maximized at about 860 nm, and the transmittance is substantially maximized at more than 1000 nm on the longer wavelength side. The region of IR blocks light on the short wavelength side from about 780 nm and blocks light on the long wavelength side from about 1020 nm, and the portion of about 820 nm to 920 nm has a substantially maximum transmittance.
R,G,B,IRの各領域の透過率スペクトルは、図9に示すものに限られるものではないが、現在、一般的に使用されているカラーフィルタ10bでは、これに近い透過率スペクトルを示すと思われる。なお、透過率を示す縦軸の1は、光を100%透過することを意味するものではなく、カラーフィルタ10bにおいて、たとえば、最大の透過率を示すものである。 The transmittance spectrum of each of the R, G, B, and IR regions is not limited to that shown in FIG. 9, but the color spectrum 10b generally used at present is a transmittance spectrum close to this. It seems to show. In addition, 1 of the vertical axis | shaft which shows the transmittance | permeability does not mean transmitting 100% of light, but in the color filter 10b, it shows the largest transmittance | permeability, for example.
DBPF7dは、可視光帯域に透過特性を有し、可視光帯域の長波長側に隣接する第1の波長帯域に遮断特性を有し、第1の波長帯域内の一部分である第2の波長帯域に透過特性を有する光学フィルタである。
図9のグラフに示すように、DBPF7dは、グラフでDBPF(実線)に示すように、DBPF(VR)で示す可視光帯域と、可視光帯域に対して長波長側の少し離れた位置のDBPF(IR)で示す赤外帯域(第2の波長帯域)の2つの帯域の透過率が高くなっている。また、可視光帯域の透過率の高い帯域としてのDBPF(VR)は、たとえば、370nm〜700nm程度の波長帯域となっている。また、赤外側で透過率が高い第2の波長帯域としてのDBPF(IR)は、たとえば、830nm〜970nm程度の帯域となっている。The DBPF 7d has a transmission characteristic in the visible light band, has a blocking characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band, and is a second wavelength band that is a portion within the first wavelength band Is an optical filter having transmission characteristics.
As shown in the graph of FIG. 9, the DBPF 7 d has a visible light band indicated by DBPF (VR) and a DBPF at a position slightly away from the visible light band on the long wavelength side as indicated by DBPF (solid line) in the graph. The transmittance of the two bands in the infrared band (second wavelength band) indicated by (IR) is high. Moreover, DBPF (VR) as a zone | band where the transmittance | permeability of a visible light zone | band is high has a wavelength zone | band of about 370 nm-700 nm, for example. Further, DBPF (IR) as a second wavelength band having a high transmittance on the infrared side is, for example, a band of about 830 nm to 970 nm.
本実施の形態では、上述のカラーフィルタ10bの各領域の透過率スペクトルと、DBPF7dの透過率スペクトルの関係が以下のように規定されている。
すなわち、DBPF7dの透過率スペクトルの赤外光を透過する第2の波長帯域となるDBPF(IR)は、Rの領域、Gの領域、Bの領域の全てが略最大の透過率となって各領域で透過率が略同じとなる図9に示す波長帯域A内に含まれ、かつ、IRの領域の略最大の透過率で光を透過する波長帯域B内に含まれるようになっている。In the present embodiment, the relationship between the transmittance spectrum of each region of the color filter 10b described above and the transmittance spectrum of the DBPF 7d is defined as follows.
That is, DBPF (IR), which is a second wavelength band that transmits infrared light of the transmittance spectrum of DBPF 7d, has almost maximum transmittance in all of the R, G, and B regions. It is included in the wavelength band A shown in FIG. 9 in which the transmittance is substantially the same in the region, and is included in the wavelength band B that transmits light with the substantially maximum transmittance in the region of IR.
ここで、R,G,Bの各領域の透過率が略同じになる波長帯域Aとは、各領域の透過率の差が透過率で20%以下で、好ましくは10%以下である部分とする。
なお、この波長帯域Aより短波長側(波長帯域C)では、透過率が略最大のRの領域に対して、G、Bの領域の透過率が低くなる。DBPF7dでは、このR,G,Bの各領域の透過率に差がある部分が、可視光帯域の透過率が高い部分であるDBPF(VR)と、赤外光帯域の第2の波長帯域の透過率の高い部分であるDBPF(IR)との間のDBPF7dの光を略遮断する透過率が極小となる部分に対応する。すなわち、赤外側では、R,G,Bの各領域の透過率の差が大きくなる部分の光の透過がカットされ、それより長波長側で各領域の透過率が略最大となって透過率が略同じになる波長帯域Aで光を透過するようになっている。Here, the wavelength band A in which the transmittances of the R, G, and B regions are substantially the same is a portion where the difference in transmittance of each region is 20% or less, preferably 10% or less in transmittance. Do.
Note that on the shorter wavelength side than this wavelength band A (wavelength band C), the transmittance of the G and B regions is lower than the region of R where the transmittance is substantially maximum. In DBPF 7d, the portion where there is a difference in transmittance in each of the R, G, and B regions is DBPF (VR), which is a portion with high transmittance in the visible light band, and the second wavelength band in the infrared light band. This corresponds to a portion where the transmittance substantially blocking the light of the DBPF 7 d between the DBPF (IR) which is a portion with high transmittance is minimized. That is, on the infrared side, transmission of light in a portion where the difference in transmittance in each of the R, G, and B regions is large is cut, and the transmittance in each region is substantially maximized on the longer wavelength side than that The light is transmitted in the wavelength band A in which is substantially the same.
以上のことから、本実施の形態において、赤外光カットフィルタに代えて用いられるDBPF7dでは、可視光帯域だけではなく、赤外光側の第2の波長帯域にも光を透過する領域があるため、可視光によるカラー撮影に際して、第2の波長帯域を通過した光の影響を受けることになるが、上述のように第2の波長帯域がR,G,Bの各領域で透過率が異なる部分の光を透過せず、各領域の透過率が略最大となって略同じ透過率となる波長帯域の光だけを透過するようになっている。 From the above, in the present embodiment, in the DBPF 7d used instead of the infrared light cut filter, there is a region where light is transmitted not only in the visible light band but also in the second wavelength band on the infrared light side. Therefore, in the case of color photography with visible light, it is affected by the light passing through the second wavelength band, but as described above, the second wavelength band has different transmittance in each of R, G, and B regions Only the light of the wavelength band where the transmittance of each region is substantially maximum and the transmittance is substantially the same is not transmitted.
また、DBPF7dの第2の波長低域においては、IRの領域で透過率が略最大となる部分の光を透過するようになっている。したがって、略同じ光が照射される極めて近接した4つの画素にR,G,B,IRの領域がそれぞれ設けられていると仮定した場合に、第2の波長帯域においては、Rの領域、Gの領域、Bの領域、IRの領域で略同様に光が通過することになり、赤外側の光としては、IRを含む各領域で略同じ光量の光が撮像センサ本体10aの上述の画素のフォトダイオードに至ることになる。すなわち、R,G,Bの各フィルタを透過する光のうちの赤外側の第2の波長帯域を通過する光の光量は、IRの領域を通過する光の光量と同様となる。上述のように仮定した場合に、基本的にR,G,Bの各フィルタを透過した光を受光したセンサ本体10aからの上述のように仮定された画素の出力信号とIRのフィルタを通過した光を受光したセンサ本体10aからの上述のように仮定された画素の出力信号との差分が、各R,G,Bの領域で通過した赤外側の光をカットしたR,G,Bそれぞれの可視光部分の出力信号となる。 In the second wavelength low region of the DBPF 7d, light in a portion where the transmittance is substantially maximum in the IR region is transmitted. Therefore, assuming that regions of R, G, B, and IR are respectively provided in four pixels in close proximity to each other irradiated with substantially the same light, in the second wavelength band, the region of R, G In the area B, the area B, and the area IR, the light passes in the same manner. As the light on the infrared side, the light of approximately the same light quantity in each area including the IR It will lead to the photodiode. That is, the amount of light passing through the second wavelength band on the infrared side among the light passing through the R, G, and B filters is the same as the amount of light passing through the IR region. Under the assumption described above, basically, the filter signal of the pixel assumed as described above from the sensor main body 10a that has received the light transmitted through the R, G, and B filters and the IR filter is transmitted. The difference from the above-described assumed output signal of the pixel from the sensor main body 10a that has received the light is each of R, G, and B obtained by cutting the light on the infrared side that has passed through each of the R, G, and B regions. It becomes an output signal of the visible light part.
実際には、カラーフィルタ10bのパターンに示したように、センサ本体10aの画素毎にR,G,B,IRのいずれか1つの領域が配置されることになり、各画素に照射される各色の光のそれぞれの光量が異なるものとなる可能性が高いので、たとえば、各画素において、周知の内挿法(補間法)を用いて、各画素の各色の輝度を求め、この補間された各画素のR,G,Bの輝度と、同じく補間されたIRの輝度との差分をそれぞれR,G,Bの輝度とすることが可能である。なお、R,G,Bの各色の輝度から赤外光成分を除く画像処理方法は、これに限られるものではなく、最終的にR,G,Bの各輝度から第2の波長帯域を通過した光の影響をカットできる方法であれば、いずれの方法を用いてもよい。いずれの方法においても、DBPF7dが、赤外側でR,G,Bの領域の透過率が20%(好ましは10%)より異なる部分、すなわち、透過率が所定割合より異なる部分をカットしているので、各画素において、赤外光の影響を除く処理が容易となる。 In practice, as shown in the pattern of the color filter 10b, one of R, G, B and IR regions is disposed for each pixel of the sensor body 10a, and each color irradiated to each pixel is It is highly likely that the amount of light of each of the lights will be different. For example, in each pixel, the brightness of each color of each pixel is determined using a known interpolation method (interpolation method), The differences between the luminances of R, G, and B of the pixel and the luminance of IR similarly interpolated can be used as the luminances of R, G, and B, respectively. The image processing method for removing the infrared light component from the luminance of each color of R, G and B is not limited to this, and finally the second wavelength band is passed from each luminance of R, G and B. Any method can be used as long as the method can cut off the influence of light. In any of the methods, DBPF 7d cuts the portion where the transmittance of the R, G, and B regions on the infrared side differs from 20% (preferably 10%), ie, the portion where the transmittance differs from a predetermined ratio Therefore, in each pixel, the process of removing the influence of infrared light is facilitated.
赤外光撮影を夜間撮影として用いる場合には、赤外光であっても可視光と同様に、夜間は光量が不足するので、赤外光照明が必要となる。図9に示すDBPF7dの透過率スペクトルは、R,G,B,IRの各領域の透過率スペクトルと、赤外光照明用の光、たとえば、照明用赤外光LEDの発光スペクトルを考慮して決定する。 When infrared light imaging is used at night, as in the case of visible light, the amount of light at night is insufficient even at infrared light, so infrared light illumination is required. The transmittance spectrum of DBPF 7d shown in FIG. 9 takes into consideration the transmittance spectrum of each of R, G, B, and IR, and the light emission for infrared light illumination, for example, the emission spectrum of infrared light LED for illumination. decide.
このような撮像センサにあっては、DBPF7dの赤外側で光を透過する第2の波長帯域が、R,G,B,IRの各領域の赤外側で、各領域の透過率が略最大となって、各領域の透過率が略同じとなる波長帯域Aに含まれるとともに、IRの領域の透過率が略最大となる波長帯域Bに含まれる。言い換えれば、可視光帯域より長波長側で、R,G,Bの各フィルタの透過率がRの領域だけ略最大となって、G、Bの領域は透過率が略最大となっていないことにより、R,G,Bの各領域の透過率が略同じとならずに異なる部分の光は、DBPF7dによりカットされる。 In such an imaging sensor, the second wavelength band transmitting light on the infrared side of the DBPF 7d is on the infrared side of each of the R, G, B, and IR regions, and the transmittance of each region is substantially maximum. Thus, it is included in the wavelength band A in which the transmittance of each region is substantially the same, and is included in the wavelength band B in which the transmittance of the IR region is substantially maximum. In other words, on the longer wavelength side than the visible light band, the transmittances of the R, G, and B filters are substantially maximized by the region of R, and the transmittances of the G and B regions are not substantially maximized. Thus, the light of different portions is not cut by the DBPF 7 d without the transmittances of the R, G, and B regions being substantially the same.
すなわち、R,G,B,IRの各領域では、赤外側で第2の波長帯域の光が透過するようになっていることから各領域における赤外側の透過率が全て略同じとなり、第2の波長帯域となる光が同じ光量で照射されれば、R,G,B,IRの各領域における透過光量が同じになる。これにより、上述のようにR,G,Bの各領域に対応する画素からの出力信号に基づく色を補正し、カラー撮影時の色の第2の波長帯域を通過する赤外光による影響を抑制した画像を容易に得ることができる。 That is, in each of the R, G, B, and IR regions, the light of the second wavelength band is transmitted on the infrared side, and the transmittance on the infrared side in each of the regions is substantially the same. If the light in the wavelength band of (1) is irradiated with the same amount of light, the amount of transmitted light in each of the R, G, B, and IR regions becomes the same. Thereby, as described above, the color based on the output signal from the pixel corresponding to each of R, G, and B is corrected, and the influence by the infrared light passing through the second wavelength band of the color at the time of color photographing is A suppressed image can be easily obtained.
また、第2の波長帯域を上述の波長帯域Aと波長帯域Bに含まれる赤外光照明の発光スペクトルのピークに対応させることにより、赤外光照明の光を効率的に用いられるとともに、第2の波長帯域の幅を狭めて、カラー撮影時に、第2の波長帯域を通過する赤外光の影響を小さくすることができる。 Further, by making the second wavelength band correspond to the peak of the emission spectrum of the infrared light illumination included in the above-mentioned wavelength band A and wavelength band B, the light of the infrared illumination can be efficiently used, By narrowing the width of the two wavelength bands, the influence of infrared light passing through the second wavelength band can be reduced at the time of color photographing.
すなわち、DBPF7dを使うことにより、イメージセンサ10のRGBの各信号の値からそれぞれIRの信号の値を減算することにより高精度の補正が可能になる。たとえば、イメージセンサ10の各色の画素の受光成分は、以下に示すように、各色の成分にIRの成分を加えた状態となっている。 That is, by using the DBPF 7d, it is possible to perform highly accurate correction by subtracting the value of the IR signal from the value of each signal of RGB of the image sensor 10. For example, as shown below, the light reception components of the pixels of each color of the image sensor 10 are in a state in which the components of the IR are added to the components of each color.
R画素 R+IR
G画素 G+IR
B画素 B+IR
IR画素 IRR pixel R + IR
G pixel G + IR
B pixel B + IR
IR pixel IR
そこで、以下に示すように、IRの画素を除くRGBの各画素の受光成分からIR成分を除くIR補正を行う。 Therefore, as described below, IR correction is performed to remove the IR component from the light reception component of each pixel of RGB excluding the IR pixel.
R信号 (R画素出力)―(IR画素出力)=(R+IR)−IR=R
G画素 (R画素出力)―(IR画素出力)=(G+IR)−IR=G
B画素 (R画素出力)―(IR画素出力)=(B+IR)−IR=B
これにより、DBPF7dを透過するとともにカラーフィルタを透過するIR成分をカラーフィルタのIR以外の各色の領域から除外することができる。R signal (R pixel output)-(IR pixel output) = (R + IR)-IR = R
G pixel (R pixel output)-(IR pixel output) = (G + IR)-IR = G
B pixel (R pixel output)-(IR pixel output) = (B + IR)-IR = B
As a result, it is possible to exclude the IR component transmitting through the DBPF 7 d and transmitting through the color filter from the area of each color other than the IR of the color filter.
信号処理部21では、上述のように同時化処理(内挿処理)が行われ、動画としての画像データにおいて、各フレームにおいて、全ての画素がRのフレーム、Gのフレーム、Bのフレーム、IRのフレームが生成される。すなわち、カラーフィルタでは、上述の4×4の基本パターンにR、G、B、IRの画素が4つずつしかないが、これを内挿処理により補間し、基本パターンの全ての画素がRの画像、Gの画像、Bの画像、IRの画像を生成する。
また。信号処理部21では、可視画像信号に対して、上述のようにガンマ補正や、ホワイトバランスや、RGBマトリックス補正等の画像処理行う。The signal processing unit 21 performs the synchronization processing (interpolation processing) as described above, and in the image data as a moving image, in each frame, a frame of all pixels is an R frame, a G frame, a B frame, IR Frame is generated. That is, in the color filter, there are only four R, G, B, and IR pixels in the 4 × 4 basic pattern described above, but this is interpolated by interpolation processing, and all pixels of the basic pattern are R Generate an image, an image of G, an image of B, and an image of IR.
Also. The signal processing unit 21 performs image processing such as gamma correction, white balance, and RGB matrix correction on the visible image signal as described above.
信号処理部21からは、IR成分が除かれたRGBの各信号からなる可視画像信号22と、IR信号からなる赤外画像信号23が出力される。可視画像信号22は、たとえば、モニタ18にカラー画像として出力される。また、赤外画像信号23は、上述のように制御装置4に出力されて距離の測定に用いられる。 The signal processing unit 21 outputs a visible image signal 22 composed of RGB signals from which IR components have been removed and an infrared image signal 23 composed of IR signals. The visible image signal 22 is output to the monitor 18 as a color image, for example. In addition, the infrared image signal 23 is output to the control device 4 as described above and used for measuring the distance.
図6は撮像システムの距離計測方法を示す概略フローチャートであり、このフローチャートを参照して距離測定方法を説明する。図7(a)〜(d)はそれぞれ第1画像データ、第2画像データ、第3画像データ、および、距離画像データの説明図である。図7(a)〜(d)のそれぞれにおいて、被写体100は図1に示されている円柱100aと壁100bである。また、図7(a)〜(d)のそれぞれにおいて、左端の画像データは、円柱100aを壁100bに近い位置に配置した第1状態を撮像して得られたものであり、中央の画像データは、円柱100aを壁100bから離して第1状態よりも撮像システムに近い位置に配置した第2状態を撮像して得られたものであり、右端の画像データは、円柱100aを壁100bからさらに離して、第2状態よりも撮像システムに近い位置に配置した第3状態を撮像して得られたものである。 FIG. 6 is a schematic flowchart showing the distance measurement method of the imaging system, and the distance measurement method will be described with reference to this flowchart. FIGS. 7A to 7D are explanatory diagrams of first image data, second image data, third image data, and distance image data, respectively. In each of FIGS. 7A to 7D, the subject 100 is the cylinder 100a and the wall 100b shown in FIG. Further, in each of FIGS. 7A to 7D, the image data at the left end is obtained by imaging the first state in which the cylinder 100a is disposed at a position close to the wall 100b, and the image data at the center Is obtained by imaging the second state in which the cylinder 100a is separated from the wall 100b and disposed at a position closer to the imaging system than the first state, and the image data of the right end further corresponds to the cylinder 100a from the wall 100b It is obtained by imaging the third state placed at a position closer to the imaging system than the second state.
被写体100までの距離Dを計測する際には、撮像装置3はCCDイメージセンサ10による撮像を開始し、パターン投射装置2は所定の投射パターンをCCDイメージセンサ10の奇数フィールドに同期させて投射する。これにより、CCDイメージセンサ10は、図7(a)に示すように、所定の投射パターンが投射された状態の被写体100の第1画像データを奇数フィールドに取得する。また、図7(b)に示すように、所定の投射パターンを投射していない状態の被写体100の第2画像データを偶数フィールドに取得する(ステップST1)。 When measuring the distance D to the object 100, the imaging device 3 starts imaging by the CCD image sensor 10, and the pattern projection device 2 projects a predetermined projection pattern in synchronization with the odd field of the CCD image sensor 10. . As a result, as shown in FIG. 7A, the CCD image sensor 10 acquires the first image data of the subject 100 in a state in which the predetermined projection pattern is projected as an odd field. Further, as shown in FIG. 7B, the second image data of the subject 100 in a state in which the predetermined projection pattern is not projected is acquired in the even field (step ST1).
第1画像データおよび第2画像データが取得されると、差分画像データ取得部14は、第1画像データから第2画像データを差し引いて、図7(c)に示すように、所定の投射パターンの反射光のみを含む第3画像データを取得する(ステップST2)。 When the first image data and the second image data are acquired, the differential image data acquisition unit 14 subtracts the second image data from the first image data, and as shown in FIG. 7C, a predetermined projection pattern is obtained. The third image data including only the reflected light is acquired (step ST2).
第3画像データが取得されると、自己相関係数取得部15は、第3画像データの画素間の自己相関係数R(x,y)を、第3画像データの各画素P(x,y)について算出する(ステップST3)。また、各画素P(x,y)の自己相関係数R(x,y)が算出されると、距離取得部16は算出された自己相関係数R(x,y)に基づいてテーブルを参照して、被写体100までの距離Dを取得する(ステップST4)。しかる後に、各画素P(x,y)に距離Dに対応する着色を施して、図7(d)に示すように距離画像データを生成して、モニタ18に出力可能とする(ステップST5)。 When the third image data is acquired, the autocorrelation coefficient acquisition unit 15 compares the autocorrelation coefficient R (x, y) between the pixels of the third image data with each pixel P (x, y) of the third image data. y) is calculated (step ST3). Also, when the autocorrelation coefficient R (x, y) of each pixel P (x, y) is calculated, the distance acquisition unit 16 calculates a table based on the calculated autocorrelation coefficient R (x, y). Referring to the distance D to the subject 100 is acquired (step ST4). Thereafter, each pixel P (x, y) is colored to correspond to the distance D, and distance image data is generated as shown in FIG. 7D and can be output to the monitor 18 (step ST5). .
このような撮像システムにおいては、一つの視点から被写体100を撮像して得られる第1画像データおよび第2画像データに基づいて被写体までの距離Dを計測できるので、撮像システムは撮像装置3を1台備えればよい。また、第1画像データおよび第2画像データを取得するために、被写体100に投射パターンを投射した状態と、被写体100にパターンを投射しない状態とを形成すればよく、投射パターン自体を変化させる必要がない。よって、パターン投射装置2を簡易な構成とすることができる。さらに、撮像に際して特殊なイメージセンサを用いる必要がなく、汎用のCCDイメージセンサ10を用いることができる。したがって、撮像システムの製造コストを抑えることができる。 In such an imaging system, since the distance D to the subject can be measured based on the first image data and the second image data obtained by imaging the subject 100 from one viewpoint, the imaging system has the imaging device 3 You only need to have one. Further, in order to obtain the first image data and the second image data, it is sufficient to form a state in which the projection pattern is projected on the subject 100 and a state in which the pattern is not projected on the subject 100. There is no Therefore, the pattern projection apparatus 2 can be made into a simple structure. Furthermore, it is not necessary to use a special image sensor at the time of imaging, and a general-purpose CCD image sensor 10 can be used. Therefore, the manufacturing cost of the imaging system can be reduced.
また、本例によれば、各画素P(x,y)の自己相関係数R(x,y)と被写体100までの距離Dとを対応付けた形態で記憶保持しているテーブルを有しており、距離取得部16は、各画素P(x,y)の自己相関係数R(x,y)に基づいてテーブルを参照して被写体100までの距離Dを取得している。したがって、フォトマスク6によって投射される投射パターンに拘わらず、被写体100までの距離Dを取得することができる。 Further, according to the present embodiment, it has a table that stores and holds the autocorrelation coefficient R (x, y) of each pixel P (x, y) and the distance D to the subject 100 in association with each other. The distance acquiring unit 16 acquires the distance D to the subject 100 with reference to the table based on the autocorrelation coefficient R (x, y) of each pixel P (x, y). Therefore, regardless of the projection pattern projected by the photomask 6, the distance D to the subject 100 can be acquired.
さらに、本例では、第3画像データの各画素P(x,y)について距離Dを取得しているので、被写体100の形状を把握することができる。 Furthermore, in this example, since the distance D is acquired for each pixel P (x, y) of the third image data, the shape of the subject 100 can be grasped.
また、本例によれば、パターン投射装置2から被写体100に至る投射光の光路の一部と、被写体100から撮像装置3に至る反射光の光路の一部とが共通の光路となっているので、撮像システムを小型化することが容易となる。 Further, according to this example, a part of the optical path of the projection light from the pattern projection device 2 to the subject 100 and a part of the optical path of the reflected light from the subject 100 to the imaging device 3 are common. Therefore, the imaging system can be easily miniaturized.
さらに、本例では、投射照明画角と撮像画角とが同一であり、重なっているので、第1画像データを取得する際に被写体100に影が発生することを抑制できる。したがって、所定の投射パターンの反射光のみを含む第3画像データを精度よく取得することができる。 Furthermore, in the present example, since the projection illumination angle of view and the imaging angle of view are the same and overlap, it is possible to suppress the occurrence of a shadow on the subject 100 when acquiring the first image data. Therefore, it is possible to accurately acquire the third image data including only the reflected light of the predetermined projection pattern.
また、本例では、パターン投射装置2は、所定の投射パターンをCCDイメージセンサ10の奇数フィールドに同期させて投射し、撮像装置3は、奇数フィールドで第1画像データを取得し、偶数フィールドで第2画像データを取得している。したがって、第1画像データおよび第2画像データを、ほぼリアルタイムに取得することが可能となる。また、第2画像データを利用して、モニタ18から被写体100の赤外画像を出力できる。 Further, in this example, the pattern projection device 2 projects the predetermined projection pattern in synchronization with the odd field of the CCD image sensor 10, and the imaging device 3 acquires the first image data in the odd field and The second image data is acquired. Therefore, it is possible to acquire the first image data and the second image data substantially in real time. Also, the infrared image of the subject 100 can be output from the monitor 18 using the second image data.
さらに、本例は、パターン投射装置2が光軸方向にフォトマスク6を移動させるフォトマスク移動機構9を備えている。したがって、フォトマスク6を移動させて、投射パターンの結像点の位置を変化させることにより、第1画像データの取得時における距離に対する感度を調整することができる。 Furthermore, the present example is provided with a photomask moving mechanism 9 for moving the photomask 6 in the optical axis direction by the pattern projection device 2. Therefore, by moving the photomask 6 to change the position of the imaging point of the projection pattern, it is possible to adjust the sensitivity to the distance at the time of acquisition of the first image data.
また、所定の投射パターンを投射するためのパターン投射装置2の光源5は、近赤外線を放射しているので、被写体100となっている人間、あるいは、被写体100の近傍に位置する人間に投射パターンの投射を意識させることなく被写体100までの距離Dを計測することができる。 In addition, since the light source 5 of the pattern projection apparatus 2 for projecting a predetermined projection pattern emits near-infrared rays, the projection pattern to the person being the subject 100 or to the person positioned in the vicinity of the subject 100 The distance D to the subject 100 can be measured without being aware of the projection of the image.
また、可視画像の撮像と赤外画像による距離の計測とを1つの撮像システムで行うことが可能となるが、この際に、光学系が1つで、撮像素子が1つで、DBPF7dを使うが、赤外カットフィルタは使わないことから、よりコンパクトで低コストに撮像システムを製造することができる。基本的に可視画像上に距離が表示されるようにすることで、どの被写体の距離を測定しているかが明確になり、誤認による距離の図り間違いを減らすことができる。また、赤外画像の各画素までの距離を求めることが可能なことから、可視画像の各画素までの距離が分かることになる。可視画像と各画素までの距離とから3次元上の各画素の位置が分かることになり、3D画像を作成することが可能になる。また、各画素の三次元上の動きを画像認識することにより、手の動きや体の動きによる電子機器の操作入力において、二つのカメラを使うことなく、奥行き方向(前後方向、遠ざかる方向と近づく方向)の動きを利用することが可能になる。 Moreover, although it becomes possible to perform imaging of a visible image and measurement of the distance by an infrared image with one imaging system, at this time, there is one optical system and one imaging element and DBPF 7d is used However, since the infrared cut filter is not used, the imaging system can be manufactured more compact and at low cost. Basically, by displaying the distance on the visible image, it becomes clear which object the distance is being measured, and it is possible to reduce an error in distance setting due to a false recognition. Further, since the distance to each pixel of the infrared image can be obtained, the distance to each pixel of the visible image can be known. The position of each pixel in three dimensions can be known from the visible image and the distance to each pixel, and it becomes possible to create a 3D image. In addition, by image recognition of three-dimensional movement of each pixel, in the operation input of the electronic device by hand movement and body movement, without using two cameras, it approaches in the depth direction (longitudinal direction, away direction) Direction) can be used.
また、GPSおよびコンパスセンサにより撮像装置の撮像位置と撮像方向が検知可能であれば、被写体の位置を特定可能であり、たとえば、可視画像に被写体の位置を表示可能となる。また。自動車の前方の画像を撮像して記憶するドライブレコーダにおいて、前の車との車間距離を記録することが可能となる。 Further, if the imaging position and imaging direction of the imaging device can be detected by the GPS and the compass sensor, the position of the subject can be specified. For example, the position of the subject can be displayed on a visible image. Also. In a drive recorder for capturing and storing an image in front of a car, it is possible to record an inter-vehicle distance from the front car.
なお、上記の例では、投射パターンが投射された状態で被写体100を撮像して得られる第1画像データを奇数フィールドに取得するとともに、所定の投射パターンが投射されていない状態で被写体100を撮像して得られる第2画像データを、第1画像データを取得した奇数フィールドに隣接した偶数フィールドから取得しているが、第1画像データおよび第2画像データは隣接したフィールドでなく、離散したフィールドから取得しても構わない。 In the above example, the first image data obtained by imaging the subject 100 in a state where the projection pattern is projected is acquired as an odd field, and the subject 100 is imaged in a state where a predetermined projection pattern is not projected. The second image data obtained from the first image data is acquired from the even field adjacent to the odd field from which the first image data was acquired, but the first image data and the second image data are not adjacent fields but discrete fields It does not matter if it is obtained from.
また、上記の例では、撮像装置3は、撮像素子としてインターレース方式のCCDイメージセンサ10を搭載しているが、プログレッシブ走査方式のイメージセンサを用いて第1画像データおよび第2画像データを取得してもよい。また、CMOS型のイメージセンサを用いてもよい。 Further, in the above example, the imaging device 3 is equipped with the CCD image sensor 10 of the interlace system as the imaging element, but the first image data and the second image data are acquired using the image sensor of the progressive scanning method. May be Alternatively, a CMOS image sensor may be used.
さらに、上記の例では、全ての画素に関して自己相関係数を算出しているが、被測定物の大きさによっては代表点のみの距離を算出してもよく、その場合は離散的な画素について自己相関係数を演算してもよい。 Furthermore, in the above example, the autocorrelation coefficient is calculated for all pixels, but depending on the size of the object to be measured, the distance of only the representative point may be calculated. In that case, for discrete pixels An autocorrelation coefficient may be calculated.
また、上記の例では光源5は0.85μmの波長の光線を放射しているが、光源5から放射される光に波長はこれに限られるものではなく、CCDイメージセンサ10、あるいは、CMOS型のイメージセンサによって撮像可能な波長の近赤外線、たとえば、波長0.7〜1.1μmの光線であれば適宜に選択することができる。ここで、汎用品として流通している一般的なイメージセンサであっても、その波長感度は1.0μm程度まで広がっている。なお、より波長の長い光線を利用して第1画像データを取得する場合には、パターン投射装置2の光源強度を十分なものとしておくことが望ましい。また、SN比が十分に取れる環境での使用を前提とすることが望ましい。ここで、近赤外光を用いる際は通常イメージセンサの受光面の前に配置される赤外遮断フィルタの波長選択性を適宜変更する必要があることはいうまでもない。また赤外波長に対する感度を高め、波長域を広げたイメージセンサもあり、それを用いる際にはさらに長波長の光源を使用できる。いずれの波長を選択しても同じ波長の背景光は必ず存在するのでその除去を行うために、前述した第1、第2画像データ間の差分を算出することは有効な手段である。 Although the light source 5 emits a light beam having a wavelength of 0.85 μm in the above example, the wavelength of the light emitted from the light source 5 is not limited to this, and the CCD image sensor 10 or CMOS type In the case of near infrared light of a wavelength that can be imaged by the image sensor, for example, a light beam with a wavelength of 0.7 to 1.1 μm, it can be appropriately selected. Here, even in the case of a general image sensor distributed as a general-purpose product, the wavelength sensitivity is extended to about 1.0 μm. In addition, when acquiring 1st image data using the light ray with a longer wavelength, it is desirable to make light source intensity | strength of the pattern projector 2 sufficient. In addition, it is desirable to presuppose use in an environment where a sufficient SN ratio can be obtained. Here, it is needless to say that, when near infrared light is used, it is necessary to appropriately change the wavelength selectivity of the infrared blocking filter disposed in front of the light receiving surface of the image sensor. There is also an image sensor which has enhanced sensitivity to infrared wavelengths and a wider wavelength range, and when it is used, a light source with a longer wavelength can be used. Since background light of the same wavelength is always present no matter which wavelength is selected, it is an effective means to calculate the difference between the first and second image data described above in order to remove the background light.
さらに、フォトマスク6によって投射される所定の投射パターンは、ストライプなどの規則性のある投射パターンであってもよい。また、被写体100や撮像環境に応じて投射パターンを異なるものとしてもよい。この場合には、フォトマスク6の替わりに、透過型の液晶パネル、反射型の液晶パネル、デジタル・マイクロミラー・デバイスなどの光源からの光線の一部分を透過、あるいは、反射する空間変調素子を用い、投射パターンを変化させることができる。 Furthermore, the predetermined projection pattern projected by the photomask 6 may be a regular projection pattern such as a stripe. Also, the projection pattern may be different depending on the subject 100 and the imaging environment. In this case, instead of the photomask 6, a spatial modulation element that transmits or reflects a part of the light beam from a light source such as a transmissive liquid crystal panel, a reflective liquid crystal panel, or a digital micromirror device is used. , The projection pattern can be changed.
また、精度を要求されない用途においては、パターン投射装置2と撮像装置3の光路を共通にする必要はなく、それぞれ独立した光学系を用いてもよいことはいうまでもない。 Further, in applications where accuracy is not required, it is not necessary to make the optical paths of the pattern projection device 2 and the imaging device 3 common, and it goes without saying that optical systems independent of each other may be used.
次に、本発明の第2の実施の形態の撮像システムを説明する。第2の実施の形態の撮像システムでは、第1の実施の形態に対してカラーフィルタ10bの一部の構成と、信号処理部21におけるRGBの各信号からのIR成分の除去方法と、IR成分の求め方が異なるものとなっているが、その他の構成は第1の実施の形態と同様となっており、以下にカラーフィルタ10bと、IR成分の除去方法について説明する。 Next, an imaging system according to a second embodiment of the present invention will be described. In the imaging system of the second embodiment, the configuration of part of the color filter 10b, the method of removing the IR component from each signal of RGB in the signal processing unit 21, and the IR component in the first embodiment. However, the other configuration is the same as that of the first embodiment, and the color filter 10b and the method of removing the IR component will be described below.
本実施の形態において、カラーフィルタ10be(RGBCの構成1)は、例えば、図10に示すように、上述のベイヤ配列のカラーフィルタのパターンの4つのBのうちの2つをCとし、4つのRのうちの2つをCとし、8つのGのうちの4つをCとしている。すなわち、カラーフィルタ10beは、4行4列の基本配列において、R,G,B,Cの4種類のフィルタ部のうちのGのフィルタ部が4つ、Cのフィルタ部が8つ、Rのフィルタ部およびBのフィルタ部が2つずつ配置されるとともに、同じ種類のフィルタ部同士は互いに行方向および列方向で隣接しないように離れて配置されている。したがって、8つ配置されるCのフィルタ部は市松模様となるように配置される。ここで、Cとは、クリアなフィルタ部として素通しの状態を示すもので、基本的に可視光帯域から近赤外の波長帯域まで透過特性を有するものとなっており、ここでは、可視光帯域においてC=R+G+Bとしている。なお、クリアとなるCは、RGBの3色が透過することから白色光、すなわちホワイト(W)ということができ、C=W=R+G+Bとなる。したがって、Cは、可視光帯域の略全波長帯域の光量に対応することになる。 In the present embodiment, for example, as shown in FIG. 10, in the color filter 10be (arrangement 1 of RGBC), two out of the four B of the color filter pattern of the Bayer arrangement described above are C, and four are Two of R are C, and four of eight G are C. That is, in the basic arrangement of 4 rows and 4 columns, the color filter 10be has four G filter units, eight C filter units, and four R filter units of R, G, B, and C. While two filter units and two filter units of B are arranged, filter units of the same type are arranged so as not to be adjacent to each other in the row direction and the column direction. Therefore, the eight C filter sections are arranged in a checkered pattern. Here, C indicates a transparent state as a clear filter section, and basically has transmission characteristics from the visible light band to the near infrared wavelength band, and here, the visible light band And C = R + G + B in FIG. C to be clear can be called white light, that is, white (W) because three colors of RGB are transmitted, and C = W = R + G + B. Therefore, C corresponds to the light quantity of substantially the entire wavelength band of the visible light band.
ここで、図11のカラーフィルタ10bおよびDBPF7dの透過率スペクトル(分光透過特性)を示すグラフに示すように、R、G、Bの各フィルタ部で可視光帯域の長波長側では透過特性があり、クリアなフィルタ部であるCのフィルタ部においても可視光帯域の長波長側で光が透過するようにうなっている。これに対してDBPF7dを用いることにより、第1の実施の形態と同様に、可視光帯域より長波長側を透過する赤外を第2の波長帯域となるように制限することになり、R、G、B、Cのフィルタ部とDBPF7dを通過する光量がR、G、B、Cの各フィルタ部でほぼ同じ(近似)になり、可視光帯域では、R、G、B、Cの各フィルタ部の波長に応じた透過特性が異なる。 Here, as shown in the graph showing the transmittance spectra (spectral transmission characteristics) of the color filter 10b and the DBPF 7d in FIG. 11, there are transmission characteristics on the long wavelength side of the visible light band in each of R, G and B filter parts Also in the filter section C which is a clear filter section, light is transmitted in the long wavelength side of the visible light band. On the other hand, by using DBPF 7d, as in the first embodiment, the infrared light transmitting on the longer wavelength side than the visible light band is limited to the second wavelength band, R, The amount of light passing through the G, B, and C filter sections and the DBPF 7 d becomes almost the same (approximate) in each of the R, G, B, and C filter sections, and in the visible light band, the R, G, B, and C filters Transmission characteristics differ depending on the wavelength of the part.
なお、第1および第2の実施の形態においても、可視光帯域より長波長側を透過する赤外を第2の波長帯域となるように制限することになり、R、G、B、IRのフィルタ部とDBPF7dを通過する光量がR、G、B、IRの各フィルタ部でほぼ同じになり、可視光帯域では、R、G、B、IRの各フィルタ部の波長に応じた透過特性が異なる。 Also in the first and second embodiments, the infrared rays transmitting the longer wavelength side than the visible light band are limited to be the second wavelength band, and R, G, B, IR The amount of light passing through the filter unit and the DBPF 7d is almost the same in the R, G, B, and IR filter units, and in the visible light band, the transmission characteristics according to the wavelengths of the R, G, B, and IR filter units are It is different.
これにより、第3の実施の形態においても、各画素のIR補正を精度良く行い、色再現性が高い可視画像の生成が可能になる。すなわち、第1の実施の形態のように可視光帯域の略全波長域に遮断特性を有し、可視光帯域より長波長側の赤外に透過特性を有する上述のIRのフィルタ部を備えなくても、Cのフィルタ部を備えることにより、IR信号を下記の式で計算できる。 As a result, even in the third embodiment, IR correction of each pixel can be accurately performed, and a visible image with high color reproducibility can be generated. That is, it does not include the filter part of the above-mentioned IR having the blocking characteristic in substantially the entire wavelength range of the visible light band as in the first embodiment and the transmission characteristic in the infrared side longer than the visible light band. However, by providing the C filter unit, the IR signal can be calculated by the following equation.
以下の説明で、C(W)、R、G、B、IRは、イメージセンサ10からの出力信号のレベルを示すが、C(W)、R、G、Bは、可視光帯域のレベルを示し、赤外成分を含まないものとする。
ここで、カラーフィルタ10bをC=W≒R+G+Bと設計し、RGBの各信号から除去すべきIR信号をIR’とすると、
IR’=((R+IR)+(G+IR)+(B+IR)−(C+IR))/2=IR+(R+G+B−C)/2
IR’≒IRとなる。なお、IRは計測等により求められる実際の値を示し、IR’は、計算により求められる値を示す。各フィルタより、IR’を減算することにより、IR補正ができる。
すなわち、
Rフィルタ(R+IR):
R’=(R+IR)−IR’=R−(R+G+B−C)/2
Gフィルタ(G+IR):
G’=(G+IR)−IR’=G−(R+G+B−C)/2
Bフィルタ(B+IR):
B’=(B+IR)−IR’=B−(R+G+B−C)/2
C(=W)フィルタ(W+IR):
W’=(C+IR)−IR’=C−(R+G+B−C)/2
となる。In the following description, C (W), R, G, B, and IR indicate the levels of the output signal from the image sensor 10, but C (W), R, G, and B indicate the levels of the visible light band. Indicated and shall not contain infrared components.
Here, the color filter 10 b is designed as C = W ≒ R + G + B, and an IR signal to be removed from each of RGB signals is IR ′,
IR '= ((R + IR) + (G + IR) + (B + IR)-(C + IR)) / 2 = IR + (R + G + B-C) / 2
IR '≒ IR. In addition, IR shows the actual value calculated | required by measurement etc., and IR 'shows the value calculated | required by calculation. By subtracting IR ′ from each filter, IR correction can be performed.
That is,
R filter (R + IR):
R '= (R + IR) -IR' = R- (R + G + B-C) / 2
G filter (G + IR):
G '= (G + IR) -IR' = G- (R + G + B-C) / 2
B filter (B + IR):
B '= (B + IR) -IR' = B- (R + G + B-C) / 2
C (= W) filter (W + IR):
W '= (C + IR) -IR' = C- (R + G + B-C) / 2
It becomes.
これにより、カラーフィルタ10bにおいて、IRのフィルタ部に代えてクリアなCのフィルタ部を用いてもDBPF7dにより各フィルタ部のIRの透過率を近似させることができ、上述のようにIR成分を求めて、これを各フィルタ部の信号から取り除くことで、色再現性を向上することができる。 As a result, even if a clear C filter is used instead of the IR filter in the color filter 10b, the IR transmittance of each filter can be approximated by the DBPF 7d, and the IR component is determined as described above. By removing this from the signal of each filter section, color reproducibility can be improved.
なお、このような計算は、上述のように内挿法により、例えば、各画素で、R+IR、G+IR、B+IR、C+IRを求め、各画素で上述の計算を行うことになる。なお、C=W≒R+G+Bと設計するものとしたが、必ずしも略正確にこの式に一致する必要はなく、近似していれば、誤差やその他の要によりずれがあってもよく、例えば、10%程度のずれがあってもよい。 In addition, such calculation is performed by obtaining R + IR, G + IR, B + IR, and C + IR in each pixel, for example, by interpolation as described above, and the above calculation is performed in each pixel. Although C = W ≒ R + G + B is designed, it is not necessary to exactly conform to this formula almost exactly, and if it is approximate, there may be a difference due to an error or other factors, for example, 10 There may be a deviation of about%.
また、Cについては、R+G+Bとなることで、画素の受光量が多く飽和し易くなることから、Cのフィルタ部において、可視光帯域における受光量を下げたり、赤外の波長帯域と可視光帯域とを含む波長帯域に渡って受光量を下げたり、各画素における画素を構成する素子部において、受光量に対して蓄積される電荷を減少させたりしてもよい。その際には、それに応じて上述の式を変更する必要がある。 In addition, since C becomes R + G + B, a large amount of light received by the pixel is likely to be saturated, so that the amount of light received in the visible light band can be reduced in the filter portion of C, or the infrared wavelength band and visible light band The amount of light received may be reduced over a wavelength band including the above, or the charge accumulated with respect to the amount of light received may be reduced in the element portion constituting the pixel in each pixel. In that case, it is necessary to change the above-mentioned formula accordingly.
なお、図12は、R、G、B、Cのカラーフィルタの別の配列を示すもので、2×2の配列において、R、G、B、Cが均等に1つずつ配置されたものである。
また、従来のR、G、Bのベイヤ配列の場合に、図13に示すように、2×2の配列中では、R,Bが1つずつ配置されるとともにGが2つ配置される。
また、この従来のCやIRを含まない配列のうちの1つのGをIRに変更したR、G、B、IRのカラーフィルタの2×2の配列は、図14に示すように、R、G、B、IRが1つずつ配置された配列となる。FIG. 12 shows another arrangement of R, G, B and C color filters, in which R, G, B and C are equally arranged one by one in a 2 × 2 arrangement. is there.
Further, in the case of the conventional Bayer arrangement of R, G, and B, one R and one B and two Gs are arranged in the 2 × 2 array as shown in FIG.
In addition, as shown in FIG. 14, a 2 × 2 array of R, G, B, and IR color filters in which one G of the conventional C- and IR-free sequences is changed to IR, as shown in FIG. It becomes an array in which G, B and IR are arranged one by one.
このようなカラーフィルタとして、図10に示すRGB―Cの構成1、図12に示すRGB―Cの構成2、図13に示す従来のRGB配列(ベイヤ配列)、図14に示すRGB―IR配列の一例では、図15に示すような特性の違いがある。なお、Cは、RGB等の色の情報を含まないが、光量として輝度の情報を含むものである。
したがって、RGB−C(構成1)センサは、Cの市松配置により、輝度解像度は高いが、RGBの画素がまばらであり、かつ、非対称な配置になるため、解像度が低く、モアレが生じやすい。但し、色信号は、輝度信号に対して、求められる解像度は、1/2以下であり低いので、問題ない。また感度が高い。As such color filters, configuration 1 of RGB-C shown in FIG. 10, configuration 2 of RGB-C shown in FIG. 12, conventional RGB arrangement (Bayer arrangement) shown in FIG. 13, RGB-IR arrangement shown in FIG. In one example, there is a difference in characteristics as shown in FIG. C does not include information of colors such as RGB, but includes information of luminance as a light amount.
Therefore, the RGB-C (Constitution 1) sensor has a high luminance resolution due to the checkered arrangement of C, but the RGB pixels are sparse and asymmetric arrangement, so the resolution is low and moiré is likely to occur. However, there is no problem in the color signal because the resolution required for the luminance signal is 1/2 or less and lower. Also the sensitivity is high.
RGB−C(構成2)は、従来のRGBセンサと輝度解像度、色解像度は、同程度であり、感度はRGBセンサより高い。可視光帯域に透過特性を持たないIRを設けているRGB−IRセンサより、可視画像において、感度が高く、輝度の解像度も高くなる。
すなわち、上述の第1の実施の形態のIRを有するカラーフィルタより、Cを有するカラーフィルタの方が、解像度や感度で有利になる可能性が高い。RGB-C (Configuration 2) has the same luminance resolution and color resolution as the conventional RGB sensor, and the sensitivity is higher than that of the RGB sensor. The sensitivity is higher in the visible image and the resolution of the luminance is also higher in the visible image than in the RGB-IR sensor in which the IR having no transmission characteristic in the visible light band is provided.
That is, the color filter having C is more likely to be advantageous in resolution and sensitivity than the color filter having IR according to the first embodiment described above.
次に、本発明の第3の実施の形態の撮像センサおよび撮像装置を説明する。第3の実施の形態は、カラーフィルタの各色を一般化したものであり、本発明のカラーフィルタがRGB−IRやRGB−Cに限定されるものでないことを示すものである。以下に、一般化した4色のフィルタ部を持つカラーフィルタを備えた撮像センサにおけるIR成分の除去方法を説明する。なお、4色(4種類)のフィルタ部は、基本的に可視光帯域における波長に応じた透過特性が異なり、かつ、上述のDBPF7dの第2の波長帯域が含まれる波長帯域に、可視光帯域より長波長側の他のフィルタ部との透過率の差が20%以下、好ましくは10%以下となる第3の波長帯域を備え、この第3の波長帯域に、DBPF7dの第2の波長帯域が含まれるものとなっている。これにより、カラーフィルタとDBPF7dとを用いた場合に、可視光帯域より赤外側の波長に応じた透過特性が各色のフィルタ部で近似することになる。 Next, an imaging sensor and an imaging apparatus according to a third embodiment of the present invention will be described. The third embodiment is a generalization of each color of the color filter, and shows that the color filter of the present invention is not limited to RGB-IR or RGB-C. Below, the removal method of IR component in the imaging sensor provided with the color filter which has a four-color filter part generalized is demonstrated. The four-color (four types) filter unit basically has different transmission characteristics according to the wavelength in the visible light band, and the visible light band in the wavelength band including the second wavelength band of the above-mentioned DBPF 7d. It has a third wavelength band in which the difference in transmittance with the other filter part on the longer wavelength side is 20% or less, preferably 10% or less, and in this third wavelength band, the second wavelength band of DBPF 7d Has been included. As a result, when the color filter and the DBPF 7 d are used, the transmission characteristics according to the wavelength on the infrared side of the visible light band are approximated by the filter units of the respective colors.
さらに、4種類の画素のフィルタ配置において、カラーフィルタを下記の条件で、設計するとIRを分離できる。
フィルタ配置は、図16に示すように2×2の配置において、4類のフィルタ部A、B、C、Dが1つずつ備えられることが好ましい。
また、可視の波長帯においてなるべく下記の関係が成り立つようにA,B,C,Dの各フィルタ部を設計することが好ましい。
すなわち、可視光帯域において、
KaA+KbB+KcC+KdD≒0
とする。なお、A,B,C,Dは、各フィルタ部の可視光帯域のイメージセンサ10からの出力信号のレベルを示すものである。Furthermore, in the filter arrangement of four types of pixels, IR can be separated by designing a color filter under the following conditions.
In the filter arrangement, it is preferable that four kinds of filter parts A, B, C, and D be provided in a 2 × 2 arrangement as shown in FIG.
Moreover, it is preferable to design each filter part of A, B, C, and D so that the following relationship may be realized in the visible wavelength band as much as possible.
That is, in the visible light band,
KaA + KbB + KcC + KdD ≒ 0
I assume. In addition, A, B, C, and D show the level of the output signal from the image sensor 10 of the visible light zone | band of each filter part.
可視光帯域より長波長側のIR領域は、IRの透過率が、A、B、C、Dの各フィルタ部の上述の第3の波長帯域で略一定となるものとする。なお、IRの透過率が、A、B、C、Dの各フィルタ部で、あるIR透過率の略整数倍になるものであってもよい。このように設計すると(ここでは、IRの透過率が上述のように一定とする)、
Ka(A+IR)+Kb(B+IR)+Kc(C+IR)+Kd(D+IR)≒IR(Ka+Kb+Kc+Kd)
であるから、IR信号は、
IR’=(Ka(A+IR)+Kb(B+IR)+Kc(C+IR)+Kd(D+IR))/(Ka+Kb+Kc+Kd)
により計算できる。
下記の計算により、A,B,C,Dの各画素に含まれるIR成分を補正できる。
A’=(A+IR)−(Ka(A+IR)+Kb(B+IR)+Kc(C+IR)+Kd(D+IR))/(Ka+Kb+Kc+Kd)=A−(KaA+KbB+KcC+KdD)/(Ka+Kb+Kc+Kd)
B’=B+IR−(Ka(A+IR)+Kb(B+IR)+Kc(C+IR)+Kd(D+IR))/(Ka+Kb+Kc+Kd)=B−(KaA+KbB+KcC+KdD)/(Ka+Kb+Kc+Kd)
C’=C+IR−(Ka(A+IR)+Kb(B+IR)+Kc(C+IR)+Kd(D+IR))/(Ka+Kb+Kc+Kd)=C−(KaA+KbB+KcC+KdD)/(Ka+Kb+Kc+Kd)
D’=D+IR−(Ka(A+IR)+Kb(B+IR)+Kc(C+IR)+Kd(D+IR))/(Ka+Kb+Kc+Kd)=D−(KaA+KbB+KcC+KdD)/(Ka+Kb+Kc+Kd)
ここで、誤差分は、
(KaA+KbB+KcC+KdD)/(Ka+Kb+Kc+Kd)である。この誤差分は、RGBマトリクスにおいて補正ができる。
実際、各フィルタ部についてのIR成分の透過率は、多少異なるため、下記のとおり、係数補正した信号で補正する。In the IR region on the longer wavelength side than the visible light band, the transmittance of IR is substantially constant in the above-described third wavelength band of each of the filter portions A, B, C, and D. The IR transmittance may be approximately an integral multiple of an IR transmittance in each of the A, B, C, and D filter portions. When designed in this way (here, the transmittance of IR is constant as described above),
Ka (A + IR) + Kb (B + IR) + Kc (C + IR) + Kd (D + IR) ≒ IR (Ka + Kb + Kc + Kd)
Therefore, the IR signal is
IR '= (Ka (A + IR) + Kb (B + IR) + Kc (C + IR) + Kd (D + IR)) / (Ka + Kb + Kc + Kd)
It can be calculated by
The IR component contained in each pixel of A, B, C and D can be corrected by the following calculation.
A '= (A + IR)-(Ka (A + IR) + Kb (B + IR) + Kc (C + IR) + Kd (D + IR) / (Ka + Kb + Kc + Kd) = A- (KaA + KbB + KcC + KdD) / (Ka + Kb + Kc + Kd)
B '= B + IR- (Ka (A + IR) + Kb (B + IR) + Kc (C + IR) + Kd (D + IR) / (Ka + Kb + Kc + Kd) = B- (KaA + KbB + KcC + KdD) / (Ka + Kb + Kc + Kd)
C '= C + IR- (Ka (A + IR) + Kb (B + IR) + Kc (C + IR) + Kd (D + IR) / (Ka + Kb + Kc + Kd) = C- (KaA + KbB + KcC + KdD) / (Ka + Kb + Kc + Kd)
D '= D + IR- (Ka (A + IR) + Kb (B + IR) + Kc (C + IR) + Kd (D + IR) / (Ka + Kb + Kc + Kd) = D- (KaA + KbB + KcC + KdD) / (Ka + Kb + Kc + Kd)
Here, the error is
It is (KaA + KbB + KcC + KdD) / (Ka + Kb + Kc + Kd). This error can be corrected in the RGB matrix.
In fact, since the transmittance of the IR component for each filter section is somewhat different, it is corrected with a coefficient-corrected signal as described below.
A’=A+IR*KIRa−KIRa(Ka(A+IR*KIRa)+Kb(B+IR*KIRb)+Kc(C+IR*KIRc)+Kd(D+IR*KIRd)) /(Ka*KIRa+Kb*KIRb+Kc*KIRc+Kd*KIRd) A '= A + IR * KIRa-KIRa (Ka (A + IR * KIRa) + Kb (B + IR * KIRb) + Kc (C + IR * KIRc) + Kd (D + IR * KIRd)) / (Ka * KIRa + Kb * KIRb + Kc * KIRc + Kd * KIRd)
B’=B+IR*KIRb−KIRb(Ka(A+IR*KIRa)+Kb(B+IR*KIRb)+Kc(C+IR*KIRc)+Kd(D+IR*KIRd)) /(Ka*KIRa+Kb*KIRb+Kc*KIRc+Kd*KIRd) B '= B + IR * KIRb-KIRb (Ka (A + IR * KIRa) + Kb (B + IR * KIRb) + Kc (C + IR * KIRc) + Kd (D + IR * KIRd)) / (Ka * KIRa + Kb * KIRb + Kc * KIRc + Kd * KIRd)
C’=C+IR*KIRc−KIRc(Ka(A+IR*KIRa)+Kb(B+IR*KIRb)+Kc(C+IR*KIRc)+Kd(D+IR*KIRd))/(Ka*KIRa+Kb*KIRb+Kc*KIRc+Kd*KIRd) C '= C + IR * KIRc-KIRc (Ka (A + IR * KIRa) + Kb (B + IR * KIRb) + Kc (C + IR * KIRc) + Kd (D + IR * KIRd)) / (Ka * KIRa + Kb * KIRb + Kc * KIRc + Kd * KIRd)
D’=D+IR*KIRd−KIRd(Ka(A+IR*KIRa)+Kb(B+IR*KIRb)+Kc(C+IR*KIRc)+Kd(D+IR*KIRd)) /(Ka*KIRa+Kb*KIRb+Kc*KIRc+Kd*KIRd) D '= D + IR * KIRd-KIRd (Ka (A + IR * KIRa) + Kb (B + IR * KIRb) + Kc (C + IR * KIRc) + Kd (D + IR * KIRd)) / (Ka * KIRa + Kb * KIRb + Kc * KIRc + Kd * KIRd)
なお、DBPFを使った時の各フィルタの分光透過特性は、図11に示すようになる。なお、フィルタ部の例としては、R+IR、G+IR、B+IR、C+IRとなる4種類のフィルタ部を使った例であるが、IRの部分が一定または互いに整数倍の関係となり、KaA+KbB+KcC+KdD≒0となるようにカラーフィルタが設計されていれば、各フィルタ部は、R+IR、G+IR、B+IR、C+IRに限られるものではない。 The spectral transmission characteristic of each filter when DBPF is used is as shown in FIG. Although the filter section is an example using four types of filter sections of R + IR, G + IR, B + IR, and C + IR, the IR parts are constant or have an integral multiple of each other, such that KaA + KbB + KcC + KdD ≒ 0. As long as a color filter is designed, each filter section is not limited to R + IR, G + IR, B + IR, and C + IR.
図17に、Bのフィルタ部とDBPF7dを合わせた分光透過を示し、図18に、Gのフィルタ部とDBPF7dを合わせた分光透過を示し、図19に、Bのフィルタ部とDBPF7dを合わせた分光透過を示し、図20に、C(W)のフィルタ部とDBPF7dを合わせた分光透過を示す。 FIG. 17 shows the spectral transmission obtained by combining the filter unit of B and the DBPF 7 d, FIG. 18 shows the spectral transmission obtained by combining the filter unit of G and the DBPF 7 d, and the spectrum obtained by combining the filter unit of B and DBPF 7 d in FIG. FIG. 20 shows transmission, and FIG. 20 shows spectral transmission obtained by combining the filter part of C (W) and DBPF 7 d.
各分光透過特性は、上述の各式に示すように、可視のR透過域、可視のG透過域、可視のB透過域、IR透過領域の4つの透過率を足し合わせたものになっている。このことから、4種類以上のフィルタの値から、各可視のR透過域、可視のG透過域、可視のB透過域、IR透過領域の信号値を計算できる。なお、分光透過特性は、上述の各A、B、C、Dの各分校透過特性を示す式に基づいて決定され。これらのうちの二つのフィルタの分光透過特性の組み合わせから6通り決定される。 Each spectral transmission characteristic is, as shown in the above-mentioned formulas, a sum of four transmissions of a visible R transmission region, a visible G transmission region, a visible B transmission region, and an IR transmission region. . From this, it is possible to calculate signal values of each visible R transmission region, visible G transmission region, visible B transmission region, and IR transmission region from the values of four or more types of filters. The spectral transmission characteristics are determined on the basis of the above-mentioned formulas showing each of the branch transmission characteristics of A, B, C, and D. Six combinations of spectral transmission characteristics of two of these filters are determined.
2 パターン投射装置(パターン投射手段)
3 撮像装置
7d DBPF(光学フィルタ)
10 イメージセンサ(撮像センサ)
10a イメージセンサ本体
10b カラーフィルタ
14 差分画像データ取得部(差分画像データ取得手段)
15 自己相関係数取得部(自己相関係数取得手段)
16 距離取得部(距離取得手段)
17 テーブル記憶部(テーブル記憶手段)
18 モニタ
21 信号処理部(信号処理手段)
22 可視画像信号
23 赤外画像信号
IR 第1の波長帯域
DBPF(IR) 第2の波長帯域
DBPF(VR) 可視光帯域2 Pattern projection device (pattern projection means)
3 Imaging device 7d DBPF (optical filter)
10 Image sensor (imaging sensor)
10a Image sensor main body 10b color filter 14 difference image data acquisition unit (difference image data acquisition means)
15 Autocorrelation coefficient acquisition unit (Autocorrelation coefficient acquisition means)
16 distance acquisition unit (distance acquisition means)
17 Table storage unit (table storage means)
18 Monitor 21 Signal processing unit (signal processing means)
22 visible image signal 23 infrared image signal IR first wavelength band DBPF (IR) second wavelength band DBPF (VR) visible light band
Claims (6)
画素毎に受光素子が配置された撮像センサ本体を備え、かつ、前記可視光帯域の透過特性がそれぞれ異なるとともに、前記可視光帯域より長波長側の第3の波長帯域における透過率が互いに近似する4種類以上の領域を備え、当該領域が所定配列で前記撮像センサ本体の各画素に配置されるカラーフィルタを備える撮像センサと、
前記撮像センサ上に像を結ぶレンズを有する光学系と、
前記撮像センサから出力される信号に基づいて、可視光の複数の色の成分の信号と、前記第2の波長帯域に対応する赤外光の成分の信号とを求め、これら信号に基づいて、同じ撮像範囲の可視画像信号および赤外画像信号を同時に出力可能な信号処理手段と、
前記赤外光の光源を備え、所定の投射パターンを被写体に断続的に投射するパターン投射手段と、
前記信号処理手段から出力される前記赤外画像信号から、前記所定の投射パターンが投射されたときに撮像された第1画像データを取得し、前記所定の投射パターンが投射されていないときに撮像された第2画像データを取得し、前記第1画像データと前記第2画像データとの差分から前記所定の投射パターンの反射光のみを含む第3画像データを取得する差分画像データ取得手段と、
前記第3画像データの画素間の自己相関係数を予め定めた所定の画素について算出する自己相関係数取得手段と、
前記所定の画素の自己相関係数に基づいて、前記被写体までの距離を取得する距離取得手段とを備え、
前記光学フィルタの前記第2の波長帯域が、前記カラーフィルタの前記第3の波長帯域に含まれるように、前記光学フィルタの分光透過特性および前記カラーフィルタの各種類の前記領域の分光透過特性が設定されていることを特徴とする撮像システム。 In the second wavelength band, which has a transmission characteristic in the visible light band, has a blocking characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band, and is a portion within the first wavelength band An optical filter having transmission characteristics;
The imaging sensor main body in which the light receiving element is arranged for each pixel, and the transmission characteristics of the visible light band are different from each other, and the transmittances in the third wavelength band longer than the visible light band approximate each other An imaging sensor including four or more types of regions, and the regions including a color filter disposed in each pixel of the imaging sensor main body in a predetermined array;
An optical system having a lens that forms an image on the imaging sensor;
Based on the signals output from the imaging sensor, signals of components of plural colors of visible light and signals of components of infrared light corresponding to the second wavelength band are determined, and based on these signals, Signal processing means capable of simultaneously outputting a visible image signal and an infrared image signal of the same imaging range;
Pattern projection means including a light source of the infrared light and intermittently projecting a predetermined projection pattern onto a subject;
First image data captured when the predetermined projection pattern is projected is acquired from the infrared image signal output from the signal processing means, and imaging is performed when the predetermined projection pattern is not projected Differential image data acquisition means for acquiring acquired second image data and acquiring third image data including only reflected light of the predetermined projection pattern from the difference between the first image data and the second image data;
An autocorrelation coefficient acquisition unit that calculates an autocorrelation coefficient between pixels of the third image data for a predetermined predetermined pixel;
Distance acquisition means for acquiring the distance to the subject based on the autocorrelation coefficient of the predetermined pixel ,
The spectral transmission characteristics of the optical filter and the spectral transmission characteristics of the regions of each type of the color filter are such that the second wavelength band of the optical filter is included in the third wavelength band of the color filter An imaging system characterized by being set .
前記距離取得手段は、前記画素の自己相関係数に基づいて前記テーブルを参照して、前記被写体までの距離を取得することを特徴とする請求項1に記載の撮像システム。 A table storing and holding an autocorrelation coefficient of pixels of the third image data and a distance to the subject in association with each other;
The imaging system according to claim 1, wherein the distance acquiring unit acquires the distance to the subject with reference to the table based on an autocorrelation coefficient of the pixel.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014242046 | 2014-11-28 | ||
JP2014242046 | 2014-11-28 | ||
PCT/JP2015/083343 WO2016084926A1 (en) | 2014-11-28 | 2015-11-27 | Image pickup system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016084926A1 JPWO2016084926A1 (en) | 2017-06-29 |
JP6426753B2 true JP6426753B2 (en) | 2018-11-21 |
Family
ID=56074473
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016561955A Active JP6426753B2 (en) | 2014-11-28 | 2015-11-27 | Imaging system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6426753B2 (en) |
WO (1) | WO2016084926A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11393123B2 (en) * | 2018-01-15 | 2022-07-19 | Canon Kabushiki Kaisha | Information processing device, control method therefor, non-transitory computer-readable storage medium, and driving control system |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6732902B2 (en) | 2016-06-03 | 2020-07-29 | マクセル株式会社 | Imaging device and imaging system |
JP7565282B2 (en) * | 2019-01-20 | 2024-10-10 | マジック アイ インコーポレイテッド | Three-dimensional sensor having a bandpass filter having multiple passbands |
JP7154257B2 (en) * | 2020-07-08 | 2022-10-17 | マクセル株式会社 | Imaging device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4407448B2 (en) * | 2004-09-24 | 2010-02-03 | 三菱電機株式会社 | Imaging device |
JP5587756B2 (en) * | 2010-12-10 | 2014-09-10 | 日立マクセル株式会社 | Optical distance measuring device, distance measuring method of optical distance measuring device, and distance measuring program |
JP6251962B2 (en) * | 2012-03-01 | 2017-12-27 | 日産自動車株式会社 | Camera apparatus and image processing method |
-
2015
- 2015-11-27 JP JP2016561955A patent/JP6426753B2/en active Active
- 2015-11-27 WO PCT/JP2015/083343 patent/WO2016084926A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11393123B2 (en) * | 2018-01-15 | 2022-07-19 | Canon Kabushiki Kaisha | Information processing device, control method therefor, non-transitory computer-readable storage medium, and driving control system |
Also Published As
Publication number | Publication date |
---|---|
WO2016084926A1 (en) | 2016-06-02 |
JPWO2016084926A1 (en) | 2017-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109155843B (en) | Image projection system and image projection method | |
US10412352B2 (en) | Projector apparatus with distance image acquisition device and projection mapping method | |
JP4530571B2 (en) | 3D image detection device | |
US9383549B2 (en) | Imaging system | |
JP5012495B2 (en) | IMAGING ELEMENT, FOCUS DETECTION DEVICE, FOCUS ADJUSTMENT DEVICE, AND IMAGING DEVICE | |
JP5947507B2 (en) | Imaging apparatus and control method thereof | |
JP5374862B2 (en) | Focus detection apparatus and imaging apparatus | |
JP5157400B2 (en) | Imaging device | |
JP6426753B2 (en) | Imaging system | |
US20140168424A1 (en) | Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene | |
JP5565105B2 (en) | Imaging device | |
JP4992481B2 (en) | Focus detection apparatus and imaging apparatus | |
US20120140094A1 (en) | Pattern projection and imaging using lens arrays | |
JP2010057067A (en) | Image pickup apparatus and image processing apparatus | |
EP2630789A1 (en) | System and method for imaging and image processing | |
JP7164694B2 (en) | Spectral camera, imaging method, program and recording medium | |
US9979876B2 (en) | Imaging apparatus, imaging method, and storage medium | |
JP2014230179A (en) | Imaging apparatus and imaging method | |
JP7005175B2 (en) | Distance measuring device, distance measuring method and imaging device | |
JP5587756B2 (en) | Optical distance measuring device, distance measuring method of optical distance measuring device, and distance measuring program | |
JP2006165601A (en) | Imaging apparatus and imaging element | |
JP2001145126A (en) | Three-dimensional image detecting device | |
US10001621B2 (en) | Focusing control device, focusing control method, focusing control program, lens device, and imaging device | |
JP6529214B2 (en) | Imaging device | |
JP2007315808A (en) | Multi-spectrum imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170313 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20171110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180424 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6426753 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |