JP2016103786A - Imaging system - Google Patents

Imaging system Download PDF

Info

Publication number
JP2016103786A
JP2016103786A JP2014242087A JP2014242087A JP2016103786A JP 2016103786 A JP2016103786 A JP 2016103786A JP 2014242087 A JP2014242087 A JP 2014242087A JP 2014242087 A JP2014242087 A JP 2014242087A JP 2016103786 A JP2016103786 A JP 2016103786A
Authority
JP
Japan
Prior art keywords
image
lens
infrared
light
side lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014242087A
Other languages
Japanese (ja)
Other versions
JP6517499B2 (en
Inventor
石崎 修
Osamu Ishizaki
修 石崎
大坪 宏安
Hiroyasu Otsubo
宏安 大坪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Holdings Ltd
Original Assignee
Hitachi Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Ltd filed Critical Hitachi Maxell Ltd
Priority to JP2014242087A priority Critical patent/JP6517499B2/en
Publication of JP2016103786A publication Critical patent/JP2016103786A/en
Application granted granted Critical
Publication of JP6517499B2 publication Critical patent/JP6517499B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an imaging system that can simultaneously perform imaging of a visible image and imaging of an infrared image to photograph a visible image and infrared image of a person within the same imaging range, recognize the face of the person in the visible image, and measure vital signs, including pulse and body temperature from the infrared image of a skin area of the face, and is compact and can be manufactured at a low cost.SOLUTION: An imaging sensor 115 includes: a color filter 113; and a DBPF 111 that has permeation characteristics in a visible light band, has cut-off characteristics in a first wavelength band adjacent to a long-wavelength side of the visible light band, and has permeation characteristics in a second wavelength band that is a part in the first wavelength band. A signal processing part 116 subtracts an infrared signal to be output from infrared pixels from signals in respective colors to be output from pixels in respective colors of the visible light in the imaging sensor 115. The imaging sensor 115 recognizes the face in the visible image and detects a pulse rate and temperature from the skin of the face in the infrared image.SELECTED DRAWING: Figure 1

Description

本発明は、同じ撮像範囲に対して可視光による撮影と赤外光による撮影とを同時に行うことにより情報を取得する撮像システムに関する。   The present invention relates to an imaging system that acquires information by simultaneously performing imaging with visible light and imaging with infrared light in the same imaging range.

近年、画像認識技術が進歩し、たとえばデジタルカメラには、顔認識により人間の顔を認識して、顔にピントを合わせることができる。さらに、監視カメラの画像データから、予め、顔の画像データが登録された人物の顔を認識して特定することも可能となっている。しかし、顔認識の場合に、ポスター等の写真の顔も人物の顔と誤認識する場合がある。そこで、可視光による画像認識と、赤外光による熱検知(体温検知)とから顔を認識する提案がなされている(たとえば、特許文献1参照)。   In recent years, image recognition technology has advanced. For example, a digital camera can recognize a human face by face recognition and focus on the face. Furthermore, it is also possible to recognize and specify the face of a person whose face image data is registered in advance from the image data of the surveillance camera. However, in the case of face recognition, the face of a photograph such as a poster may be erroneously recognized as a human face. Then, the proposal which recognizes a face from the image recognition by visible light and the heat detection (body temperature detection) by infrared light is made | formed (for example, refer patent document 1).

この場合に、1つのカメラにより、可視光による撮影と、赤外光による撮影を行い、可視光の画像データを用いた顔認識により特定された顔の位置の温度を赤外光の画像データから認識し、顔認識されるとともに温度が高い領域を顔と認識することができるので、体温より温度が低いポスターの顔写真を人物の顔と誤認識することがない。   In this case, photographing with visible light and photographing with infrared light are performed by one camera, and the temperature of the face position specified by face recognition using visible light image data is determined from the infrared light image data. Since it recognizes and recognizes a face and recognizes a region where the temperature is high as a face, a face photo of a poster whose temperature is lower than the body temperature is not erroneously recognized as a human face.

前記特許文献1では、可視光と赤外光とによる撮影を同時に行うかまたは切り替えて行う構造が複数提案されている。ここで、デジタルカメラ等の撮像素子は、可視光から近赤外までの光に受光感度を備えており、赤外光をカットして可視光を透過する赤外光カットフィルタや、可視光をカットして赤外光を透過する可視光カットフィルタを使い分けることにより、可視光の撮影と、赤外光の撮影が可能になる。この場合に、レンズや撮像素子を備える撮像系として、赤外光カットフィルタを備えた撮像系と、可視光カットフィルタを備えた撮像系の2つを1つのカメラに設けたり、1つの撮像系で、赤外光カットフィルタと可視光カットフィルタとを切り替え可能に設けたりする必要がある。   In Patent Document 1, a plurality of structures are proposed in which photographing with visible light and infrared light is performed simultaneously or switched. Here, an imaging device such as a digital camera has a light receiving sensitivity for light from visible light to near infrared, and an infrared light cut filter that cuts infrared light and transmits visible light, or visible light. By separately using a visible light cut filter that cuts and transmits infrared light, it is possible to capture visible light and infrared light. In this case, as an imaging system including a lens and an image sensor, an imaging system including an infrared light cut filter and an imaging system including a visible light cut filter are provided in one camera, or one imaging system. Therefore, it is necessary to provide an infrared light cut filter and a visible light cut filter in a switchable manner.

また、赤外光では、体温の検知だけではなく、脈拍数(心拍数)を検知できることが知られている。たとえば、皮膚の表層の毛細血管においては、心臓の鼓動に対応する脈拍によって、毛細血管が膨張したり収縮したりしている。毛細血管が膨張しているときは、毛細血管内の血液量が多く、それに応じて血液のヘモグロビンも多くなる。逆に毛細血管が収縮しているときは、毛細血管内の血液量が少なく、それに応じて血液のヘモグロビンも少なくなる。したがって、脈拍に同期して皮膚の表層のヘモグロビンが多くなったり、少なくなったりする。   In addition, it is known that infrared light can detect not only the body temperature but also the pulse rate (heart rate). For example, in capillaries on the surface layer of the skin, the capillaries are expanded and contracted by the pulse corresponding to the heartbeat. When the capillaries are inflated, the amount of blood in the capillaries is large, and the blood hemoglobin is also increased accordingly. Conversely, when the capillaries are contracting, the amount of blood in the capillaries is small, and the blood hemoglobin is also correspondingly reduced. Therefore, the amount of hemoglobin on the surface layer of the skin increases or decreases in synchronization with the pulse.

ヘモグロビンは、近赤外の光を吸収することが知られている。したがって、皮膚の表層のヘモグロビン量が少なくなると、近赤外光の反射量が多くなり、ヘモグロビン量が多くなると、近赤外光の反射量が少なくなる。したがって、近赤外光を出力する発光素子としてのLEDと、近赤外光を検知する受光素子としての赤外光センサとによって、脈箔に同期して増減する赤外光の反射量を検知することにより、脈拍数が測定可能となる。赤外光の反射量が脈拍に同期して変化することから、人の肌、たとえば、顔の赤外画像を動画として撮影して解析することによっても、略リアルタイムで脈拍数を検知可能となる。   Hemoglobin is known to absorb near infrared light. Therefore, when the amount of hemoglobin on the surface layer of the skin decreases, the amount of reflected near-infrared light increases, and when the amount of hemoglobin increases, the amount of reflected near-infrared light decreases. Therefore, the amount of reflected infrared light that increases and decreases in synchronization with the leaf foil is detected by the LED as a light emitting element that outputs near infrared light and the infrared light sensor as a light receiving element that detects near infrared light. By doing so, the pulse rate can be measured. Since the amount of reflected infrared light changes in synchronization with the pulse, it is possible to detect the pulse rate substantially in real time by taking and analyzing an infrared image of a human skin, for example, a face as a moving image. .

また、監視カメラ等で、可視光と赤外光を同時に撮影し、可視光から、たとえば病院や施設の観察対象となる人物の顔の領域を検出し、対応する赤外光の顔の領域から体温を検出するとともに、可視光の顔の領域から脈拍を検出することが提案されている(たとえば、特許文献2参照)。なお、上述の毛細血管の膨張と収縮によりたとえば緑の波長域の光を吸収して赤い色となっているヘモグロビンの量の変化から脈拍に応じて顔の色が少しだけ変化するので、可視光の動画データから脈拍数を検知することが可能である。   In addition, with a monitoring camera or the like, visible light and infrared light are simultaneously photographed. From the visible light, for example, the face area of a person to be observed in a hospital or facility is detected, and the corresponding infrared light face area is detected. In addition to detecting body temperature, it has been proposed to detect a pulse from a face region of visible light (see, for example, Patent Document 2). Note that the color of the face changes slightly depending on the pulse from the change in the amount of hemoglobin that is red by absorbing light in the green wavelength range due to the expansion and contraction of the above-mentioned capillaries, so visible light It is possible to detect the pulse rate from the moving image data.

特許文献2では、ハーフミラーを用いて、入力する光を二分し、二分された一方の光側に赤外カットフィルタを介して撮像素子を配置し、他方の光側に可視光カットフィルタ(バンドパスフィルタ)を介して撮像素子を配置することにより、可視光の動画と、赤外光の動画を同時に撮影するようになっている。また、特許文献2では、カラー撮影用の撮像素子に設けられるカラーフィルタとして、赤(R)、緑(G)、青(B)の可視光の各領域と、赤外光を通過させる赤外(IR)の領域を設けることで、1つの撮像素子によりカラー画像と、赤外画像とを撮影する方法が提案されている。   In Patent Document 2, a half mirror is used to divide input light into two parts, an image sensor is disposed on one of the two light sides via an infrared cut filter, and a visible light cut filter (band) is provided on the other light side. By arranging an image sensor via a pass filter, a moving image of visible light and a moving image of infrared light are simultaneously photographed. Moreover, in patent document 2, as a color filter provided in the image pick-up element for color imaging | photography, each area | region of visible light of red (R), green (G), and blue (B), and the infrared which lets infrared light pass. There has been proposed a method of photographing a color image and an infrared image with one image sensor by providing an (IR) region.

特許第4702441号公報Japanese Patent No. 4702441 特開2014−36801号公報JP 2014-36801 A

ところで、可視光の画像と、赤外光の画像との両方を同時に撮影する撮影装置の場合に、可視光用の赤外カットフィルタを用いた撮像素子と、赤外光用の可視光カットフィルタを用いた撮像素子との両方を用いる場合には、少なくとも撮像素子が、2つ必要となり、小型化が困難であり、かつ、コストの低減が困難になる。   By the way, in the case of an imaging device that captures both a visible light image and an infrared light image at the same time, an imaging device using an infrared cut filter for visible light and a visible light cut filter for infrared light. In the case of using both of the image pickup device using, it is necessary to use at least two image pickup devices, which makes it difficult to reduce the size and to reduce the cost.

また、ハーフミラーにより光学系から入力する像を2方向に分離し、分離した像を別々の撮像素子で撮像する場合も、小型化が難しい。また、2つの撮像素子を用いる場合に、各撮像素子で撮影された二つの動画データには、多少の位置ずれが生じるので、2つの画像データで同じ座標系を用いて画像処理する場合に、位置ずれを補正する必要が生じる。   In addition, when the image input from the optical system is separated in two directions by the half mirror and the separated images are picked up by separate image pickup devices, it is difficult to reduce the size. In addition, when two image sensors are used, the two moving image data captured by each image sensor have a slight positional shift, so when image processing is performed using the same coordinate system with two image data, It is necessary to correct the misalignment.

また、赤外カットフィルタと、可視光カットフィルタとを切り替える撮影装置の場合に、フィルタを切り替える構造にコストがかかるとともに、可視画像と赤外画像とを同時に撮影することが困難であり、機会的なフィルタの移動を繰り返すような構造の場合に、時間当たりに撮影されるフレーム数が制限される。   In addition, in the case of an imaging device that switches between an infrared cut filter and a visible light cut filter, the structure for switching the filter is costly, and it is difficult to capture a visible image and an infrared image at the same time. In the case of a structure that repeatedly moves the filter, the number of frames that are captured per time is limited.

これらに対して、撮像素子に設けられるカラーフィルタに上述のように可視光のRGBの各領域に加えてIRの領域を設ける方式では、サイズの小型化とコスト増の抑止を図ることができる。しかし、一般的なIRの領域の無いRGBの各領域からなるカラーフィルタを用いた撮像素子を備えるデジタルカメラにおいては、赤外カットフィルタが用いられている。これは、カラーフィルタにおいて、RGBの各色の領域は、各色の波長範囲に透過率のピークを有し、かつ、他の色の波長範囲に遮断特性を有するが、可視光より長波長側の近赤外に透過特性を有することに基づくものである。   On the other hand, in the method in which the IR region is provided in the color filter provided in the imaging element in addition to the RGB regions of visible light as described above, the size can be reduced and the increase in cost can be suppressed. However, an infrared cut filter is used in a digital camera including an image pickup device using a color filter composed of RGB regions without a general IR region. This is because in the color filter, each color region of RGB has a transmittance peak in the wavelength range of each color and has a blocking characteristic in the wavelength range of other colors, but is closer to the longer wavelength side than visible light. It is based on having transmission characteristics in the infrared.

すなわち、一般的なカラーフィルタは、カラーフィルタの各色の領域を通過してしまう赤外光をカットするために、赤外カットフィルタを必要とする。したがって、カラーフィルタに、たとえば、可視光を遮断して近赤外光を透過するIR領域を設けたとしても、赤外カットフィルタを用いないと、RGBの各領域に対応する撮像素子の画素にRGBのそれぞれに対応する波長範囲の光に加えて赤外光が入力することになり、その分だけ撮像素子の各画素の受光素子から出力される電荷が大きくなってしまい、赤外カットフィルタを用いた場合に比較して自然な色の画像を得ることが困難である。また、赤外カットフィルタを用いてしまうと、カラーフィルタにIRの領域を設けても赤外画像を撮影できない問題がある。   That is, a general color filter requires an infrared cut filter in order to cut infrared light that passes through each color region of the color filter. Therefore, for example, even if an IR region that blocks visible light and transmits near-infrared light is provided in the color filter, if the infrared cut filter is not used, pixels of the image sensor corresponding to each region of RGB are used. Infrared light will be input in addition to light in the wavelength range corresponding to each of RGB, and the amount of charge output from the light receiving element of each pixel of the image sensor will increase accordingly, and the infrared cut filter will be It is difficult to obtain a natural color image as compared with the case of using it. Further, if an infrared cut filter is used, there is a problem that an infrared image cannot be captured even if an IR region is provided in the color filter.

したがって、カラーフィルタに可視光を遮断して近赤外光を透過するIRの領域を設けることにより、たとえば、可視光カットフィルタが必要なくなるが、赤外カットフィルタを必要とするとともに、赤外画像を撮影する際には、赤外カットフィルタを外す必要が生じる。すなわち、赤外カットフィルタの有無を切り替える構成が必要となり、同時に可視画像と赤外画像を撮像することが困難である。   Therefore, by providing an IR region that blocks visible light and transmits near-infrared light in the color filter, for example, a visible light cut filter is not necessary, but an infrared cut filter is required and an infrared image is also required. When photographing the image, it is necessary to remove the infrared cut filter. That is, a configuration for switching the presence or absence of an infrared cut filter is required, and it is difficult to capture a visible image and an infrared image at the same time.

本発明は、前記事情に鑑みてなされたものであり、可視画像の撮影と、赤外画像の撮影とを同時に行って、可視と赤外で同じ撮像範囲内の人物の顔を可視画像で認識し、当該顔の肌の領域の赤外画像から脈拍数や体温等のバイタルサインを測定可能でかつコンパクトで低コストに製造できる撮像システムを提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and simultaneously captures a visible image and an infrared image, and recognizes a person's face within the same imaging range in the visible and infrared as a visible image. It is another object of the present invention to provide an imaging system that can measure vital signs such as pulse rate and body temperature from an infrared image of the skin area of the face, and that is compact and can be manufactured at low cost.

前記課題を解決するために、本発明の撮像システムは、
画素毎に受光素子が配置された撮像センサ本体を備えるとともに可視光の複数の色の領域および赤外光の領域が所定配列で前記撮像センサ本体の各画素に配置されるカラーフィルタを備える撮像センサと、
前記撮像センサ上に像を結ぶレンズを有する光学系と、
可視光帯域に透過特性を有し、前記可視光帯域の長波長側に隣接する第1の波長帯域に遮断特性を有し、前記第1の波長帯域内の一部分である第2の波長帯域に透過特性を有する光学フィルタと、
前記撮像センサから出力される信号に基づいて、前記可視光の各色の成分の信号から前記赤外光の成分の信号を減算する処理を行い、同じ撮像範囲の可視画像信号および赤外画像信号を同時に出力可能な信号処理手段と、
前記可視画像信号の画像内の人物の顔の領域を特定する可視画像処理手段と、
前記赤外画像信号の画像内の前記可視画像処理手段により特定された前記人物の顔の領域の画像からバイタルサインの少なくとも一部を計測する赤外画像処理手段とを備えることを特徴とする。
In order to solve the above problems, an imaging system of the present invention provides:
An imaging sensor comprising an image sensor main body in which a light receiving element is arranged for each pixel, and a color filter in which a plurality of visible light regions and an infrared light region are arranged in each pixel of the image sensor main body in a predetermined arrangement When,
An optical system having a lens for connecting an image on the imaging sensor;
A transmission characteristic in the visible light band, a cutoff characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band, and a second wavelength band that is a part of the first wavelength band; An optical filter having transmission characteristics;
Based on the signal output from the imaging sensor, a process of subtracting the infrared light component signal from the visible light component signal is performed to obtain a visible image signal and an infrared image signal in the same imaging range. Signal processing means capable of outputting simultaneously;
Visible image processing means for specifying a region of a human face in the image of the visible image signal;
And infrared image processing means for measuring at least a part of a vital sign from an image of the face area of the person specified by the visible image processing means in the image of the infrared image signal.

このような構成によれば、可視光と赤外光の領域を有するカラーフィルタを備える撮像センサと、可視光帯域と可視光帯域から離れた近赤外帯域である第2の波長帯域に透過特性を有する光学フィルタとを備えるとともに、信号処理手段により各色成分の信号から赤外光成分の信号を減算することにより、赤外カットフィルタを用いなくとも出力される可視画像信号には、赤外光成分が含まれていない状態となる。なお、光学フィルタの第2の波長帯域を通過する赤外光は、カラーフィルタのIR領域を通過することになる。以下に、可視光帯域と、赤外の第2の波長帯域に光の透過特性を有する光学フィルタをDBPF(ダブル・バンド・パス・フィルタ)と称する場合ある。   According to such a configuration, an imaging sensor including a color filter having a visible light region and an infrared light region, and a transmission characteristic in a second wavelength band that is a near infrared band far from the visible light band and the visible light band. The visible image signal output without using the infrared cut filter is obtained by subtracting the infrared light component signal from the signal of each color component by the signal processing means. It will be in the state where an ingredient is not contained. Note that the infrared light that passes through the second wavelength band of the optical filter passes through the IR region of the color filter. Hereinafter, an optical filter having light transmission characteristics in the visible light band and the infrared second wavelength band may be referred to as a DBPF (double band pass filter).

また、可視光の各色の領域を通過した各色の可視光成分に含まれる赤外光成分は、DBPFの第2の波長帯域を通過した赤外光だけである。また、カラーフィルタのIR領域を通過した赤外光成分は、光学フィルタの第2の波長帯域を通過した赤外光の成分である。したがって、可視光に含まれる赤外成分の波長範囲をDBPFにより制限し、カラーフィルタの可視光を遮断するIR領域を通過可能な赤外光の波長範囲が第2の波長帯域を略含むようになっていれば、上述のように波長範囲が制限された赤外成分を、各色の可視光成分から除去することが可能となり、各色の可視光成分に含まれる赤外光成分をより正確に除去することが可能になる。   Further, the infrared light component included in the visible light component of each color that has passed through each color region of visible light is only the infrared light that has passed through the second wavelength band of DBPF. The infrared light component that has passed through the IR region of the color filter is a component of infrared light that has passed through the second wavelength band of the optical filter. Therefore, the wavelength range of the infrared component included in the visible light is limited by DBPF so that the wavelength range of the infrared light that can pass through the IR region that blocks the visible light of the color filter substantially includes the second wavelength band. If so, it becomes possible to remove the infrared component whose wavelength range is limited as described above from the visible light component of each color, and more accurately remove the infrared light component contained in the visible light component of each color. It becomes possible to do.

これにより、赤外カットフィルタが無くても、従来の赤外カットフィルタを用いた場合に近い自然な可視画像を得ることができるので、赤外カットフィルタの有無を切り替えることなく、可視画像信号と、赤外画像信号とを同時に出力することができ、可視画像を使った顔認識に基づいて、赤外画像の顔の肌の領域から体温や脈拍等のバイタルサインを読み取ることが可能となる。   As a result, even if there is no infrared cut filter, it is possible to obtain a natural visible image close to the case where a conventional infrared cut filter is used. Infrared image signals can be output at the same time, and vital signs such as body temperature and pulse can be read from the skin area of the face of the infrared image based on face recognition using a visible image.

この場合に1つの撮像素子により可視画像と赤外画像撮像の同時撮像が可能で、かつ、可視画像で特定された人物の顔の領域に基づいて、赤外画像で脈拍数や体温を測定可能とする撮像システムにおいて、撮像素子を1つにでき、フィルタの切り換え装置を必要とせず、撮像システムの小型化を図れるとともに、撮像システムのコストの低減を図ることができる。   In this case, simultaneous imaging of visible image and infrared image can be performed with one image sensor, and pulse rate and body temperature can be measured with infrared image based on human face area specified by visible image In the imaging system described above, the number of imaging elements can be reduced to one, the filter switching device is not required, the imaging system can be reduced in size, and the cost of the imaging system can be reduced.

また、1つの撮像素子でIR領域を含むカラーフィルタを用いて撮影しているので、可視画像と赤外画像で撮影範囲にずれがでることがなく、基本的に可視画像の各画素と、赤外画像の各画素がそれぞれ対応していることになる。したがって、2つの撮像素子を用いた場合のように位置ずれを補正する必要がない。   In addition, since the image pickup is performed using a color filter including the IR region with one image sensor, there is no shift in the shooting range between the visible image and the infrared image. Each pixel of the outer image corresponds to each other. Therefore, it is not necessary to correct the positional deviation as in the case of using two image sensors.

なお、可視光帯域は、400nmから700nm程度の波長帯域であり、第1の波長帯域が近赤外の波長帯域として700nm程度以上の波長帯域であり、第2の波長帯域は、たとえば、800nm〜1100nm程度の波長帯域またはこの波長帯域に含まれ、かつ、この波長帯域より狭い波長帯域である。   The visible light band is a wavelength band of about 400 nm to 700 nm, the first wavelength band is a wavelength band of about 700 nm or more as the near-infrared wavelength band, and the second wavelength band is, for example, 800 nm to A wavelength band of about 1100 nm or a wavelength band included in this wavelength band and narrower than this wavelength band.

本発明の前記構成において、前記光学系は、物体側から像側に向かって順に、負のパワーを備える第1レンズ、負のパワーを備える第2レンズ、正のパワーを備える第3レンズ、および、正のパワーを備える第4レンズからなり、
前記第4レンズは、負のパワーを備える物体側レンズと正のパワーを備える像側レンズからなる接合レンズであり、前記物体側レンズと前記像側レンズとを接着している樹脂接着剤層を備え、
前記物体側レンズの像側レンズ面および前記像側レンズの物体側レンズ面は、それぞれが互いに異なる非球面形状をしており、
光軸上における前記樹脂接着剤層の厚さ寸法をD、前記光軸と直交する方向の前記物体側レンズの像側レンズ面の有効径での高さHにおける前記物体側レンズの像側レンズ面のサグ量をSg1H、前記高さHにおける前記像側レンズの物体側レンズ面のサグ量をSg2Hとしたときに、以下の条件式(1)および条件式(2)を満たすことが好ましい。
20μm ≦ D (1)
Sg1H ≦ Sg2H (2)
In the configuration of the present invention, the optical system includes, in order from the object side to the image side, a first lens having negative power, a second lens having negative power, a third lens having positive power, and A fourth lens with positive power,
The fourth lens is a cemented lens including an object side lens having a negative power and an image side lens having a positive power, and a resin adhesive layer that bonds the object side lens and the image side lens. Prepared,
The image side lens surface of the object side lens and the object side lens surface of the image side lens have different aspherical shapes, respectively.
The thickness of the resin adhesive layer on the optical axis is D, and the image side lens of the object side lens at the height H at the effective diameter of the image side lens surface of the object side lens in the direction orthogonal to the optical axis. When the sag amount of the surface is Sg1H and the sag amount of the object side lens surface of the image side lens at the height H is Sg2H, it is preferable that the following conditional expressions (1) and (2) are satisfied.
20 μm ≦ D (1)
Sg1H ≦ Sg2H (2)

このような構成によれば、本発明の光学系(撮像レンズ)において、接合レンズを構成する2枚のレンズの接合面となっている物体側レンズの像側レンズ面および像側レンズの物体側レンズ面が互いに異なる非球面形状とされている。この結果、接合レンズを用いて色収差などの諸収差を補正することが容易となるので、撮像レンズの高解像度化を図ることができる。また、条件式(1)および条件式(2)を満たすので、互いに異なる非球面形状とされている物体側レンズの像側レンズ面と像側レンズの物体側レンズ面の間の樹脂接着剤層の厚さ寸法、すなわち、接合レンズを構成する2枚のレンズの接合面の間隔を広くすることができる。   According to such a configuration, in the optical system (imaging lens) of the present invention, the image side lens surface of the object side lens and the object side of the image side lens which are the cemented surfaces of the two lenses constituting the cemented lens. The lens surfaces are different aspherical shapes. As a result, it becomes easy to correct various aberrations such as chromatic aberration using the cemented lens, so that the resolution of the imaging lens can be increased. Further, since the conditional expression (1) and the conditional expression (2) are satisfied, the resin adhesive layer between the image side lens surface of the object side lens and the object side lens surface of the image side lens, which are different aspherical shapes from each other , That is, the interval between the cemented surfaces of the two lenses constituting the cemented lens can be widened.

したがって、2枚のレンズを接着する接着作業中に接合面を互いに接触させてしまい、各接合面に損傷を発生させることを防止あるいは抑制できる。また、接合面の間隔が広いので、接合面の間に樹脂接着剤が回り込み易く、2枚のレンズの間に気泡が残留することを防止できる。したがって、接合レンズの製造が容易となる。さらに、接合レンズを構成する物体側レンズの像側レンズ面および像側レンズの物体側レンズ面の光軸上における間隔を予め20μm以上として撮像レンズの設計を行うことができるので、タンジェンシャル面における像面湾曲のプラス側へのシフトを考慮した設計を行うことが可能であり、設計によって像面湾曲のプラス側へのシフトを抑制できる。なお、サグ量とはレンズ面と光軸の交点を含んで光軸と直交する平面を基準面としたときに、光軸と直交する方向の有効径での高さHにおける基準面からレンズ面までの光軸方向の距離である。このような本発明の光学系では、可視光線を用いた撮影と近赤外線を用いた撮影とでピントずれが発生することを防止あるいは抑制できる。したがって、上述のように可視画像と赤外画像を同時に撮影する際に、同じ光学系を同時に用いる構成としても、可視画像と赤外画像のいずれか一方にピントずれが発生するのを防止あるいは抑制できる。   Therefore, it is possible to prevent or suppress the bonding surfaces from being brought into contact with each other during the bonding operation of bonding the two lenses and causing damage to each bonding surface. Moreover, since the space | interval of a joining surface is wide, it can prevent that a resin adhesive agent wraps around between joining surfaces, and a bubble remains between two lenses. Therefore, it becomes easy to manufacture the cemented lens. Furthermore, the imaging lens can be designed with an interval between the image side lens surface of the object side lens constituting the cemented lens and the object side lens surface of the image side lens on the optical axis being set to 20 μm or more in advance. It is possible to design in consideration of the shift of the field curvature to the plus side, and the design can suppress the shift of the field curvature to the plus side. The sag amount is the lens surface from the reference surface at the height H at the effective diameter in the direction orthogonal to the optical axis when a plane that includes the intersection of the lens surface and the optical axis and is orthogonal to the optical axis is used as the reference surface. Is the distance in the optical axis direction. In such an optical system of the present invention, it is possible to prevent or suppress the occurrence of a focus shift between photographing using visible light and photographing using near infrared rays. Therefore, when taking a visible image and an infrared image at the same time as described above, even if the same optical system is used at the same time, it is possible to prevent or suppress the occurrence of a focus shift in either the visible image or the infrared image. it can.

したがって、たとえば、800nm〜1100nmの帯域に含まれる近赤外光を利用した撮影と可視光を利用した撮影を同時に行う撮像システムの光学系に好適に用いることができる。すなわち、一般的な光学系では、可視光帯域の範囲内で色収差の問題を解消するようにしているが、400nm〜700nmの可視光帯域と、800nm〜1100nmの範囲に含まれる赤外帯域の光とで同時に撮影する場合に、可視光帯域だけの場合より屈折率の差が大きく、可視光帯域の略中央の波長と、赤外帯域の波長とで、焦点を結ぶ位置がずれ、可視画像でピントを合わせると、赤外画像のピントが合わなくなる。しかし、この光学系を用いることにより、可視画像でピントを合わせた場合に、赤外画像のピントが大きくずれるのを防止でき、1つの光学系で可視画像と赤外画像の同時撮影を容易に行うことができる。   Therefore, for example, it can be suitably used for an optical system of an imaging system that simultaneously performs imaging using near-infrared light included in a band of 800 nm to 1100 nm and imaging using visible light. That is, in a general optical system, the problem of chromatic aberration is solved within the visible light band, but the visible light band of 400 nm to 700 nm and the infrared band light included in the range of 800 nm to 1100 nm. When shooting simultaneously, the difference in refractive index is larger than in the visible light band alone, and the focal point is shifted between the wavelength in the center of the visible light band and the wavelength in the infrared band. When focusing, the infrared image will not be focused. However, by using this optical system, when focusing on a visible image, it is possible to prevent the focus of the infrared image from deviating greatly, and it is easy to simultaneously capture a visible image and an infrared image with one optical system. It can be carried out.

また、本発明の前記構成において、前記光学系は、前記光学フィルタの前記第2の波長帯域と前記カラーフィルタの前記赤外光の領域とを透過する前記赤外光が焦点を結ぶ位置を、前記可視光帯域の光線が焦点を結ぶ焦点位置に一致させるホログラムを備えることが好ましい。   Further, in the configuration of the present invention, the optical system has a position where the infrared light passing through the second wavelength band of the optical filter and the infrared light region of the color filter is focused. It is preferable to provide a hologram that matches the focal position where the light beam in the visible light band is focused.

このような構成によれば、光学系は、ホログラムによって光学フィルタの第2波長帯域とカラーフィルタの赤外光の領域を通過する赤外光を屈折させて、このような赤外光が焦点を結ぶ位置を可視光域の光線の焦点位置に一致させているので、上述の従来の光学系において可視画像と赤外画像とでどちらかがピントずれしてしまう問題の発生を抑制できる。なお、この場合に、可視光帯域と近赤外の第2の波長帯域に透過特性を有する光学フィルタは、ホログラムより物体側にあることが好ましく、光学系の物体側に配置されることが好ましい。   According to such a configuration, the optical system refracts the infrared light passing through the second wavelength band of the optical filter and the infrared light region of the color filter by the hologram, and the infrared light is focused. Since the connecting position is made coincident with the focal position of the light beam in the visible light region, it is possible to suppress the occurrence of a problem that one of the visible image and the infrared image is out of focus in the above-described conventional optical system. In this case, the optical filter having transmission characteristics in the visible light band and the near-infrared second wavelength band is preferably on the object side of the hologram, and is preferably disposed on the object side of the optical system. .

本発明の前記構成において、前記バイタルサインが、脈拍および/または体温であることが好ましい。   The said structure of this invention WHEREIN: It is preferable that the said vital sign is a pulse and / or body temperature.

このような構成によれば、本発明の撮像システムを監視カメラのシステムに用いた場合に、監視カメラの撮像範囲に体温が高かったり、脈拍数が高かったりすることから体調不良と思われる人物を特定可能となる。たとえば、空港や港の監視カメラにおいて、海外からの渡航者が体調不良であることを特定可能になり、伝染病の疑いのある人物を特定可能になる。また、たとえば、犯罪行為を行う者が、緊張して脈拍数が異常に高くなる可能性があることから、脈拍数が高い人物を特定して、職務質問等を行うことなどにより、犯罪を未然に防止できる可能性がある。また、病院等において、監視カメラによって極端に体調不良の人物を特定して診察を行ったり、診察の順番を早めたりすることが可能になる。なお、赤外光を用いた様々なバイタルサインの計測方法が検討されており。たとえば、脈拍数だけではなく、血流量の計測も可能であり、バイタルサインは、脈拍数と体温に限られるものではない。   According to such a configuration, when the imaging system of the present invention is used in a surveillance camera system, a person who seems to be in poor physical condition because the body temperature is high or the pulse rate is high in the imaging range of the surveillance camera. It becomes possible to specify. For example, in a surveillance camera at an airport or a port, it is possible to specify that a traveler from abroad is in poor health, and it is possible to specify a person suspected of having an infectious disease. Also, for example, a person who commits a criminal act may become nervous and the pulse rate may be abnormally high. For example, by identifying a person with a high pulse rate and asking a job question, etc. There is a possibility that can be prevented. Further, in a hospital or the like, it is possible to identify a person who is extremely unwell with a monitoring camera and perform a diagnosis, or to advance the order of the diagnosis. Various vital sign measurement methods using infrared light have been studied. For example, not only the pulse rate but also blood flow can be measured, and vital signs are not limited to the pulse rate and body temperature.

本発明の前記構成において、前記信号処理手段、前記可視画像処理手段および前記赤外画像処理手段のうちの少なくとも2つが1つのチップ上の電子回路から構成されて、ワンチップ化されていることが好ましい。   In the configuration of the present invention, at least two of the signal processing unit, the visible image processing unit, and the infrared image processing unit are configured by an electronic circuit on one chip and are made into one chip. preferable.

このような構成によれば、前記信号処理手段、前記可視画像処理手段および前記赤外画像処理手段の全部またはこれらのうちの二つ以上をワンチップ化することにより、実際の撮像システムの部品点数を減らして、コストダウンや装置構成の簡略化や組み立て作業の容易化や小型化等を図ることができる。   According to such a configuration, the signal processing means, the visible image processing means, the infrared image processing means, or two or more of them can be integrated into one chip, so that the number of parts of the actual imaging system can be increased. The cost can be reduced, the device configuration can be simplified, the assembly work can be facilitated, and the size can be reduced.

本発明の撮像システムによれば、1つの撮像装置で赤外カットフィルタを用いることなく、赤外成分を含まない可視画像と、赤外画像とを得ることができる。したがって、可視画像で人物の顔認識を行い、顔認識された領域の赤外画像からバイタルサインを求める撮像システムをコンパクトかつ低コストに製造することができる。   According to the imaging system of the present invention, a visible image that does not include an infrared component and an infrared image can be obtained without using an infrared cut filter with a single imaging device. Therefore, it is possible to manufacture an imaging system that recognizes a person's face with a visible image and obtains a vital sign from an infrared image of the face-recognized region in a compact and low-cost manner.

本発明の第1の実施の形態の撮像システムを示す概略ブロック図である。1 is a schematic block diagram illustrating an imaging system according to a first embodiment of the present invention. 同、撮像レンズを説明するための図である。It is a figure for demonstrating an imaging lens equally. 同、撮像レンズを説明するための図である。It is a figure for demonstrating an imaging lens equally. 同、撮像レンズを説明するための図である。It is a figure for demonstrating an imaging lens equally. 同、撮像レンズを説明するための図である。It is a figure for demonstrating an imaging lens equally. 同、赤外領域を有するカラーフィルタの配列パターンを説明するための図である。It is a figure for demonstrating the arrangement pattern of the color filter which has an infrared region similarly. 同、前記撮像センサのDBPFとカラーフィルタの透過率スペクトルを示すグラフである。It is a graph which shows the transmittance | permeability spectrum of DBPF and a color filter of the said image sensor. 同、脈拍と赤外信号の出力レベルとの関係を示すグラフである。It is a graph which shows the relationship between a pulse and the output level of an infrared signal similarly. 同、赤外信号の出力レベルの波から脈拍数を示す波を分離したグラフである。It is the graph which isolate | separated the wave which shows a pulse rate from the wave of the output level of an infrared signal similarly. 同、脈拍、体温に異常がある人物のモニタ表示を説明するための図である。It is a figure for demonstrating the monitor display of a person with abnormality in a pulse and body temperature. 同、画像処理方法を説明するためのフローチャートである。3 is a flowchart for explaining an image processing method. 本発明の第2の実施の形態の撮像レンズを説明するための図である。It is a figure for demonstrating the imaging lens of the 2nd Embodiment of this invention. 同、撮像レンズを説明するための図である。It is a figure for demonstrating an imaging lens equally.

以下、本発明の実施の形態について説明する。
図1に示すように、本実施の形態の撮像システム100は、撮像範囲内の人物(対象者)101の体温および脈拍数(心拍数)等のバイタサインを計測して、バイタルサインに異常のある人物101を検出するものである。
Embodiments of the present invention will be described below.
As shown in FIG. 1, the imaging system 100 according to the present embodiment measures vital signs such as body temperature and pulse rate (heart rate) of a person (subject) 101 within the imaging range, and abnormal vital signs are detected. A certain person 101 is detected.

この撮像システム100で用いられるカメラ110は、光学フィルタとしてのDBPF111と、撮像用の光学系である撮像レンズ10と、カラーフィルタ113およびセンサ本体114を備えた撮像センサ115と、撮像センサ115から出力される出力信号を処理して、同時化処理(内装処理)や、可視光のRGBの各成分からIR成分を除去する処理や、ガンマ補正や、ホワイトバランスや、RGBマトリックス補正等の画像処理を画像信号に施す信号処理部(信号処理手段)116とを備える。信号処理部116からはカラーの可視画像信号121と、赤外画像信号122が出力可能になっている。   The camera 110 used in the imaging system 100 includes a DBPF 111 as an optical filter, an imaging lens 10 that is an imaging optical system, an imaging sensor 115 including a color filter 113 and a sensor body 114, and an output from the imaging sensor 115. Processing the output signal, image processing such as synchronization processing (interior processing), removal of IR components from each RGB component of visible light, gamma correction, white balance, RGB matrix correction, etc. And a signal processing unit (signal processing means) 116 applied to the image signal. A color visible image signal 121 and an infrared image signal 122 can be output from the signal processing unit 116.

撮像システム100は、上述のカメラ110から出力されるRGBの各信号からなる可視画像信号121に基づいて、撮像範囲内の人物101の顔を認識する処理を行う可視画像処理部(可視画像処理手段)117を備えるとともに、赤外画像信号122と、可視画像処理部117で特定された撮影範囲(フレーム)内の人物101の肌の領域の位置とに基づいて、人物101の体温と脈拍数を計測する赤外画像処理部(赤外画像処理手段)118と、赤外画像処理部118で、撮像された画像内の人物101の体温と脈拍数が計測された場合に、この計測データにおける体温および脈拍数のいずれかに異常が有るか否かを判定し、体温や脈拍数に異常がある人物101の画像を識別するための識別画像データを可視画像処理部117に出力する異常判定部(異常判定手段)119と、可視画像処理部117から可視画像信号121に基づく可視画像に体温や脈拍数に異常のある人物101を認識可能とする識別画像データに基づく識別画像を加えた画像を表示するモニタ120とを備える。   The imaging system 100 includes a visible image processing unit (visible image processing unit) that performs processing for recognizing the face of the person 101 within the imaging range based on the visible image signal 121 including RGB signals output from the camera 110 described above. ) 117, and based on the infrared image signal 122 and the position of the skin region of the person 101 within the imaging range (frame) specified by the visible image processing unit 117, the body temperature and pulse rate of the person 101 are calculated. When the body temperature and the pulse rate of the person 101 in the captured image are measured by the infrared image processing unit (infrared image processing unit) 118 to measure and the infrared image processing unit 118, the body temperature in the measurement data is measured. And whether or not there is an abnormality in either the pulse rate or the pulse rate, and identification image data for identifying an image of the person 101 with an abnormal body temperature or pulse rate is output to the visible image processing unit 117 An identification image based on identification image data that makes it possible to recognize the person 101 having an abnormality in body temperature or pulse rate from the visible image signal 121 based on the visible image signal 121 from the abnormality determination unit (abnormality determination unit) 119. And a monitor 120 for displaying the added image.

撮像システム100において、信号処理部116、可視画像処理部117、赤外画像処理部118、異常判定部119は、汎用のマイコンや専用のゲートアレイ等の電子回路(集積回路)から構成されるが、これらが1つのチップに搭載されてワンチップ化されている。なお、信号処理部116、可視画像処理部117、赤外画像処理部118、異常判定部119が汎用のマイコンと専用のゲートアレイとの両方から構成される場合にもワンチップ化することが好ましい。また、信号処理部116、可視画像処理部117、赤外画像処理部118、異常判定部119の全てをワンチップ化する必要はないが、これらのうちの2つ以上で、できるだけ多くがワンチップ化されることが好ましい。ワンチップ化により、コストの低減、小型化、組み立ての容易化等を図ることができる。   In the imaging system 100, the signal processing unit 116, the visible image processing unit 117, the infrared image processing unit 118, and the abnormality determination unit 119 are configured by an electronic circuit (integrated circuit) such as a general-purpose microcomputer or a dedicated gate array. These are mounted on a single chip to form a single chip. It should be noted that even when the signal processing unit 116, the visible image processing unit 117, the infrared image processing unit 118, and the abnormality determination unit 119 are configured by both a general-purpose microcomputer and a dedicated gate array, it is preferable to use one chip. . Further, it is not necessary to make all of the signal processing unit 116, the visible image processing unit 117, the infrared image processing unit 118, and the abnormality determination unit 119 into one chip, but as many as possible in one or more of these two or more. It is preferable that One-chip configuration can reduce costs, reduce size, and facilitate assembly.

撮像レンズ10は、撮像システム100の撮像センサ115上に像を結ぶ光学系を構成するものである。本実施の形態では、可視画像の撮像と、赤外画像の撮像とを1群の撮像レンズ10で行っても、可視画像と赤外画像の両方で略ピントがあった状態とするために以下のような構造の撮像レンズ10を用いている。   The imaging lens 10 constitutes an optical system that connects an image on the imaging sensor 115 of the imaging system 100. In the present embodiment, in order to obtain a state in which both the visible image and the infrared image are substantially in focus even if the imaging of the visible image and the imaging of the infrared image are performed by the group of imaging lenses 10, the following is performed. The imaging lens 10 having the structure as described above is used.

図2に示すように、本例の撮像レンズ10は、物体側から像側に向かって順に、負のパワーを備える第1レンズ11、負のパワーを備える第2レンズ12、正のパワーを備える第3レンズ13、および、正のパワーを備える第4レンズ14からなる。第3レンズ13と第4レンズ14の間には絞り15が配置されており、第4レンズ14の像側には板ガラス16が配置されている。結像面I1は板ガラス16から離れた位置にある。第4レンズ14は、負のパワーを備える物体側レンズ17と正のパワーを備える像側レンズ18からなる接合レンズである。物体側レンズ17と像側レンズ18とは樹脂接着剤により接着されており、物体側レンズ17と像側レンズ18の間には樹脂接着剤層B1が形成されている。   As shown in FIG. 2, the imaging lens 10 of this example includes, in order from the object side to the image side, a first lens 11 having a negative power, a second lens 12 having a negative power, and a positive power. It consists of a third lens 13 and a fourth lens 14 with positive power. A diaphragm 15 is disposed between the third lens 13 and the fourth lens 14, and a plate glass 16 is disposed on the image side of the fourth lens 14. The imaging plane I1 is located away from the plate glass 16. The fourth lens 14 is a cemented lens including an object side lens 17 having negative power and an image side lens 18 having positive power. The object side lens 17 and the image side lens 18 are bonded by a resin adhesive, and a resin adhesive layer B <b> 1 is formed between the object side lens 17 and the image side lens 18.

第1レンズ11は、物体側レンズ面11aが物体側に向かって突出するメニスカスレンズである。第1レンズ11の物体側レンズ面11aおよび像側レンズ面11bは、それぞれが正の曲率を備えている。   The first lens 11 is a meniscus lens in which the object side lens surface 11a protrudes toward the object side. The object side lens surface 11a and the image side lens surface 11b of the first lens 11 each have a positive curvature.

第2レンズ12は、物体側レンズ面12aが負の曲率を備え、像側レンズ面12bが正の曲率を備えている。したがって、物体側レンズ面12aは光軸L1に向かって像側に窪む凹形状の曲面部分を備えており、像側レンズ面12bは光軸L1に向かって物体側に窪む凹形状の曲面部分を備えている。物体側レンズ面12aおよび像側レンズ面12bは非球面形状とされている。   In the second lens 12, the object side lens surface 12a has a negative curvature, and the image side lens surface 12b has a positive curvature. Therefore, the object side lens surface 12a includes a concave curved surface portion that is recessed toward the image side toward the optical axis L1, and the image side lens surface 12b is a concave surface that is recessed toward the object side toward the optical axis L1. It has a part. The object side lens surface 12a and the image side lens surface 12b are aspherical.

第3レンズ13は、物体側レンズ面13aが正の曲率を備え、像側レンズ面13bが負の曲率を備えている。したがって、物体側レンズ面13aは光軸L1に向かって物体側に突出する凸形状の曲面部分を備えており、像側レンズ面13bは光軸L1に向かって像側に突出する凸形状の曲面部分を備えている。第3レンズ13の物体側レンズ面13aおよび像側レンズ面13bは非球面形状とされている。   In the third lens 13, the object side lens surface 13a has a positive curvature, and the image side lens surface 13b has a negative curvature. Accordingly, the object side lens surface 13a includes a convex curved surface portion protruding toward the object side toward the optical axis L1, and the image side lens surface 13b is a convex curved surface protruding toward the image side toward the optical axis L1. It has a part. The object side lens surface 13a and the image side lens surface 13b of the third lens 13 are aspherical.

第4レンズ14の物体側レンズ17は、物体側レンズ面17aが正の曲率を備え、像側レンズ面17bが正の曲率を備えている。したがって、物体側レンズ面17aは光軸L1に向かって物体側に突出する凸形状の曲面部分を備えており、像側レンズ面17bは光軸L1に向かって物体側に窪む凹形状の曲面部分を備えている。物体側レンズ17の物体側レンズ面17aおよび像側レンズ面17bは非球面形状とされている。   The object side lens 17 of the fourth lens 14 has an object side lens surface 17a having a positive curvature and an image side lens surface 17b having a positive curvature. Therefore, the object side lens surface 17a includes a convex curved surface portion protruding toward the object side toward the optical axis L1, and the image side lens surface 17b is a concave curved surface recessed toward the object side toward the optical axis L1. It has a part. The object side lens surface 17a and the image side lens surface 17b of the object side lens 17 are aspherical.

第4レンズ14の像側レンズ18は、物体側レンズ面18aが正の曲率を備え、像側レンズ面18bが負の曲率を備えている。したがって、物体側レンズ面18aは光軸L1に向かって物体側に突出する凸形状の曲面部分を備えており、像側レンズ面18bは光軸L1に向かって像側に突出する凸形状の曲面部分を備えている。像側レンズ18の物体側レンズ面18aおよび像側レンズ面18bは非球面形状とされている。   The image side lens 18 of the fourth lens 14 has an object side lens surface 18a having a positive curvature and an image side lens surface 18b having a negative curvature. Accordingly, the object-side lens surface 18a includes a convex curved surface portion protruding toward the object side toward the optical axis L1, and the image-side lens surface 18b is a convex curved surface protruding toward the image side toward the optical axis L1. It has a part. The object side lens surface 18a and the image side lens surface 18b of the image side lens 18 are aspherical.

ここで、物体側レンズ17と像側レンズ18の接合面となっている物体側レンズ17の像側レンズ面17bと像側レンズ18の物体側レンズ面18aは、互いに異なる非球面形状をしている。また、光軸L1上における樹脂接着剤層B1の厚さ寸法をD、光軸L1と直交する方向の物体側レンズ17の像側レンズ面17bの有効径での高さHにおける物体側レンズ17の像側レンズ面17bのサグ量をSg1H、高さHにおける像側レンズ18の物体側レンズ面18aのサグ量をSg2Hとしたときに、本例の撮像レンズ10は、以下の条件式(1)および条件式(2)を満たす。なお、サグ量とはレンズ面と光軸L1の交点を含んで光軸L1と直交する平面を基準面としたときに、光軸L1と直交する方向の物体側レンズ17の像側レンズ面17bの有効径での高さHにおける基準面からレンズ面までの光軸L1方向の距離である。図3はサグ量の説明図であり、S1は物体側レンズ17の像側レンズ面17bに対する基準面を示し、S2は像側レンズ18の物体側レンズ面18aに対する基準面を示す。
20μm ≦ D (1)
Sg1H ≦ Sg2H (2)
Here, the image-side lens surface 17b of the object-side lens 17 and the object-side lens surface 18a of the image-side lens 18 which are the cemented surfaces of the object-side lens 17 and the image-side lens 18 have different aspherical shapes. Yes. Further, the thickness of the resin adhesive layer B1 on the optical axis L1 is D, and the object side lens 17 at the height H at the effective diameter of the image side lens surface 17b of the object side lens 17 in the direction orthogonal to the optical axis L1. When the sag amount of the image-side lens surface 17b is Sg1H and the sag amount of the object-side lens surface 18a of the image-side lens 18 at the height H is Sg2H, the imaging lens 10 of this example has the following conditional expression (1 ) And conditional expression (2) are satisfied. The sag amount is the image side lens surface 17b of the object side lens 17 in the direction orthogonal to the optical axis L1 when a plane that includes the intersection of the lens surface and the optical axis L1 and is orthogonal to the optical axis L1 is used as a reference plane. Is the distance in the direction of the optical axis L1 from the reference surface to the lens surface at the height H at the effective diameter. FIG. 3 is an explanatory diagram of the sag amount. S1 indicates a reference surface with respect to the image side lens surface 17b of the object side lens 17, and S2 indicates a reference surface with respect to the object side lens surface 18a of the image side lens 18.
20 μm ≦ D (1)
Sg1H ≦ Sg2H (2)

条件式(1)および条件式(2)は、互いに異なる非球面形状とされている物体側レンズ17の像側レンズ面17bと像側レンズ18の物体側レンズ面18aの間の樹脂接着剤層B1の厚さ寸法、すなわち、接合レンズを構成する2枚のレンズの接合面となっている物体側レンズ17の像側レンズ面17bと像側レンズ18の物体側レンズ面18aの間隔を規定するものである。   Conditional expression (1) and conditional expression (2) indicate that the resin adhesive layer between the image side lens surface 17b of the object side lens 17 and the object side lens surface 18a of the image side lens 18 which have different aspherical shapes. The thickness dimension of B1, that is, the distance between the image side lens surface 17b of the object side lens 17 and the object side lens surface 18a of the image side lens 18 which are the cemented surfaces of the two lenses constituting the cemented lens is defined. Is.

本例の撮像レンズ10は条件式(1)および条件式(2)を満たすので、物体側レンズ17の像側レンズ面17bと像側レンズ18の物体側レンズ面18aの間隔を広くすることができる。したがって、物体側レンズ17と像側レンズ18を接着する接着作業中に、物体側レンズ17の像側レンズ面17bと像側レンズ18の物体側レンズ面18aを互いに接触させてしまい、各レンズ面に損傷を発生させることを防止或いは抑制できる。また、物体側レンズ17の像側レンズ面17bと像側レンズ18の物体側レンズ面18aの間隔が広いので、これらのレンズ面の間に樹脂接着剤が回り込み易く、2枚のレンズの間に気泡が残留することを防止できる。   Since the imaging lens 10 of this example satisfies the conditional expressions (1) and (2), the distance between the image side lens surface 17b of the object side lens 17 and the object side lens surface 18a of the image side lens 18 can be widened. it can. Therefore, during the bonding operation for bonding the object side lens 17 and the image side lens 18, the image side lens surface 17b of the object side lens 17 and the object side lens surface 18a of the image side lens 18 are brought into contact with each other, and each lens surface is contacted. It is possible to prevent or suppress the occurrence of damage. Further, since the distance between the image-side lens surface 17b of the object-side lens 17 and the object-side lens surface 18a of the image-side lens 18 is wide, it is easy for the resin adhesive to go around between these lens surfaces. It is possible to prevent bubbles from remaining.

また、本例の撮像レンズ10は、以下の条件式(3)を満たす。
D ≦ 100μm (3)
Moreover, the imaging lens 10 of this example satisfies the following conditional expression (3).
D ≦ 100μm (3)

条件式(3)は、タンジェンシャル面における像面湾曲のプラス側へのシフトの増大を抑制するためのものである。条件式(3)の上限値を超えると像面湾曲のプラス側へのシフトが大きくなり、補正が困難となる。本例では、D=20μmなので、設計によってタンジェンシャル面における像面湾曲のプラス側へのシフトを補正することが可能である。   Conditional expression (3) is for suppressing an increase in the shift of the field curvature on the tangential surface to the plus side. If the upper limit value of conditional expression (3) is exceeded, the shift of the field curvature to the plus side becomes large, and correction becomes difficult. In this example, since D = 20 μm, it is possible to correct the shift to the plus side of the curvature of field in the tangential plane by design.

さらに、物体側レンズ17の像側レンズ面17bの曲率半径をRs、レンズ系全体の焦点距離をfとしたときに、本例の撮像レンズ10は、以下の条件式(4)を満たす。
0.9 ≦ Rs/f ≦ 1.3 (4)
Furthermore, when the radius of curvature of the image side lens surface 17b of the object side lens 17 is Rs and the focal length of the entire lens system is f, the imaging lens 10 of the present example satisfies the following conditional expression (4).
0.9 ≦ Rs / f ≦ 1.3 (4)

条件式(4)の下限値を下回ると、物体側レンズ17の像側レンズ面17bの曲率が大きくなるので、像側レンズ18との接合が容易ではなくなり、接合レンズを接合する作業性が低下する。一方、条件式(4)の上限値を上回ると、色収差の補正が困難となる。本例では、Rs/f=1.077なので、接合レンズの接合が容易であり、色収差が良好に補正される。   If the lower limit of conditional expression (4) is not reached, the curvature of the image side lens surface 17b of the object side lens 17 becomes large, so that it is not easy to join the image side lens 18, and workability of joining the cemented lens is reduced. To do. On the other hand, if the upper limit value of conditional expression (4) is exceeded, it will be difficult to correct chromatic aberration. In this example, since Rs / f = 1.077, it is easy to join the cemented lens, and the chromatic aberration is corrected well.

また、レンズ系全体の焦点距離をf、物体側レンズ17の焦点距離をf41、像側レンズ18の焦点距離をf42としたときに、本例の撮像レンズ10は、以下の条件式(5)を満たす。
−3.0 ≦(f41/f42)/f ≦ −1.5 (5)
Further, when the focal length of the entire lens system is f, the focal length of the object side lens 17 is f41, and the focal length of the image side lens 18 is f42, the imaging lens 10 of this example has the following conditional expression (5) Meet.
−3.0 ≦ (f41 / f42) /f≦−1.5 (5)

条件式(5)の下限値を下回ると、軸上の色収差と倍率色収差のバランスをとることが困難となり、画像の周辺部分の解像度の低下を招く。また、条件式(5)の上限値を上回ると色収差の補正が困難となる。本例では(f41/f42)/f=−1.54なので、解像度の低下を抑制することができるとともに、色収差を良好に補正できる。   If the lower limit of conditional expression (5) is not reached, it will be difficult to balance axial chromatic aberration and lateral chromatic aberration, resulting in a decrease in the resolution of the peripheral portion of the image. If the upper limit value of conditional expression (5) is exceeded, it will be difficult to correct chromatic aberration. In this example, (f41 / f42) /f=−1.54, so that a reduction in resolution can be suppressed and chromatic aberration can be corrected well.

ここで、本例の撮像レンズ10は、第3レンズ13の物体側レンズ面13aの曲率半径をR31、第3レンズ13の像側レンズ面13bの曲率半径をR32としたときに、R3
1=3.573であり、R32=−5.766であり、以下の条件式(6)を満たしている。
R31 ≦ |R32| (6)
Here, in the imaging lens 10 of this example, when the radius of curvature of the object side lens surface 13a of the third lens 13 is R31 and the radius of curvature of the image side lens surface 13b of the third lens 13 is R32, R3
1 = 3.573 and R32 = −5.766, which satisfies the following conditional expression (6).
R31 ≦ | R32 | (6)

また、本例の撮像レンズ10は、第1レンズ11、第2レンズ12、および、像側レンズ18のアッベ数を40以上とし、第3レンズ13および物体側レンズ17のアッベ数を31以下とし、これにより、色収差を補正している。   In the imaging lens 10 of this example, the Abbe number of the first lens 11, the second lens 12, and the image side lens 18 is 40 or more, and the Abbe number of the third lens 13 and the object side lens 17 is 31 or less. Thus, chromatic aberration is corrected.

本例の撮像レンズ10のFナンバーをFno.、半画角をω、およびレンズ系の全長をLとしたときに、これらの値は次の通りである。
Fno.=2.0
ω=99.4°
L=16.089mm
The F number of the imaging lens 10 of this example is set to Fno. When the half angle of view is ω and the total length of the lens system is L, these values are as follows.
Fno. = 2.0
ω = 99.4 °
L = 16.089mm

また、レンズ系全体の焦点距離をf、第1レンズ11の焦点距離をf1、第2レンズ12の焦点距離をf2、第3レンズ13の焦点距離をf3、第4レンズ14の焦点距離をf4、物体側レンズ17の焦点距離をf41、像側レンズ18の焦点距離をf42、としたときに、これらの値は次のとおりである。
f=1.155mm
f1=−8.193mm
f2=−2.685mm
f3=4.126mm
f4=3.275mm
f41=−3.351mm
f42=1.885mm
The focal length of the entire lens system is f, the focal length of the first lens 11 is f1, the focal length of the second lens 12 is f2, the focal length of the third lens 13 is f3, and the focal length of the fourth lens 14 is f4. When the focal length of the object side lens 17 is f41 and the focal length of the image side lens 18 is f42, these values are as follows.
f = 1.155mm
f1 = −8.193 mm
f2 = −2.685mm
f3 = 4.126mm
f4 = 3.275mm
f41 = −3.351 mm
f42 = 1.85mm

次に、表1は撮像レンズ10の各レンズ面のレンズデータを示す。表1では物体側から数えた順番で各レンズ面を特定している。星印が付けられたレンズ面は非球面である。7面は絞り15であり、12面および13面は板ガラス16の物体側ガラス面および像側ガラス面である。曲率半径および間隔の単位はミリメートルである。なお、10面のNd(屈折率)およびのνd(アッベ数)の値は、樹脂接着剤層B1の値を示している。   Next, Table 1 shows lens data of each lens surface of the imaging lens 10. In Table 1, each lens surface is specified in the order counted from the object side. The lens surface marked with an asterisk is aspheric. The 7th surface is the diaphragm 15, and the 12th and 13th surfaces are the object side glass surface and the image side glass surface of the plate glass 16. The unit of curvature radius and spacing is millimeters. Note that the values of Nd (refractive index) and νd (Abbe number) of the 10 surfaces indicate the values of the resin adhesive layer B1.


次に、表2は非球面とされたレンズ面の非球面形状を規定するための非球面係数を示す。表2においても物体側から数えた順番で各レンズ面を特定している。   Next, Table 2 shows aspherical coefficients for defining the aspherical shape of the aspherical lens surface. Also in Table 2, each lens surface is specified in the order counted from the object side.

なお、レンズ面に採用する非球面形状は、Yをサグ量、cを曲率半径の逆数、Kを円錐係数、hを光線高さ、4次、6次、8次、10次、12次、14次、16次の非球面係数をそれぞれA4、A6、A8、A10、A12、A14、A16としたときに、次式により表わされる。   The aspherical shape adopted for the lens surface is such that Y is the sag amount, c is the reciprocal of the radius of curvature, K is the cone coefficient, h is the ray height, 4th order, 6th order, 8th order, 10th order, 12th order, When the 14th and 16th order aspherical coefficients are A4, A6, A8, A10, A12, A14, and A16, respectively, they are expressed by the following equations.

このような撮像レンズ10によれば、以下のような作用効果を得ることができる。
図4(a)〜(d)は撮像レンズ10の縦収差図、横収差図、像面湾曲図、歪曲収差図である。図4(a)の縦収差図では横軸は光線が光軸L1と交わる位置を示し、縦軸は瞳径での高さを示す。図4(b)の横収差図では横軸は入射瞳座標を示し、縦軸は収差量を示す。図4(a)、(b)では、波長の異なる複数の光線についてのシミュレーション結果を示してある。図4(c)の像面湾曲図では横軸は光軸L1方向の距離を示し、縦軸は像の高さを示す。図4(c)において、Sはサジタル面における像面湾曲収差を示し、Tはタンジェンシャル面における像面湾曲収差を示す。図4(d)の歪曲収差図では横軸は像の歪み量を示し、縦軸は像の高さを示す。
According to such an imaging lens 10, the following effects can be obtained.
4A to 4D are a longitudinal aberration diagram, a lateral aberration diagram, a field curvature diagram, and a distortion diagram of the imaging lens 10. In the longitudinal aberration diagram of FIG. 4A, the horizontal axis indicates the position where the light beam intersects the optical axis L1, and the vertical axis indicates the height at the pupil diameter. In the lateral aberration diagram of FIG. 4B, the horizontal axis indicates the entrance pupil coordinates, and the vertical axis indicates the amount of aberration. 4A and 4B show simulation results for a plurality of light beams having different wavelengths. In the field curvature diagram of FIG. 4C, the horizontal axis indicates the distance in the direction of the optical axis L1, and the vertical axis indicates the height of the image. In FIG. 4C, S represents the field curvature aberration on the sagittal surface, and T represents the field curvature aberration on the tangential surface. In the distortion diagram of FIG. 4D, the horizontal axis indicates the amount of image distortion, and the vertical axis indicates the height of the image.

図4(a)に示すように、本例の撮像レンズ10によれば、軸上の色収差が良好に補正されている。また、図4(b)に示すように、色の滲みが抑制されている。また、図4(a)、図4(b)に示すように、軸上の色収差と倍率色収差の双方が周辺部分においてもバランス良く補正されている。さらに、図4(c)に示すように、本例の撮像レンズ10によれば、像面湾曲が良好に補正されている。したがって、撮像レンズ10が高解像度となる。   As shown in FIG. 4A, according to the imaging lens 10 of this example, the axial chromatic aberration is corrected well. Further, as shown in FIG. 4B, color bleeding is suppressed. Further, as shown in FIGS. 4A and 4B, both axial chromatic aberration and lateral chromatic aberration are corrected in a balanced manner in the peripheral portion. Furthermore, as shown in FIG. 4C, according to the imaging lens 10 of the present example, the field curvature is corrected well. Therefore, the imaging lens 10 has a high resolution.

ここで、本例では、物体側レンズ17の像側レンズ面17bおよび像側レンズ18の物体側レンズ面18aの光軸L1上における間隔を予め20μm以上として撮像レンズ10を設計している。したがって、設計時において、樹脂接着剤層B1が厚くなることにより発生するタンジェンシャル面における像面湾曲のプラス側へのシフトを考慮できる。したがって、本例の撮像レンズ10によれば、図4(c)に示されるように、タンジェンシャル面における像面湾曲のプラス側へのシフトが抑制されている。   Here, in this example, the imaging lens 10 is designed such that the distance on the optical axis L1 between the image side lens surface 17b of the object side lens 17 and the object side lens surface 18a of the image side lens 18 is 20 μm or more in advance. Therefore, at the time of design, it is possible to consider the shift to the plus side of the curvature of field on the tangential surface, which occurs when the resin adhesive layer B1 becomes thick. Therefore, according to the imaging lens 10 of the present example, as shown in FIG. 4C, the shift of the field curvature on the tangential surface to the plus side is suppressed.

次に、図5は撮像レンズ10の球面収差図であり、実線は波長588nmの光線(可視光線)に対する球面収差を示す。点線は波長850nmの光線(近赤外線)に対する球面収差を示す。球面収差図の横軸は光線が光軸と交わる位置であり、縦軸は瞳径での高さである。図5に示すように、撮像レンズ10では、波長850nmの光線に対する球面収差が補正されており、可視光線下の撮影時と近赤外線下の撮像時とでピント合わせを行う必要がない。すなわち、本例の撮像レンズ10では、可視光線を用いた撮影時と近赤外線を用いた撮影時とでピントずれが発生することが抑制される。なお、第4レンズ14を接合レンズではない1枚のレンズから構成した場合には、波長588nmの光線(可視光線)に対する球面収差と、波長850nmの光線(近赤外線)に対する球面収差の双方をバランス良く補正して、可視光線を用いた撮影時と近赤外線を用いた撮影時とでピントずれが発生しないようにすることは困難である。   Next, FIG. 5 is a spherical aberration diagram of the imaging lens 10, and a solid line indicates spherical aberration with respect to a light beam having a wavelength of 588 nm (visible light beam). A dotted line indicates spherical aberration with respect to a light ray having a wavelength of 850 nm (near infrared ray). The horizontal axis of the spherical aberration diagram is the position where the light beam intersects the optical axis, and the vertical axis is the height at the pupil diameter. As shown in FIG. 5, in the imaging lens 10, spherical aberration with respect to a light beam having a wavelength of 850 nm is corrected, and it is not necessary to perform focusing when photographing under visible light and when photographing under near infrared rays. That is, in the imaging lens 10 of the present example, it is possible to suppress occurrence of a focus shift between shooting using visible light and shooting using near infrared rays. In the case where the fourth lens 14 is composed of a single lens that is not a cemented lens, both spherical aberration for a light beam having a wavelength of 588 nm (visible light) and spherical aberration for a light beam having a wavelength of 850 nm (near infrared light) are balanced. It is difficult to correct well so that no out-of-focus occurs between photographing using visible light and photographing using near infrared rays.

撮像センサ(イメージセンサ)1は、たとえば、CCD(Charge Coupled Device)イメージセンサであるセンサ本体114と、センサ本体114の各画素に対応して赤(R)、緑(G)、青(B)、赤外(IR)の各領域(各色のフィルタ)を所定の配列で配置したカラーフィルタ113とを備える。   The imaging sensor (image sensor) 1 includes, for example, a sensor body 114 which is a CCD (Charge Coupled Device) image sensor, and red (R), green (G), and blue (B) corresponding to each pixel of the sensor body 114. And a color filter 113 in which infrared (IR) regions (filters of respective colors) are arranged in a predetermined arrangement.

センサ本体114は、CCDイメージセンであり、各画素に受光素子としてのフォトダイオードが配置されている。なお、センサ本体114は、CCDイメージセンサに代えてCMOS(Complementary Metal・Oxide Semiconductor)イメージセンサであってもよい。   The sensor main body 114 is a CCD image sensor, and a photodiode as a light receiving element is disposed in each pixel. The sensor main body 114 may be a CMOS (Complementary Metal Oxide Semiconductor) image sensor instead of the CCD image sensor.

センサ本体114には、カラーフィルタ113が設けられている。ここで、赤R、緑G、青Bの各領域があるが赤外IRの領域がないベイヤー配列のカラーフィルタは、基本パターンとなる縦4×横4の16個の領域を有し、8個の領域がGの領域とされ、4個の領域がRとされ、4個の領域がBとされている。それに対して、本実施の形態のカラーフィルタ113としては、図6に示すように、ベイヤー配列における8個のGの領域のうちの4個をIRの領域とすることにより、Rが4個、Gが4個、Bが4個、IRが4個となっている。なお、IRの領域を含むカラーフィルタは、図6に示すカラーフィルタ113に限られるものではなく、様々な配列のカラーフィルタを用いることができる。但し、可視光の各色の領域とIRの領域の両方を含む必要がある。また、RGBの各領域は、一般的なRGBのフィルタであるが、各色の波長範囲に透過率のピークを備えるとともに、近赤外の波長域に透過性を備えることから、図6において、赤の領域をR+IRとし、緑の領域をG+IRとし、青の領域をB+IRとした。   The sensor main body 114 is provided with a color filter 113. Here, a Bayer array color filter that has red R, green G, and blue B regions but no infrared IR region has 16 regions of 4 × 4 in length, which is a basic pattern. Each region is a G region, four regions are R, and four regions are B. On the other hand, as shown in FIG. 6, the color filter 113 according to the present embodiment has four R out of four G regions in the Bayer array as IR regions. G is 4, B is 4, IR is 4. Note that the color filter including the IR region is not limited to the color filter 113 illustrated in FIG. 6, and various color filters can be used. However, it is necessary to include both the visible light color region and the IR region. Each RGB region is a general RGB filter, but has a transmittance peak in the wavelength range of each color and transparency in the near-infrared wavelength region. The R region was R + IR, the green region was G + IR, and the blue region was B + IR.

本実施の形態におけるRの領域、Gの領域およびBの領域の透過率スペクトルは、図7のグラフに示すようになっている。すなわち、カラーフィルタ113の赤(R)、緑(G)、青(B)、赤外(IR)の各フィルタの透過率スペクトルが示されており、縦軸が透過率を示し、横軸が波長となっている。グラフにおける波長の範囲は、可視光帯域と近赤外帯域の一部を含むもので、たとえば、300nm〜1100nmの波長範囲を示している。   The transmittance spectra of the R region, the G region, and the B region in the present embodiment are as shown in the graph of FIG. That is, the transmittance spectrum of each of the red (R), green (G), blue (B), and infrared (IR) filters of the color filter 113 is shown, the vertical axis indicates the transmittance, and the horizontal axis indicates the transmittance. It is a wavelength. The wavelength range in the graph includes a part of the visible light band and the near-infrared band, and indicates a wavelength range of 300 nm to 1100 nm, for example.

たとえば、Rの領域は、グラフのR(二重線)に示すように、波長600nmで略最大の透過率となり、その長波長側は、1000nmを超えても透過率が略最大の状態が維持された状態となる。Gの領域は、グラフのG(間隔の広い破線)に示すように、波長が540nm程度の部分に透過率極大となるピークを有し、その長波長側の620nm程度の部分に、透過率極小となる部分がある。また、Gの領域は、透過率極小となる部分より長波長側が上昇傾向となり、850nm程度で透過率が略最大となる。それより長波長側では、1000nmを超えても透過率が略最大となった状態となっている。Bの領域は、グラフのB(間隔の狭い破線)に示すように、波長が460nm程度の部分に透過率が極大となるピークを有し、その長波長側の630nm程度の分部に、透過率が極小となる部分がある。また、それより長波長側が上昇傾向となり、860nm程度で透過率が略最大となり、それより長波長側では、1000nmを超えても透過率が略最大となった状態となっている。IRの領域は、780nm程度から短波長側の光を遮断し、1020nm程度から長波長側の光を遮断し、820nm〜920nm程度の部分が、透過率が略最大となっている。   For example, as shown by R (double line) in the graph, the R region has a substantially maximum transmittance at a wavelength of 600 nm, and the long wavelength side maintains a substantially maximum transmittance even when the wavelength exceeds 1000 nm. It will be in the state. The G region has a peak at which the transmittance is maximized at a portion where the wavelength is about 540 nm, and the transmittance is minimized at a portion of about 620 nm on the long wavelength side, as indicated by G (broken line having a wide interval) in the graph. There is a part that becomes. In the G region, the longer wavelength side tends to increase from the portion where the transmittance is minimized, and the transmittance is substantially maximum at about 850 nm. On the longer wavelength side, the transmittance is substantially maximum even when the wavelength exceeds 1000 nm. The region B has a peak at which the transmittance is maximized at a portion where the wavelength is about 460 nm, as shown by B (dashed broken line) in the graph, and is transmitted at a portion around 630 nm on the long wavelength side. There is a part where the rate is minimal. Further, the longer wavelength side tends to increase, and the transmittance is substantially maximized at about 860 nm. On the longer wavelength side, the transmittance is substantially maximized even if it exceeds 1000 nm. The IR region blocks light on the short wavelength side from about 780 nm, blocks light on the long wavelength side from about 1020 nm, and the portion of about 820 nm to 920 nm has a substantially maximum transmittance.

R,G,B,IRの各領域の透過率スペクトルは、図7に示すものに限られるものではないが、現在、一般的に使用されているカラーフィルタ113では、これに近い透過率スペクトルを示すと思われる。なお、透過率を示す縦軸の1は、光を100%透過することを意味するものではなく、カラーフィルタ113において、たとえば、最大の透過率を示すものである。   The transmittance spectrum in each of the R, G, B, and IR regions is not limited to that shown in FIG. 7, but the color filter 113 that is currently used generally has a transmittance spectrum close to this. It seems to show. Note that 1 on the vertical axis indicating the transmittance does not mean that 100% of the light is transmitted, but in the color filter 113, for example, indicates the maximum transmittance.

DBPF111は、可視光帯域に透過特性を有し、可視光帯域の長波長側に隣接する第1の波長帯域に遮断特性を有し、第1の波長帯域内の一部分である第2の波長帯域に透過特性を有する光学フィルタである。図1に示すように、DBPF111を撮像レンズ10とカラーフィルタ113を備える撮像センサ115との間に設ける場合に、撮像レンズ10の像側に設けても、撮像センサ115の撮像レンズ10側に設けてもよい。また、撮像レンズ10の物体側に設けてもよい。
図7のグラフに示すように、DBPF111は、グラフでDBPF(実線)に示すように、DBPF(VR)で示す可視光帯域と、可視光帯域に対して長波長側の少し離れた位置のDBPF(IR)で示す赤外帯域(第2の波長帯域)の2つの帯域の透過率が高くなっている。また、可視光帯域の透過率の高い帯域としてのDBPF(VR)は、たとえば、370nm〜700nm程度の波長帯域となっている。また、赤外側で透過率が高い第2の波長帯域としてのDBPF(IR)は、たとえば、830nm〜970nm程度の帯域となっている。
The DBPF 111 has a transmission characteristic in the visible light band, has a cutoff characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band, and is a second wavelength band that is a part of the first wavelength band. Is an optical filter having transmission characteristics. As shown in FIG. 1, when the DBPF 111 is provided between the imaging lens 10 and the imaging sensor 115 including the color filter 113, the DBPF 111 is provided on the imaging lens 10 side of the imaging sensor 115 even if provided on the image side of the imaging lens 10. May be. Further, it may be provided on the object side of the imaging lens 10.
As shown in the graph of FIG. 7, the DBPF 111 has a visible light band indicated by DBPF (VR) and a DBPF at a position slightly away from the visible light band on the long wavelength side, as indicated by DBPF (solid line) in the graph. The transmittance of two bands of the infrared band (second wavelength band) indicated by (IR) is high. Further, DBPF (VR) as a band having a high transmittance in the visible light band has a wavelength band of about 370 nm to 700 nm, for example. Further, DBPF (IR) as the second wavelength band having a high transmittance on the infrared side is, for example, a band of about 830 nm to 970 nm.

本実施の形態では、上述のカラーフィルタ113の各領域の透過率スペクトルと、DBPF111の透過率スペクトルの関係が以下のように規定されている。
すなわち、DBPF111の透過率スペクトルの赤外光を透過する第2の波長帯域となるDBPF(IR)は、Rの領域、Gの領域、Bの領域の全てが略最大の透過率となって各領域で透過率が略同じとなる図7に示す波長帯域A内に含まれ、かつ、IRの領域の略最大の透過率で光を透過する波長帯域B内に含まれるようになっている。
In the present embodiment, the relationship between the transmittance spectrum of each region of the color filter 113 and the transmittance spectrum of the DBPF 111 is defined as follows.
That is, the DBPF (IR), which is the second wavelength band that transmits infrared light in the transmittance spectrum of the DBPF 111, has an approximately maximum transmittance in each of the R region, the G region, and the B region. It is included in the wavelength band A shown in FIG. 7 where the transmittance is substantially the same in the region, and is included in the wavelength band B that transmits light at the substantially maximum transmittance in the IR region.

ここで、R,G,Bの各領域の透過率が略同じになる波長帯域Aとは、各領域の透過率の差が透過率で10%以下である部分とする。
なお、この波長帯域Aより短波長側(波長帯域C)では、透過率が略最大のRの領域に対して、G、Bの領域の透過率が低くなる。DBPF111では、このR,G,Bの各領域の透過率に差がある部分が、可視光帯域の透過率が高い部分であるDBPF(VR)と、赤外光帯域の第2の波長帯域の透過率の高い部分であるDBPF(IR)との間のDBPF111の光を略遮断する透過率が極小となる部分に対応する。すなわち、赤外側では、R,G,Bの各領域の透過率の差が大きくなる部分の光の透過がカットされ、それより長波長側で各領域の透過率が略最大となって透過率が略同じになる波長帯域Aで光を透過するようになっている。
Here, the wavelength band A in which the transmittance in each of the R, G, and B regions is substantially the same is a portion where the transmittance difference in each region is 10% or less.
Note that, on the shorter wavelength side (wavelength band C) than the wavelength band A, the transmittance of the G and B regions is lower than the R region where the transmittance is substantially maximum. In DBPF 111, the portion where the transmittance of each region of R, G, and B is different is DBPF (VR), which is a portion having high transmittance in the visible light band, and the second wavelength band in the infrared light band. This corresponds to a portion where the transmittance that substantially blocks the light of the DBPF 111 between the portion having a high transmittance and DBPF (IR) is minimized. That is, on the infrared side, the transmission of light in a portion where the difference in transmittance between the R, G, and B regions is large is cut, and the transmittance in each region is substantially maximized on the longer wavelength side. The light is transmitted in the wavelength band A in which are substantially the same.

以上のことから、本実施の形態において、赤外光カットフィルタに代えて用いられるDBPF111では、可視光帯域だけではなく、赤外光側の第2の波長帯域にも光を透過する領域があるため、可視光によるカラー撮影に際して、第2の波長帯域を通過した光の影響を受けることになるが、上述のように第2の波長帯域がR,G,Bの各領域で透過率が異なる部分の光を透過せず、各領域の透過率が略最大となって略同じ透過率となる波長帯域の光だけを透過するようになっている。   From the above, in the present embodiment, DBPF 111 used in place of the infrared light cut filter has a region that transmits light not only in the visible light band but also in the second wavelength band on the infrared light side. Therefore, in color imaging with visible light, it is affected by light that has passed through the second wavelength band, but the second wavelength band has different transmittances in the R, G, and B regions as described above. A portion of light is not transmitted, and only the light in the wavelength band in which the transmittance of each region is substantially maximized and becomes substantially the same transmittance is transmitted.

また、DBPF111の第2の波長低域においては、IRの領域で透過率が略最大となる部分の光を透過するようになっている。したがって、略同じ光が照射される極めて近接した4つの画素にR,G,B,IRの領域がそれぞれ設けられていると仮定した場合に、第2の波長帯域においては、Rの領域、Gの領域、Bの領域、IRの領域で略同様に光が通過することになり、赤外側の光としては、IRを含む各領域で略同じ光量の光が撮像センサ本体114の上述の画素のフォトダイオードに至ることになる。すなわち、R,G,Bの各フィルタを透過する光のうちの赤外側の第2の波長帯域を通過する光の光量は、IRの領域を通過する光の光量と同様となる。上述のように仮定した場合に、基本的にR,G,Bの各フィルタを透過した光を受光したセンサ本体114からの上述のように仮定された画素の出力信号とIRのフィルタを通過した光を受光したセンサ本体114からの上述のように仮定された画素の出力信号との差分が、各R,G,Bの領域で通過した赤外側の光をカットしたR,G,Bそれぞれの可視光部分の出力信号となる。   Further, in the second wavelength low band of the DBPF 111, light of a portion where the transmittance is substantially maximum in the IR region is transmitted. Therefore, when it is assumed that R, G, B, and IR regions are respectively provided in four pixels that are very close to each other and irradiated with substantially the same light, in the second wavelength band, the R region, G The light passes substantially the same in the region B, the region B, and the IR region, and as light on the infrared side, substantially the same amount of light in each region including IR This leads to a photodiode. That is, the amount of light that passes through the second wavelength band on the infrared side of the light that passes through the R, G, and B filters is the same as the amount of light that passes through the IR region. When assumed as described above, the output signal of the assumed pixel from the sensor main body 114 that has received light that has basically passed through the R, G, and B filters and the IR filter as described above have passed. The difference from the output signal of the assumed pixel from the sensor main body 114 that has received the light as described above is that each of the R, G, and B cut off the infrared light that has passed through the R, G, and B regions. It becomes the output signal of the visible light part.

実際には、カラーフィルタ113のパターンに示したように、センサ本体114の画素毎にR,G,B,IRのいずれか1つの領域が配置されることになり、各画素に照射される各色の光のそれぞれの光量が異なるものとなる可能性が高いので、たとえば、各画素において、周知の内挿法(補間法)を用いて、各画素の各色の輝度を求め、この補間された各画素のR,G,Bの輝度と、同じく補間されたIRの輝度との差分をそれぞれR,G,Bの輝度とすることが可能である。なお、R,G,Bの各色の輝度から赤外光成分を除く画像処理方法は、これに限られるものではなく、最終的にR,G,Bの各輝度から第2の波長帯域を通過した光の影響をカットできる方法であれば、いずれの方法を用いてもよい。いずれの方法においても、DBPF111が、赤外側でR,G,Bの領域の透過率が10%より異なる部分、すなわち、透過率が所定割合より異なる部分をカットしているので、各画素において、赤外光の影響を除く処理が容易となる。   Actually, as shown in the pattern of the color filter 113, any one region of R, G, B, and IR is arranged for each pixel of the sensor body 114, and each color irradiated to each pixel. For example, in each pixel, the luminance of each color of each pixel is obtained by using a well-known interpolation method (interpolation method) in each pixel. Differences between the luminance of the R, G, and B pixels and the interpolated IR luminance can be set as the luminances of R, G, and B, respectively. Note that the image processing method for removing the infrared light component from the luminance of each color of R, G, B is not limited to this, and finally passes through the second wavelength band from each luminance of R, G, B. Any method may be used as long as it can cut the influence of light. In any of the methods, the DBPF 111 cuts a portion where the transmittance of the R, G, B region on the infrared side is different from 10%, that is, a portion where the transmittance is different from a predetermined ratio. Processing that removes the influence of infrared light becomes easy.

赤外光撮影を夜間撮影として用いる場合には、赤外光であっても可視光と同様に、夜間は光量が不足するので、赤外光照明が必要となる。図7に示すDBPF111の透過率スペクトルは、R,G,B,IRの各領域の透過率スペクトルと、赤外光照明用の光、たとえば、照明用赤外光LEDの発光スペクトルを考慮して決定する。   When infrared light photographing is used as night photographing, the amount of light is insufficient at night as in the case of visible light, so infrared light illumination is necessary. The transmittance spectrum of DBPF 111 shown in FIG. 7 takes into account the transmittance spectrum of each region of R, G, B, and IR and the light emission spectrum of infrared light, for example, an infrared light LED for illumination. decide.

このような撮像センサにあっては、DBPF111の赤外側で光を透過する第2の波長帯域が、R,G,B,IRの各領域の赤外側で、各領域の透過率が略最大となって、各領域の透過率が略同じとなる波長帯域Aに含まれるとともに、IRの領域の透過率が略最大となる波長帯域Bに含まれる。言い換えれば、可視光帯域より長波長側で、R,G,Bの各フィルタの透過率がRの領域だけ略最大となって、G、Bの領域は透過率が略最大となっていないことにより、R,G,Bの各領域の透過率が略同じとならずに異なる部分の光は、DBPF111によりカットされる。   In such an image sensor, the second wavelength band that transmits light on the infrared side of the DBPF 111 is on the infrared side of each of the R, G, B, and IR regions, and the transmittance of each region is substantially maximum. Thus, it is included in the wavelength band A in which the transmittance in each region is substantially the same, and is included in the wavelength band B in which the transmittance in the IR region is substantially maximum. In other words, on the longer wavelength side than the visible light band, the transmittance of each of the R, G, and B filters is substantially maximum only in the R region, and the transmittance in the G and B regions is not substantially maximum. As a result, the transmittances of the R, G, and B regions are not substantially the same, but different portions of light are cut by the DBPF 111.

すなわち、R,G,B,IRの各領域では、赤外側で第2の波長帯域の光が透過するようになっていることから各領域における赤外側の透過率が全て略同じとなり、第2の波長帯域となる光が同じ光量で照射されれば、R,G,B,IRの各領域における透過光量が同じになる。これにより、上述のようにR,G,Bの各領域に対応する画素からの出力信号に基づく色を補正し、カラー撮影時の色の第2の波長帯域を通過する赤外光による影響を抑制した画像を容易に得ることができる。   That is, in each of the R, G, B, and IR regions, light in the second wavelength band is transmitted on the infrared side, so that the infrared side transmittance in each region is substantially the same. If the light having the same wavelength band is irradiated with the same light amount, the transmitted light amounts in the R, G, B, and IR regions are the same. Thus, as described above, the color based on the output signal from the pixel corresponding to each of the R, G, and B regions is corrected, and the influence of the infrared light passing through the second wavelength band of the color at the time of color photographing is affected. A suppressed image can be easily obtained.

また、第2の波長帯域を上述の波長帯域Aと波長帯域Bに含まれる赤外光照明の発光スペクトルのピークに対応させることにより、赤外光照明の光を効率的に用いられるとともに、第2の波長帯域の幅を狭めて、カラー撮影時に、第2の波長帯域を通過する赤外光の影響を小さくすることができる。   Further, by making the second wavelength band correspond to the peak of the emission spectrum of the infrared light illumination included in the wavelength band A and the wavelength band B described above, the light of the infrared light illumination can be used efficiently, The width of the second wavelength band can be narrowed to reduce the influence of infrared light passing through the second wavelength band during color photography.

すなわち、DBPF111を使うことにより、撮像センサ115のRGBの各信号の値からそれぞれIRの信号の値を減算することにより高精度の補正が可能になる。たとえば、撮像センサ115の各色の画素の受光成分は、以下に示すように、各色の成分にIRの成分を加えた状態となっている。   That is, by using the DBPF 111, highly accurate correction can be performed by subtracting the value of each IR signal from the value of each RGB signal of the image sensor 115. For example, the light receiving components of the pixels of each color of the imaging sensor 115 are in a state in which an IR component is added to the components of each color as shown below.

R画素 R+IR
G画素 G+IR
B画素 B+IR
IR画素 IR
R pixel R + IR
G pixel G + IR
B pixel B + IR
IR pixel IR

そこで、以下に示すように、IRの画素を除くRGBの各画素の受光成分からIR成分を除くIR補正を行う。   Therefore, as shown below, IR correction is performed by removing the IR component from the light receiving components of the RGB pixels excluding the IR pixels.

R信号 (R画素出力)―(IR画素出力)=(R+IR)−IR=R
G画素 (R画素出力)―(IR画素出力)=(G+IR)−IR=G
B画素 (R画素出力)―(IR画素出力)=(B+IR)−IR=B
これにより、DBPF111を透過するとともにカラーフィルタを透過するIR成分をカラーフィルタのIR以外の各色の領域から除外することができる。
R signal (R pixel output)-(IR pixel output) = (R + IR) -IR = R
G pixel (R pixel output)-(IR pixel output) = (G + IR) -IR = G
B pixel (R pixel output)-(IR pixel output) = (B + IR) -IR = B
As a result, IR components that pass through the DBPF 111 and pass through the color filter can be excluded from the regions of each color other than the IR of the color filter.

信号処理部116では、上述のように同時化処理(内挿処理)が行われ、動画としての画像データにおいて、各フレームにおいて、全ての画素がRのフレーム、Gのフレーム、Bのフレーム、IRのフレームが生成される。すなわち、カラーフィルタでは、上述の4×4の基本パターンにR、G、B、IRの画素が4つずつしかないが、これを内挿処理により補間し、基本パターンの全ての画素がRの画像、Gの画像、Bの画像、IRの画像を生成する。
また。信号処理部116では、上述のようにガンマ補正や、ホワイトバランスや、RGBマトリックス補正等の画像処理行う。
In the signal processing unit 116, the synchronization process (interpolation process) is performed as described above, and in the image data as a moving image, in each frame, all pixels are R frames, G frames, B frames, IR Frames are generated. That is, in the color filter, there are only four R, G, B, and IR pixels in the 4 × 4 basic pattern described above, but this is interpolated by interpolation processing, and all the pixels of the basic pattern are R An image, a G image, a B image, and an IR image are generated.
Also. The signal processing unit 116 performs image processing such as gamma correction, white balance, and RGB matrix correction as described above.

信号処理部116からは、IR成分が除かれたRGBの各信号からなる可視画像信号121と、IR信号からなる赤外画像信号122が出力される。可視画像信号121は、可視画像処理部117に出力される。可視画像処理部117は、画像認識処理により顔検出(顔認識)を行う。なお、顔検出は、周知の処理で行う。   The signal processing unit 116 outputs a visible image signal 121 composed of RGB signals from which IR components have been removed and an infrared image signal 122 composed of IR signals. The visible image signal 121 is output to the visible image processing unit 117. The visible image processing unit 117 performs face detection (face recognition) by image recognition processing. The face detection is performed by a known process.

なお、画像処理および画像認識のプログラムに関しては、インテル(登録商標)オープンCV(Intel Open Source Computer Vision Library)を利用して容易に作成可能である。たとえば、顔認識プログラムを作成する場合に、オープンCVに登録されているオブジェクト検出プログラムを用いることができる。画像認識の原理として、学習フェーズと認識フェーズがあり、画像から特徴量を抽出し、学習アルゴリズムによってオブジェクトの特徴を学習することにより、たとえば、顔認識等の画像認識が可能となる。オープンCVでは、画像特徴量としてHaar・Like特徴量を用い、学習アルゴリズムとしてAdaboostと呼ばれるアルゴリズムを使用している。オブジェクト検出プログラムにおいて、特徴点に基づいて顔の画像か否かを機械学習させることにより、オブジェクト検出プログラムにおいて、顔の画像を顔として認識することが可能となる。なお、画像認識プログラムに必ずしもオープンCVを利用しなくてもよいし、既存のプログラムや、既存の画像認識回路を搭載したチップを利用してもよい。   An image processing and image recognition program can be easily created using Intel (registered trademark) Open CV (Intel Open Source Computer Vision Library). For example, when creating a face recognition program, an object detection program registered in the open CV can be used. As a principle of image recognition, there are a learning phase and a recognition phase. By extracting a feature amount from an image and learning a feature of an object by a learning algorithm, for example, image recognition such as face recognition becomes possible. In Open CV, Haar / Like feature values are used as image feature values, and an algorithm called Adaboost is used as a learning algorithm. In the object detection program, it is possible to recognize a face image as a face in the object detection program by causing the object detection program to perform machine learning based on the feature points. Note that the open CV is not necessarily used for the image recognition program, and an existing program or a chip equipped with an existing image recognition circuit may be used.

可視画像処理部117では、顔認識するとともに、認識された顔の肌が露出している領域(肌領域)を検出し、動画データの各フレーム内の座標位置を赤外画像処理部118に出力する。なお、顔検出においては、撮像範囲内(フレーム内)に複数の人物101がいる場合に、同時に複数の顔を検出するようになっている。これら複数の顔を認識した場合に、これら認識された顔の複数の肌領域のフレーム上の座標位置をそれぞれ赤外画像処理部118に送出するようになっている。また、可視画像処理部117は、可視画像信号をモニタ120に出力し、モニタ120に可視画像を表示するようになっている。   The visible image processing unit 117 recognizes the face, detects a region where the skin of the recognized face is exposed (skin region), and outputs the coordinate position in each frame of the moving image data to the infrared image processing unit 118. To do. In the face detection, when there are a plurality of persons 101 within the imaging range (within a frame), a plurality of faces are detected simultaneously. When the plurality of faces are recognized, the coordinate positions on the frames of the plurality of skin regions of the recognized faces are sent to the infrared image processing unit 118, respectively. The visible image processing unit 117 outputs a visible image signal to the monitor 120 and displays the visible image on the monitor 120.

なお、モニタ120には、信号処理部116から可視画像信号121が入力されるようになっていてもよい。
赤外画像処理部118には、信号処理部116から赤外画像信号がフレーム毎に入力するとともに、可視画像処理部117から上述のように求められた各フレームの肌領域の位置が入力される。赤外画像処理部118では、赤外画像のフレーム上の肌領域の座標位置を特定する。なお、可視画像処理部117から入力される肌領域は、たとえば、縦横が所定画素数の正方形や長方形の領域や、半径が画素数で指定された円の領域であってもよい。
Note that the visible image signal 121 may be input from the signal processing unit 116 to the monitor 120.
An infrared image signal is input to the infrared image processing unit 118 for each frame from the signal processing unit 116, and the position of the skin region of each frame obtained as described above is input from the visible image processing unit 117. . The infrared image processing unit 118 identifies the coordinate position of the skin region on the frame of the infrared image. Note that the skin region input from the visible image processing unit 117 may be, for example, a square or rectangular region with a predetermined number of pixels in the vertical and horizontal directions, or a circular region with a radius specified by the number of pixels.

赤外画像処理部118は、各フレームの肌領域における各画素の赤外信号のたとえば和または平均を求める。赤外画像信号の各フレームにおける肌領域と判定された部分の出力レベル(強度)の和または平均は、たとえば、図8のグラフに示すようになる、なお、グラフにおいて、縦軸が上述の赤外光の出力レベルを示し、横軸は、フレーム数であり、この例では、30fpsで撮像されており、30フレームで1秒となる。   The infrared image processing unit 118 calculates, for example, the sum or average of the infrared signals of each pixel in the skin region of each frame. The sum or average of the output levels (intensities) of the portions determined as skin areas in each frame of the infrared image signal is as shown in the graph of FIG. 8, for example. The output level of external light is shown, and the horizontal axis is the number of frames. In this example, the image is captured at 30 fps, and 30 frames are 1 second.

肌は、その表層部分に毛細血管を有し、毛細血管は、心臓の鼓動に合わせて膨張と収縮を繰り替えしている。この場合に、毛細血管が膨張すると肌の単位面積当たりの血液量が増加し、血液の赤血球に含まれるヘモグロビンが増加する。毛細結果が収縮すると肌の単位面積当たりの血液量が減少し、血液のヘモグロビンが減少する。また、ヘモグロビンは、近赤外光を吸収することが知られており、肌のヘモグロビンが増加すると近赤外光の反射量が減少し、肌のヘモグロビンが減少すると近赤外光の反射量が増加する。   The skin has capillaries on its surface layer, and the capillaries are repeatedly expanded and contracted in accordance with the heartbeat. In this case, when the capillaries expand, the amount of blood per unit area of the skin increases, and hemoglobin contained in blood red blood cells increases. When the capillary result shrinks, the blood volume per unit area of the skin decreases and the blood hemoglobin decreases. Hemoglobin is also known to absorb near-infrared light. When skin hemoglobin increases, near-infrared light reflection decreases, and when skin hemoglobin decreases, near-infrared light reflection decreases. To increase.

したがって、赤外画像の肌領域の反射光量(強度)は、図8に示すように、たとえば、1分間に50〜150ぐらいの脈拍数に対応する小さな波が赤外画像に合成された状態となっている。なお、図8のグラフにおいて、波の大きな変動が赤外画像の肌領域の赤外光の明暗の変動を示し、小さな波が脈拍に対応する赤外の反射光の増減をしめしている。なお、撮影されて顔認識されている人物101が動かず、照明が一定ならば赤外の反射光量は、大きく変動しない可能性もある。   Therefore, as shown in FIG. 8, the reflected light amount (intensity) of the skin region of the infrared image is such that, for example, a small wave corresponding to a pulse rate of about 50 to 150 per minute is combined with the infrared image. It has become. In the graph of FIG. 8, large fluctuations in the waves indicate fluctuations in the brightness of the infrared light in the skin region of the infrared image, and small waves indicate an increase or decrease in the reflected infrared light corresponding to the pulse. It should be noted that if the person 101 photographed and face-recognized does not move and the illumination is constant, the amount of reflected infrared light may not vary greatly.

肌領域の赤外画像には、脈拍数に対応する周波数の波が合成された状態となっているので、この脈拍数に対応する周波数の波を周知の処理を行う。たとえば、フーリエ変換は、ひずんだ波形を合成波として、その成分である正弦波群を明らかにすることができる。これを使って、上述の各フレームの肌領域の赤外光の反射強度から離散フーリエ変換を施すことによって、入力波形を構成している正弦波成分を抽出することができる。   Since an infrared image of the skin region is in a state where a wave having a frequency corresponding to the pulse rate is synthesized, a known process is performed on the wave having a frequency corresponding to the pulse rate. For example, the Fourier transform can clarify a sine wave group that is a component of a distorted waveform as a synthesized wave. By using this, the sine wave component constituting the input waveform can be extracted by performing discrete Fourier transform from the reflection intensity of the infrared light of the skin region of each frame described above.

図8に示す波形から抽出した脈拍数に対応する波形を図9のグラフに示す。縦軸は、抽出後の赤外の反射強度を示し、横軸は上述のフレーム数を示すものである。図9に示す波形の単位時間当たり、たとえば、1分当たりのピーク数が脈拍数となる。なお、脈拍数を算出するのに赤外画像データのうちの1分の長さの画像データを用いる必要はなく、たとえば、数秒から数十秒程度の時間の抽出した波から脈拍数を検出する。   The waveform corresponding to the pulse rate extracted from the waveform shown in FIG. 8 is shown in the graph of FIG. The vertical axis represents the infrared reflection intensity after extraction, and the horizontal axis represents the number of frames described above. The number of peaks per unit time of the waveform shown in FIG. 9, for example, per minute is the pulse rate. Note that it is not necessary to use image data having a length of one minute of infrared image data to calculate the pulse rate. For example, the pulse rate is detected from a wave extracted for several seconds to several tens of seconds. .

また、赤外画像処理部118では、上述の肌領域の赤外線の強度から体温を検出するようになっている。なお、体温測定においては、体温が既知の人物101の肌を撮影して校正することが好ましい。なお、体温検出においては、必ずしも絶対的な体温を計測する必要はなく、たとえば、既に撮影された過去の肌の赤外画像や、同時に撮影された肌の赤外画像に対して相対的に温度が高い人物101を検出するようにしてもよい。また、人物101のいない所定の背景部分に対する温度差を検出するようにしてもよい。   In addition, the infrared image processing unit 118 detects the body temperature from the infrared intensity of the skin region described above. In the body temperature measurement, it is preferable to calibrate by photographing the skin of the person 101 whose body temperature is known. In the body temperature detection, it is not always necessary to measure the absolute body temperature. For example, the temperature relative to an infrared image of the past skin that has already been taken or an infrared image of the skin that has been taken at the same time. The person 101 having a high value may be detected. Further, a temperature difference with respect to a predetermined background portion without the person 101 may be detected.

赤外画像処理部118で、測定された脈拍数と体温(または温度差)は、異常判定部119に出力される。異常判定部では、たとえば、脈拍数の予め定めた正常範囲の上限と下限の値が記憶されており、測定された脈拍数が上限の値を越える場合と、下限の値より少ない場合に異常と判定される。また、体温または上述のような温度差(相対温度)の予め定めた正常範囲の上限と下限の値が記憶されており、測定された体温(温度差)が上限の値を越える場合と、下限の値より少ない場合に異常と判定される。   The pulse rate and body temperature (or temperature difference) measured by the infrared image processing unit 118 are output to the abnormality determination unit 119. In the abnormality determination unit, for example, the upper and lower limits of a predetermined normal range of pulse rate are stored, and an abnormality is detected when the measured pulse rate exceeds the upper limit value or less than the lower limit value. Determined. Moreover, the upper limit and lower limit values of a predetermined normal range of body temperature or temperature difference (relative temperature) as described above are stored, and when the measured body temperature (temperature difference) exceeds the upper limit value, If it is less than the value of, it is determined to be abnormal.

可視画像処理部117の処理に基づいてモニタ120には、可視画像信号に基づく可視画像が表示されるとともに、顔認識された人物101で脈拍数と体温のうちの少なくとも一方が異常と判定された人物101を特定可能とする表示が行われるようになっている。
ここでは、たとえば、図10に示すように、異常と判定された人物101の顔(頭部)囲む線と、脈拍数(BP)および体温(BT:温度差)と含む識別画像データが表示されるようになっている。
Based on the processing of the visible image processing unit 117, a visible image based on the visible image signal is displayed on the monitor 120, and at least one of the pulse rate and body temperature is determined to be abnormal by the person 101 whose face is recognized. A display that can specify the person 101 is performed.
Here, for example, as shown in FIG. 10, identification image data including the line surrounding the face (head) of the person 101 determined to be abnormal, and the pulse rate (BP) and body temperature (BT: temperature difference) are displayed. It has become so.

このモニタ120の画像に基づいて、警備員等の係員が脈拍数または体温が異常と判定された人物101を特定して対応することができる。なお、監視カメラの撮像範囲を左右に回転移動可能とするとともに、ズーム可能として上述のように異常と判定された肌領域がフレームの左右の中央に移動してズームするような制御を行ってもよい。   Based on the image of the monitor 120, a staff member such as a guard can identify and respond to the person 101 whose pulse rate or body temperature is determined to be abnormal. Even if control is performed so that the imaging range of the surveillance camera can be rotated to the left and right, and the skin area determined to be abnormal as described above is moved to the center of the left and right of the frame as described above. Good.

次に、このような撮像システムで行われる画像処理を図11のフローチャートを参照して説明する。まず、カメラ110から上述のように赤外成分が除去されたRGBの可視画像信号121と、赤外画像信号122が可視画像処理部117、赤外画像処理部118、異常判定部119を有する撮像システム100の画像処理を行う部分に入力する(ステップS10)。すなわち、可視画像信号が可視画像処理部117に入力され、赤外画像信号が赤外画像処理部118に入力される。   Next, image processing performed in such an imaging system will be described with reference to the flowchart of FIG. First, the RGB visible image signal 121 from which the infrared component is removed from the camera 110 as described above, and the infrared image signal 122 are captured by the visible image processing unit 117, the infrared image processing unit 118, and the abnormality determination unit 119. Input to the part of the system 100 that performs image processing (step S10). That is, the visible image signal is input to the visible image processing unit 117, and the infrared image signal is input to the infrared image processing unit 118.

次で、可視画像処理部117において、上述のように顔検出が行われる(ステップS20)また、赤外画像処理部118では、入力する赤外画像信号と、可視画像処理部117で顔検出で検出された肌領域の位置(範囲)とから、上述のように脈拍数と体温を検出する(ステップS30)。検出された脈拍数および体温は、異常判定部119において、上述のように異常か否かが判定される(ステップS40)。異常があった場合には、たとえば、モニタ120に上述のように出力されることになる(ステップS50)。   Next, the visible image processing unit 117 performs face detection as described above (step S20). In addition, the infrared image processing unit 118 detects the input infrared image signal, and the visible image processing unit 117 performs face detection. From the detected position (range) of the skin region, the pulse rate and body temperature are detected as described above (step S30). The detected pulse rate and body temperature are determined by the abnormality determination unit 119 as to whether or not they are abnormal as described above (step S40). If there is an abnormality, for example, it is output to the monitor 120 as described above (step S50).

このような撮像システムでは、上述のようなDBPF111と赤外領域を有するカラーフィルタ113と、可視画像から赤外成分を除去する信号処理部116を備えることにより、赤外カットフィルタが無くとも、上述のように赤外成分が除去された可視画像信号121と、赤外カットフィルタにカットされることがない赤外画像信号を同時に得ることができる。
したがって、可視画像から顔検出を行い、検出された顔の肌の領域の位置と赤外画像から脈拍数および体温を略リアルタイムで計測できる撮像システムを低コストで製造することが可能となる。
Such an imaging system includes the DBPF 111 and the color filter 113 having an infrared region as described above, and the signal processing unit 116 that removes the infrared component from the visible image. Thus, the visible image signal 121 from which the infrared component is removed and the infrared image signal that is not cut by the infrared cut filter can be obtained simultaneously.
Therefore, it is possible to manufacture an imaging system capable of detecting a face from a visible image and measuring the pulse rate and body temperature in substantially real time from the position of the detected skin area of the face and an infrared image at a low cost.

また、上述のような撮像レンズ10を用いることにより、互いの波長帯域に大きな波長の差がある可視画像と、赤外画像とを1つの光学系で同時に撮影しても、被写体としての人物101に対して、可視と赤外の両方で略ピントがあった状態で撮影が可能となる。   In addition, by using the imaging lens 10 as described above, even if a visible image having a large wavelength difference between the wavelength bands and an infrared image are simultaneously captured by one optical system, the person 101 as a subject is captured. On the other hand, it is possible to take a picture in a state where there is substantially focus in both visible and infrared.

また、バイタルサインとしての脈拍の検出は、赤外画像で行っているので、たとえば、赤外光が不足しているような場所では、上述のDBPF111の第2の波長帯域とカラーフィルタ113の赤外領域を通過する波長帯域との両方を透過する波長にピークを有する赤外光のLED等を用いて照明してもよい。この場合に照明光は、撮影対象者としての人物101に見えないので、赤外光を用いた脈拍の計測を悟られることがない。   Further, since the pulse as a vital sign is detected by an infrared image, for example, in a place where the infrared light is insufficient, the second wavelength band of the DBPF 111 and the red color filter 113 are used. You may illuminate using LED etc. of the infrared light which has a peak in the wavelength which permeate | transmits both the wavelength range | bands which pass an outer area | region. In this case, since the illumination light cannot be seen by the person 101 as the subject of photographing, the pulse measurement using infrared light is not realized.

以上のことから可視画像と赤外画像による脈拍数等の計測とを1つの撮像カメラ110で行うことが可能となるが、この際に、光学系が1つで、撮像素子が1つで、DBPF111を使うが、赤外カットフィルタは使わないことから、よりコンパクトで低コストに撮像カメラ110を製造することができる。   From the above, it is possible to perform measurement of the pulse rate and the like using a visible image and an infrared image with one imaging camera 110. At this time, one optical system, one imaging element, Although the DBPF 111 is used, but no infrared cut filter is used, the imaging camera 110 can be manufactured more compactly and at a lower cost.

次に、本発明の第2の実施の形態を説明する。
第2の実施の形態は、撮像システム100の撮像カメラ110の光学系としての図12に示す撮像レンズ10Aが上述の撮像レンズ10と異なるものとなっている。撮像レンズ10A以外の構成は、第1の実施の形態と同様であり、撮像レンズ10Aを説明し、撮像システム100のそれ以外の構成の説明を省略する。
Next, a second embodiment of the present invention will be described.
In the second embodiment, an imaging lens 10A shown in FIG. 12 as an optical system of the imaging camera 110 of the imaging system 100 is different from the imaging lens 10 described above. The configuration other than the imaging lens 10 </ b> A is the same as that of the first embodiment. The imaging lens 10 </ b> A will be described, and the description of the other configuration of the imaging system 100 will be omitted.

本実施の形態は、ホログラム21を用いて、DBPF111の第2の波長帯域とカラーフィルタ113のIR領域とを透過する赤外光が焦点を結ぶ位置を、前記可視光帯域の光線が焦点を結ぶ焦点位置に一致させることにより、可視光と赤外光とで同時にピントを合わせることを可能としたものである。   In the present embodiment, the light beam in the visible light band is focused at the position where the infrared light transmitted through the second wavelength band of the DBPF 111 and the IR region of the color filter 113 is focused using the hologram 21. By matching with the focal position, it is possible to focus on visible light and infrared light simultaneously.

ホログラム21では、例えば、特定の狭い波長域の光だけに対してレンズや凹面鏡等の光学素子として機能させられることが知られており、ホログラム21を光学素子として利用するための開発が行われている。
このようなホログラム21には、波長選択性と、波面再生性とがあることが知られている。波長選択性とは、例えば、特定の狭い波長域の光だけに影響を与え、その波長域以外の光にはほとんど影響を与えないようになっている性質のことである。
In the hologram 21, for example, it is known that it can function as an optical element such as a lens and a concave mirror only for light in a specific narrow wavelength range, and development for using the hologram 21 as an optical element has been performed. Yes.
It is known that such a hologram 21 has wavelength selectivity and wavefront reproducibility. The wavelength selectivity is, for example, a property that affects only light in a specific narrow wavelength range and hardly affects light outside the wavelength range.

ホログラム21は、物体光(物体を反射した光)と参照光との2つの光束を干渉させその干渉縞を感材に記録する2光束干渉法により作製される。これにより例えば参照光を照明光として作成時と同じ入射角でホログラム21に当てると、上述の物体光が再現(再生)される。なお、ホログラム21は、作製の時に使用した光と同じ波長、入射角の光で再生照明を行うときにもっとも回折効率が高くなることが知られている。たとえば、反射型ホログラムの場合に、作成時に使用した波長の光を反射させ、それ以外の波長の光を透過させることが可能である。   The hologram 21 is produced by a two-beam interference method in which two light beams of the object light (light reflected from the object) and the reference light are interfered and the interference fringes are recorded on the photosensitive material. Thus, for example, when the reference light is applied as illumination light to the hologram 21 at the same incident angle as that at the time of creation, the above-described object light is reproduced (reproduced). The hologram 21 is known to have the highest diffraction efficiency when reproducing illumination is performed with light having the same wavelength and incident angle as the light used for production. For example, in the case of a reflection hologram, it is possible to reflect light having a wavelength used at the time of creation and transmit light having other wavelengths.

また、ホログラム21は、上述のように、波面再現性を有する。ここで、例えば、ホログラム作成時に、参照光として平行光を照射するとともに、ハーフミラーを用いて、ホログラムの参照光を照射した面に物体光として集光レンズや凹面鏡で集光途中の光(例えば、球面波)を照射することによりこれら参照光と物体光を干渉させて干渉縞を記録すると、作成されたホログラムは、平行光である照明光を集光(球面波に変換)するレンズとして機能する。   Further, the hologram 21 has wavefront reproducibility as described above. Here, for example, at the time of creating a hologram, parallel light is irradiated as reference light, and light that is being condensed by a condensing lens or a concave mirror is used as object light on the surface irradiated with the reference light of the hologram using a half mirror (for example, When the interference fringes are recorded by causing the reference light and object light to interfere with each other by irradiating a spherical wave, the created hologram functions as a lens that condenses the illumination light that is parallel light (converts it into a spherical wave). To do.

本実施の形態では、以上のようなホログラム21の特性を利用して、作成時の参照光および物体光として、たとえば、波長850nmの赤外光を用い、上述の凹面鏡やレンズとして、可視光に対する赤外光の色収差によるピントずれを補正する光学素子を用いて、ホログラム21を作成している。なお、ホログラム21の作成においては、実際に上述のように2つの光束を干渉させてホログラム21を感光させるだけではなく、コンピュータ上のシミュレーションにより、干渉縞を求めて当該干渉縞を感材に焼き付けて(印刷して)もよい。   In the present embodiment, using the characteristics of the hologram 21 as described above, for example, infrared light having a wavelength of 850 nm is used as reference light and object light at the time of creation, and the above-described concave mirror or lens is used for visible light. The hologram 21 is created using an optical element that corrects a focus shift due to chromatic aberration of infrared light. In creating the hologram 21, the hologram 21 is not only exposed to light by actually causing the two light beams to interfere as described above, but the interference fringes are obtained by computer simulation and the interference fringes are baked on the photosensitive material. (Printed).

このようなホログラム21においては、例えば、DBPF111の第2の波長帯域を通過するとともに、カラーフィルタ113のIR領域を通過した赤外光が透過する際に、その方向が変更されるが、可視光は、ホログラム21を透過してもその方向がほとんど変わらない。以下に、このようなホログラム21を備える撮像レンズ10Aについて説明する。
In such a hologram 21, for example, when infrared light that passes through the second wavelength band of the DBPF 111 and passes through the IR region of the color filter 113 is transmitted, its direction is changed, but visible light Even if it passes through the hologram 21, its direction hardly changes. Hereinafter, an imaging lens 10A including such a hologram 21 will be described.

図12に示すように、撮像レンズ10Aは、850nmの赤外域の波長の光線が焦点を結ぶ位置を、ホログラム21によって可視光域の光線が焦点を結ぶ焦点位置に一致させることにより、可視光と赤外との撮影を上述のように一つの撮像素子で同時に行う場合に、可視光と赤外光との両方でピントがあった状態とすることを可能としたものである。   As shown in FIG. 12, the imaging lens 10 </ b> A matches the position where the light beam having the infrared wavelength of 850 nm is focused with the focal position where the light beam in the visible light region is focused by the hologram 21. When imaging with infrared is simultaneously performed with one image sensor as described above, it is possible to achieve a state in which both visible light and infrared light are in focus.

撮像レンズ10Aは画角が172.6°の広角レンズであり、物体側から結像面22に向かって負のパワーを有する前群レンズIと正のパワーを有する後群レンズIIがこの順序に配列された構成となっている。前群レンズIと後群レンズIIは、それぞれ2枚のレンズから構成されている。より具体的には、前群レンズIは第1凹レンズ23と第2凹レンズ24から構成され、これらは物体側に凸面を向けたメニスカスレンズとなっている。後群レンズIIは1枚の前側レンズ25と1枚の後側レンズ26から構成されている。前側レンズ25と後側レンズ26の間には絞り27が配置され、絞り27の結像側近傍にはホログラム21が配置されている。なお、本発明では、物体側から連続して2枚以上の凹レンズが配置されている場合に、物体側から2枚のレンズを前群レンズIとして把握する。物体側から1枚の凹レンズがあり、2枚目は凹レンズではない場合には、この1枚の凹レンズを前群レンズIとして把握する。   The imaging lens 10A is a wide-angle lens having an angle of view of 172.6 °, and the front group lens I having a negative power and the rear group lens II having a positive power from the object side toward the imaging surface 22 are arranged in this order. It has an arranged configuration. The front group lens I and the rear group lens II are each composed of two lenses. More specifically, the front lens group I includes a first concave lens 23 and a second concave lens 24, which are meniscus lenses having a convex surface facing the object side. The rear lens group II is composed of one front lens 25 and one rear lens 26. A diaphragm 27 is disposed between the front lens 25 and the rear lens 26, and a hologram 21 is disposed in the vicinity of the imaging side of the diaphragm 27. In the present invention, when two or more concave lenses are continuously arranged from the object side, the two lenses from the object side are grasped as the front group lens I. When there is one concave lens from the object side and the second lens is not a concave lens, this single concave lens is grasped as the front lens group I.

ホログラム21は、正のパワーを有し、850nmの波長の光線に対して最大回折効率を備える。ホログラム21としては、体積ホログラムおよびレリーフ型ホログラムのいずれを用いることもできる。後側レンズ26と結像面22の間にはカバーガラス28が配置されている。第1レンズ群Iの第2凹レンズ24の両側のレンズ面24a、24b、第2レンズ群IIの前側レンズ25の両側のレンズ面25a、25b、および、後側レンズ26の両側のレンズ面26a、26bは非球面とされている。   The hologram 21 has a positive power and a maximum diffraction efficiency with respect to a light beam having a wavelength of 850 nm. As the hologram 21, either a volume hologram or a relief hologram can be used. A cover glass 28 is disposed between the rear lens 26 and the imaging plane 22. Lens surfaces 24a and 24b on both sides of the second concave lens 24 of the first lens group I, lens surfaces 25a and 25b on both sides of the front lens 25 of the second lens group II, and lens surfaces 26a on both sides of the rear lens 26, Reference numeral 26b denotes an aspherical surface.

撮像レンズ10Aの全光学系のレンズデータは次の通りである。
Fナンバー:2.4
焦点距離
f :1.495mm(全系)
fH :22mm(ホログラム21)
f1 :−5.77mm(第1凹レンズ23)
f2 :−2.50mm(第2凹レンズ24)
f3 :2.50mm(前側レンズ25)
f3 :3.10mm(後側レンズ26)
f12:−1.41mm(前群レンズI)
f23:3.07mm(後群レンズII)
画角 :172.6°
本実施の形態では、可視光域の光線の基準波長W1を500nmとしており、撮像レンズ10Aの全系の焦点距離は、基準波長W1に対するものである。また、ホログラム21の焦点距離fHは、850nmの特定波長W2の赤外域の光線に対するものである。
The lens data of the entire optical system of the imaging lens 10A is as follows.
F number: 2.4
Focal length f: 1.495mm (all systems)
fH: 22 mm (hologram 21)
f1: -5.77 mm (first concave lens 23)
f2: -2.50 mm (second concave lens 24)
f3: 2.50 mm (front lens 25)
f3: 3.10 mm (rear lens 26)
f12: -1.41 mm (front lens group I)
f23: 3.07 mm (rear group lens II)
Angle of view: 172.6 °
In the present embodiment, the reference wavelength W1 of the light in the visible light region is set to 500 nm, and the focal length of the entire system of the imaging lens 10A is relative to the reference wavelength W1. The focal length fH of the hologram 21 is for an infrared ray having a specific wavelength W2 of 850 nm.

表3は撮像レンズ10Aの各レンズ面のレンズデータを示し、表4は非球面とされたレンズ面の非球面形状を規定するための非球面係数を示す。表3において、iは物体側より数えたレンズ面の順番を表し、Rはレンズ面の曲率を表し、Dはレンズ面の距離を表し、Ndは各レンズの屈折率を表し、νdは各レンズのアッベ数を表す。また、Sは絞り面、Hはホログラム面、*印はレンズ面が非球面であることを示す。   Table 3 shows lens data of each lens surface of the imaging lens 10A, and Table 4 shows aspheric coefficients for defining the aspheric shape of the aspheric lens surface. In Table 3, i represents the order of the lens surfaces counted from the object side, R represents the curvature of the lens surfaces, D represents the distance of the lens surfaces, Nd represents the refractive index of each lens, and νd represents each lens. Represents the Abbe number. Further, S indicates the diaphragm surface, H indicates the hologram surface, and * indicates that the lens surface is an aspherical surface.

ここで、レンズ面に採用する非球面形状は、光軸方向の軸をX、光軸に直交する方向の
高さをH、円錐係数をK、非球面係数をA、B、C、D、E、F、Gとすると、次式により表すことができる。
Here, the aspherical shape adopted for the lens surface is that the axis in the optical axis direction is X, the height in the direction orthogonal to the optical axis is H, the conical coefficient is K, the aspherical coefficients are A, B, C, D, Assuming E, F, and G, they can be expressed by the following equations.

撮像レンズ10Aは、可視光域の光線の基準波長をW1(500nm)、特定波長をW2(850nm)、基準波長に対する全系の焦点距離をf(1.495mm)、特定波長に対するホログラム21の焦点距離をfH(22mm)としたときに、下式を満足している。
6<|fH/f|/(W2/W1)≦14
すなわち、撮像レンズ10Aでは、条件式の値は8.9となっている。
The imaging lens 10A has a reference wavelength W1 (500 nm) of a light ray in the visible light region, a specific wavelength W2 (850 nm), a focal length of the entire system with respect to the reference wavelength f (1.495 mm), and a focal point of the hologram 21 with respect to the specific wavelength. When the distance is fH (22 mm), the following formula is satisfied.
6 <| fH / f | / (W2 / W1) ≦ 14
That is, in the imaging lens 10A, the value of the conditional expression is 8.9.

図13(a)〜(d)は、それぞれ撮像レンズ10Aにおける球面収差図、横収差図、白色MTF(Modulation Transfer Function)グラフ、赤外MTFグラフである。図13(a)の球面収差図は、横軸が、光線が光軸と交わる位置であり、縦軸が、光線が光学系に入射する高さである。図13(a)には赤外域の波長850nmの光線に対する球面収差が補正されていることが示されている。図13(b)は各画角におけるメリジオナル面およびサジタル面における横収差図である。横軸は入射瞳座標であり、縦軸は横収差を示す。図13(b)には各画角において赤外域の波長850nmの光線に対する横収差が補正されていることが示されている。図13(c)、(d)の各MTFグラフは、横軸が空間周波数であり、縦軸がコントラストを示している。図13(d)には赤外域の光線下の撮像時において空間周波数の増加に伴うコントラストの低下が抑制されていることが示されている。   13A to 13D are a spherical aberration diagram, a lateral aberration diagram, a white MTF (Modulation Transfer Function) graph, and an infrared MTF graph, respectively, in the imaging lens 10A. In the spherical aberration diagram of FIG. 13A, the horizontal axis is the position where the light beam intersects the optical axis, and the vertical axis is the height at which the light beam enters the optical system. FIG. 13A shows that the spherical aberration is corrected for a light ray having a wavelength of 850 nm in the infrared region. FIG. 13B is a lateral aberration diagram on the meridional surface and the sagittal surface at each angle of view. The horizontal axis represents the entrance pupil coordinates, and the vertical axis represents the lateral aberration. FIG. 13B shows that the lateral aberration with respect to a light ray having a wavelength of 850 nm in the infrared region is corrected at each angle of view. In each MTF graph of FIGS. 13C and 13D, the horizontal axis represents the spatial frequency and the vertical axis represents the contrast. FIG. 13 (d) shows that a decrease in contrast due to an increase in spatial frequency is suppressed during imaging under light in the infrared region.

このような撮像レンズ10Aの光学系における赤外光(波長850nm)の焦点距離は1.463mmで、可視光(基準波長500nm)の焦点距離は上述の1.495mmであり、これらはほぼ一致している。
このような撮像レンズ10Aを用いることによっても、第1の実施の形態の場合と同様に、1つの光学系で同時に可視画像と赤外画像とを撮影した際に両方でピントを合わせることが可能となる。すなわち、可視画像と赤外画像でどちらかがピントが外れてしまうのを防止することができる。
In such an optical system of the imaging lens 10A, the focal length of infrared light (wavelength 850 nm) is 1.463 mm, and the focal length of visible light (reference wavelength 500 nm) is 1.495 mm, which are almost the same. ing.
By using such an imaging lens 10A, as in the case of the first embodiment, it is possible to focus both when a visible image and an infrared image are simultaneously captured with one optical system. It becomes. That is, it is possible to prevent one of the visible image and the infrared image from being out of focus.

以上、本発明の各実施の形態について、図面を参照して説明してきたが、具体的な構成はこれらの実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。   The embodiments of the present invention have been described above with reference to the drawings. However, the specific configuration is not limited to these embodiments, and various modifications can be made without departing from the spirit of the present invention. Changes are also included.

B1 樹脂接着剤層
10 撮像レンズ(光学系)
10A 撮像レンズ(光学系)
11 第1レンズ
12 第2レンズ
13 第3レンズ
14 第4レンズ
17 物体側レンズ
18 像側レンズ
21 ホログラム
100 撮像システム
111 DBPF(光学フィルタ)
113 カラーフィルタ
114 撮像センサ本体
115 撮像センサ
116 信号処理部(信号処理手段)
117 可視画像処理部(可視画像処理手段)
118 液外画像処理部(赤外画像処理手段)
121 可視画像信号
122 赤外画像信号
IR 第1の波長帯域
DBPF(IR) 第2の波長帯域
DBPF(VR) 可視光帯域
B1 Resin adhesive layer 10 Imaging lens (optical system)
10A Imaging lens (optical system)
DESCRIPTION OF SYMBOLS 11 1st lens 12 2nd lens 13 3rd lens 14 4th lens 17 Object side lens 18 Image side lens 21 Hologram 100 Imaging system 111 DBPF (optical filter)
113 Color Filter 114 Image Sensor Body 115 Image Sensor 116 Signal Processing Unit (Signal Processing Means)
117 Visible image processing unit (visible image processing means)
118 Liquid image processing unit (infrared image processing means)
121 Visible Image Signal 122 Infrared Image Signal IR First Wavelength Band DBPF (IR) Second Wavelength Band DBPF (VR) Visible Light Band

Claims (5)

画素毎に受光素子が配置された撮像センサ本体を備えるとともに可視光の複数の色の領域および赤外光の領域が所定配列で前記撮像センサ本体の各画素に配置されるカラーフィルタを備える撮像センサと、
前記撮像センサ上に像を結ぶレンズを有する光学系と、
可視光帯域に透過特性を有し、前記可視光帯域の長波長側に隣接する第1の波長帯域に遮断特性を有し、前記第1の波長帯域内の一部分である第2の波長帯域に透過特性を有する光学フィルタと、
前記撮像センサから出力される信号に基づいて、前記可視光の各色の成分の信号から前記赤外光の成分の信号を減算する処理を行い、同じ撮像範囲の可視画像信号および赤外画像信号を同時に出力可能な信号処理手段と、
前記可視画像信号の画像内の人物の顔の領域を特定する可視画像処理手段と、
前記赤外画像信号の画像内の前記可視画像処理手段により特定された前記人物の顔の領域の画像からバイタルサインの少なくとも一部を計測する赤外画像処理手段とを備えることを特徴とする撮像システム。
An imaging sensor comprising an image sensor main body in which a light receiving element is arranged for each pixel, and a color filter in which a plurality of visible light regions and an infrared light region are arranged in each pixel of the image sensor main body in a predetermined arrangement When,
An optical system having a lens for connecting an image on the imaging sensor;
A transmission characteristic in the visible light band, a cutoff characteristic in the first wavelength band adjacent to the long wavelength side of the visible light band, and a second wavelength band that is a part of the first wavelength band; An optical filter having transmission characteristics;
Based on the signal output from the imaging sensor, a process of subtracting the infrared light component signal from the visible light component signal is performed to obtain a visible image signal and an infrared image signal in the same imaging range. Signal processing means capable of outputting simultaneously;
Visible image processing means for specifying a region of a human face in the image of the visible image signal;
Infrared image processing means for measuring at least a part of a vital sign from an image of a region of the face of the person specified by the visible image processing means in the image of the infrared image signal system.
前記光学系は、物体側から像側に向かって順に、負のパワーを備える第1レンズ、負のパワーを備える第2レンズ、正のパワーを備える第3レンズ、および、正のパワーを備える第4レンズからなり、
前記第4レンズは、負のパワーを備える物体側レンズと正のパワーを備える像側レンズからなる接合レンズであり、前記物体側レンズと前記像側レンズとを接着している樹脂接着剤層を備え、
前記物体側レンズの像側レンズ面および前記像側レンズの物体側レンズ面は、それぞれが互いに異なる非球面形状をしており、
光軸上における前記樹脂接着剤層の厚さ寸法をD、前記光軸と直交する方向の前記物体側レンズの像側レンズ面の有効径での高さHにおける前記物体側レンズの像側レンズ面のサグ量をSg1H、前記高さHにおける前記像側レンズの物体側レンズ面のサグ量をSg2Hとしたときに、以下の条件式(1)および条件式(2)を満たすことを特徴とする請求項1に記載の撮像システム。
20μm ≦ D (1)
Sg1H ≦ Sg2H (2)
The optical system includes, in order from the object side to the image side, a first lens having negative power, a second lens having negative power, a third lens having positive power, and a first lens having positive power. It consists of 4 lenses,
The fourth lens is a cemented lens including an object side lens having a negative power and an image side lens having a positive power, and a resin adhesive layer that bonds the object side lens and the image side lens. Prepared,
The image side lens surface of the object side lens and the object side lens surface of the image side lens have different aspherical shapes, respectively.
The thickness of the resin adhesive layer on the optical axis is D, and the image side lens of the object side lens at the height H at the effective diameter of the image side lens surface of the object side lens in the direction orthogonal to the optical axis. When the sag amount of the surface is Sg1H and the sag amount of the object side lens surface of the image side lens at the height H is Sg2H, the following conditional expressions (1) and (2) are satisfied. The imaging system according to claim 1.
20 μm ≦ D (1)
Sg1H ≦ Sg2H (2)
前記光学系は、前記光学フィルタの前記第2の波長帯域と前記カラーフィルタの前記赤外光の領域とを透過する前記赤外光が焦点を結ぶ位置を、前記可視光帯域の光線が焦点を結ぶ焦点位置に一致させるホログラムを備えることを特徴とする請求項1に記載の撮像システム。   The optical system has a position where the infrared light passing through the second wavelength band of the optical filter and the infrared light region of the color filter is focused, and a light beam in the visible light band is focused. The imaging system according to claim 1, further comprising a hologram that matches a focal position to be connected. 前記バイタルサインが、脈拍および/または体温であることを特徴とする請求項1〜請求項3のいずれか1項に記載の撮像システム。   The imaging system according to any one of claims 1 to 3, wherein the vital sign is a pulse and / or a body temperature. 前記信号処理手段、前記可視画像処理手段および前記赤外画像処理手段のうちの少なくとも2つが1つのチップ上の電子回路から構成されて、ワンチップ化されていることを特徴とする請求項1〜請求項4のいずれか1項に記載の撮像システム。   The at least two of the signal processing means, the visible image processing means, and the infrared image processing means are constituted by an electronic circuit on one chip and are made into one chip. The imaging system according to claim 4.
JP2014242087A 2014-11-28 2014-11-28 Imaging system Active JP6517499B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014242087A JP6517499B2 (en) 2014-11-28 2014-11-28 Imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014242087A JP6517499B2 (en) 2014-11-28 2014-11-28 Imaging system

Publications (2)

Publication Number Publication Date
JP2016103786A true JP2016103786A (en) 2016-06-02
JP6517499B2 JP6517499B2 (en) 2019-05-22

Family

ID=56089204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014242087A Active JP6517499B2 (en) 2014-11-28 2014-11-28 Imaging system

Country Status (1)

Country Link
JP (1) JP6517499B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017208437A1 (en) * 2016-06-03 2017-12-07 マクセル株式会社 Image pickup apparatus and image pickup system
CN107644205A (en) * 2017-09-18 2018-01-30 深圳市思维树科技有限公司 A kind of body temperature measuring system and method
JPWO2016170973A1 (en) * 2015-04-20 2018-02-22 シャープ株式会社 Integrated circuit and measuring apparatus
WO2018079106A1 (en) * 2016-10-28 2018-05-03 株式会社東芝 Emotion estimation device, emotion estimation method, storage medium, and emotion count system
WO2018150554A1 (en) * 2017-02-20 2018-08-23 マクセル株式会社 Pulse wave measuring device, mobile terminal device, and pulse wave measuring method
WO2018168095A1 (en) * 2017-03-14 2018-09-20 オムロン株式会社 Person trend recording device, person trend recording method, and program
CN109029779A (en) * 2018-04-28 2018-12-18 华映科技(集团)股份有限公司 A kind of real-time body's temperature rapid detection method
JP2019072255A (en) * 2017-10-17 2019-05-16 株式会社ソニー・インタラクティブエンタテインメント Information processing system and information processing method
JP2019115561A (en) * 2017-12-27 2019-07-18 国立大学法人滋賀医科大学 Psychological state determination method, determination device, determination system, and determination program
JPWO2018088358A1 (en) * 2016-11-10 2019-10-03 シャープ株式会社 Pulse wave detection device, image analysis device, and biological information generation system
WO2020021886A1 (en) * 2018-07-23 2020-01-30 パナソニックIpマネジメント株式会社 Biological status detector and biological status detection method
CN113390515A (en) * 2021-07-06 2021-09-14 新疆爱华盈通信息技术有限公司 Multi-person mobile temperature measurement method based on double cameras
WO2022003853A1 (en) * 2020-07-01 2022-01-06 日本電気株式会社 Authentication control device, authentication control system, authentication control method, and non-transitory computer-readable medium
US11450151B2 (en) * 2019-07-18 2022-09-20 Capital One Services, Llc Detecting attempts to defeat facial recognition
US11521422B2 (en) 2020-03-10 2022-12-06 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for detecting body temperature, electronic apparatus and storage medium
JP7381329B2 (en) 2018-12-28 2023-11-15 マクセル株式会社 Imaging device
JP7448762B2 (en) 2020-06-17 2024-03-13 株式会社ネツミル Temperature monitoring system, temperature monitoring control device, temperature monitoring terminal device, temperature monitoring method, and temperature monitoring program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3077937B2 (en) * 1998-02-19 2000-08-21 財団法人工業技術研究院 Prism type objective lens for pick-up head of optical disk drive which has drive capability of two kinds of optical disks
JP2006091715A (en) * 2004-09-27 2006-04-06 Pentax Corp Telephoto lens system
JP2012019113A (en) * 2010-07-08 2012-01-26 Panasonic Corp Solid-state imaging device
JP2012098561A (en) * 2010-11-02 2012-05-24 Maxell Finetech Ltd Taking lens, image pickup apparatus, and image pickup unit
JP2014036801A (en) * 2012-08-20 2014-02-27 Olympus Corp Biological state observation system, biological state observation method and program
US20140192177A1 (en) * 2011-09-02 2014-07-10 Koninklijke Philips N.V. Camera for generating a biometrical signal of a living being

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3077937B2 (en) * 1998-02-19 2000-08-21 財団法人工業技術研究院 Prism type objective lens for pick-up head of optical disk drive which has drive capability of two kinds of optical disks
JP2006091715A (en) * 2004-09-27 2006-04-06 Pentax Corp Telephoto lens system
JP2012019113A (en) * 2010-07-08 2012-01-26 Panasonic Corp Solid-state imaging device
JP2012098561A (en) * 2010-11-02 2012-05-24 Maxell Finetech Ltd Taking lens, image pickup apparatus, and image pickup unit
US20140192177A1 (en) * 2011-09-02 2014-07-10 Koninklijke Philips N.V. Camera for generating a biometrical signal of a living being
JP2014036801A (en) * 2012-08-20 2014-02-27 Olympus Corp Biological state observation system, biological state observation method and program

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016170973A1 (en) * 2015-04-20 2018-02-22 シャープ株式会社 Integrated circuit and measuring apparatus
US11842564B2 (en) 2016-06-03 2023-12-12 Maxell, Ltd. Imaging apparatus and imaging system
US11367309B2 (en) 2016-06-03 2022-06-21 Maxell, Ltd. Imaging apparatus and imaging system
WO2017208437A1 (en) * 2016-06-03 2017-12-07 マクセル株式会社 Image pickup apparatus and image pickup system
CN109196850A (en) * 2016-06-03 2019-01-11 麦克赛尔株式会社 Photographic device and camera system
JPWO2017208437A1 (en) * 2016-06-03 2019-04-25 マクセル株式会社 Imaging device and imaging system
CN109196850B (en) * 2016-06-03 2021-03-09 麦克赛尔株式会社 Image pickup apparatus and image pickup system
WO2018079106A1 (en) * 2016-10-28 2018-05-03 株式会社東芝 Emotion estimation device, emotion estimation method, storage medium, and emotion count system
JP2018068618A (en) * 2016-10-28 2018-05-10 株式会社東芝 Emotion estimating device, emotion estimating method, emotion estimating program, and emotion counting system
JPWO2018088358A1 (en) * 2016-11-10 2019-10-03 シャープ株式会社 Pulse wave detection device, image analysis device, and biological information generation system
US11064895B2 (en) 2016-11-10 2021-07-20 Sharp Kabushiki Kaisha Pulse wave detection device, image analysis device, and biometric information generation system
WO2018150554A1 (en) * 2017-02-20 2018-08-23 マクセル株式会社 Pulse wave measuring device, mobile terminal device, and pulse wave measuring method
JP2018151963A (en) * 2017-03-14 2018-09-27 オムロン株式会社 Personal trend recording apparatus
CN109983505A (en) * 2017-03-14 2019-07-05 欧姆龙株式会社 Personage's trend recording device, personage's trend recording method and program
US11106900B2 (en) 2017-03-14 2021-08-31 Omron Corporation Person trend recording device, person trend recording method, and program
CN109983505B (en) * 2017-03-14 2023-10-17 欧姆龙株式会社 Character movement recording device, character movement recording method, and storage medium
WO2018168095A1 (en) * 2017-03-14 2018-09-20 オムロン株式会社 Person trend recording device, person trend recording method, and program
CN107644205A (en) * 2017-09-18 2018-01-30 深圳市思维树科技有限公司 A kind of body temperature measuring system and method
JP7060355B2 (en) 2017-10-17 2022-04-26 株式会社ソニー・インタラクティブエンタテインメント Information processing system and information processing method
JP2019072255A (en) * 2017-10-17 2019-05-16 株式会社ソニー・インタラクティブエンタテインメント Information processing system and information processing method
JP2019115561A (en) * 2017-12-27 2019-07-18 国立大学法人滋賀医科大学 Psychological state determination method, determination device, determination system, and determination program
JP7051083B2 (en) 2017-12-27 2022-04-11 国立大学法人滋賀医科大学 Psychological state judgment method, judgment device, judgment system and judgment program
CN109029779A (en) * 2018-04-28 2018-12-18 华映科技(集团)股份有限公司 A kind of real-time body's temperature rapid detection method
WO2020021886A1 (en) * 2018-07-23 2020-01-30 パナソニックIpマネジメント株式会社 Biological status detector and biological status detection method
JP7381329B2 (en) 2018-12-28 2023-11-15 マクセル株式会社 Imaging device
US11450151B2 (en) * 2019-07-18 2022-09-20 Capital One Services, Llc Detecting attempts to defeat facial recognition
US11521422B2 (en) 2020-03-10 2022-12-06 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for detecting body temperature, electronic apparatus and storage medium
JP7448762B2 (en) 2020-06-17 2024-03-13 株式会社ネツミル Temperature monitoring system, temperature monitoring control device, temperature monitoring terminal device, temperature monitoring method, and temperature monitoring program
WO2022003853A1 (en) * 2020-07-01 2022-01-06 日本電気株式会社 Authentication control device, authentication control system, authentication control method, and non-transitory computer-readable medium
CN113390515A (en) * 2021-07-06 2021-09-14 新疆爱华盈通信息技术有限公司 Multi-person mobile temperature measurement method based on double cameras

Also Published As

Publication number Publication date
JP6517499B2 (en) 2019-05-22

Similar Documents

Publication Publication Date Title
JP6517499B2 (en) Imaging system
EP3001867B1 (en) Smartphone configured to perform biometric recognition of an iris pattern and corresponding facial features of a subject
US9658463B2 (en) Imaging device and imaging system
US10152631B2 (en) Optical system for an image acquisition device
TWI613481B (en) Photographing optical lens assembly, image capturing unit and electronic device
US20170127928A1 (en) Plenoptic Otoscope
US20160195716A1 (en) Imaging optical system, camera apparatus and stereo camera apparatus
US20180143411A1 (en) Imaging lens system, imaging apparatus and projector
US11675204B2 (en) Scope optical system, imaging apparatus, and endoscope system
TW201445177A (en) Image pickup lens, camera module, and image pickup device
US9083885B1 (en) Fixed focus camera module with near-field image recognition
JPWO2015015717A1 (en) IMAGING DEVICE, IMAGING SYSTEM USING THE SAME, ELECTRONIC MIRROR SYSTEM, AND RANGING DEVICE
WO2015029537A1 (en) Organ imaging apparatus
TW201736897A (en) Optical lens assembly, image capturing apparatus and electronic device
CN105320926B (en) Fingerprint sensor
JP6416070B2 (en) Imaging lens and imaging device provided with imaging lens
JP2009153074A (en) Image photographing apparatus
US20210165144A1 (en) Image pickup apparatus and image processing apparatus
CN205945962U (en) Shoot and compatible module of making a video recording of iris discernment
CN110024380A (en) Image processing apparatus, photographic device and image processing method
CN111258166B (en) Camera module, periscopic camera module, image acquisition method and working method
CN112987242A (en) Optical imaging system, image capturing device and electronic equipment
US11831859B2 (en) Passive three-dimensional image sensing based on referential image blurring with spotted reference illumination
JP6563243B2 (en) Imaging apparatus and camera system
US20230388612A1 (en) Optical system and inspection apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170830

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190418

R150 Certificate of patent or registration of utility model

Ref document number: 6517499

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250