JP7025811B1 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP7025811B1
JP7025811B1 JP2021121797A JP2021121797A JP7025811B1 JP 7025811 B1 JP7025811 B1 JP 7025811B1 JP 2021121797 A JP2021121797 A JP 2021121797A JP 2021121797 A JP2021121797 A JP 2021121797A JP 7025811 B1 JP7025811 B1 JP 7025811B1
Authority
JP
Japan
Prior art keywords
light
image
infrared
far
visible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021121797A
Other languages
Japanese (ja)
Other versions
JP2023017489A (en
Inventor
隆義 長谷川
太 石井
俊幸 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TANAKA ENGINEERING INC.
Original Assignee
TANAKA ENGINEERING INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TANAKA ENGINEERING INC. filed Critical TANAKA ENGINEERING INC.
Priority to JP2021121797A priority Critical patent/JP7025811B1/en
Priority to JP2022016462A priority patent/JP7131870B1/en
Application granted granted Critical
Publication of JP7025811B1 publication Critical patent/JP7025811B1/en
Publication of JP2023017489A publication Critical patent/JP2023017489A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

Figure 0007025811000001

【課題】暗所における撮像装置の視認性を高める。
【解決手段】本撮像装置は、外部からの光を集光する集光部と、上記集光部を介して入射する光を可視光を含む第1の光と遠赤外光とに分離する第1のビームスプリッターと、上記第1の光を受光すると、上記第1の光のうちの近赤外光に応じた近赤外光信号と上記第1の光のうちの可視光に応じた可視光信号とを生成する生成部と、上記第1のビームスプリッターによって分離された遠赤外光を受光すると、上記遠赤外光に応じた遠赤外光信号を生成する遠赤外光センサーと、上記可視光信号に応じた可視光画像を生成する可視光画像処理部と、上記近赤外光信号に応じた近赤外熱画像を生成する近赤外熱画像処理部と、上記遠赤外光信号に応じた遠赤外熱画像を生成する遠赤外熱画像処理部と、を備えることを特徴とする。
【選択図】図1

Figure 0007025811000001

PROBLEM TO BE SOLVED: To improve visibility of an imaging device in a dark place.
SOLUTION: This imaging device separates a light condensing unit that condenses light from the outside and light incident through the condensing unit into first light including visible light and far infrared light. When the first beam splitter and the first light are received, it corresponds to the near-infrared light signal corresponding to the near-infrared light of the first light and the visible light of the first light. A far-infrared light sensor that generates a far-infrared light signal corresponding to the far-infrared light when it receives a far-infrared light separated by a generator that generates a visible light signal and the first beam splitter. A visible light image processing unit that generates a visible light image corresponding to the visible light signal, a near infrared thermal image processing unit that generates a near infrared thermal image corresponding to the near infrared light signal, and a far infrared image processing unit. It is characterized by including a far-infrared thermal image processing unit that generates a far-infrared thermal image corresponding to an infrared light signal.
[Selection diagram] Fig. 1

Description

本発明は、撮像装置及びビームスプリッターに関する。 The present invention relates to an image pickup device and a beam splitter.

従来、監視システムでは、夜間や暗所においては照明を設置して監視対象の領域を明るくしたり、被写体の熱を検知する遠赤外光カメラを監視カメラとして採用したりしていた。 Conventionally, in a surveillance system, lighting is installed at night or in a dark place to brighten the area to be monitored, or a far-infrared optical camera that detects the heat of a subject is adopted as a surveillance camera.

特開2011-232606号公報Japanese Unexamined Patent Publication No. 2011-232606

夜間において監視カメラと照明を設置する場合、夜間環境の悪化や照明を設置するコストの増加等の課題が生じ得る。また、照明を設置しない場合、可視光で撮影する可視光カメラを用いた画像認識技術では、夜間や暗所における検知精度が極めて低く、また、昼間であっても影の影響で誤検知することがあった。遠赤外光カメラを監視に用いる場合、遠赤外光カメラは、可視光カメラ程の高精細な画像を得ることができないため監視における視認性の低下が生じ得るとともに、監視カメラを含む監視システムのシステム構成を複雑にする虞がある。 When installing surveillance cameras and lighting at night, problems such as deterioration of the night environment and increase in the cost of installing lighting may occur. In addition, when no lighting is installed, the image recognition technology using a visible light camera that shoots with visible light has extremely low detection accuracy at night or in dark places, and false detection is caused by the influence of shadows even in the daytime. was there. When a far-infrared light camera is used for surveillance, the far-infrared light camera cannot obtain a high-definition image as high as that of a visible light camera, which may cause a decrease in visibility in surveillance, and a surveillance system including a surveillance camera. There is a risk of complicating the system configuration of.

開示の技術の1つの側面は、暗所での撮影においても視認性の高い画像を生成することを課題とする。 One aspect of the disclosed technique is to generate a highly visible image even in a dark place.

開示の技術の1つの側面は、次のような撮像装置によって例示される。本撮像装置は、外部からの光を集光する集光部と、上記集光部を介して入射する光を可視光を含む第1の光と遠赤外光とに分離する第1のビームスプリッターと、上記第1の光を受光すると、上記第1の光のうちの近赤外光に応じた近赤外光信号と上記第1の光のうちの可視光に応じた可視光信号とを生成する生成部と、上記第1のビームスプリッターによって分離された遠赤外光を受光すると、上記遠赤外光に応じた遠赤外光信号を生成する遠赤外光センサーと、上記可視光信号に応じた可視光画像を生成する可視光画像処理部と、上記近赤外光信号に応じた近赤外熱画像を生成する近赤外熱画像処理部と、上記遠赤外光信号に応じた遠赤外熱画像を生成する遠赤外熱画像処理部と、を備えることを特徴とする。 One aspect of the disclosed technique is exemplified by the following imaging devices. This image pickup apparatus has a condensing unit that condenses light from the outside, and a first beam that separates light incident through the condensing unit into first light including visible light and far-infrared light. When the splitter and the first light are received, a near-infrared light signal corresponding to the near-infrared light of the first light and a visible light signal corresponding to the visible light of the first light are obtained. A far-infrared light sensor that generates a far-infrared light signal corresponding to the far-infrared light when it receives the far-infrared light separated by the first beam splitter and the above-mentioned visible. A visible light image processing unit that generates a visible light image corresponding to an optical signal, a near-infrared thermal image processing unit that generates a near-infrared thermal image corresponding to the near-infrared light signal, and the far-infrared optical signal. It is characterized by including a far-infrared thermal image processing unit that generates a far-infrared thermal image according to the above.

上記撮像装置によれば、外部からの光を近赤外光、可視光及び遠赤外光に分離し、近赤外光に応じた近赤外熱画像、可視光に応じた可視光画像及び遠赤外に応じた遠赤外熱画像を生成することができる。すなわち、上記撮像装置は、近赤外熱画像、遠赤外熱画像及び可視光画像を同一光軸上で生成することができる。同一光軸上で生成できることから、可視光カメラと遠赤外光カメラとを個別に設けて撮影する場合とは異なり、近赤外熱画像、遠赤外熱画像及び可視光画像の夫々における被写体の位置を同じにすることができる。そのため、近赤外熱画像、遠赤外熱画像及び可視光画像を互いに比較することが容易になる。 According to the above image pickup apparatus, light from the outside is separated into near-infrared light, visible light, and far-infrared light, and a near-infrared thermal image corresponding to near-infrared light, a visible light image corresponding to visible light, and a visible light image are used. It is possible to generate a far-infrared thermal image corresponding to the far-infrared light. That is, the image pickup apparatus can generate a near-infrared thermal image, a far-infrared thermal image, and a visible light image on the same optical axis. Since it can be generated on the same optical axis, the subject in each of the near-infrared thermal image, the far-infrared thermal image, and the visible light image is different from the case where the visible light camera and the far-infrared light camera are separately provided for shooting. Can be in the same position. Therefore, it becomes easy to compare the near-infrared thermal image, the far-infrared thermal image, and the visible light image with each other.

また、近赤外熱画像及び遠赤外熱画像は、上記外部の熱を感知して生成される画像であるため、暗所であっても上記外部を画像としてとらえやすい。可視光画像は、上記外部の
色も含む。その一方で、近赤外熱画像及び遠赤外熱画像は、熱を感知して生成される画像であることから、上記外部が明瞭には映らない。このような傾向は、近赤外熱画像よりも遠赤外熱画像で顕著である。上記撮像装置であれば、近赤外熱画像、可視光画像及び遠赤外熱画像を生成できるため、目的や上記外部の環境に応じてこれらの画像を使い分けることもできる。例えば、明るい場所であれば可視光画像を用い、暗い場所であれば近赤外熱画像や遠赤外熱画像を用いることができる。そのため、上記撮像装置によれば、暗所での撮影においても視認性の高い画像を生成することができる。
Further, since the near-infrared thermal image and the far-infrared thermal image are images generated by sensing the heat of the outside, it is easy to capture the outside as an image even in a dark place. The visible light image also includes the above external colors. On the other hand, since the near-infrared thermal image and the far-infrared thermal image are images generated by sensing heat, the outside is not clearly reflected. Such a tendency is more remarkable in the far-infrared thermal image than in the near-infrared thermal image. Since the image pickup apparatus can generate a near-infrared thermal image, a visible light image, and a far-infrared thermal image, these images can be used properly according to the purpose and the external environment. For example, a visible light image can be used in a bright place, and a near-infrared thermal image or a far-infrared thermal image can be used in a dark place. Therefore, according to the above-mentioned image pickup apparatus, it is possible to generate an image with high visibility even in a shooting in a dark place.

上記撮像装置において、生成部は、上記第1の光を可視光と近赤外光とに分離するプリズム型の第2のビームスプリッターと、上記第2のビームスプリッターによって分離された上記可視光を受光すると、受光した上記可視光に応じた可視光信号を生成する可視光センサーと、上記第2のビームスプリッターによって分離された上記近赤外光を受光すると、受光した上記近赤外光に応じた近赤外光信号を生成する近赤外光センサーと、を含んでもよい。また、生成部は、上記第1の光を受光すると、上記第1の光を示す第1信号を生成する第1センサーと、上記第1信号が入力されると、上記第1信号を可視光を示す可視光信号と近赤外光を示す近赤外光信号とに分離する分離部と、を含んでもよい。 In the image pickup apparatus, the generation unit uses a prism-type second beam splitter that separates the first light into visible light and near-infrared light, and the visible light separated by the second beam splitter. When it receives light, it receives the near-infrared light separated by the visible light sensor that generates the visible light signal corresponding to the received visible light and the second beam splitter, and responds to the received near-infrared light. It may also include a near-infrared light sensor that produces a near-infrared light signal. Further, when the generation unit receives the first light, the first sensor generates a first signal indicating the first light, and when the first signal is input, the generation unit displays the first signal as visible light. It may include a separation part for separating into a visible light signal indicating and a near-infrared light signal indicating near-infrared light.

上記撮像装置は、次の特徴を備えてもよい。上記撮像装置は、上記可視光画像と上記近赤外熱画像とを合成した合成画像を生成する合成処理部を備えてもよい。ここで、上記合成画像は、さらに、上記遠赤外熱画像も合成されたものであってもよい。そして、合成処理部による合成画像の生成は、例えば、上記可視光画像の輝度成分を示す第1輝度信号、上記近赤外熱画像の輝度成分を示す第2輝度信号及び遠赤外熱画像の輝度成分を示す第3輝度信号を加算して合成画像輝度信号を生成する処理と、上記合成画像輝度信号によって輝度成分が示されるとともに上記可視光画像の色成分を示す色信号によって色成分が示される合成画像を生成する処理と、を含むものであってもよい。 The image pickup apparatus may have the following features. The image pickup apparatus may include a synthesis processing unit that generates a composite image obtained by synthesizing the visible light image and the near-infrared thermal image. Here, the composite image may be a composite of the far-infrared thermal image. Then, the composite image is generated by the composite processing unit, for example, the first brightness signal showing the brightness component of the visible light image, the second brightness signal showing the brightness component of the near-infrared thermal image, and the far-infrared thermal image. The process of adding the third brightness signal indicating the brightness component to generate the composite image brightness signal, the brightness component is indicated by the composite image brightness signal, and the color component is indicated by the color signal indicating the color component of the visible light image. It may include a process of generating a composite image.

また、上記合成画像輝度信号を生成する処理は、上記第1輝度信号及び上記第2輝度信号の高周波成分を強調する処理を含んでもよい。上記合成画像を生成する処理は、上記合成画像輝度信号のコントラストを補正する処理と、上記コントラストを補正した合成画像輝度信号によって示される輝度に応じて上記色信号の強度を調整する処理と、を含んでもよい。そして、上記合成画像は、上記色信号の強度が調整された色信号によって色成分が示されてもよい。上記撮像装置は、このような処理を行うことで、よりコントラスト感及び解像感の高い合成画像を生成することができる。 Further, the process of generating the composite image luminance signal may include a process of emphasizing the high frequency components of the first luminance signal and the second luminance signal. The process of generating the composite image includes a process of correcting the contrast of the composite image luminance signal and a process of adjusting the intensity of the color signal according to the brightness indicated by the composite image luminance signal corrected with the contrast. It may be included. Then, in the composite image, the color component may be shown by the color signal whose intensity of the color signal is adjusted. By performing such processing, the image pickup apparatus can generate a composite image having a higher contrast feeling and a higher resolution feeling.

上記撮像装置は、検知対象を可視光で撮影した第1画像、上記検知対象を近赤外光で撮影した第2画像及び上記検知対象を遠赤外光で撮影した第3画像を教師データとして構築された学習モデルに対して上記合成画像及び上記遠赤外熱画像を入力して上記外部に上記検知対象が存在するか否かを判定する判定部、をさらに備えてもよい。可視光画像、近赤外熱画像及び遠赤外熱画像には、それぞれ上記のような特徴がある。上記合成処理部によって可視光画像と近赤外熱画像とが合成されることで、近赤外熱画像よりも明瞭で色の情報を含んだ合成画像を生成することができる。上記撮像装置は、このような合成画像と上記外部の熱分布を反映した遠赤外熱画像を上記判定部に入力することで、暗所であっても検知対象を好適に検知することができる。 The image pickup device uses the first image of the detection target as visible light, the second image of the detection target as near-infrared light, and the third image of the detection target as far-infrared light as teacher data. A determination unit for inputting the composite image and the far-infrared thermal image to the constructed learning model and determining whether or not the detection target exists outside the outside may be further provided. Visible light images, near-infrared thermal images, and far-infrared thermal images each have the above-mentioned characteristics. By synthesizing the visible light image and the near-infrared thermal image by the synthesis processing unit, it is possible to generate a composite image that is clearer than the near-infrared thermal image and contains color information. The image pickup apparatus can suitably detect a detection target even in a dark place by inputting such a composite image and a far-infrared thermal image reflecting the external heat distribution into the determination unit. ..

上記撮像装置において、上記判定部は、検知対象ごとに構築された複数の学習モデルを含み、上記判定部は、複数の学習モデルのうちユーザによって指定された検知対象に応じた学習モデルを選択してもよい。上記撮像装置は、このような特徴を備えることで、指定された検知対象を好適に検知することができる。 In the image pickup apparatus, the determination unit includes a plurality of learning models constructed for each detection target, and the determination unit selects a learning model according to the detection target specified by the user from among the plurality of learning models. You may. By having such a feature, the image pickup apparatus can suitably detect a designated detection target.

また、上記撮像装置において、上記集光部は、上記集光部として複数のレンズを含む透
過光学系を採用する場合、撮像装置の小型化が容易である。また、上記集光部として複数の凹面鏡を含む反射光学系を採用する場合、レンズを採用する場合よりも廉価に撮像装置を製造することが可能となる。なお、反射光学系は凸面鏡を含んでもよい。
Further, in the image pickup apparatus, when the condensing unit employs a transmission optical system including a plurality of lenses as the condensing unit, the image pickup apparatus can be easily miniaturized. Further, when a catadioptric system including a plurality of concave mirrors is used as the light collecting unit, it is possible to manufacture an image pickup device at a lower cost than when a lens is used. The catadioptric system may include a convex mirror.

また、上記撮像装置において、上記第1のビームスプリッターは、ケイ素、ゲルマニウム、セレン化亜鉛及びカルコゲナイドガラスのうちの少なくともいずれかを含み、波長8μmから12μmの遠赤外光を透過させる基板と、上記基板上に設けられ、硫化亜鉛及びセレン化亜鉛のうちの少なくともいずれかを含む高屈折率膜と、フッ化物誘電体を含む低屈折率膜とを交互に積層し、波長0.4μmから0.7μmまでの可視光及び波長0.7μmから3μmまでの近赤外光を反射させる誘電体多層膜と、を含むものであってよい。ここで、フッ化物誘電体としては、例えば、フッ化マグネシウム、フッ化カルシウム、フッ化リチウム、フッ化バリウム、フッ化ランタン、フッ化カリウムを挙げることができる。上記撮像装置のビームスプリッターは、このような構成を採用することで、可視光及び近赤外光を透過させずに高い反射率で反射させるとともに、遠赤外光を反射させずに高い透過率で透過させるものとすることができる。 Further, in the image pickup apparatus, the first beam splitter contains at least one of silicon, germanium, zinc selenium, and chalcogenide glass, and a substrate that transmits far-infrared light having a wavelength of 8 μm to 12 μm and the above. A high refractive index film provided on the substrate and containing at least one of zinc sulfide and zinc selenium and a low refractive index film containing a fluoride dielectric are alternately laminated, and the wavelength is 0.4 μm to 0. It may include a dielectric multilayer film that reflects visible light up to 7 μm and near-infrared light with a wavelength of 0.7 μm to 3 μm. Here, examples of the fluoride dielectric include magnesium fluoride, calcium fluoride, lithium fluoride, barium fluoride, lanthanum fluoride, and potassium fluoride. By adopting such a configuration, the beam splitter of the above image pickup apparatus reflects visible light and near-infrared light with high reflectance without transmitting them, and also reflects far-infrared light with high transmittance. It can be made transparent with.

上記撮像装置において、上記第1のビームスプリッターの基板は、上記遠赤外光に対する屈折率が3以上であることが好ましい。また、上記第1のビームスプリッターの誘電体多層膜は、上記遠赤外光に対する屈折率が3未満であることが好ましい。 In the image pickup apparatus, the substrate of the first beam splitter preferably has a refractive index of 3 or more with respect to the far infrared light. Further, it is preferable that the dielectric multilayer film of the first beam splitter has a refractive index of less than 3 with respect to the far infrared light.

また、開示の技術は、上記ビームスプリッターとして把握することもできる。 Further, the disclosed technology can also be grasped as the beam splitter.

開示の技術によれば、暗所における視認性を高めることができる撮像装置を提供することができる。 According to the disclosed technique, it is possible to provide an image pickup apparatus capable of enhancing visibility in a dark place.

図1は、実施形態に係る撮像装置の構成を示す図である。FIG. 1 is a diagram showing a configuration of an image pickup apparatus according to an embodiment. 図2は、実施形態における近赤外熱画像、可視光画像及び遠赤外熱画像を模式的に示す図である。FIG. 2 is a diagram schematically showing a near-infrared thermal image, a visible light image, and a far-infrared thermal image in the embodiment. 図3は、合成処理部による合成処理の第1のバリエーションを示すフローチャートである。FIG. 3 is a flowchart showing the first variation of the synthesis processing by the synthesis processing unit. 図4は、合成処理部による合成処理の第2のバリエーションを示すフローチャートである。FIG. 4 is a flowchart showing a second variation of the composition processing by the composition processing unit. 図5は、実施形態に係る撮像装置が備えるコンピューターの一例を示す図である。FIG. 5 is a diagram showing an example of a computer included in the image pickup apparatus according to the embodiment. 図6は、実施形態における第1ビームスプリッターの特性を例示する図である。FIG. 6 is a diagram illustrating the characteristics of the first beam splitter in the embodiment. 図7は、実施形態に係る撮像装置による検知対象を検知する処理フローの一例である。FIG. 7 is an example of a processing flow for detecting a detection target by the image pickup apparatus according to the embodiment. 図8は、第1変形例に係る撮像装置による検知対象を検知する処理フローの一例である。FIG. 8 is an example of a processing flow for detecting a detection target by the image pickup apparatus according to the first modification. 図9は、第2変形例に係る撮像装置の構成を示す図である。FIG. 9 is a diagram showing a configuration of an image pickup apparatus according to a second modification. 図10は、第1適用例を模式的に例示する図である。FIG. 10 is a diagram schematically illustrating a first application example. 図11は、第2適用例を模式的に示す図である。FIG. 11 is a diagram schematically showing a second application example.

<実施形態>
以下、図面を参照して実施形態についてさらに説明する。図1は、実施形態に係る撮像装置1の構成を示す図である。撮像装置1は、例えば、屋外や屋内に設置される監視カメ
ラである。撮像装置1は、静止画を撮影するものであっても動画を撮影するものであってもよい。撮像装置1は、コンピューター100と光学部200とを備える。
<Embodiment>
Hereinafter, embodiments will be further described with reference to the drawings. FIG. 1 is a diagram showing a configuration of an image pickup apparatus 1 according to an embodiment. The image pickup device 1 is, for example, a surveillance camera installed outdoors or indoors. The image pickup apparatus 1 may capture a still image or a moving image. The image pickup apparatus 1 includes a computer 100 and an optical unit 200.

光学部200は、被写体Mからの被写体光を撮像装置1内に入射させ、入射させた被写体光を電気信号に変換する。光学部200は、レンズ11、第1ビームスプリッター121、第2ビームスプリッター122、近赤外光センサー131、可視光センサー132及び遠赤外光センサー133を含む。レンズ11、第1ビームスプリッター121、第2ビームスプリッター122、近赤外光センサー131、可視光センサー132及び遠赤外光センサー133は、同一光軸上に配置される。 The optical unit 200 causes the subject light from the subject M to enter the image pickup apparatus 1, and converts the incident subject light into an electric signal. The optical unit 200 includes a lens 11, a first beam splitter 121, a second beam splitter 122, a near-infrared light sensor 131, a visible light sensor 132, and a far-infrared light sensor 133. The lens 11, the first beam splitter 121, the second beam splitter 122, the near infrared light sensor 131, the visible light sensor 132, and the far infrared light sensor 133 are arranged on the same optical axis.

レンズ11は、可視光、近赤外光及び遠赤外光を含む被写体Mからの被写体光を透過させるとともに、透過させた被写体光を集光する光学部材である。レンズ11は、「レンズ」及び「集光部」の一例である。図1には2つのレンズ11が例示されているが、レンズ11の数は2つに限定されず、3つ以上であってもよい。複数のレンズ11は、透過光学系ということもできる。 The lens 11 is an optical member that transmits the subject light from the subject M including visible light, near-infrared light, and far-infrared light, and condenses the transmitted subject light. The lens 11 is an example of a “lens” and a “condensing unit”. Although two lenses 11 are illustrated in FIG. 1, the number of lenses 11 is not limited to two, and may be three or more. The plurality of lenses 11 can also be said to be transmission optical systems.

第1ビームスプリッター121は、板状に形成されたビームスプリッター(波長分離素子)である。第1ビームスプリッター121は、レンズ11の後方(撮像装置1において、レンズ11と遠赤外光センサー133との間)に配置される。第1ビームスプリッター121は、レンズ11を介して入射した被写体光を可視光及び近赤外光を含む第1の光と遠赤外光に分離する。被写体光が第1ビームスプリッター121に入射すると、第1の光は反射し、遠赤外光は透過する。第1ビームスプリッター121によって反射された第1の光は、第2ビームスプリッター122に入射する。第1ビームスプリッター121を透過した遠赤外光は、遠赤外光センサー133に入射する。第1ビームスプリッター121は、「第1のビームスプリッター」の一例である。 The first beam splitter 121 is a plate-shaped beam splitter (wavelength separating element). The first beam splitter 121 is arranged behind the lens 11 (between the lens 11 and the far-infrared light sensor 133 in the image pickup apparatus 1). The first beam splitter 121 separates the subject light incident through the lens 11 into first light including visible light and near-infrared light and far-infrared light. When the subject light is incident on the first beam splitter 121, the first light is reflected and the far infrared light is transmitted. The first light reflected by the first beam splitter 121 is incident on the second beam splitter 122. The far-infrared light transmitted through the first beam splitter 121 is incident on the far-infrared light sensor 133. The first beam splitter 121 is an example of a "first beam splitter".

第1ビームスプリッター121は、透明基板1212上に可視光及び近赤外光を反射する誘電体多層膜1211を設けることで作製される。誘電体多層膜1211は、例えば、高屈折率の誘電体膜と低屈折率の誘電体膜とを交互に積層した誘電体多層膜である。誘電体多層膜における誘電体の積層は、例えば、蒸着やスパッタリングによって行われる。屈折率n、波長λ、誘電体膜夫々の膜厚dの関係は、例えば、nd=λ/4とすることができる。そして、高屈折率の誘電体膜及び低屈折率の誘電体膜の遠赤外光(波長8μmから12μm)に対する屈折率nは、例えば、「n<3」である。高屈折率の誘電体膜は、「高屈折率膜」の一例である。低屈折率の誘電体膜は、「低屈折率膜」の一例である。 The first beam splitter 121 is produced by providing a dielectric multilayer film 1211 that reflects visible light and near-infrared light on a transparent substrate 1212. The dielectric multilayer film 1211 is, for example, a dielectric multilayer film in which a dielectric film having a high refractive index and a dielectric film having a low refractive index are alternately laminated. The lamination of the dielectric in the dielectric multilayer film is performed by, for example, thin film deposition or sputtering. The relationship between the refractive index n, the wavelength λ, and the film thickness d of each of the dielectric films can be, for example, nd = λ / 4. The refractive index n of the high-refractive index dielectric film and the low-refractive index dielectric film with respect to far-infrared light (wavelength 8 μm to 12 μm) is, for example, “n <3”. A high-refractive index dielectric film is an example of a “high-refractive index film”. A low refractive index dielectric film is an example of a “low refractive index film”.

高屈折率の誘電体としては、例えば、硫化亜鉛(ZnS)及びセレン化亜鉛(ZnSe)等を挙げることができる。また、低屈折率の誘電体としては、例えば、フッ化物誘電体を挙げることができる。フッ化物誘電体としては、例えば、フッ化マグネシウム(MgF)、フッ化カルシウム(CaF)、フッ化リチウム(LiF)、フッ化バリウム(BaF)、フッ化ランタン(LaF)、フッ化カリウム(KF)等を挙げることができる。透明基板1212は、少なくとも遠赤外光を透過可能な基板である。透明基板1212は、例えば、ケイ素(Si)、ゲルマニウム(Ge)、セレン化亜鉛(ZnSe)、カルコゲナイドガラス等によって形成される。透明基板1212の屈折率は、遠赤外光に対して透明である。透明基板1212の遠赤外光に対する屈折率nは、例えば、「n>=3」である。透明基板1212は、例えば、遠赤外光に対して透明であり、かつ、遠赤外光に対する屈折率nが「n>=3」である材料を両面光学研磨して形成される。透明基板1212の屈折率の方が誘電体多層膜1211の屈折率よりも大きくなるため、透明基板1212による遠赤外光の反射が抑制される。第1ビームスプリッター121は、誘電体多層膜1211をレンズ11に向けた状態で配置される。 Examples of the dielectric having a high refractive index include zinc sulfide (ZnS) and zinc selenide (ZnSe). Further, as the dielectric having a low refractive index, for example, a fluoride dielectric can be mentioned. Examples of the fluoride dielectric include magnesium fluoride (MgF 2 ), calcium fluoride (CaF 2 ), lithium fluoride (LiF), barium fluoride (BaF 2 ), lanthanum fluoride (LaF 3 ), and fluoride. Potassium (KF) and the like can be mentioned. The transparent substrate 1212 is a substrate capable of transmitting at least far infrared light. The transparent substrate 1212 is formed of, for example, silicon (Si), germanium (Ge), zinc selenide (ZnSe), chalcogenide glass, or the like. The refractive index of the transparent substrate 1212 is transparent to far infrared light. The refractive index n of the transparent substrate 1212 with respect to far-infrared light is, for example, “n> = 3”. The transparent substrate 1212 is formed by, for example, double-sided optical polishing of a material that is transparent to far-infrared light and has a refractive index n to far-infrared light of “n> = 3”. Since the refractive index of the transparent substrate 1212 is larger than that of the dielectric multilayer film 1211, the reflection of far-infrared light by the transparent substrate 1212 is suppressed. The first beam splitter 121 is arranged with the dielectric multilayer film 1211 facing the lens 11.

第2ビームスプリッター122は、プリズム型に形成されたビームスプリッターである。第2ビームスプリッター122は、第1ビームスプリッター121によって反射された第1の光を可視光と近赤外光とに分離する。第1の光が第2ビームスプリッター122に入射すると、可視光は反射し、近赤外光は透過する。第2ビームスプリッター122によって反射された可視光は、可視光画像処理部142に入射する。第2ビームスプリッター122を透過した近赤外光は、近赤外熱画像処理部141に入射する。 The second beam splitter 122 is a prism-shaped beam splitter. The second beam splitter 122 separates the first light reflected by the first beam splitter 121 into visible light and near-infrared light. When the first light is incident on the second beam splitter 122, the visible light is reflected and the near infrared light is transmitted. The visible light reflected by the second beam splitter 122 is incident on the visible light image processing unit 142. The near-infrared light transmitted through the second beam splitter 122 is incident on the near-infrared thermal image processing unit 141.

第2ビームスプリッター122は、側面が四角形に形成され、底面が直角三角形に形成された三角プリズム24a、24bを含む。第2ビームスプリッター122の作製は、例えば、以下のように行われる。三角プリズム122bの側面のうちのひとつに、可視光反射体1221が設けられる。三角プリズム122aの側面のひとつと、三角プリズム122bにおいて可視光反射体1221が設けられた側面とが張り合わされることで、第2ビームスプリッター122は作製される。このように作製された第2ビームスプリッター122は、第1ビームスプリッター121によって反射された光に対して可視光反射体1221が斜めになるように配置される。第2ビームスプリッター122は、「第2のビームスプリッター」の一例である。 The second beam splitter 122 includes triangular prisms 24a and 24b having a quadrangular side surface and a right triangle shape at the bottom surface. The second beam splitter 122 is made, for example, as follows. A visible light reflector 1221 is provided on one of the side surfaces of the triangular prism 122b. The second beam splitter 122 is produced by abutting one of the side surfaces of the triangular prism 122a with the side surface of the triangular prism 122b provided with the visible light reflector 1221. The second beam splitter 122 thus produced is arranged so that the visible light reflector 1221 is slanted with respect to the light reflected by the first beam splitter 121. The second beam splitter 122 is an example of a "second beam splitter".

近赤外光センサー131は、例えば、入射した近赤外光に応じた電気信号を生成する撮像素子である。すなわち、近赤外光センサー131は、被写体Mの熱を検知して電気信号に変換する撮像素子ということもできる。近赤外光センサー131は、例えば、波長0.7μmから3μmの光に感度のピークを有する。近赤外光センサー131は、例えば、近赤外光に対する感度を有するCCDイメージセンサーやCMOSイメージセンサーである。近赤外光センサー131は、「近赤外光センサー」の一例である。近赤外光に応じた電気信号は、「近赤外光信号」の一例である。 The near-infrared light sensor 131 is, for example, an image pickup device that generates an electric signal according to the incident near-infrared light. That is, the near-infrared light sensor 131 can also be said to be an image pickup device that detects the heat of the subject M and converts it into an electric signal. The near-infrared light sensor 131 has a peak of sensitivity to light having a wavelength of 0.7 μm to 3 μm, for example. The near-infrared light sensor 131 is, for example, a CCD image sensor or a CMOS image sensor having sensitivity to near-infrared light. The near-infrared light sensor 131 is an example of a "near-infrared light sensor". An electric signal corresponding to near-infrared light is an example of a "near-infrared light signal".

可視光センサー132は、例えば、入射した可視光に応じた電気信号を生成する撮像素子である。可視光センサー132は、被写体Mの色を検知して電気信号に変換する撮像素子ということもできる。可視光センサー132は、例えば、波長0.4μmから0.7μm以下の光に感度のピークを有する。可視光センサー132は、例えば、可視光に対する感度を有するCCDイメージセンサーやCMOSイメージセンサーである。可視光センサー132は、「可視光センサー」の一例である。可視光に応じた電気信号は、「可視光信号」の一例である。 The visible light sensor 132 is, for example, an image pickup device that generates an electric signal according to the incident visible light. The visible light sensor 132 can also be said to be an image pickup device that detects the color of the subject M and converts it into an electric signal. The visible light sensor 132 has, for example, a peak of sensitivity to light having a wavelength of 0.4 μm to 0.7 μm or less. The visible light sensor 132 is, for example, a CCD image sensor or a CMOS image sensor having sensitivity to visible light. The visible light sensor 132 is an example of a “visible light sensor”. An electric signal corresponding to visible light is an example of a "visible light signal".

遠赤外光センサー133は、例えば、入射した遠赤外光に応じた電気信号を生成する撮像素子である。遠赤外光センサー133は、被写体Mの熱を検知して電気信号に変換する撮像素子ということもできる。遠赤外光センサー133は、例えば、波長8μmから12μmの光に感度のピークを有する。遠赤外光センサー133は、例えば、遠赤外光に対する感度を有するCCDイメージセンサー、CMOSイメージセンサー、サーモパイル、ボローメーター、焦電センサーである。遠赤外光センサー133は、「遠赤外光センサー」の一例である。遠赤外光に応じた電気信号は、「遠赤外光信号」の一例である。 The far-infrared light sensor 133 is, for example, an image pickup device that generates an electric signal according to the incident far-infrared light. The far-infrared light sensor 133 can also be said to be an image pickup device that detects the heat of the subject M and converts it into an electric signal. The far-infrared light sensor 133 has, for example, a peak of sensitivity to light having a wavelength of 8 μm to 12 μm. The far-infrared light sensor 133 is, for example, a CCD image sensor, a CMOS image sensor, a thermopile, a volometer, and a pyroelectric sensor having sensitivity to far-infrared light. The far-infrared light sensor 133 is an example of a "far-infrared light sensor". An electric signal corresponding to far-infrared light is an example of a "far-infrared light signal".

コンピューター100は、近赤外光センサー131、可視光センサー132、遠赤外光センサー133から入力される電気信号を基に、近赤外熱画像、可視光画像、遠赤外熱画像を生成し、被写体Mの監視処理を行う。コンピューター100は、近赤外熱画像処理部141、可視光画像処理部142、遠赤外熱画像処理部143、合成処理部15、学習機能指示器16及び機械学習器17を含む。 The computer 100 generates a near-infrared thermal image, a visible light image, and a far-infrared thermal image based on electric signals input from the near-infrared light sensor 131, the visible light sensor 132, and the far-infrared light sensor 133. , Performs monitoring processing of the subject M. The computer 100 includes a near-infrared thermal image processing unit 141, a visible light image processing unit 142, a far-infrared thermal image processing unit 143, a synthesis processing unit 15, a learning function indicator 16, and a machine learning device 17.

近赤外熱画像処理部141は、近赤外光センサー131から入力される電気信号を基に近赤外熱画像(図中では、「IR画像」と記載)を生成する処理部である。すなわち、近赤外熱画像処理部141が生成する近赤外熱画像は、近赤外光で撮影した画像である。近
赤外熱画像処理部141は、「近赤外熱画像処理部」の一例である。
The near-infrared thermal image processing unit 141 is a processing unit that generates a near-infrared thermal image (referred to as "IR image" in the figure) based on an electric signal input from the near-infrared light sensor 131. That is, the near-infrared thermal image generated by the near-infrared thermal image processing unit 141 is an image taken with near-infrared light. The near-infrared thermal image processing unit 141 is an example of the "near-infrared thermal image processing unit".

可視光画像処理部142は、可視光センサー132から入力される電気信号を基に可視光画像を生成する処理部である。すなわち、可視光画像処理部142が生成する可視光画像は、可視光で撮影した画像である。可視光画像処理部142は、「可視光画像処理部」の一例である。近赤外光センサー131、可視光センサー132、近赤外熱画像処理部141及び可視光画像処理部142は、「生成部」の一例である。 The visible light image processing unit 142 is a processing unit that generates a visible light image based on an electric signal input from the visible light sensor 132. That is, the visible light image generated by the visible light image processing unit 142 is an image taken with visible light. The visible light image processing unit 142 is an example of the “visible light image processing unit”. The near-infrared light sensor 131, the visible light sensor 132, the near-infrared thermal image processing unit 141, and the visible light image processing unit 142 are examples of the “generation unit”.

遠赤外熱画像処理部143は、遠赤外光センサー133から入力される電気信号を基に遠赤外熱画像(図中では、「FIR画像」と記載)を生成する処理部である。すなわち、遠赤外熱画像処理部143が生成する遠赤外熱画像は、被写体Mを遠赤外光で撮影した画像である。遠赤外光は、主に物体の熱によって放射されることから、遠赤外熱画像は、撮像装置1の撮影範囲の熱分布を示す画像ということができる。遠赤外熱画像処理部143は、「遠赤外熱画像処理部」の一例である。 The far-infrared thermal image processing unit 143 is a processing unit that generates a far-infrared thermal image (referred to as "FIR image" in the figure) based on an electric signal input from the far-infrared light sensor 133. That is, the far-infrared thermal image generated by the far-infrared thermal image processing unit 143 is an image obtained by photographing the subject M with far-infrared light. Since far-infrared light is mainly emitted by the heat of an object, the far-infrared thermal image can be said to be an image showing the heat distribution in the photographing range of the image pickup apparatus 1. The far-infrared thermal image processing unit 143 is an example of the “far-infrared thermal image processing unit”.

図2は、実施形態における近赤外熱画像、可視光画像及び遠赤外熱画像を模式的に示す図である。図2(A)は、近赤外熱画像処理部141によって生成される近赤外熱画像を例示する。図2(B)は、可視光画像処理部142によって生成される可視光画像を例示する。図2(C)は、遠赤外熱画像処理部143によって生成される遠赤外熱画像を例示する。 FIG. 2 is a diagram schematically showing a near-infrared thermal image, a visible light image, and a far-infrared thermal image in the embodiment. FIG. 2A exemplifies a near-infrared thermal image generated by the near-infrared thermal image processing unit 141. FIG. 2B illustrates a visible light image generated by the visible light image processing unit 142. FIG. 2C illustrates a far-infrared thermal image generated by the far-infrared thermal image processing unit 143.

近赤外熱画像処理部141によって生成される近赤外熱画像、可視光画像処理部142によって生成される可視光画像及び遠赤外熱画像処理部143によって生成される遠赤外熱画像には、夫々特徴がある。近赤外光や遠赤外光を基に生成される近赤外熱画像及び遠赤外熱画像は、被写体Mの熱を感知して生成される画像であるため、暗所であっても被写体Mを画像としてとらえやすい。また、可視光を基に生成される可視光画像は、被写体Mの色も含む。その一方で、近赤外熱画像及び遠赤外熱画像は、熱を感知して生成される画像であることから、被写体Mが明瞭には映らない。このような傾向は、近赤外熱画像よりも遠赤外熱画像で顕著である。そこで、撮像装置1は、合成処理部15によって近赤外熱画像、可視光画像及び遠赤外熱画像を合成した合成画像を生成することで、これらの画像の欠点を補完する。 For near-infrared thermal images generated by the near-infrared thermal image processing unit 141, visible light images generated by the visible light image processing unit 142, and far-infrared thermal images generated by the far-infrared thermal image processing unit 143. Each has its own characteristics. Since the near-infrared thermal image and the far-infrared thermal image generated based on the near-infrared light and the far-infrared light are images generated by sensing the heat of the subject M, even in a dark place. It is easy to capture the subject M as an image. Further, the visible light image generated based on the visible light also includes the color of the subject M. On the other hand, since the near-infrared thermal image and the far-infrared thermal image are images generated by sensing heat, the subject M is not clearly reflected. Such a tendency is more remarkable in the far-infrared thermal image than in the near-infrared thermal image. Therefore, the image pickup apparatus 1 compensates for the shortcomings of these images by generating a composite image obtained by synthesizing the near-infrared thermal image, the visible light image, and the far-infrared thermal image by the composite processing unit 15.

図1に戻り、合成処理部15は、例えば、近赤外熱画像処理部141によって生成された近赤外熱画像、可視光画像処理部142によって生成された可視光画像及び遠赤外熱画像処理部143によって生成された遠赤外熱画像を基に、合成画像を生成する処理部である。合成処理部15は、近赤外熱画像、可視光画像及び遠赤外熱画像を合成することで、夫々の画像の欠点を補完した合成画像を生成する。合成処理部15は、例えば、可視光画像によって近赤外熱画像を補正することで、近赤外熱画像の被写体Mをより明瞭に補正するとともに、色の情報を近赤外熱画像に付加した第1補正画像を生成する。そして、合成処理部15は、第1補正画像によって遠赤外熱画像を補正することで、遠赤外熱画像をより明瞭に補正するとともに色の情報を付加した合成画像を生成する。合成処理部15は、「合成処理部」の一例である。 Returning to FIG. 1, the synthesis processing unit 15 is, for example, a near-infrared thermal image generated by the near-infrared thermal image processing unit 141, a visible light image generated by the visible light image processing unit 142, and a far-infrared thermal image. It is a processing unit that generates a composite image based on the far-infrared thermal image generated by the processing unit 143. The compositing processing unit 15 synthesizes a near-infrared thermal image, a visible light image, and a far-infrared thermal image to generate a composite image that complements the defects of each image. The compositing processing unit 15 corrects the subject M of the near-infrared thermal image more clearly by correcting the near-infrared thermal image with a visible light image, and adds color information to the near-infrared thermal image. The first corrected image is generated. Then, the composition processing unit 15 corrects the far-infrared thermal image by the first correction image, thereby correcting the far-infrared thermal image more clearly and generating a composite image to which color information is added. The synthesis processing unit 15 is an example of a “synthesis processing unit”.

ここで、合成処理部15によって合成される各画像を示す信号について説明する。可視光画像は色の情報を含む。そのため、可視光画像を示す信号は、各画素の色を示す色信号と各画素の輝度を示す輝度信号を含む。近赤外熱画像及び遠赤外熱画像は色の情報を含まない。そのため、近赤外熱画像を示す信号及び遠赤外熱画像を示す信号は、各画素の輝度を示す輝度信号を含む一方で、色信号は含まない。このような信号によって示される各画像を合成する合成処理のバリエーションについて図面を参照して説明する。 Here, a signal indicating each image synthesized by the synthesis processing unit 15 will be described. Visible light images contain color information. Therefore, the signal indicating the visible light image includes a color signal indicating the color of each pixel and a luminance signal indicating the brightness of each pixel. Near-infrared thermal images and far-infrared thermal images do not contain color information. Therefore, the signal showing the near-infrared thermal image and the signal showing the far-infrared thermal image include the luminance signal indicating the luminance of each pixel, but do not include the color signal. A variation of the composition process for synthesizing each image represented by such a signal will be described with reference to the drawings.

図3は、合成処理部15による合成処理の第1のバリエーションを示すフローチャートである。以下、図3を参照して、合成処理部15による合成処理の第1のバリエーションについて説明する。 FIG. 3 is a flowchart showing the first variation of the synthesis processing by the synthesis processing unit 15. Hereinafter, the first variation of the synthesis processing by the synthesis processing unit 15 will be described with reference to FIG.

G11では、合成処理部15は、遠赤外熱画像の一部を切り出し、切り出した画像をリサイズすることで遠赤外熱画像の画素数及び画像のサイズを近赤外熱画像及び可視光画像に揃えるリサイズ処理を行う。なお、遠赤外光センサー133の画素数が、近赤外光センサー131の画素数及び可視光センサー132の画素数と等しい場合には、G11の処理は省略されてもよい。 In G11, the synthesis processing unit 15 cuts out a part of the far-infrared thermal image and resizes the cut-out image to reduce the number of pixels of the far-infrared thermal image and the size of the image to the near-infrared thermal image and the visible light image. Perform the resizing process to align with. If the number of pixels of the far-infrared light sensor 133 is equal to the number of pixels of the near-infrared light sensor 131 and the number of pixels of the visible light sensor 132, the processing of G11 may be omitted.

G12では、合成処理部15は、可視光画像の輝度信号、近赤外熱画像の輝度信号及び遠赤外熱画像の輝度信号を加算して合成画像輝度信号を生成する。ここで、G11の処理が実行されている場合には、G11の処理が行われた後の遠赤外熱画像の輝度信号が合成画像輝度信号の生成に用いられる。合成画像輝度信号の生成は、例えば、各画素において夫々の輝度信号が示す輝度値を加算することで行われる。 In the G12, the synthesis processing unit 15 adds the luminance signal of the visible light image, the luminance signal of the near-infrared thermal image, and the luminance signal of the far-infrared thermal image to generate the luminance signal of the composite image. Here, when the processing of G11 is executed, the luminance signal of the far-infrared thermal image after the processing of G11 is used to generate the composite image luminance signal. The composite image luminance signal is generated, for example, by adding the luminance values indicated by the respective luminance signals in each pixel.

G13では、合成処理部15は、G12で生成した合成画像輝度信号に対して可視光画像の色信号を合成することで、合成画像を生成する。すなわち、合成画像の色成分は可視光画像の色信号によって示され、合成画像の輝度成分は合成画像輝度信号によって示される。 In G13, the synthesis processing unit 15 generates a composite image by synthesizing the color signal of the visible light image with the composite image luminance signal generated in G12. That is, the color component of the composite image is indicated by the color signal of the visible light image, and the luminance component of the composite image is indicated by the luminance signal of the composite image.

続いて、合成処理部15による合成処理の他のバリエーションについて説明する。図4は、合成処理部15による合成処理の第2のバリエーションを示すフローチャートである。図3と同一の処理には同一の符号を付し、その説明を省略する。以下、図4を参照して、合成処理部15による合成処理の第2のバリエーションについて説明する。 Subsequently, other variations of the synthesis processing by the synthesis processing unit 15 will be described. FIG. 4 is a flowchart showing a second variation of the synthesis processing by the synthesis processing unit 15. The same processing as in FIG. 3 is designated by the same reference numerals, and the description thereof will be omitted. Hereinafter, the second variation of the synthesis processing by the synthesis processing unit 15 will be described with reference to FIG.

G21では、合成処理部15は、近赤外熱画像の輝度信号及び可視光画像の輝度信号の夫々における高周波成分を強調する処理を実行する。高周波成分を強調する処理では、近赤外熱画像の輝度信号及び可視光画像の輝度信号の夫々の高周波成分に対して所定値を加算してもよいし、所定値を積算してもよい。高周波成分の周波数範囲及び所定値は適宜決定すればよい。G21の加算処理によって、可視光画像や近赤外熱画像と比較して低画素数のセンサーによって生成されることが多い遠赤外熱画像の高解像度化を図ることができる。 In the G21, the synthesis processing unit 15 executes a process of emphasizing high frequency components in each of the luminance signal of the near-infrared thermal image and the luminance signal of the visible light image. In the process of emphasizing the high frequency component, a predetermined value may be added to each high frequency component of the luminance signal of the near-infrared thermal image and the luminance signal of the visible light image, or the predetermined value may be integrated. The frequency range and predetermined value of the high frequency component may be appropriately determined. By the addition process of G21, it is possible to increase the resolution of the far-infrared thermal image, which is often generated by the sensor having a lower number of pixels as compared with the visible light image or the near-infrared thermal image.

G22では、合成処理部15は、遠赤外熱画像の輝度信号、G21で高周波成分が強調された近赤外熱画像の輝度信号及び可視光画像の輝度信号を加算して加算後輝度信号を生成する。 In G22, the synthesis processing unit 15 adds the luminance signal of the far-infrared thermal image, the luminance signal of the near-infrared thermal image in which the high-frequency component is emphasized in G21, and the luminance signal of the visible light image to obtain the added luminance signal. Generate.

G23では、合成処理部15は、G22で生成した加算後輝度信号に対してコントラストを補正するコントラスト補正処理を行うことで合成輝度信号を生成する。コントラスト補正処理に用いる手法には限定はなく、公知の様々な手法を採用可能である。 In G23, the synthesis processing unit 15 generates a composite luminance signal by performing contrast correction processing for correcting the contrast with respect to the added luminance signal generated in G22. The method used for the contrast correction process is not limited, and various known methods can be adopted.

G24では、合成処理部15は、G23で生成された合成輝度信号の高周波成分を強調する処理を実行することで、合成画像輝度信号を生成する。高周波成分を強調する処理では、G21と同様の手法を採用することができる。 In the G24, the synthesis processing unit 15 generates a composite image luminance signal by executing a process of emphasizing the high frequency component of the composite luminance signal generated by the G23. In the process of emphasizing the high frequency component, the same method as G21 can be adopted.

G25では、合成処理部15は、可視光画像の輝度信号とG23で生成した合成輝度信号との輝度の比に応じて、可視光画像の色信号の強度を補正する。合成処理部15は、例えば、合成輝度信号の各画素の輝度が可視光画像の輝度信号の同じ画素の輝度よりも大きいほど可視光画像の色信号の強度を高めてもよい。 In G25, the synthesis processing unit 15 corrects the intensity of the color signal of the visible light image according to the ratio of the luminance of the luminance signal of the visible light image and the luminance signal of the synthetic luminance signal generated by G23. For example, the compositing processing unit 15 may increase the intensity of the color signal of the visible light image so that the brightness of each pixel of the composite luminance signal is larger than the brightness of the same pixel of the luminance signal of the visible light image.

G26では、合成処理部15は、G24で生成した合成画像輝度信号とG25で補正した可視光画像の色信号を合成して、合成画像を生成する。すなわち、合成画像の色成分はG25で補正された色信号によって示され、合成画像の輝度成分はG24で生成した合成画像輝度信号によって示される。 In G26, the synthesis processing unit 15 synthesizes the composite image luminance signal generated by G24 and the color signal of the visible light image corrected by G25 to generate a composite image. That is, the color component of the composite image is indicated by the color signal corrected by G25, and the luminance component of the composite image is indicated by the luminance signal of the composite image generated by G24.

なお、合成処理部15による合成処理は図3及び図4を参照して説明した処理に限定されない。合成処理部15は、他の手法によって合成処理を行ってもよい。 The synthesis process by the synthesis processing unit 15 is not limited to the processing described with reference to FIGS. 3 and 4. The synthesis processing unit 15 may perform the synthesis processing by another method.

学習機能指示器16は、撮像装置1が撮影した画像から検知対象とする被写体を機械学習器17に対して指示する。検知対象としては、例えば、人、動物、車両等を挙げることができる。学習機能指示器16には、例えば、撮像装置1のユーザーインターフェースを介したユーザからの指示によって、検知対象が指定される。 The learning function indicator 16 instructs the machine learning device 17 to detect a subject from the image captured by the image pickup device 1. Examples of the detection target include people, animals, vehicles, and the like. The learning function indicator 16 is designated as a detection target, for example, by an instruction from the user via the user interface of the image pickup device 1.

機械学習器17は、予め検知対象を撮影することで近赤外熱画像処理部141によって生成された近赤外熱画像、可視光画像処理部142によって生成される可視光画像、遠赤外熱画像処理部143によって生成される遠赤外熱画像及び合成処理部15によって生成される合成画像を教師データとして、上記検知対象の検知に用いる学習モデルを構築する。機械学習器17は、複数の検知対象夫々に対応する学習モデルを複数構築してもよい。また、機械学習器17は、構築した学習モデルを用いて、近赤外熱画像処理部141から入力される近赤外熱画像、可視光画像処理部142から入力される可視光画像、遠赤外熱画像処理部143から入力される遠赤外熱画像及び合成処理部15から入力される合成画像を基に、指定された検知対象の検知を行う。機械学習器17は、検知対象を検知するとサーバ装置等の上位装置へ通知を行ってもよい。機械学習器17は、「判定部」の一例である。 The machine learning device 17 captures a detection target in advance to generate a near-infrared thermal image generated by the near-infrared thermal image processing unit 141, a visible light image generated by the visible light image processing unit 142, and far-infrared heat. A learning model used for detecting the detection target is constructed using the far-infrared thermal image generated by the image processing unit 143 and the composite image generated by the composite processing unit 15 as teacher data. The machine learning device 17 may construct a plurality of learning models corresponding to each of the plurality of detection targets. Further, the machine learner 17 uses the constructed learning model to obtain a near-infrared thermal image input from the near-infrared thermal image processing unit 141, a visible light image input from the visible light image processing unit 142, and a far-infrared image. The designated detection target is detected based on the far-infrared thermal image input from the external thermal image processing unit 143 and the composite image input from the composite processing unit 15. When the machine learning device 17 detects a detection target, it may notify a higher-level device such as a server device. The machine learning device 17 is an example of a “determination unit”.

近赤外熱画像処理部141、可視光画像処理部142、遠赤外熱画像処理部143、合成処理部15、学習機能指示器16及び機械学習器17は、例えば、Central Processing Unit(CPU)とメモリを備えるコンピューターによって実現される。図5は、実施形態に係る撮像装置1が備えるコンピューター100の一例を示す図である。コンピューター100は、撮像装置1が備える情報処理装置である。 The near-infrared thermal image processing unit 141, the visible light image processing unit 142, the far-infrared thermal image processing unit 143, the synthesis processing unit 15, the learning function indicator 16 and the machine learning device 17 are, for example, a Central Processing Unit (CPU). And realized by a computer with memory. FIG. 5 is a diagram showing an example of a computer 100 included in the image pickup apparatus 1 according to the embodiment. The computer 100 is an information processing device included in the image pickup device 1.

CPU101は、マイクロプロセッサユニット(MPU)、プロセッサとも呼ばれる。CPU101は、プロセッサと集積回路との組み合わせであってもよい。組み合わせは、例えば、マイクロコントローラユニット(MCU)、System-on-a-chip(SoC)、システムLSI、チップセットなどと呼ばれる。コンピューター100では、CPU101が補助記憶部103に記憶されたプログラムを主記憶部102の作業領域に展開し、プログラムの実行を行うことで、近赤外熱画像処理部141、可視光画像処理部142、遠赤外熱画像処理部143、合成処理部15、学習機能指示器16及び機械学習器17が実現される。 The CPU 101 is also referred to as a microprocessor unit (MPU) or a processor. The CPU 101 may be a combination of a processor and an integrated circuit. The combination is called, for example, a microcontroller unit (MCU), a system-on-a-chip (SoC), a system LSI, a chipset, or the like. In the computer 100, the CPU 101 expands the program stored in the auxiliary storage unit 103 into the work area of the main storage unit 102, and executes the program to execute the near-infrared thermal image processing unit 141 and the visible light image processing unit 142. , A far-infrared thermal image processing unit 143, a synthesis processing unit 15, a learning function indicator 16, and a machine learning device 17 are realized.

主記憶部102は、CPU101から直接アクセスされる記憶部として例示される。主記憶部102は、Random Access Memory(RAM)及びRead Only Memory(ROM)を含む。 The main storage unit 102 is exemplified as a storage unit that is directly accessed from the CPU 101. The main storage unit 102 includes a Random Access Memory (RAM) and a Read Only Memory (ROM).

補助記憶部103は、各種のプログラム及び各種のデータを読み書き自在に記録媒体に格納する。補助記憶部103は外部記憶装置とも呼ばれる。補助記憶部103には、オペレーティングシステム(Operating System、OS)、各種プログラム、各種テーブルや機械学習器17によって構築された学習モデル等が格納される。 The auxiliary storage unit 103 stores various programs and various data in a readable / writable recording medium. The auxiliary storage unit 103 is also called an external storage device. The auxiliary storage unit 103 stores an operating system (Operating System, OS), various programs, various tables, a learning model built by the machine learning device 17, and the like.

補助記憶部103は、例えば、Erasable Programmable ROM(EPROM)、ソリッドステートドライブ(Solid State Drive、SSD)、ハードディスクドライブ(Hard Disk Drive、HDD)等である。 The auxiliary storage unit 103 is, for example, an Erasable Program ROM (EPROM), a solid state drive (Sold State Drive, SSD), a hard disk drive (Hard Disk Drive, HDD), or the like.

通信部104は、近赤外光センサー131、可視光センサー132及び遠赤外光センサー133からの電気信号の入力を受け付けるインターフェースである。CPU101は、通信部104を介して、近赤外光センサー131、可視光センサー132及び遠赤外光センサー133からの電気信号を取得する。 The communication unit 104 is an interface that receives inputs of electric signals from the near-infrared light sensor 131, the visible light sensor 132, and the far-infrared light sensor 133. The CPU 101 acquires electric signals from the near-infrared light sensor 131, the visible light sensor 132, and the far-infrared light sensor 133 via the communication unit 104.

コンピューター100は、例えば、ユーザ等からの操作指示等を受け付ける入力部をさらに備えてもよい。このような入力部として、キーボード、ポインティングデバイス、タッチパネル、加速度センサーあるいは音声入力装置といった入力デバイスを例示できる。 The computer 100 may further include, for example, an input unit that receives an operation instruction or the like from a user or the like. As such an input unit, an input device such as a keyboard, a pointing device, a touch panel, an acceleration sensor, or a voice input device can be exemplified.

(ビームスプリッターの特性)
図6は、実施形態における第1ビームスプリッター121の特性を例示する図である。図6では、比較のため、誘電体多層膜1211を備えない透明基板1212の特性も例示する。図6の縦軸は透過率または反射率を例示し、横軸は波長を例示する。図6において、反射率を示す曲線には「反射率」の表示を付し、透過率を示す曲線には「透過率」の表示を付す。また、図6のうち実線の曲線は第1ビームスプリッター121の特性を例示し、点線の曲線は透明基板1212の特性を例示する。
(Characteristics of beam splitter)
FIG. 6 is a diagram illustrating the characteristics of the first beam splitter 121 in the embodiment. FIG. 6 also illustrates the characteristics of the transparent substrate 1212 without the dielectric multilayer film 1211 for comparison. The vertical axis of FIG. 6 exemplifies the transmittance or the reflectance, and the horizontal axis exemplifies the wavelength. In FIG. 6, the curve showing the reflectance is indicated by "reflectance", and the curve showing the transmittance is indicated by "transmittance". Further, in FIG. 6, the solid line curve exemplifies the characteristics of the first beam splitter 121, and the dotted line curve exemplifies the characteristics of the transparent substrate 1212.

透明基板1212の波長0.6μm以下の可視光や波長1.2μm以下の近赤外光に対する透過率は略0%であり、反射率は70%以下である。また、透明基板1212の波長10μm以上の遠赤外光に対する透過率は30%以下であり、反射率は40%以下である。その一方で、第1ビームスプリッター121の波長0.6μm以下の可視光や波長1.2μm以下の近赤外光に対する透過率は略0%であり、反射率は70%以上である。また、第1ビームスプリッター121の波長10μm以上の遠赤外光に対する透過率は略100%であるとともに、反射率は略0%である。すなわち、透明基板1212上に誘電体多層膜1211を設けることで、可視光及び近赤外光の反射率を高めることができるとともに、遠赤外光の透過率を高めることができる。すなわち、透明基板1212上に誘電体多層膜1211を設けた第1ビームスプリッター121は、可視光及び近赤外光を透過させずに高い反射率で反射させるとともに、遠赤外光を反射させずに高い透過率で透過させることができる。 The transmittance of the transparent substrate 1212 for visible light having a wavelength of 0.6 μm or less and near-infrared light having a wavelength of 1.2 μm or less is approximately 0%, and the reflectance is 70% or less. Further, the transmittance of the transparent substrate 1212 for far-infrared light having a wavelength of 10 μm or more is 30% or less, and the reflectance is 40% or less. On the other hand, the transmittance of the first beam splitter 121 for visible light having a wavelength of 0.6 μm or less and near-infrared light having a wavelength of 1.2 μm or less is approximately 0%, and the reflectance is 70% or more. Further, the transmittance of the first beam splitter 121 for far-infrared light having a wavelength of 10 μm or more is approximately 100%, and the reflectance is approximately 0%. That is, by providing the dielectric multilayer film 1211 on the transparent substrate 1212, the reflectance of visible light and near-infrared light can be increased, and the transmittance of far-infrared light can be increased. That is, the first beam splitter 121 having the dielectric multilayer film 1211 provided on the transparent substrate 1212 reflects visible light and near-infrared light with high reflectance without transmitting them, and does not reflect far-infrared light. Can be transmitted with high transmittance.

(検知対象の検知フロー)
図7は、実施形態に係る撮像装置1による検知対象を検知する処理フローの一例である。以下、図7を参照して、実施形態に係る撮像装置1による検知対象を検知する処理フローについて説明する。
(Detection flow of detection target)
FIG. 7 is an example of a processing flow for detecting a detection target by the image pickup apparatus 1 according to the embodiment. Hereinafter, a processing flow for detecting a detection target by the image pickup apparatus 1 according to the embodiment will be described with reference to FIG. 7.

T1では、合成処理部15は、近赤外熱画像処理部141によって生成された近赤外熱画像、可視光画像処理部142によって生成された可視光画像及び遠赤外熱画像処理部143によって生成された遠赤外熱画像を基に、合成画像を生成する。 In T1, the synthesis processing unit 15 is subjected to the near-infrared thermal image generated by the near-infrared thermal image processing unit 141, the visible light image generated by the visible light image processing unit 142, and the far-infrared thermal image processing unit 143. A composite image is generated based on the generated far-infrared thermal image.

T2では、機械学習器17は、予め機械学習器17によって生成された学習モデルに対して、T1で生成された合成画像を入力することで、検知対象の検知を行う。検知対象を検知した場合(T2でYES)、処理はT3に進められる。検知対象を検知しない場合(T2でNO)、処理は終了する。 In T2, the machine learning device 17 detects the detection target by inputting the composite image generated in T1 into the learning model generated by the machine learning device 17 in advance. When the detection target is detected (YES in T2), the process proceeds to T3. If the detection target is not detected (NO at T2), the process ends.

T3では、検知対象を検知したことにより、機械学習器17はアラートを出力する。ア
ラートの出力は、例えば、上位装置への通知であって良い。また、機械学習器17は、撮像装置1が備えるスピーカー(図示省略)からの警告音を出力してもよく、撮像装置1が接続されたディスプレイ(図示省略)への警告メッセージの出力を行ってもよい。
In T3, the machine learning device 17 outputs an alert when the detection target is detected. The output of the alert may be, for example, a notification to a higher-level device. Further, the machine learning device 17 may output a warning sound from a speaker (not shown) included in the image pickup device 1, and outputs a warning message to a display (not shown) to which the image pickup device 1 is connected. May be good.

<実施形態の作用効果>
実施形態に係る撮像装置1では、レンズ11を介して入射する被写体光を第1ビームスプリッター121によって可視光及び近赤外光を含む第1の光と遠赤外光とに分離される。第1ビームスプリッター121によって被写体光から分離された第1の光は、第2ビームスプリッター122に入射し、第2ビームスプリッター122によって可視光と近赤外光とに分離される。第2ビームスプリッター122によって分離された近赤外光は近赤外光センサー131に入射し、第2ビームスプリッター122によって分離された可視光は可視光センサー132に入射する。また、第1ビームスプリッター121によって被写体光から分離された遠赤外光は、遠赤外光センサー133に入射する。レンズ11、近赤外光センサー131、可視光センサー132、遠赤外光センサー133は同一光軸上に配置されており、近赤外光センサー131、可視光センサー132、遠赤外光センサー133に入射する光はレンズ11から入射した同一の被写体光から分離されたものである。そのため、実施形態に係る撮像装置1は、被写体Mについての近赤外熱画像、可視光画像及び遠赤外熱画像を同時に取得することができる。
<Action and effect of the embodiment>
In the image pickup apparatus 1 according to the embodiment, the subject light incident through the lens 11 is split into first light including visible light and near-infrared light and far-infrared light by the first beam splitter 121. The first light separated from the subject light by the first beam splitter 121 is incident on the second beam splitter 122, and is split into visible light and near infrared light by the second beam splitter 122. The near-infrared light separated by the second beam splitter 122 is incident on the near-infrared light sensor 131, and the visible light separated by the second beam splitter 122 is incident on the visible light sensor 132. Further, the far-infrared light separated from the subject light by the first beam splitter 121 is incident on the far-infrared light sensor 133. The lens 11, the near-infrared light sensor 131, the visible light sensor 132, and the far-infrared light sensor 133 are arranged on the same optical axis, and the near-infrared light sensor 131, the visible light sensor 132, and the far-infrared light sensor 133 are arranged. The light incident on the lens 11 is separated from the same subject light incident on the lens 11. Therefore, the image pickup apparatus 1 according to the embodiment can simultaneously acquire a near-infrared thermal image, a visible light image, and a far-infrared thermal image of the subject M.

実施形態に係る撮像装置1では、近赤外熱画像処理部141によって生成された近赤外熱画像、可視光画像処理部142によって生成された可視光画像及び遠赤外熱画像処理部143によって生成された遠赤外熱画像を合成処理部15によって合成する。そのため、実施形態に係る撮像装置1は、近赤外熱画像、可視光画像及び遠赤外熱画像夫々が有する欠点を補完した明瞭な合成画像を生成することができる。 In the image pickup apparatus 1 according to the embodiment, the near-infrared thermal image generated by the near-infrared thermal image processing unit 141, the visible light image generated by the visible light image processing unit 142, and the far-infrared thermal image processing unit 143 The generated far-infrared thermal image is synthesized by the synthesis processing unit 15. Therefore, the image pickup apparatus 1 according to the embodiment can generate a clear composite image that compensates for the shortcomings of the near-infrared thermal image, the visible light image, and the far-infrared thermal image.

本実施形態では、例えば、図4のG21の加算処理によって、可視光画像や近赤外熱画像と比較して低画素数のセンサーによって生成されることが多い遠赤外熱画像の高解像度化を図ることができる。また、図4のG23及びG24の処理によって、合成画像のコントラスト感及び解像感が改善される。本実施形態によれば、このような処理によって合成画像が生成されることで、コントラスト感及び解像感が一層改善された合成画像を生成することができる。 In the present embodiment, for example, the addition process of G21 in FIG. 4 increases the resolution of a far-infrared thermal image, which is often generated by a sensor having a lower number of pixels than a visible light image or a near-infrared thermal image. Can be planned. Further, the processing of G23 and G24 in FIG. 4 improves the contrast feeling and the resolution feeling of the composite image. According to the present embodiment, by generating a composite image by such processing, it is possible to generate a composite image with further improved contrast feeling and resolution feeling.

実施形態に係る撮像装置1では、近赤外熱画像処理部141によって生成された近赤外熱画像、可視光画像処理部142によって生成された可視光画像及び遠赤外熱画像処理部143によって生成された遠赤外熱画像及び合成処理部15によって生成された合成画像を教師データとして機械学習器17が機械学習を行い、検知対象の検知に用いられる学習モデルが構築される。ここで、検知対象とする被写体は、ユーザによって学習機能指示器16に対して指示され、学習機能指示器16は指示された検知対象を検知するよう機械学習器17に指示する。機械学習器17は、指定された検知対象に対応する学習モデルを選択して検知を行う。そのため、実施形態に係る撮像装置1によれば、ユーザ所望の被写体を検知することができる。 In the image pickup apparatus 1 according to the embodiment, the near-infrared thermal image generated by the near-infrared thermal image processing unit 141, the visible light image generated by the visible light image processing unit 142, and the far-infrared thermal image processing unit 143 The machine learner 17 performs machine learning using the generated far-infrared thermal image and the composite image generated by the synthesis processing unit 15 as teacher data, and a learning model used for detecting the detection target is constructed. Here, the subject to be detected is instructed by the user to the learning function indicator 16, and the learning function indicator 16 instructs the machine learning device 17 to detect the instructed detection target. The machine learning device 17 selects and detects a learning model corresponding to the designated detection target. Therefore, according to the image pickup apparatus 1 according to the embodiment, it is possible to detect a subject desired by the user.

実施形態に係る撮像装置1が備える第1ビームスプリッター121は、図6を参照して説明したように、可視光及び近赤外光を透過させずに高い反射率で反射させるとともに、遠赤外光を高い透過率で透過させるとともに反射させない。そのため、第1ビームスプリッター121は、高精度で可視光及び近赤外光を含む第1の光と遠赤外光とを分離することができる。また、撮像装置1は、第1ビームスプリッター121によって高精度で第1の光と遠赤外光とを分離することができるため、第1の光が遠赤外光センサー133に入射されることを抑制される。ひいては、遠赤外光センサー133の画質低下が抑制される。 As described with reference to FIG. 6, the first beam splitter 121 included in the image pickup apparatus 1 according to the embodiment reflects visible light and near-infrared light with high reflectance without transmitting them, and far-infrared light. Light is transmitted with high transmittance and is not reflected. Therefore, the first beam splitter 121 can separate the first light including visible light and near-infrared light from the far-infrared light with high accuracy. Further, since the image pickup apparatus 1 can separate the first light and the far infrared light with high accuracy by the first beam splitter 121, the first light is incident on the far infrared light sensor 133. Is suppressed. As a result, the deterioration of the image quality of the far-infrared light sensor 133 is suppressed.

また、実施形態に係る撮像装置1は、同一光軸上で近赤外熱画像、可視光画像及び遠赤外熱画像を生成する。そのため、近赤外光で撮影する近赤外光カメラ、可視光で撮影する可視光カメラ及び遠赤外光で撮影する遠赤外光カメラの夫々を用意して被写体Mを撮影する場合(異なる位置から被写体Mを撮影する場合)とは異なり、近赤外熱画像、可視光画像及び遠赤外熱画像間における被写体Mの位置ずれが生じない。そのため、撮像装置1では、合成画像においても被写体Mの位置を高精度に示すことができる。 Further, the image pickup apparatus 1 according to the embodiment generates a near-infrared thermal image, a visible light image, and a far-infrared thermal image on the same optical axis. Therefore, when a near-infrared light camera that shoots with near-infrared light, a visible light camera that shoots with visible light, and a far-infrared light camera that shoots with far-infrared light are prepared to shoot the subject M (different). Unlike the case where the subject M is photographed from a position), the position of the subject M does not shift between the near-infrared thermal image, the visible light image, and the far-infrared thermal image. Therefore, the image pickup apparatus 1 can show the position of the subject M with high accuracy even in the composite image.

<第1変形例>
実施形態では、近赤外熱画像処理部141によって生成された近赤外熱画像、可視光画像処理部142によって生成された可視光画像及び遠赤外熱画像処理部143によって生成された遠赤外熱画像を合成処理部15によって合成された。第1変形例では、合成処理部15が、近赤外熱画像処理部141によって生成された近赤外熱画像と可視光画像処理部142によって生成された可視光画像の合成画像を生成する場合の処理について説明する。なお、この場合、遠赤外熱画像処理部143によって生成された遠赤外熱画像は合成処理部15に入力されなくともよい。以下、図面を参照して、第1変形例について説明する。
<First modification>
In the embodiment, the near-infrared thermal image generated by the near-infrared thermal image processing unit 141, the visible light image generated by the visible light image processing unit 142, and the far-infrared generated by the far-infrared thermal image processing unit 143. The external heat image was synthesized by the synthesis processing unit 15. In the first modification, the composite processing unit 15 generates a composite image of the near-infrared thermal image generated by the near-infrared thermal image processing unit 141 and the visible light image generated by the visible light image processing unit 142. The processing of is described. In this case, the far-infrared thermal image generated by the far-infrared thermal image processing unit 143 does not have to be input to the synthesis processing unit 15. Hereinafter, the first modification will be described with reference to the drawings.

(検知対象の検知フロー)
図8は、第1変形例に係る撮像装置1による検知対象を検知する処理フローの一例である。図8において、図7と同一の処理には同一の符号を付し、その説明を省略する。以下、図8を参照して、第1変形例に係る撮像装置1による検知対象を検知する処理フローについて説明する。
(Detection flow of detection target)
FIG. 8 is an example of a processing flow for detecting a detection target by the image pickup apparatus 1 according to the first modification. In FIG. 8, the same processing as in FIG. 7 is designated by the same reference numerals, and the description thereof will be omitted. Hereinafter, with reference to FIG. 8, a processing flow for detecting a detection target by the image pickup apparatus 1 according to the first modification will be described.

T1aでは、合成処理部15は、T1では、合成処理部15は、近赤外熱画像処理部141によって生成された近赤外熱画像及び可視光画像処理部142によって生成された可視光画像を基に、合成画像を生成する。 In T1a, the synthesis processing unit 15 and in T1, the synthesis processing unit 15 displays the near-infrared thermal image generated by the near-infrared thermal image processing unit 141 and the visible light image generated by the visible light image processing unit 142. Based on this, a composite image is generated.

T2aでは、機械学習器17は、あらかじめ機械学習器17によって生成された学習モデルを用いて、検知対象の検知を行う。機械学習器17には、T1aで生成された合成画像と遠赤外熱画像処理部143によって生成された遠赤外熱画像が入力される。機械学習器17は、合成画像と遠赤外熱画像を学習モデルに入力することで、検知対象の検知を行う。検知対象を検知した場合(T2aでYES)、処理はT3に進められる。検知対象を検知しない場合(T2aでNO)、処理は終了する。 In T2a, the machine learning device 17 detects the detection target by using the learning model generated by the machine learning device 17 in advance. The composite image generated by T1a and the far-infrared thermal image generated by the far-infrared thermal image processing unit 143 are input to the machine learning device 17. The machine learning device 17 detects a detection target by inputting a composite image and a far-infrared thermal image into the learning model. When the detection target is detected (YES in T2a), the process proceeds to T3. If the detection target is not detected (NO in T2a), the process ends.

<第2変形例>
実施形態に係る撮像装置1では、被写体光を集光する光学部材としてレンズ11が採用された。第2変形例では、レンズ11に代えて凹面鏡を備える撮像装置について説明する。実施形態と共通の構成要素については同一の符号を付し、その説明を省略する。以下、図面を参照して、第2変形例について説明する。
<Second modification>
In the image pickup apparatus 1 according to the embodiment, the lens 11 is adopted as an optical member that collects the subject light. In the second modification, an image pickup apparatus provided with a concave mirror instead of the lens 11 will be described. The components common to the embodiments are designated by the same reference numerals, and the description thereof will be omitted. Hereinafter, the second modification will be described with reference to the drawings.

図9は、第2変形例に係る撮像装置1aの構成を示す図である。撮像装置1aは、光学部200に代えて光学部200aを備える点で撮像装置1とは異なる。光学部200aは、レンズ11に代えて凹面鏡11aを備え、近赤外光センサー131及び可視光センサー132に代えて近赤外光・可視光センサー131aを備える。また、光学部200aは、RGB/IR分離素子132bをさらに備えるとともに、第2ビームスプリッター122は省略される。 FIG. 9 is a diagram showing the configuration of the image pickup apparatus 1a according to the second modification. The image pickup device 1a is different from the image pickup device 1 in that the image pickup device 1a includes the optical section 200a instead of the optical section 200. The optical unit 200a includes a concave mirror 11a instead of the lens 11, and a near-infrared light / visible light sensor 131a instead of the near-infrared light sensor 131 and the visible light sensor 132. Further, the optical unit 200a further includes an RGB / IR separation element 132b, and the second beam splitter 122 is omitted.

凹面鏡11aは、入射した被写体光を入射方向とは別の方向に反射する。凹面鏡11aに入射した被写体光は、凹面鏡11aによって光路を屈曲されて第1ビームスプリッター
121に入射される。図9では、3つの凹面鏡11aが例示されているが、凹面鏡11aの数は3つに限定されるものではない。3つの凹面鏡11aは、反射光学系ということもできる。
The concave mirror 11a reflects the incident subject light in a direction different from the incident direction. The subject light incident on the concave mirror 11a is bent in the optical path by the concave mirror 11a and is incident on the first beam splitter 121. Although three concave mirrors 11a are illustrated in FIG. 9, the number of concave mirrors 11a is not limited to three. The three concave mirrors 11a can also be said to be a catadioptric system.

近赤外光・可視光センサー131aは、入射した可視光及び近赤外光に応じた電気信号を生成する撮像素子である。近赤外光センサー131aは、波長2.5μm以下の光に感度のピークを有する。近赤外光・可視光センサー131aは、例えば、波長2.5μm以下の光に対する感度を有するCCDイメージセンサーやCMOSイメージセンサーである。近赤外光・可視光センサー131aが生成した電気信号は、RGB/IR分離素子132bに入力される。近赤外光・可視光センサー131aは、「第1センサー」の一例である。可視光及び近赤外光に応じた電気信号は、「第1信号」の一例である。 The near-infrared light / visible light sensor 131a is an image pickup device that generates an electric signal corresponding to incident visible light and near-infrared light. The near-infrared light sensor 131a has a peak of sensitivity to light having a wavelength of 2.5 μm or less. The near-infrared light / visible light sensor 131a is, for example, a CCD image sensor or a CMOS image sensor having sensitivity to light having a wavelength of 2.5 μm or less. The electric signal generated by the near-infrared light / visible light sensor 131a is input to the RGB / IR separation element 132b. The near-infrared light / visible light sensor 131a is an example of the "first sensor". The electric signal corresponding to the visible light and the near infrared light is an example of the "first signal".

RGB/IR分離素子132bは、近赤外光・可視光センサー131aから入力された電気信号を、可視光を示す電気信号と近赤外光を示す電気信号に分離する。RGB/IR分離素子132bによって分離された近赤外光を示す電気信号は、近赤外熱画像処理部141に入力される。RGB/IR分離素子132bによって分離された可視光を示す電気信号は、可視光画像処理部142に入力される。RGB/IR分離素子132bは、「分離部」の一例である。近赤外光・可視光センサー131a、RGB/IR分離素子132b、近赤外熱画像処理部141及び可視光画像処理部142は、「生成部」の一例である。 The RGB / IR separation element 132b separates the electric signal input from the near-infrared light / visible light sensor 131a into an electric signal indicating visible light and an electric signal indicating near-infrared light. The electric signal indicating the near-infrared light separated by the RGB / IR separation element 132b is input to the near-infrared thermal image processing unit 141. An electric signal indicating visible light separated by the RGB / IR separation element 132b is input to the visible light image processing unit 142. The RGB / IR separation element 132b is an example of a “separation unit”. The near-infrared light / visible light sensor 131a, the RGB / IR separation element 132b, the near-infrared thermal image processing unit 141, and the visible light image processing unit 142 are examples of the “generation unit”.

第2変形例に係る撮像装置1aは、レンズ11に代えて凹面鏡11aを採用することで、撮像装置1よりも安価に製造が可能となる。一方、撮像装置1は、レンズ11を採用することで、撮像装置1aよりも小型化が容易である。 By adopting the concave mirror 11a instead of the lens 11, the image pickup apparatus 1a according to the second modification can be manufactured at a lower cost than the image pickup apparatus 1. On the other hand, the image pickup apparatus 1 can be made smaller than the image pickup apparatus 1a by adopting the lens 11.

<その他の変形例>
実施形態では、誘電体多層膜1211を備える第1ビームスプリッター121について説明した。しかしながら、誘電体多層膜1211は第1ビームスプリッター121を備えなくともよい。例えば、第1ビームスプリッター121は、誘電体多層膜1211に代えて可視光の波長よりも小さいピッチの周期的な溝を形成することによっても、可視光及び近赤外光を反射することができる。この周期的な溝は、遠赤外光の波長よりもはるかに小さい構造となる。そのため、このような構造によっても、第1ビームスプリッター121は遠赤外光を透過することができる。
<Other variants>
In the embodiment, the first beam splitter 121 including the dielectric multilayer film 1211 has been described. However, the dielectric multilayer film 1211 does not have to be provided with the first beam splitter 121. For example, the first beam splitter 121 can also reflect visible light and near-infrared light by forming periodic grooves having a pitch smaller than the wavelength of visible light instead of the dielectric multilayer film 1211. .. This periodic groove has a structure much smaller than the wavelength of far-infrared light. Therefore, even with such a structure, the first beam splitter 121 can transmit far infrared light.

<適用例>
以上で説明した実施形態や各変形例に係る撮像装置は、様々なシステムに適用可能である。以下、図面を参照して、実施形態や各変形例に係る撮像装置の適用例について説明する。
<Application example>
The image pickup apparatus according to the embodiment and each modification described above can be applied to various systems. Hereinafter, application examples of the image pickup apparatus according to the embodiment and each modification will be described with reference to the drawings.

(第1適用例)
図10は、第1適用例を模式的に例示する図である。第1適用例では、実施形態に係る撮像装置1を車両800の監視カメラとして採用する。図10は、道路を走行する車両800を上から見た図である。図10の例では、1台の撮像装置1が、車両800の進行方向を撮影するように設けられる。
(First application example)
FIG. 10 is a diagram schematically illustrating a first application example. In the first application example, the image pickup apparatus 1 according to the embodiment is adopted as a surveillance camera of the vehicle 800. FIG. 10 is a top view of the vehicle 800 traveling on the road. In the example of FIG. 10, one image pickup apparatus 1 is provided so as to photograph the traveling direction of the vehicle 800.

第1適用例では、撮像装置1が車両の進行方向(例えば、監視領域W1)を撮影する。夜間やトンネル内等の暗所においては、対向車両810のヘッドライト光811等の影響で横断歩道を渡る通行人M1の視認性が低下する。上記の通り、暗所においては可視光画像で通行人M1を検知することは困難であり、近赤外熱画像や遠赤外熱画像では検知対象とする通行人M1を明瞭に撮像することは困難である。撮像装置1は、近赤外光で撮影し
た近赤外熱画像、可視光で撮影した可視光画像及び遠赤外光で撮影した遠赤外熱画像を同一光軸上で取得する。そして、撮像装置1は、近赤外熱画像、可視光画像及び遠赤外熱画像を合成することで、これらの画像の欠点を補完した合成画像を生成する。換言すれば、撮像装置1は、合成画像を用いることで、通行人M1を可視光及び熱分布の双方の観点から検知する。撮像装置1は、このような合成画像を用いることで、暗所における通行人M1の検知精度を高めることができる。また、撮像装置1の機械学習器17は、通行人M1を検知した場合には、車両800に対してブレーキ制御を指示してもよい。
In the first application example, the image pickup apparatus 1 photographs the traveling direction of the vehicle (for example, the monitoring area W1). At night or in a dark place such as in a tunnel, the visibility of the passerby M1 crossing the pedestrian crossing is lowered due to the influence of the headlight light 811 of the oncoming vehicle 810. As described above, it is difficult to detect the passerby M1 with a visible light image in a dark place, and it is not possible to clearly capture the passerby M1 to be detected in a near-infrared thermal image or a far-infrared thermal image. Have difficulty. The image pickup apparatus 1 acquires a near-infrared thermal image taken with near-infrared light, a visible light image taken with visible light, and a far-infrared thermal image taken with far-infrared light on the same optical axis. Then, the image pickup apparatus 1 synthesizes a near-infrared thermal image, a visible light image, and a far-infrared thermal image to generate a composite image that complements the shortcomings of these images. In other words, the image pickup apparatus 1 detects the passerby M1 from the viewpoints of both visible light and heat distribution by using the composite image. By using such a composite image, the image pickup apparatus 1 can improve the detection accuracy of the passerby M1 in a dark place. Further, the machine learning device 17 of the image pickup apparatus 1 may instruct the vehicle 800 to control the brake when the passerby M1 is detected.

(第2適用例)
撮像装置1は、入退室管理システムに適用することもできる。図11は、第2適用例を模式的に示す図である。第2適用例では、サーバールーム850の入退室管理に撮像装置1が採用される。図11は、サーバールーム850を上から見た図である。図11の例では、サーバールーム850の入退室扉851の脇に1台の撮像装置1が設けられる。撮像装置1の撮影方向は、サーバールーム850の外部に向けられている。
(Second application example)
The image pickup device 1 can also be applied to an entry / exit management system. FIG. 11 is a diagram schematically showing a second application example. In the second application example, the image pickup apparatus 1 is adopted for entry / exit management of the server room 850. FIG. 11 is a top view of the server room 850. In the example of FIG. 11, one image pickup device 1 is provided beside the entrance / exit door 851 of the server room 850. The shooting direction of the image pickup apparatus 1 is directed to the outside of the server room 850.

撮像装置1は、サーバールーム850内で作業を行おうとする作業者を撮影し、その撮影画像を上位装置へ送信する。上位装置は、撮像装置1から受信した可視光画像を用いて顔認証を行うことができる。また、上位装置は、撮像装置1から受信した遠赤外熱画像を基に作業員の体温を測定し、測定した体温が所定の体温以上である場合には、体調不良であるとしてサーバールーム850への入室を拒否(入退室扉851の開錠を行わない)としてもよい。なお、第2適用例ではサーバールーム850への入退室管理として撮像装置1を用いたが、新型コロナ(COVID-19)等への対策として、店舗への入店時における顧客の顔認識や体温測定に撮像装置1を用いてもよい。 The image pickup apparatus 1 photographs an operator who intends to perform work in the server room 850, and transmits the captured image to a higher-level device. The host device can perform face recognition using the visible light image received from the image pickup device 1. Further, the host device measures the body temperature of the worker based on the far-infrared thermal image received from the image pickup device 1, and if the measured body temperature is equal to or higher than the predetermined body temperature, the server room 850 is considered to be in poor physical condition. You may refuse to enter the room (do not unlock the entrance / exit door 851). In the second application example, the image pickup device 1 was used for entry / exit control to the server room 850, but as a measure against the new corona (COVID-19) and the like, the customer's face recognition and body temperature at the time of entering the store are recognized. The image pickup apparatus 1 may be used for the measurement.

(その他の適用例)
以上説明した撮像装置1、1aは、撮影対象とする領域の明暗によらず好適な画像を撮影できることから、他にも様々な用途に適用することができる。撮像装置1、1aは、例えば、可視光のみならず熱によっても撮影を行うことができることから、森林火災の監視カメラに適用することもできる。また、撮像装置1、1aは、撮影対象とする領域の明暗によらず好適な画像を撮影できることから、昼夜、雨、霧、雪等の様々な環境に対応した防災監視カメラ、自然環境監視カメラ、昼夜対応セキュリティカメラとして用いることもできる。
(Other application examples)
Since the image pickup devices 1 and 1a described above can capture a suitable image regardless of the brightness of the region to be captured, they can be applied to various other uses. Since the image pickup devices 1 and 1a can take pictures not only by visible light but also by heat, they can also be applied to a forest fire surveillance camera. Further, since the image pickup devices 1 and 1a can take a suitable image regardless of the brightness of the area to be photographed, the disaster prevention monitoring camera and the natural environment monitoring camera corresponding to various environments such as day and night, rain, fog, and snow. It can also be used as a day / night security camera.

以上で開示した実施形態や変形例はそれぞれ組み合わせることができる。 The embodiments and modifications disclosed above can be combined.

1・・撮像装置
1a・・撮像装置
11・・レンズ
11a・・凹面鏡
15・・合成処理部
16・・学習機能指示器
17・・機械学習器
100・・コンピューター
200・・光学部
200a・・光学部
101・・CPU
102・・主記憶部
103・・補助記憶部
104・・通信部
121・・第1ビームスプリッター
122・・第2ビームスプリッター
131・・近赤外光センサー
131a・・近赤外光・可視光センサー
132・・可視光センサー
132b・・RGB/IR分離素子
133・・遠赤外光センサー
141・・近赤外熱画像処理部
142・・可視光画像処理部
143・・遠赤外熱画像処理部
800・・車両
810・・対向車両
811・・ヘッドライト光
850・・サーバールーム
851・・入退室扉
1221・・可視光反射体
122a・・三角プリズム
122b・・三角プリズム
1211・・誘電体多層膜
1212・・透明基板
M・・被写体
W1・・監視領域
1 ・ ・ Imaging device 1a ・ ・ Imaging device 11 ・ ・ Lens 11a ・ ・ Concave mirror 15 ・ ・ Synthesis processing unit 16 ・ ・ Learning function indicator 17 ・ ・ Machine learning device 100 ・ ・ Computer 200 ・ ・ Optical unit 200a ・ ・ Optical Part 101 ... CPU
102 ... Main storage unit 103 ... Auxiliary storage unit 104 ... Communication unit 121 ... First beam splitter 122 ... Second beam splitter 131 ... Near infrared light sensor 131a ... Near infrared light / visible light sensor 132 ... Visible light sensor 132b ... RGB / IR separation element 133 ... Far infrared light sensor 141 ... Near infrared thermal image processing unit 142 ... Visible light image processing unit 143 ... Far infrared thermal image processing unit 800 ・ ・ Vehicle 810 ・ ・ Oncoming vehicle 811 ・ ・ Headlight light 850 ・ ・ Server room 851 ・ ・ Entrance / exit door 1221 ・ ・ Visible light reflector 122a ・ ・ Triangular prism 122b ・ ・ Triangular prism 1211 ・ ・ Dielectric multilayer film 1212 ... Transparent substrate M ... Subject W1 ... Monitoring area

Claims (10)

外部からの光を集光する集光部と、
前記集光部を介して入射する光を可視光を含む第1の光と遠赤外光とに分離する第1のビームスプリッターと、
前記第1の光を受光すると、前記第1の光のうちの近赤外光に応じた近赤外光信号と前記第1の光のうちの可視光に応じた可視光信号とを生成する生成部と、
前記第1のビームスプリッターによって分離された遠赤外光を受光すると、前記遠赤外光に応じた遠赤外光信号を生成する遠赤外光センサーと、
前記可視光信号に応じた可視光画像を生成する可視光画像処理部と、
前記近赤外光信号に応じた近赤外熱画像を生成する近赤外熱画像処理部と、
前記遠赤外光信号に応じた遠赤外熱画像を生成する遠赤外熱画像処理部と、
前記可視光画像と前記近赤外熱画像と前記遠赤外熱画像とを合成した合成画像を生成する合成処理部と、を備え
前記合成処理部は、
前記可視光画像の輝度成分を示す第1輝度信号、前記近赤外熱画像の輝度成分を示す第2輝度信号及び遠赤外熱画像の輝度成分を示す第3輝度信号を加算して合成画像輝度信号を生成する処理と、
前記合成画像輝度信号によって輝度成分が示されるとともに前記可視光画像の色成分を示す色信号によって色成分が示される合成画像を生成する処理と、を実行し、
前記合成画像輝度信号を生成する処理は、前記第1輝度信号及び前記第2輝度信号の高周波成分を強調する処理を含み、
前記合成画像を生成する処理は、
前記合成画像輝度信号のコントラストを補正する処理と、
前記コントラストを補正した合成画像輝度信号によって示される輝度に応じて前記色信号の強度を調整する処理と、を含み、
前記合成画像は、前記色信号の強度が調整された色信号によって色成分が示される、ことを特徴とする、
撮像装置。
A condensing unit that collects light from the outside and
A first beam splitter that splits the light incident through the condensing unit into first light including visible light and far-infrared light.
When the first light is received, a near-infrared light signal corresponding to the near-infrared light of the first light and a visible light signal corresponding to the visible light of the first light are generated. The generator and
A far-infrared light sensor that generates a far-infrared light signal corresponding to the far-infrared light when receiving the far-infrared light separated by the first beam splitter.
A visible light image processing unit that generates a visible light image corresponding to the visible light signal, and a visible light image processing unit.
A near-infrared thermal image processing unit that generates a near-infrared thermal image corresponding to the near-infrared optical signal, and a near-infrared thermal image processing unit.
A far-infrared thermal image processing unit that generates a far-infrared thermal image corresponding to the far-infrared optical signal, and a far-infrared thermal image processing unit.
A synthesis processing unit for generating a composite image obtained by synthesizing the visible light image, the near-infrared thermal image, and the far-infrared thermal image is provided .
The synthesis processing unit is
A composite image by adding a first luminance signal indicating the luminance component of the visible light image, a second luminance signal indicating the luminance component of the near-infrared thermal image, and a third luminance signal indicating the luminance component of the far-infrared thermal image. The process of generating a luminance signal and
A process of generating a composite image in which the luminance component is indicated by the composite image luminance signal and the color component is indicated by the color signal indicating the color component of the visible light image is executed.
The process of generating the composite image luminance signal includes a process of emphasizing the high frequency components of the first luminance signal and the second luminance signal.
The process of generating the composite image is
The process of correcting the contrast of the composite image luminance signal and
A process of adjusting the intensity of the color signal according to the brightness indicated by the contrast-corrected composite image luminance signal, and the like.
The composite image is characterized in that a color component is indicated by a color signal whose intensity of the color signal is adjusted .
Imaging device.
前記生成部は、
前記第1の光を可視光と近赤外光とに分離するプリズム型の第2のビームスプリッター
と、
前記第2のビームスプリッターによって分離された前記可視光を受光すると、受光した前記可視光に応じた可視光信号を生成する可視光センサーと、
前記第2のビームスプリッターによって分離された前記近赤外光を受光すると、受光した前記近赤外光に応じた近赤外光信号を生成する近赤外光センサーと、を含む、
請求項1に記載の撮像装置。
The generator is
A prism-type second beam splitter that separates the first light into visible light and near-infrared light,
A visible light sensor that generates a visible light signal corresponding to the received visible light when the visible light separated by the second beam splitter is received.
A near-infrared light sensor that generates a near-infrared light signal corresponding to the received near-infrared light when the near-infrared light separated by the second beam splitter is received is included.
The imaging device according to claim 1.
前記生成部は、
前記第1の光を受光すると、前記第1の光を示す第1信号を生成する第1センサーと、
前記第1信号が入力されると、前記第1信号を可視光を示す可視光信号と近赤外光を示す近赤外光信号とに分離する分離部と、を含む、
請求項1に記載の撮像装置。
The generator is
When the first light is received, the first sensor that generates the first signal indicating the first light and the first sensor
When the first signal is input, the first signal includes a separation unit that separates the first signal into a visible light signal indicating visible light and a near-infrared light signal indicating near-infrared light.
The imaging device according to claim 1.
検知対象を可視光で撮影した第1画像、前記検知対象を近赤外光で撮影した第2画像及び前記検知対象を遠赤外光で撮影した第3画像を教師データとして構築された学習モデルに対して前記合成画像及び前記遠赤外熱画像を入力して前記外部に前記検知対象が存在するか否かを判定する判定部、をさらに備える、
請求項1から3のいずれか一項に記載の撮像装置。
A learning model constructed using the first image of the detection target as visible light, the second image of the detection target as near-infrared light, and the third image of the detection target as far-infrared light as teacher data. Further, a determination unit for inputting the composite image and the far-infrared thermal image to determine whether or not the detection target exists outside the outside is further provided.
The imaging device according to any one of claims 1 to 3 .
前記判定部は、検知対象ごとに構築された複数の学習モデルを含み、
前記判定部は、前記複数の学習モデルのうちユーザによって指定された検知対象に応じた学習モデルを選択する、
請求項に記載の撮像装置。
The determination unit includes a plurality of learning models constructed for each detection target.
The determination unit selects a learning model according to the detection target specified by the user from the plurality of learning models.
The imaging device according to claim 4 .
前記集光部は、複数のレンズを含む透過光学系である、
請求項1からのいずれか一項に記載の撮像装置。
The condensing unit is a transmission optical system including a plurality of lenses.
The imaging device according to any one of claims 1 to 5 .
前記集光部は、複数の凹面鏡を含む反射光学系である、
請求項1からのいずれか一項に記載の撮像装置。
The condensing unit is a catadioptric system including a plurality of concave mirrors.
The imaging device according to any one of claims 1 to 5 .
前記第1のビームスプリッターは、
ケイ素、ゲルマニウム、セレン化亜鉛及びカルコゲナイドガラスのうちの少なくともいずれかを含み、波長8μmから12μmの遠赤外光を透過させる基板と、
前記基板上に設けられ、硫化亜鉛及びセレン化亜鉛のうちの少なくともいずれかを含む高屈折率膜と、フッ化物誘電体を含む低屈折率膜とを交互に積層し、波長0.4μmから0.7μmまでの可視光及び波長0.7μmから3μmまでの近赤外光を反射させる誘電体多層膜と、を含む、
請求項1からのいずれか一項に記載の撮像装置。
The first beam splitter
A substrate containing at least one of silicon, germanium, zinc selenide and chalcogenide glass and transmitting far infrared light having a wavelength of 8 μm to 12 μm.
A high refractive index film provided on the substrate and containing at least one of zinc sulfide and zinc selenium and a low refractive index film containing a fluoride dielectric are alternately laminated and have a wavelength of 0.4 μm to 0. Includes a dielectric multilayer film that reflects visible light up to 7 μm and near-infrared light with wavelengths from 0.7 μm to 3 μm.
The imaging device according to any one of claims 1 to 7 .
前記基板は、前記遠赤外光に対する屈折率が3以上である、
請求項に記載の撮像装置。
The substrate has a refractive index of 3 or more with respect to the far infrared light.
The imaging device according to claim 8 .
前記誘電体多層膜は、前記遠赤外光に対する屈折率が3未満である、
請求項またはに記載の撮像装置。
The dielectric multilayer film has a refractive index of less than 3 with respect to the far infrared light.
The imaging device according to claim 8 or 9 .
JP2021121797A 2021-07-26 2021-07-26 Imaging device Active JP7025811B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021121797A JP7025811B1 (en) 2021-07-26 2021-07-26 Imaging device
JP2022016462A JP7131870B1 (en) 2021-07-26 2022-02-04 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021121797A JP7025811B1 (en) 2021-07-26 2021-07-26 Imaging device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022016462A Division JP7131870B1 (en) 2021-07-26 2022-02-04 Imaging device

Publications (2)

Publication Number Publication Date
JP7025811B1 true JP7025811B1 (en) 2022-02-25
JP2023017489A JP2023017489A (en) 2023-02-07

Family

ID=81125394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021121797A Active JP7025811B1 (en) 2021-07-26 2021-07-26 Imaging device

Country Status (1)

Country Link
JP (1) JP7025811B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013538526A (en) 2010-08-31 2013-10-10 コーニング インコーポレイテッド MEMS-based monitoring system and method of use thereof
JP2014185917A (en) 2013-03-22 2014-10-02 Nikon Corp Imaging device
JP2017011504A (en) 2015-06-22 2017-01-12 カシオ計算機株式会社 Imaging device, image processing method and program
JP2019211664A (en) 2018-06-06 2019-12-12 三菱電機株式会社 Imaging apparatus
WO2021131052A1 (en) 2019-12-27 2021-07-01 株式会社ジェイエイアイコーポレーション Imaging device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5324636U (en) * 1976-08-07 1978-03-02

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013538526A (en) 2010-08-31 2013-10-10 コーニング インコーポレイテッド MEMS-based monitoring system and method of use thereof
JP2014185917A (en) 2013-03-22 2014-10-02 Nikon Corp Imaging device
JP2017011504A (en) 2015-06-22 2017-01-12 カシオ計算機株式会社 Imaging device, image processing method and program
JP2019211664A (en) 2018-06-06 2019-12-12 三菱電機株式会社 Imaging apparatus
WO2021131052A1 (en) 2019-12-27 2021-07-01 株式会社ジェイエイアイコーポレーション Imaging device

Also Published As

Publication number Publication date
JP2023017489A (en) 2023-02-07

Similar Documents

Publication Publication Date Title
US7936384B2 (en) Image taking system
JP5060622B2 (en) Interaction device for interaction between the screen and the indicator
JP2017195569A (en) Monitoring system
US20060228003A1 (en) Method and apparatus for detection of optical elements
EP2779654A2 (en) Stereo camera
JP2000019259A (en) Environmental recognition device
WO2020184447A1 (en) Gating camera, automobile, vehicle lamp, object identifying system, arithmetic processing unit, object identifying method, image display system, detection method, image capturing device, and image processing device
JP2017208595A (en) Monitoring system
US20210168269A1 (en) Vehicle assistance systems
TW201904262A (en) Imaging device with improved autofocus performance
JP2021509556A (en) Single optical component for low and high light level imaging
CN113376824A (en) Method for adjusting image bounding box
JP2011066809A (en) Imaging apparatus
CN116137902A (en) Computer vision camera for infrared light detection
EP1410419B1 (en) Gathering image data using multiple sensors
JP7025811B1 (en) Imaging device
JP7131870B1 (en) Imaging device
KR100878491B1 (en) Camera monitor system and method for controling the same
JP2017215676A (en) Monitoring system
WO2018225377A1 (en) Endoscopic imaging system
KR102214199B1 (en) Mobile communication terminal
JP4369365B2 (en) Event synchronization device for detection system
JP7346703B2 (en) Imaging system, imaging system control method, and program
JP2001016578A (en) Infrared ray monitor
KR100832129B1 (en) Glass panel coupling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210729

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220204

R150 Certificate of patent or registration of utility model

Ref document number: 7025811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150