JP5708036B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5708036B2
JP5708036B2 JP2011043745A JP2011043745A JP5708036B2 JP 5708036 B2 JP5708036 B2 JP 5708036B2 JP 2011043745 A JP2011043745 A JP 2011043745A JP 2011043745 A JP2011043745 A JP 2011043745A JP 5708036 B2 JP5708036 B2 JP 5708036B2
Authority
JP
Japan
Prior art keywords
edge
image signal
image data
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011043745A
Other languages
Japanese (ja)
Other versions
JP2012182626A (en
Inventor
青木 英雄
英雄 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011043745A priority Critical patent/JP5708036B2/en
Publication of JP2012182626A publication Critical patent/JP2012182626A/en
Application granted granted Critical
Publication of JP5708036B2 publication Critical patent/JP5708036B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、例えばデジタルカメラや、デジタルビデオカメラ、監視カメラなどの撮像装置に関する。   The present invention relates to an imaging apparatus such as a digital camera, a digital video camera, and a surveillance camera.

デジタルカメラや、デジタルビデオカメラ、監視カメラなどの撮像装置は、用途に応じて、様々な種類に展開されている。例えば、一般的なカメラのように可視光線波長帯の光に対応した撮像装置や、夜間監視用のカメラのように遠赤外線波長帯に対応した撮像装置が知られている。   Imaging devices such as digital cameras, digital video cameras, and surveillance cameras are deployed in various types depending on applications. For example, an imaging device corresponding to light in the visible light wavelength band such as a general camera and an imaging device corresponding to a far infrared wavelength band such as a camera for night monitoring are known.

このとき、各撮像装置は、被写体からの反射光の波長帯に応じて、レンズの材料を変更する必要がある。すなわち、可視光線波長帯の光に対応した撮像装置では、例えば透明ガラス材のレンズを用いればよい。透明ガラス材は、可視光線波長帯の光を透過するが、遠赤外線波長帯の光を透過しない特性を有する。透明ガラス材の原料には、例えば珪石、硼酸、酸化ランタン、酸化ガドリニウム、酸化ニオブ、酸化ジルコニウム、バリウム、カリウムなど、不純物の少ない高純度なものが使用される。一方、遠赤外線波長帯の光に対応した撮像装置では、例えばゲルマニウム(元素記号:Ge)などの特殊な材料を用いる必要がある。ゲルマニウムは、遠赤外線波長帯の光を透過するが、可視光線波長帯の光を透過しない特性を有する。   At this time, each imaging device needs to change the material of the lens according to the wavelength band of the reflected light from the subject. That is, in an imaging apparatus that supports light in the visible light wavelength band, for example, a transparent glass material lens may be used. The transparent glass material has a characteristic of transmitting light in the visible light wavelength band but not transmitting light in the far infrared wavelength band. As a raw material for the transparent glass material, for example, a high-purity material with few impurities such as silica, boric acid, lanthanum oxide, gadolinium oxide, niobium oxide, zirconium oxide, barium, potassium is used. On the other hand, in an imaging device corresponding to light in the far-infrared wavelength band, it is necessary to use a special material such as germanium (element symbol: Ge). Germanium has a characteristic of transmitting light in the far-infrared wavelength band but not transmitting light in the visible light wavelength band.

このように、被写体からの反射光の波長帯に対応したレンズを設けて、可視光線波長帯用の撮像装置と、遠赤外光線波長帯用の撮像装置をそれぞれ別個に構成していた。そして、可視光線波長帯用の撮像装置と、遠赤外光線波長帯用の撮像装置とが、用途に応じて、別々に消費者に提供されてきた。   As described above, the lens corresponding to the wavelength band of the reflected light from the subject is provided, and the imaging device for the visible light wavelength band and the imaging device for the far infrared light wavelength band are separately configured. And the imaging device for visible light wavelength bands and the imaging device for far-infrared light wavelength bands have been provided to consumers separately according to applications.

一方、近年、例えば、昼夜問わず稼働する監視カメラのように、撮像環境が明るいときには可視光線波長帯で被写体を撮像し、撮像環境が暗いときや、煙や霧などによって視界が悪いときなどには遠赤外線波長帯で被写体を撮像することができる撮像装置が、要求されている。この場合、例えば、可視光線波長帯用と遠赤外光線波長帯用の2台の撮像装置を用意して、同じ場所に配置すればよい。   On the other hand, in recent years, for example, surveillance cameras that operate day and night, when the imaging environment is bright, the subject is imaged in the visible light wavelength band, and when the imaging environment is dark or the field of view is poor due to smoke, fog, etc. There is a need for an imaging device that can image a subject in the far-infrared wavelength band. In this case, for example, two imaging devices for the visible light wavelength band and the far infrared light wavelength band may be prepared and arranged in the same place.

なお、特許文献1には、本発明の参考技術として、可視光域から遠赤外域に感度を有する撮像素子が開示されている。また、特許文献2には、可視光用と赤外光用とに切り換えられるように構成された撮像素子が開示されている。   Patent Document 1 discloses an imaging device having sensitivity from a visible light region to a far infrared region as a reference technique of the present invention. Patent Document 2 discloses an imaging device configured to be switched between visible light and infrared light.

特開2008−204978号公報JP 2008-204978 A 特開2009−145541号公報JP 2009-145541 A

しかしながら、可視光線波長帯用と遠赤外光線波長帯用の2台の撮像装置を用意する場合、撮像装置ごとにレンズや撮像素子を設ける必要があった。また、各撮像装置による撮像画像を合成する場合に、様々な調整を必要とされていた。   However, when two imaging devices for the visible light wavelength band and the far infrared light wavelength band are prepared, it is necessary to provide a lens and an imaging element for each imaging device. In addition, various adjustments have been required when combining images captured by the respective imaging devices.

本発明は、このような事情を鑑みてなされたものであり、小型かつ簡単な構成で、昼夜や撮像環境を問わず、見やすい画像を提供できる技術を提供する。   The present invention has been made in view of such circumstances, and provides a technique capable of providing an easy-to-see image regardless of day and night or an imaging environment with a small and simple configuration.

本発明の撮像装置は、可視光線波長帯及び遠赤外光線波長帯の光を透過するレンズと、前記レンズを透過する前記可視光線波長帯の光を受光して、第1の画像信号に変換する可視光線用撮像部と、前記レンズを透過する前記遠赤外光線波長帯の光を受光して、第2の画像信号に変換する遠赤外光線用撮像部と、前記第1の画像信号から得られる画像データのエッジ部と、前記第2の画像信号から得られる画像データのエッジ部とを比較するエッジ比較部と、前記エッジ比較部による比較結果に基づいて、前記第1の画像信号及び前記第2の画像信号のいずれか、もしくは、双方を使用するかを決定し、決定された前記第1の画像信号及び前記第2の画像信号のいずれか、もしくは、双方から前記出力画像データを生成する出力画像データ生成部とを備えている。
An imaging device according to the present invention receives a light in a visible light wavelength band and a far-infrared light wavelength band, and receives the light in the visible light wavelength band that passes through the lens, and converts the light into a first image signal. An imaging unit for visible light, a far-infrared ray imaging unit that receives light in the far-infrared ray wavelength band that passes through the lens, and converts the light into a second image signal, and the first image signal. An edge comparison unit that compares an edge portion of image data obtained from the second image signal and an edge portion of image data obtained from the second image signal, and the first image signal based on a comparison result by the edge comparison unit. And the second image signal , or both, and the output image data from either or both of the determined first image signal and second image signal. Output image data generation It is equipped with a door.

本発明にかかる技術によれば、小型かつ簡単な構成で、昼夜や撮像環境を問わず、見やすい画像を提供できる。   According to the technology of the present invention, it is possible to provide an easy-to-view image with a small and simple configuration regardless of day or night or an imaging environment.

本発明の実施の形態にかかる撮像装置の構成を示す図である。It is a figure which shows the structure of the imaging device concerning embodiment of this invention. レンズの透過率の一例を示す図である。It is a figure which shows an example of the transmittance | permeability of a lens. 撮像部の構成の一例を示す図である。It is a figure which shows an example of a structure of an imaging part. 可視光線用AFE部及び遠赤外光線用AFE部の内部構成と、周辺の構成要素との関係を示す図である。It is a figure which shows the relationship between the internal structure of the AFE part for visible rays, and the AFE part for far-infrared rays, and a surrounding component. 本発明の実施の形態にかかる撮像装置の動作フローを示す図である。It is a figure which shows the operation | movement flow of the imaging device concerning embodiment of this invention.

<実施の形態>
図1は、本発明の実施の形態にかかる撮像装置の構成を示す図である。図1に示されるように、撮像装置1000は、レンズ100と、撮像部200と、可視光線用AFE部300と、遠赤外光線用AFE部400と、信号処理部500と、出力部600とを含んで構成されている。
<Embodiment>
FIG. 1 is a diagram illustrating a configuration of an imaging apparatus according to an embodiment of the present invention. As shown in FIG. 1, the imaging apparatus 1000 includes a lens 100, an imaging unit 200, a visible light AFE unit 300, a far infrared light AFE unit 400, a signal processing unit 500, and an output unit 600. It is comprised including.

レンズ100は、少なくとも可視光線波長帯及び遠赤外光線波長帯の光を透過するように形成されている。また、レンズ100は、撮像装置1000の被写体の反射光を結像する。図2は、レンズ100の透過率の一例を示す図である。ここでは、レンズ100の材料にフッ化バリウム(BaF2)を用いたものを例示している。図2に示されるように、少なくとも可視光線波長帯域の0.36μm〜0.83μm(日本標準規格JIS Z8120に準拠)と、遠赤外光線波長帯域の約7μm〜約16μmのうち、約7μm〜10μmの帯域で、透過率85%を超えている。なお、レンズ100の材料には、フッ化バリウム(BaF2)以外に、フッ化カルシウム(CaF2)や、臭化カリウム(KBr)や、塩化ナトリウム(NaCl)などを用いてもよい。また、ポリエチレンや、硫化亜鉛[ジンクセレン]AR(Anti Reflection)コート(ZnSe)などを用いてもよい。   The lens 100 is formed to transmit at least light in the visible light wavelength band and the far infrared light wavelength band. The lens 100 forms an image of the reflected light of the subject of the imaging apparatus 1000. FIG. 2 is a diagram illustrating an example of the transmittance of the lens 100. Here, an example in which barium fluoride (BaF2) is used as the material of the lens 100 is illustrated. As shown in FIG. 2, at least visible light wavelength band of 0.36 μm to 0.83 μm (based on Japanese standard JIS Z8120) and far infrared light wavelength band of about 7 μm to about 16 μm The transmittance exceeds 85% in the 10 μm band. In addition to the barium fluoride (BaF2), the material of the lens 100 may be calcium fluoride (CaF2), potassium bromide (KBr), sodium chloride (NaCl), or the like. Further, polyethylene, zinc sulfide [zinc selenium] AR (Anti Reflection) coat (ZnSe), or the like may be used.

図1に戻って、撮像部200は、可視光線用撮像部210と、遠赤外光線用撮像部220とを有している。可視光線用撮像部210は、レンズ100を透過する可視光線波長帯の光を受光して、この光を第1の画像信号に光電変換する。可視光線用撮像部210の一例として、CCD(Charge Coupled Device)を用いることができる。CCDは、画像を画像信号に変換する際に、電荷結合素子と呼ばれる回路素子を用いて、受光素子が光から発生した電荷を読み出すために転送を行う。CCDは、MOS構造半導体素子の一種で、シリコン基板表面の酸化膜上に多数の電極を設け、各電極に隣同士で異なる電圧を与えることによりポテンシャルウェルを作り出し、これを利用して電荷を保持できるようにしたものである。CCDでは、各電極に加える電圧を適切に制御することにより各素子の電荷が隣の素子にいっせいに転送される。これにより各素子が保持する画素ごとの電荷をバケツリレー式に順次外部に取り出すことができる。この性質を利用して一列の端から入力した電荷を素子数分の転送回数に相当する遅延を持たせて反対側の端から取り出せば、遅延線(ディレイライン)として動作させることができる。   Returning to FIG. 1, the imaging unit 200 includes a visible light imaging unit 210 and a far-infrared light imaging unit 220. The visible light imaging unit 210 receives light in the visible light wavelength band that passes through the lens 100 and photoelectrically converts this light into a first image signal. As an example of the visible light imaging unit 210, a CCD (Charge Coupled Device) can be used. When converting an image into an image signal, the CCD uses a circuit element called a charge-coupled element to transfer the light-receiving element so as to read out the electric charge generated from the light. A CCD is a type of MOS structure semiconductor device. A large number of electrodes are provided on an oxide film on the surface of a silicon substrate, and a potential well is created by applying different voltages to each electrode next to each other. It is something that can be done. In the CCD, by appropriately controlling the voltage applied to each electrode, the charge of each element is transferred to the adjacent element at the same time. As a result, the charge of each pixel held by each element can be sequentially taken out to the outside in a bucket relay manner. Utilizing this property, if the charge input from the end of one row is taken out from the opposite end with a delay corresponding to the number of transfers corresponding to the number of elements, it can be operated as a delay line (delay line).

遠赤外光線用撮像部220は、レンズ100を透過する遠赤外光線波長帯の光を受光して、これを第2の画像信号に光電変換する。遠赤外光線用撮像部220の一例として、マイクロボロメータを用いることができる。このマイクロボロメータは、マイクロボロメータと呼ばれる特殊な赤外線検出素子で構成されており、この素子を用いて遠赤外線を検出する。   The far-infrared ray imaging unit 220 receives light in the far-infrared ray wavelength band that passes through the lens 100 and photoelectrically converts the light into a second image signal. As an example of the far-infrared ray imaging unit 220, a microbolometer can be used. This microbolometer is composed of a special infrared detecting element called a microbolometer, and far infrared rays are detected using this element.

図3は、撮像部200の構成の一例を示す図である。図3(a)は、撮像部200の平面図であり、図3(b)はA部の拡大平面図である。図3(b)に示されるように、可視光線用撮像部210及び遠赤外光線用撮像部220は、互いに交互にマトリックス状に配列されている。このように、可視光線用撮像部210及び遠赤外光線用撮像部220を撮像部200の集光面に均一に配置することによって、可視光線用の撮像部210により撮像された可視光画像と、遠赤外光線用撮像部220により撮像された遠赤外光画像を、同一の画角で取得することができる。この結果、可視光画像と遠赤外光画像を簡単に合成することができる。なお、図3で示した例は、撮像部200の一例であって、これに限定されない。すなわち、図3の例では、最も好ましい態様として、可視光線用撮像部210及び遠赤外光線用撮像部220をマトリックス状に配列するとしたが、本発明では、レンズ100からの入射光を結像できる範囲であれば、可視光線用撮像部210と遠赤外光線用撮像部220をマトリクス状に配置する形態に限定されない。   FIG. 3 is a diagram illustrating an example of the configuration of the imaging unit 200. 3A is a plan view of the imaging unit 200, and FIG. 3B is an enlarged plan view of the A portion. As shown in FIG. 3B, the visible light imaging unit 210 and the far-infrared light imaging unit 220 are alternately arranged in a matrix. Thus, by arranging the visible light imaging unit 210 and the far-infrared light imaging unit 220 uniformly on the condensing surface of the imaging unit 200, the visible light image captured by the visible light imaging unit 210 and The far-infrared light image captured by the far-infrared ray imaging unit 220 can be acquired at the same angle of view. As a result, the visible light image and the far-infrared light image can be easily combined. Note that the example illustrated in FIG. 3 is an example of the imaging unit 200 and is not limited thereto. That is, in the example of FIG. 3, as the most preferable mode, the visible light imaging unit 210 and the far infrared light imaging unit 220 are arranged in a matrix, but in the present invention, the incident light from the lens 100 is imaged. The visible light imaging unit 210 and the far-infrared light imaging unit 220 are not limited to the form in which the visible light imaging unit 210 and the far-infrared light imaging unit 220 are arranged in a matrix.

可視光線用AFE(Analog Front End)部300は、可視光線用撮像部210により生成される第1の画像信号を、アナログ信号からデジタル信号へ変換する。また、遠赤外光線用AFE部400は、遠赤外光線用撮像部220により生成される第2の画像信号を、アナログ信号からデジタル信号へ変換する。   A visible light AFE (Analog Front End) unit 300 converts the first image signal generated by the visible light imaging unit 210 from an analog signal to a digital signal. In addition, the far-infrared ray AFE unit 400 converts the second image signal generated by the far-infrared ray imaging unit 220 from an analog signal to a digital signal.

ここで、可視光線用AFE部300及び遠赤外光線用AFE部400の構成について詳細に説明する。図4は、可視光線用AFE部300及び遠赤外光線用AFE部400の内部構成と、周辺の構成要素との関係を示す図である。   Here, the configurations of the visible light AFE unit 300 and the far-infrared light AFE unit 400 will be described in detail. FIG. 4 is a diagram illustrating a relationship between the internal configuration of the visible light AFE unit 300 and the far infrared ray AFE unit 400 and peripheral components.

図4に示されるように、可視光線用AFE部300は、CDS(Correlated Double Sampling)部310と、AGC(Automatic Gain Control)部320と、A/D(Analog to Digital)変換部330とを有している。同様に、遠赤外光線用AFE部400は、CDS部410と、AGC部420と、A/D変換部430とを有している。   As shown in FIG. 4, the visible light AFE unit 300 includes a CDS (Correlated Double Sampling) unit 310, an AGC (Automatic Gain Control) unit 320, and an A / D (Analog to Digital) conversion unit 330. doing. Similarly, the far-infrared ray AFE unit 400 includes a CDS unit 410, an AGC unit 420, and an A / D conversion unit 430.

CDS部310は、可視光線用撮像部210から入力される第1の画像信号の雑音を除去するための回路である。同様に、遠赤外光線用撮像部220から入力される第2の画像信号の雑音を除去するための回路である。CDS部310、410は、相関二重サンプリング法に基づいて構成されている。   The CDS unit 310 is a circuit for removing noise of the first image signal input from the visible light imaging unit 210. Similarly, this is a circuit for removing noise of the second image signal input from the far-infrared ray imaging unit 220. The CDS units 310 and 410 are configured based on a correlated double sampling method.

具体的には、CDS部310は、2つのクランクパルスを有しており、1つ目のクランクパルスで第1の画像信号のフィールドスルー期間をクランプし、2つ目のクランクパスで、第1の画像信号の信号期間をクランプする。そして、CDS部310は、1つ目のクランプパルスでクランプされた電圧と、2つ目のクランクパルスでクランプされた電圧の差分を取り出し、第1の画像信号中の余計な雑音を除去する。同様にして、CDS部410も、2つのクランクパルスを有しており、1つ目のクランクパルスで第2の画像信号のフィールドスルー期間をクランプし、2つ目のクランクパルスで、第2の画像信号の信号期間をクランプする。CDS部410は、1つ目のクランプパルスでクランプされた電圧と、2つ目のクランクパスでクランプされた電圧の差分を取り出し、第2の画像信号中の余計な雑音を除去する。   Specifically, the CDS unit 310 has two crank pulses, the first crank pulse clamps the field-through period of the first image signal, and the second crank path The signal period of the image signal is clamped. Then, the CDS unit 310 takes out the difference between the voltage clamped by the first clamp pulse and the voltage clamped by the second crank pulse, and removes unnecessary noise in the first image signal. Similarly, the CDS unit 410 also has two crank pulses. The first crank pulse clamps the field-through period of the second image signal, and the second crank pulse Clamp the signal period of the image signal. The CDS unit 410 takes out the difference between the voltage clamped by the first clamp pulse and the voltage clamped by the second crank path, and removes unnecessary noise in the second image signal.

AGC部320、420は、撮像装置1000の制御部(不図示)の制御により制御され、第1の画像信号及び第2の画像信号のゲインをプログラマブルに変更する。具体的には、AGC部320、420は、CDS部310、410により処理された各画像信号の成分をゲイン調整する。これにより、2次元で撮像された被写体画像全体の輝度を調整することができる。例えば、ゲインを下げれば暗い絵柄の画像となり、ゲインを上げれば明るい絵柄の画像となる。AGC部320、420は、プログラマブルにゲインを調整することにより、画像全体の輝度バランスをとり、見やすい図柄の画像を生成する。   The AGC units 320 and 420 are controlled by control of a control unit (not shown) of the imaging apparatus 1000, and change the gains of the first image signal and the second image signal in a programmable manner. Specifically, the AGC units 320 and 420 adjust the gain of each image signal component processed by the CDS units 310 and 410. Thereby, it is possible to adjust the luminance of the entire subject image captured in two dimensions. For example, if the gain is decreased, a dark pattern image is obtained, and if the gain is increased, a bright pattern image is obtained. The AGC units 320 and 420 adjust the gain in a programmable manner to balance the luminance of the entire image, and generate an image with an easy-to-see pattern.

A/D変換部330、430は、AGC部320、420によりゲイン調整された各画像信号をデジタル信号に変換する。このとき、A/D変換部330、430は、信号処理部500のインターフェイスに合わせて、各画像信号をアナログデジタル変換する。撮像部200から出力された各画像信号をデジタル化することにより、信号処理部500での信号処理を容易にすることができる。   A / D converters 330 and 430 convert each image signal gain-adjusted by AGC units 320 and 420 into a digital signal. At this time, the A / D conversion units 330 and 430 convert each image signal from analog to digital in accordance with the interface of the signal processing unit 500. By digitizing each image signal output from the imaging unit 200, signal processing in the signal processing unit 500 can be facilitated.

なお、図3に示されるように、タイミングジェネレータ部700が、可視光線用撮像部210、遠赤外光線用撮像部220、CDS部310、410、AGC部320、420、A/D変換部330、430及び信号処理部500に接続されている。このタイミングジェネレータ部700は、各部の処理のタイミング信号や、撮像部200を駆動する基準信号を出力する。タイミングジェネレータ部700は、前記CDS部310、410のクランクパルスも出力する。   3, the timing generator unit 700 includes a visible light imaging unit 210, a far infrared light imaging unit 220, CDS units 310 and 410, AGC units 320 and 420, and an A / D conversion unit 330. 430 and the signal processing unit 500. The timing generator unit 700 outputs a processing timing signal of each unit and a reference signal for driving the imaging unit 200. The timing generator unit 700 also outputs crank pulses from the CDS units 310 and 410.

図1に戻って、信号処理部500は、可視光線用AFE部300及び遠赤外光線用AFE部400から入力される画像信号(二次元画像のデジタル信号)を受けて、当該信号の強弱やエッジ部を判断し、これらの判断結果などに基づいて第1の画像信号および第2の画像信号を用いて出力画像データを生成する。信号処理部500は、可視光線用濃度変換部510と、遠赤外光線用濃度変換部520と、可視光線用特徴抽出フィルタ部530と、遠赤外光線用特徴抽出フィルタ部540と、エッジ比較部550と、出力画像データ生成部560とを含んで構成されている。以下に、信号処理部500内の各構成について説明する。   Returning to FIG. 1, the signal processing unit 500 receives an image signal (a two-dimensional image digital signal) input from the visible light AFE unit 300 and the far-infrared light AFE unit 400, and The edge portion is determined, and output image data is generated using the first image signal and the second image signal based on these determination results and the like. The signal processing unit 500 includes a visible light density conversion unit 510, a far infrared light density conversion unit 520, a visible light feature extraction filter unit 530, a far infrared light feature extraction filter unit 540, and an edge comparison. A unit 550 and an output image data generation unit 560 are included. Below, each structure in the signal processing part 500 is demonstrated.

可視光線用濃度変換部510は、可視光線用AFE部300から出力される第1の画像信号に対して、画像解析の前処理として濃度変換を行う。また、可視光線用濃度変換部510は、濃度変換後の第1の画像信号を可視光線用特徴抽出フィルタ部530と出力画像データ生成部560へ出力する。同様にして、遠赤外光線用濃度変換部520は、遠赤外光線用AFE部400から出力される第2の画像信号に対して、画像解析の前処理として濃度変換を行う。また、遠赤外光線用濃度変換部520は、濃度変換後の第2の画像信号を遠赤外光線用特徴抽出フィルタ部540と出力画像データ生成部560へ出力する。   The visible light density conversion unit 510 performs density conversion on the first image signal output from the visible light AFE unit 300 as preprocessing for image analysis. Further, the visible light density conversion unit 510 outputs the first image signal after the density conversion to the visible light feature extraction filter unit 530 and the output image data generation unit 560. Similarly, the far-infrared ray density conversion unit 520 performs density conversion on the second image signal output from the far-infrared ray AFE unit 400 as preprocessing for image analysis. Further, the far-infrared ray density conversion unit 520 outputs the second image signal after density conversion to the far-infrared ray feature extraction filter unit 540 and the output image data generation unit 560.

ここで、濃度変換とは、コントラストの改善をするもので、濃度分布の偏りや、ある範囲に集中している信号を改善するものである。すなわち、可視光線用濃度変換部510及び遠赤外光線用濃度変換部520は、例えば暗すぎる画像を明るくする処理を行い、明るすぎる画像を暗くする処理を行う。濃度変換処理では、同じ輝度値を有する画素を抽出することにより、画像の輝度分布がどのようになっているかを識別する。また、例えば撮像装置1000のダイナミックレンジが246階調であるのに対して、第1または第2の画像信号で得られる画像が128階調しかなかった場合には、撮像装置1000のダイナミックレンジを最大限に有効活用できるように、第1または第2の画像信号に対して246階調の画像に対応させる補正処理を行う。なお、可視光線用濃度変換部510及び遠赤外光線用濃度変換部520は、線形、非線形にかかわらず、濃度変換を行うことができる。   Here, density conversion is to improve contrast, and to improve bias in density distribution and signals concentrated in a certain range. That is, the visible light density conversion unit 510 and the far-infrared light density conversion unit 520 perform, for example, a process of brightening an image that is too dark and a process of darkening an image that is too bright. In the density conversion process, pixels having the same luminance value are extracted to identify how the luminance distribution of the image is. Further, for example, when the dynamic range of the imaging apparatus 1000 is 246 gradations, but the image obtained by the first or second image signal has only 128 gradations, the dynamic range of the imaging apparatus 1000 is reduced. Correction processing is performed on the first or second image signal so as to correspond to an image of 246 gradations so that it can be effectively utilized to the maximum extent. The visible light density conversion unit 510 and the far-infrared light density conversion unit 520 can perform density conversion regardless of linearity or non-linearity.

可視光線用特徴抽出フィルタ部530は、可視光線用濃度変換部510により濃度変換処理が施された第1の画像信号から得られる画像データのエッジ部(境界)を抽出する。同様に、遠赤外光線用特徴抽出フィルタ部540は、遠赤外光線用濃度変換部520により濃度変換処理が施された第2の画像信号から得られる画像データのエッジ部(境界)を抽出する。   The visible light feature extraction filter unit 530 extracts an edge portion (boundary) of image data obtained from the first image signal subjected to the density conversion processing by the visible light density conversion unit 510. Similarly, the far-infrared ray feature extraction filter unit 540 extracts an edge portion (boundary) of image data obtained from the second image signal subjected to the density conversion processing by the far-infrared ray density conversion unit 520. To do.

ここで、画像内で、輝度値、色、模様(テクスチャ)などの特徴が互いに類似する部分を、1つの画像領域とする。このとき、エッジ部(境界)とは、ある画像領域と、これに隣接する画像領域の間の境目をいう。可視光線用特徴抽出フィルタ部530及び遠赤外光線用特徴抽出フィルタ部540は、例えば、入力される画像信号を微分することにより、エッジ部を抽出する。   Here, a portion in the image having similar characteristics such as a luminance value, a color, and a pattern (texture) is defined as one image region. At this time, the edge portion (boundary) refers to a boundary between a certain image region and an image region adjacent thereto. The visible light feature extraction filter unit 530 and the far infrared ray feature extraction filter unit 540, for example, extract an edge portion by differentiating an input image signal.

この微分処理では、微分フィルタを用いて、低い周波数成分(領域)を削除する処理を行う。微分フィルタには、1次微分フィルタ、2次微分フィルタがある。1次微分フィルタには、例えば、RobertsフィルタやPrwittフィルタ、Sobelフィルタ、線検出フィルタなどを用いることができる。2次微分フィルタには、例えば、Laplacianフィルタなどを用いることができる。   In this differentiation processing, processing for deleting low frequency components (regions) is performed using a differentiation filter. The differential filter includes a primary differential filter and a secondary differential filter. As the primary differential filter, for example, a Roberts filter, a Prwitt filter, a Sobel filter, a line detection filter, or the like can be used. For example, a Laplacian filter can be used as the secondary differential filter.

このような微分処理の中で、可視光線用特徴抽出フィルタ部530は、第1の画像信号から得られる画像データのエッジ部の輝度の微分値である第1のエッジ輝度微分値を算出する。同様に、遠赤外光線用特徴抽出フィルタ部540は、第2の画像信号から得られる画像データのエッジ部の輝度の微分値である第2のエッジ輝度微分値を算出する。   In such differentiation processing, the visible light feature extraction filter unit 530 calculates a first edge luminance differential value that is a differential value of luminance at the edge portion of the image data obtained from the first image signal. Similarly, the far-infrared ray feature extraction filter unit 540 calculates a second edge luminance differential value that is a differential value of the luminance of the edge portion of the image data obtained from the second image signal.

また、可視光線用特徴抽出フィルタ部530は、第1の画像信号から得られる画像データのエッジ部の個数である第1のエッジ個数を算出する。同様に、遠赤外光線用特徴抽出フィルタ部540は、第2の画像信号から得られる画像データのエッジ部の個数である第2のエッジ個数を算出する。   Further, the visible light feature extraction filter unit 530 calculates a first edge number that is the number of edge parts of the image data obtained from the first image signal. Similarly, the far-infrared ray feature extraction filter unit 540 calculates the second number of edges, which is the number of edge portions of the image data obtained from the second image signal.

可視光線用特徴抽出フィルタ部530または遠赤外光線用特徴抽出フィルタ部540により算出された第1または第2のエッジ輝度微分値と、エッジ部周縁の領域の輝度の微分値との差分値が大きい程、エッジ部(境界)が明瞭に存在することになる。また、前記差分値が大きい箇所が多い程、エッジ部が多くなり、細かなディテールが再現されている画像と言える。エッジ部が明瞭となる画像信号や、エッジ部の数が多い画像信号に基づいて生成される画像は、高い解像感で見やすい画像となる。エッジ部の個数の算出では、例えば、第1または第2のエッジ輝度微分値と、エッジ部周縁の領域の輝度の微分値との差分値にしきい値を設けて、前記差分値が所定のしきい値以上である場合に、エッジ部としてカウントするようにする。   A difference value between the first or second edge luminance differential value calculated by the visible light feature extraction filter unit 530 or the far-infrared light feature extraction filter unit 540 and the luminance differential value of the peripheral edge region is obtained. The larger the size, the clearer the edge (boundary) exists. In addition, it can be said that the more the number of locations where the difference value is larger, the more edge portions and the fine details are reproduced. An image signal generated based on an image signal with clear edge portions or an image signal with a large number of edge portions is an easy-to-view image with high resolution. In the calculation of the number of edge portions, for example, a threshold value is provided for the difference value between the first or second edge luminance differential value and the luminance differential value of the peripheral edge region, and the difference value is set to a predetermined value. When it is equal to or greater than the threshold value, it is counted as an edge portion.

エッジ比較部550は、可視光線用特徴抽出フィルタ部530により入力される情報と、遠赤外光線用特徴抽出フィルタ部540により入力される情報とを比較する。具体的には、エッジ比較部550は、第1の画像信号から得られる画像データのエッジ部と、第2の画像信号から得られる画像データのエッジ部とを比較する。すなわち、エッジ比較部550は、第1のエッジ輝度微分値と、第2のエッジ輝度微分値とを比較し、比較結果を出力画像データ生成部560へ出力する。また、併せて、エッジ比較部550は、第1のエッジ個数と、第2のエッジ個数とを比較し、この比較結果を出力画像データ生成部560へ出力する。   The edge comparison unit 550 compares the information input by the visible light feature extraction filter unit 530 with the information input by the far infrared light feature extraction filter unit 540. Specifically, the edge comparison unit 550 compares the edge portion of the image data obtained from the first image signal with the edge portion of the image data obtained from the second image signal. That is, the edge comparison unit 550 compares the first edge luminance differential value and the second edge luminance differential value, and outputs the comparison result to the output image data generation unit 560. At the same time, the edge comparison unit 550 compares the first edge number with the second edge number and outputs the comparison result to the output image data generation unit 560.

出力画像データ生成部560は、エッジ比較部550による比較結果に基づいて、第1の画像信号及び第2の画像信号から出力画像データを生成する。ここでの第1及び第2の画像信号は、可視光線用濃度変換部510及び遠赤外光線用濃度変換部520により濃度変換されたものを用いる。   The output image data generation unit 560 generates output image data from the first image signal and the second image signal based on the comparison result by the edge comparison unit 550. The first and second image signals used here are those whose density has been converted by the visible light density converter 510 and the far-infrared light density converter 520.

そして、エッジ比較部550が、第1のエッジ輝度微分値が第2のエッジ輝度微分値より大きいと判断したときには、出力画像データ生成部560は、第1の画像信号を用い、第2の画像信号を用いずに、出力画像データを生成する。一方、エッジ比較部550が、第1のエッジ輝度微分値が第2のエッジ輝度微分値より小さいと判断したときには、出力画像データ生成部560は、第2の画像信号を用い、第1の画像信号を用いずに、出力画像データを生成する。このように、出力画像データ生成部560が、第1又は第2の画像信号から得られる画像のうち、エッジ輝度微分値が大きい方の画像信号を用いて、出力画像データを生成するので、撮像装置1000の利用者に対して、高い解像感で、視覚的に見やすい画像を提供することができる。   When the edge comparison unit 550 determines that the first edge luminance differential value is larger than the second edge luminance differential value, the output image data generation unit 560 uses the first image signal to generate the second image. Output image data is generated without using a signal. On the other hand, when the edge comparison unit 550 determines that the first edge luminance differential value is smaller than the second edge luminance differential value, the output image data generation unit 560 uses the second image signal to generate the first image. Output image data is generated without using a signal. As described above, the output image data generation unit 560 generates the output image data using the image signal having the larger edge luminance differential value among the images obtained from the first or second image signal. For the user of the apparatus 1000, it is possible to provide a visually easy-to-view image with high resolution.

更に、例えば、第1の画像信号と第2の画像信号との間で、エッジ輝度微分値の差が小さい場合などは、出力画像データ生成部560は、第1の画像信号又は第2の画像信号のいずれかを選ぶのではなく、両画像信号を合成して出力画像データを生成する。すなわち、エッジ比較部550が、第1のエッジ輝度微分値と第2のエッジ輝度微分値の差分値が所定値以下であると判断したとき、第1の画像信号及び第2の画像信号の双方を用いて合成した出力画像データを生成する。このように、第1のエッジ輝度微分値と第2のエッジ輝度微分値の差分値のしきい値を自由に設定できるようにすることにより、被写体の特性に合わせた出力画像データを生成することができる。このとき、第1の画像信号又は第2の画像信号に対して、重み付けもすることができる。   Furthermore, for example, when the difference in edge luminance differential value between the first image signal and the second image signal is small, the output image data generation unit 560 may output the first image signal or the second image. Rather than selecting one of the signals, both image signals are combined to generate output image data. That is, when the edge comparison unit 550 determines that the difference value between the first edge luminance differential value and the second edge luminance differential value is equal to or less than a predetermined value, both the first image signal and the second image signal are detected. Is used to generate output image data synthesized. In this way, by making it possible to freely set the threshold value of the difference value between the first edge luminance differential value and the second edge luminance differential value, output image data that matches the characteristics of the subject is generated. Can do. At this time, the first image signal or the second image signal can also be weighted.

また、エッジ比較部550が、第1のエッジ個数が、第2のエッジ個数より大きいときには、出力画像データ生成部560は、第1の画像信号を用い、第2の画像信号を用いずに、出力画像データを生成してもよい。逆に、エッジ比較部550が、第2のエッジ個数が、第1のエッジ個数より大きいときには、出力画像データ生成部560は、第2の画像信号を用い、第1の画像信号を用いずに、出力画像データを生成してもよい。このように、出力画像データ生成部560が、第1又は第2の画像信号から得られる画像のうち、エッジ部の個数の多い方の画像信号を用いて、出力画像データを生成するので、撮像装置1000の利用者に対して、視覚的に見やすい画像を提供することができる。   Further, when the edge comparison unit 550 has the first edge number larger than the second edge number, the output image data generation unit 560 uses the first image signal and does not use the second image signal. Output image data may be generated. Conversely, when the edge comparison unit 550 has the second edge number larger than the first edge number, the output image data generation unit 560 uses the second image signal and does not use the first image signal. The output image data may be generated. As described above, the output image data generation unit 560 generates the output image data using the image signal having the larger number of edge portions among the images obtained from the first or second image signal. An image that is visually easy to see can be provided to the user of the apparatus 1000.

また、エッジ比較部550が、第1のエッジ個数と第2のエッジ個数の差分が所定値以下であると判断したとき、第1の画像信号及び第2の画像信号の双方を用いて、出力画像データを生成してもよい。このように、第1のエッジ個数と第2のエッジ個数の差分値のしきい値を自由に設定できるようにすることにより、被写体の特性に合わせた出力画像データを生成することができる。このとき、第1の画像信号又は第2の画像信号に対して、重み付けもすることができる。   Further, when the edge comparison unit 550 determines that the difference between the first edge number and the second edge number is equal to or less than a predetermined value, the output is performed using both the first image signal and the second image signal. Image data may be generated. In this way, by making it possible to freely set the threshold value of the difference value between the first edge number and the second edge number, it is possible to generate output image data that matches the characteristics of the subject. At this time, the first image signal or the second image signal can also be weighted.

図1に戻って、出力部600は、出力画像データ生成部560により生成された出力画像データに基づいて、例えばモニタなどの表示装置(不図示)に対して画像を出力する。具体的には、出力部600は、出力画像データに対して解像度変換などを行った後、画像を表示部へ出力する。出力部600の出力信号は、アナログ表示装置用の場合、NTSC(National Television System Committee:全米テレビジョン放送方式標準化委員会)出力やRGB出力用アナログ出力とし、デジタル表示装置用の場合、DVI(Digital Visual Interface:)−I出力やHDMI(High-Definition Multimedia Interface:高解像度マルチメディアインターフェース)用デジタル出力とする。また、出力部600にコーデック(Codec)を搭載すれば、デジタル信号をエンコード圧縮して、可視光画像と遠赤外光画像をそれぞれ単独で出力することもでき、更にはこれらの画像を合成した画像を出力することができる。また、可視光画像、遠赤外光画像およびこれらの合成画像の各出力である最大3本の出力を、IP網で伝送できるプロトコルに変換して、出力することができる。   Returning to FIG. 1, the output unit 600 outputs an image to a display device (not shown) such as a monitor based on the output image data generated by the output image data generation unit 560. Specifically, the output unit 600 performs resolution conversion on the output image data, and then outputs the image to the display unit. The output signal of the output unit 600 is an analog output for NTSC (National Television System Committee) or RGB output for an analog display device, and DVI (Digital Visual Interface:)-I output and digital output for HDMI (High-Definition Multimedia Interface). In addition, if a codec is installed in the output unit 600, a digital signal can be encoded and compressed, and a visible light image and a far-infrared light image can be individually output, and further, these images are synthesized. An image can be output. In addition, a maximum of three outputs, which are each output of a visible light image, a far-infrared light image, and a composite image thereof, can be converted into a protocol that can be transmitted over an IP network and output.

次に、本発明の実施の形態にかかる撮像装置の動作について説明する。図5は、本発明の実施の形態にかかる撮像装置の動作フローを示す図である。   Next, the operation of the imaging apparatus according to the embodiment of the present invention will be described. FIG. 5 is a diagram illustrating an operation flow of the imaging apparatus according to the embodiment of the present invention.

図5に示されるように、撮像装置1000により被写体の撮像が開始されると、まず、被写体の反射光がレンズ100を透過し、撮像部200へ入射する(ステップ(以下、Sと称する)501)。このとき、レンズ100は、少なくとも可視光線波長帯の光と、遠赤外光線波長帯の光を透過する。   As shown in FIG. 5, when imaging of the subject is started by the imaging apparatus 1000, first, reflected light of the subject passes through the lens 100 and enters the imaging unit 200 (step (hereinafter referred to as S) 501. ). At this time, the lens 100 transmits at least light in the visible light wavelength band and light in the far infrared light wavelength band.

撮像部200は、レンズ100を透過する光を受光し、この光を第1の画像信号と第2の画像信号に変換する(S502)。具体的には、可視光線用撮像部210は、レンズ100を透過する可視光線波長帯の光を受光して、この光を第1の画像信号に光電変換する。また、遠赤外光線用撮像部220は、レンズ100を透過する遠赤外光線波長帯の光を受光して、この光を第2の画像信号に光電変換する。   The imaging unit 200 receives light that passes through the lens 100 and converts this light into a first image signal and a second image signal (S502). Specifically, the visible light imaging unit 210 receives light in the visible light wavelength band that passes through the lens 100 and photoelectrically converts this light into a first image signal. The far-infrared ray imaging unit 220 receives light in the far-infrared ray wavelength band that passes through the lens 100 and photoelectrically converts this light into a second image signal.

次に、可視光線用AFE部300及び遠赤外光線用AFE部400が、撮像部200から入力される第1の画像信号及び第2の画像信号にアナログデジタル変換を行い、各画像信号をデジタル信号に変換する(S503)。ここでは、可視光線用AFE部300及び遠赤外光線用AFE部400内の各CDS部310、410が、各画像信号の雑音を除去する。また、各AGC部320、420が、各画像信号のゲインを調整する。そして、各A/D変換部330、430が、ゲイン調整された各画像信号をデジタル信号に変換し、これらを信号処理部500へ出力する。   Next, the visible light AFE unit 300 and the far-infrared light AFE unit 400 perform analog-to-digital conversion on the first image signal and the second image signal input from the imaging unit 200, and digitally convert each image signal. Conversion to a signal (S503). Here, the CDS units 310 and 410 in the visible light AFE unit 300 and the far-infrared light AFE unit 400 remove noise of each image signal. Also, each AGC unit 320, 420 adjusts the gain of each image signal. Then, the A / D conversion units 330 and 430 convert the gain-adjusted image signals into digital signals and output them to the signal processing unit 500.

信号処理部500は、可視光線用AFE部300及び遠赤外光線用AFE部400から入力される画像信号を受けて、当該信号の強弱やエッジ部を判断し、これらの判断結果などに基づいて、第1の画像信号及び第2の画像信号を用いて、出力画像データを生成する。   The signal processing unit 500 receives image signals input from the visible light AFE unit 300 and the far-infrared light AFE unit 400, determines the strength and edge of the signal, and based on the determination results and the like. The output image data is generated using the first image signal and the second image signal.

可視光線用濃度変換部510が第1の画像信号に対して濃度変換を行い、同時に遠赤外光線用濃度変換部520が第2の画像信号に対して濃度変換を行う(S504)。可視光線用濃度変換部510は、濃度変換後の第1の画像信号を可視光線用特徴抽出フィルタ部530と出力画像データ生成部560へ出力する。同様にして、遠赤外光線用濃度変換部520は、濃度変換後の第2の画像信号を遠赤外光線用特徴抽出フィルタ部540と出力画像データ生成部560へ出力する。   The visible light density conversion unit 510 performs density conversion on the first image signal, and at the same time, the far-infrared light density conversion unit 520 performs density conversion on the second image signal (S504). The visible light density conversion unit 510 outputs the first image signal after the density conversion to the visible light feature extraction filter unit 530 and the output image data generation unit 560. Similarly, the far-infrared ray density conversion unit 520 outputs the second image signal after density conversion to the far-infrared ray feature extraction filter unit 540 and the output image data generation unit 560.

次に、可視光線用特徴抽出フィルタ部530が、濃度変換後の第1の画像信号から得られる画像データのエッジ部を抽出し、遠赤外光線用特徴抽出フィルタ部540が、濃度変換後の第2の画像信号から得られる画像データのエッジ部を抽出する(S505)。具体的には、可視光線用特徴抽出フィルタ部530は、第1の画像信号から得られる画像データのエッジ部の輝度の微分値である第1のエッジ輝度微分値を算出する。また、遠赤外光線用特徴抽出フィルタ部540は、第2の画像信号から得られる画像データのエッジ部の輝度の微分値である第2のエッジ輝度微分値を算出する。また、可視光線用特徴抽出フィルタ部530は、第1の画像信号から得られる画像データのエッジ部の個数である第1のエッジ個数を算出する。同様に、遠赤外光線用特徴抽出フィルタ部540は、第2の画像信号から得られる画像データのエッジ部の個数である第2のエッジ個数を算出する。可視光線用特徴抽出フィルタ部530及び遠赤外光線用特徴抽出フィルタ部540によるエッジ部の抽出結果は、エッジ比較部550へ出力される。   Next, the feature extraction filter unit 530 for visible light extracts the edge portion of the image data obtained from the first image signal after density conversion, and the feature extraction filter unit 540 for far-infrared light extracts the post-density conversion. Edge portions of image data obtained from the second image signal are extracted (S505). Specifically, the visible light feature extraction filter unit 530 calculates a first edge luminance differential value that is a differential value of the luminance of the edge portion of the image data obtained from the first image signal. Further, the far-infrared ray feature extraction filter unit 540 calculates a second edge luminance differential value which is a differential value of the luminance of the edge portion of the image data obtained from the second image signal. Further, the visible light feature extraction filter unit 530 calculates a first edge number that is the number of edge parts of the image data obtained from the first image signal. Similarly, the far-infrared ray feature extraction filter unit 540 calculates the second number of edges, which is the number of edge portions of the image data obtained from the second image signal. The edge extraction results by the visible light feature extraction filter unit 530 and the far infrared light feature extraction filter unit 540 are output to the edge comparison unit 550.

エッジ比較部550は、第1の画像信号から得られる画像データのエッジ部と、第2の画像信号から得られる画像データのエッジ部とを比較する(S506)。具体的には、エッジ比較部550は、第1のエッジ輝度微分値と、第2のエッジ輝度微分値とを比較し、比較結果を出力画像データ生成部560へ出力する。また、併せて、エッジ比較部550は、第1のエッジ個数と、第2のエッジ個数とを比較し、この比較結果を出力画像データ生成部560へ出力する。   The edge comparison unit 550 compares the edge portion of the image data obtained from the first image signal with the edge portion of the image data obtained from the second image signal (S506). Specifically, the edge comparison unit 550 compares the first edge luminance differential value with the second edge luminance differential value, and outputs the comparison result to the output image data generation unit 560. At the same time, the edge comparison unit 550 compares the first edge number with the second edge number and outputs the comparison result to the output image data generation unit 560.

そして、出力画像データ生成部560は、エッジ比較部550の比較結果に基づいて、出力画像データを生成する(S507)。   Then, the output image data generation unit 560 generates output image data based on the comparison result of the edge comparison unit 550 (S507).

具体的には、エッジ比較部550が、第1のエッジ輝度微分値が第2のエッジ輝度微分値より大きいと判断したときには、出力画像データ生成部560は、第1の画像信号を用い、第2の画像信号を用いずに、出力画像データを生成する。一方、エッジ比較部550が、第1のエッジ輝度微分値が第2のエッジ輝度微分値より小さいと判断したときには、出力画像データ生成部560は、第2の画像信号を用い、第1の画像信号を用いずに、出力画像データを生成する。更に、エッジ比較部550が、第1のエッジ輝度微分値と第2のエッジ輝度微分値の差分値が所定値以下であると判断したとき、第1の画像信号及び第2の画像信号の双方を用いて合成した出力画像データを生成する。   Specifically, when the edge comparison unit 550 determines that the first edge luminance differential value is larger than the second edge luminance differential value, the output image data generation unit 560 uses the first image signal, Output image data is generated without using the second image signal. On the other hand, when the edge comparison unit 550 determines that the first edge luminance differential value is smaller than the second edge luminance differential value, the output image data generation unit 560 uses the second image signal to generate the first image. Output image data is generated without using a signal. Further, when the edge comparison unit 550 determines that the difference value between the first edge luminance differential value and the second edge luminance differential value is equal to or less than a predetermined value, both the first image signal and the second image signal are detected. Is used to generate output image data synthesized.

また、エッジ比較部550が、第1のエッジ個数が、第2のエッジ個数より大きいときには、出力画像データ生成部560は、第1の画像信号を用い、第2の画像信号を用いずに、出力画像データを生成してもよい。逆に、エッジ比較部550が、第2のエッジ個数が、第1のエッジ個数より大きいときには、出力画像データ生成部560は、第2の画像信号を用い、第1の画像信号を用いずに、出力画像データを生成してもよい。更に、エッジ比較部550が、第1のエッジ個数と第2のエッジ個数の差分が所定値以下であると判断したとき、第1の画像信号及び第2の画像信号の双方を用いて、出力画像データを生成してもよい。   Further, when the edge comparison unit 550 has the first edge number larger than the second edge number, the output image data generation unit 560 uses the first image signal and does not use the second image signal. Output image data may be generated. Conversely, when the edge comparison unit 550 has the second edge number larger than the first edge number, the output image data generation unit 560 uses the second image signal and does not use the first image signal. The output image data may be generated. Further, when the edge comparison unit 550 determines that the difference between the first edge number and the second edge number is equal to or less than a predetermined value, the output is performed using both the first image signal and the second image signal. Image data may be generated.

最後に、出力部600が、出力画像データ生成部560により生成された画像データに基づいて、表示装置(不図示)に対して画像を出力する(S508)。   Finally, the output unit 600 outputs an image to a display device (not shown) based on the image data generated by the output image data generation unit 560 (S508).

以上のように、本発明の実施の形態にかかる撮像装置1000は、レンズ100と、可視光線用撮像部210と、遠赤外光線用撮像部220と、エッジ比較部550と、出力画像データ生成部560とを最低限の構成として有している。レンズ100は、可視光線波長帯及び遠赤外光線波長帯の光を透過する。可視光線用撮像部210は、レンズ100を透過する可視光線波長帯の光を受光して、第1の画像信号に変換する。遠赤外光線用撮像部220は、レンズ100を透過する遠赤外光線波長帯の光を受光して、第2の画像信号に変換する。エッジ比較部550は、第1の画像信号から得られる画像データのエッジ部と、第2の画像信号から得られる画像データのエッジ部とを比較する。そして、出力画像データ生成部560は、エッジ比較部550による比較の結果に基づいて、第1の画像信号及び第2の画像信号から出力画像データを生成する。   As described above, the imaging apparatus 1000 according to the embodiment of the present invention includes the lens 100, the visible light imaging unit 210, the far infrared light imaging unit 220, the edge comparison unit 550, and the output image data generation. Part 560 as a minimum configuration. The lens 100 transmits light in a visible light wavelength band and a far infrared light wavelength band. The visible light imaging unit 210 receives light in the visible light wavelength band that passes through the lens 100 and converts it into a first image signal. The far-infrared ray imaging unit 220 receives light in the far-infrared ray wavelength band that passes through the lens 100 and converts it into a second image signal. The edge comparison unit 550 compares the edge portion of the image data obtained from the first image signal with the edge portion of the image data obtained from the second image signal. Then, the output image data generation unit 560 generates output image data from the first image signal and the second image signal based on the comparison result by the edge comparison unit 550.

このように、本発明では、可視光線波長帯及び遠赤外光線波長帯の光を透過するレンズ100を設けて、このレンズ100を透過する可視光線波長帯の光と遠赤外光線波長帯の光を第1の画像信号と第2の画像信号に変換している。これにより、可視光画像に対応した画像信号と、遠赤外光画像に対応した画像信号が得られる。また、これらの画像信号から得られる画像データのエッジ部をエッジ比較部550により比較することで、可視光画像または遠赤外光画像のうちで、高い解像感で視覚的に見やすい画像を識別することができる。そして、出力画像データ生成部560が、エッジ比較部550による比較の結果に基づいて、出力画像データを生成するので、可視光線波長帯用と遠赤外光線波長帯用の2台の撮像装置を用意する場合と比較して、小型かつ簡単な構成で、昼夜や撮像環境を問わず、見やすい画像を提供できる。   Thus, in the present invention, the lens 100 that transmits light in the visible light wavelength band and the far infrared light wavelength band is provided, and the visible light wavelength band light and the far infrared light wavelength band that transmit through the lens 100 are provided. Light is converted into a first image signal and a second image signal. Thereby, an image signal corresponding to the visible light image and an image signal corresponding to the far-infrared light image are obtained. In addition, by comparing the edge portions of the image data obtained from these image signals by the edge comparison unit 550, it is possible to identify visually easy-to-see images with high resolution among visible light images or far-infrared light images. can do. Since the output image data generation unit 560 generates output image data based on the comparison result by the edge comparison unit 550, two imaging devices for the visible light wavelength band and the far infrared light wavelength band are used. Compared with the case where it is prepared, it is possible to provide an easy-to-view image with a small and simple configuration regardless of day or night or an imaging environment.

また、本発明の実施の形態にかかる撮像装置1000において、エッジ比較部550は、第1の画像信号から得られる画像データのエッジ部の輝度の微分値である第1のエッジ輝度微分値と、第2の画像信号から得られる画像データのエッジ部の輝度の微分値である第2のエッジ輝度微分値とを比較する。これにより、可視光画像のエッジ部の輝度の変化の度合いと、遠赤外光画像のエッジ部の輝度の変化の度合いを比較することができる。   In the imaging apparatus 1000 according to the embodiment of the present invention, the edge comparison unit 550 includes a first edge luminance differential value that is a differential value of the luminance of the edge portion of the image data obtained from the first image signal, and The second edge luminance differential value, which is the luminance differential value of the edge portion of the image data obtained from the second image signal, is compared. Thereby, it is possible to compare the degree of change in luminance at the edge portion of the visible light image with the degree of change in luminance at the edge portion of the far-infrared light image.

本発明の実施の形態にかかる撮像装置1000において、出力画像データ生成部560は、エッジ比較部550が、第1のエッジ輝度微分値が第2のエッジ輝度微分値より大きいと判断したとき、第1の画像信号を用い、第2の画像信号を用いずに、出力画像データを生成し、エッジ比較部550が、第1のエッジ輝度微分値が第2のエッジ輝度微分値より小さいと判断したとき、第2の画像信号を用い、第1の画像信号を用いずに、出力画像データを生成する。これにより、可視光画像のエッジ部の輝度の変化の度合いと、遠赤外光画像のエッジ部の輝度の変化の度合いを比較した結果、変化の度合いが大きい方の画像信号を用いて、出力画像データを生成することができる。この結果、可視光画像又は遠赤外光画像のうち、より見やすい方の画像を提供することができる。   In the imaging apparatus 1000 according to the embodiment of the present invention, the output image data generation unit 560 determines that the first edge luminance differential value is larger than the second edge luminance differential value when the edge comparison unit 550 determines that the first edge luminance differential value is larger. The output image data is generated using the image signal 1 and not using the second image signal, and the edge comparison unit 550 determines that the first edge luminance differential value is smaller than the second edge luminance differential value. When the second image signal is used, the output image data is generated without using the first image signal. As a result of comparing the degree of change in luminance at the edge part of the visible light image with the degree of change in luminance at the edge part of the far-infrared light image, output using the image signal having the larger degree of change. Image data can be generated. As a result, it is possible to provide an image that is easier to see out of the visible light image or the far-infrared light image.

例えば、可視光画像では、撮像対象である被写体との間に煙や霧などが生じると、当該被写体の外形等が不鮮明となり、被写体を検知することが難しい。したがって、この状態で撮像した画像は、解像感が低く、曇りガラス越しに被写体を見たような画像となる。一方、遠赤外光画像では、熱を感知して画像データを生成することから、煙や霧などの影響を受けにくく、可視光線用撮像部210によって被写体の検知できない場合であっても、熱源の感知により被写体を検知することができる。被写体の熱源が均一である場合、遠赤外光画像では、低い解像感で被写体の外形等が不鮮明となり、被写体を検知することが難しい。一方、可視光画像では、可視光を感知するので、熱源の温度の影響を受けずに、撮像ができる。このようにして、可視光線用撮像部210及び遠赤外光線撮像部220の双方の特性を活かして、出力画像データを生成することにより、被写体画像をより見やすい画像を提供することができる。   For example, in a visible light image, when smoke or fog is generated between a subject that is an imaging target, the outer shape of the subject becomes unclear, and it is difficult to detect the subject. Therefore, the image captured in this state is low in resolution and looks as if the subject was seen through the frosted glass. On the other hand, in the far-infrared light image, since heat is detected to generate image data, it is not easily affected by smoke or fog, and even when the subject cannot be detected by the visible light imaging unit 210, the heat source The subject can be detected by detecting the above. When the heat source of the subject is uniform, in the far-infrared light image, the outer shape of the subject becomes unclear with a low resolution, and it is difficult to detect the subject. On the other hand, in the visible light image, since visible light is sensed, it can be imaged without being affected by the temperature of the heat source. In this way, by generating the output image data by making use of the characteristics of both the visible light imaging unit 210 and the far-infrared light imaging unit 220, it is possible to provide an image that makes it easier to see the subject image.

本発明の実施の形態にかかる撮像装置1000において、エッジ比較部550が、第1のエッジ輝度微分値と第2のエッジ輝度微分値の差分値が所定値以下であると判断したとき、第1の画像信号及び第2の画像信号の双方を用いて、出力画像データを生成する。これにより、可視光画像のエッジ部の輝度の変化の度合いと、遠赤外光画像のエッジ部の輝度の変化の度合いを比較した結果、変化の度合いに大きく差がない場合にも、可視光画像と遠赤外光画像の合成画像によって、見やすい画像を提供することができる。   In the imaging apparatus 1000 according to the embodiment of the present invention, when the edge comparison unit 550 determines that the difference value between the first edge luminance differential value and the second edge luminance differential value is equal to or less than a predetermined value, the first Output image data is generated using both the image signal and the second image signal. As a result of comparing the degree of change in luminance at the edge part of the visible light image with the degree of change in luminance at the edge part of the far-infrared light image, the visible light can be obtained even when there is no significant difference in the degree of change. An easy-to-see image can be provided by a composite image of the image and the far-infrared light image.

本発明の実施の形態にかかる撮像装置1000において、エッジ比較部550は、第1の画像信号から得られる画像データのエッジ部の個数である第1のエッジ個数と、第2の画像信号から得られる画像データのエッジ部の個数である第2のエッジ個数とを比較する。これにより、可視光画像のエッジ部の個数と、遠赤外光画像のエッジ部の個数を比較することができる。   In the imaging apparatus 1000 according to the embodiment of the present invention, the edge comparison unit 550 obtains the first edge number that is the number of edge portions of image data obtained from the first image signal and the second image signal. The second edge number which is the number of edge portions of the image data to be compared is compared. Thereby, the number of edge portions of the visible light image can be compared with the number of edge portions of the far-infrared light image.

本発明の実施の形態にかかる撮像装置1000において、出力画像データ生成部560は、エッジ比較部550が、第1のエッジ個数が第2のエッジ個数より大きいと判断したとき、第1の画像信号を用い、第2の画像信号を用いずに、出力画像データを生成し、エッジ比較部550が、第1のエッジ個数が第2のエッジ個数より小さいと判断したとき、第2の画像信号を用い、第1の画像信号を用いずに、出力画像データを生成する。これにより、可視光画像のエッジ部の個数と、遠赤外光画像のエッジ部の個数を比較した結果、エッジ部の個数が大きい方の画像信号を用いて、出力画像データを生成することができる。この結果、可視光画像又は遠赤外光画像のうち、より見やすい方の画像を提供することができる。   In the imaging apparatus 1000 according to the embodiment of the present invention, the output image data generation unit 560 determines that the first image signal when the edge comparison unit 550 determines that the first edge number is greater than the second edge number. , The output image data is generated without using the second image signal, and the edge comparison unit 550 determines that the first edge number is smaller than the second edge number. The output image data is generated without using the first image signal. Thus, as a result of comparing the number of edge portions of the visible light image and the number of edge portions of the far-infrared light image, output image data can be generated using the image signal having the larger number of edge portions. it can. As a result, it is possible to provide an image that is easier to see out of the visible light image or the far-infrared light image.

本発明の実施の形態にかかる撮像装置1000において、エッジ比較部550が、第1のエッジ個数と第2のエッジ個数の差分値が所定値以下であると判断したとき、第1の画像信号及び第2の画像信号の双方を用いて、出力画像データを生成する。これにより、可視光画像のエッジ部の個数と、遠赤外光画像のエッジ部の個数を比較した結果、個数に大きく差がない場合にも、可視光画像と遠赤外光画像の合成画像によって、見やすい画像を提供することができる。   In the imaging apparatus 1000 according to the embodiment of the present invention, when the edge comparison unit 550 determines that the difference value between the first edge number and the second edge number is equal to or less than a predetermined value, the first image signal and Output image data is generated using both of the second image signals. As a result, when the number of edge portions of the visible light image and the number of edge portions of the far-infrared light image are compared, the composite image of the visible light image and the far-infrared light image is obtained even if the number is not significantly different Thus, an easy-to-see image can be provided.

本発明の実施の形態にかかる撮像装置1000において、可視光線用撮像部210及び遠赤外光線用撮像部220は、好ましくは同一の基板上に形成されている。これにより、可視光線用と遠赤外光線用の撮像部を別々に製造する場合と比較して、より簡単に撮像装置1000を製造できる。   In the imaging apparatus 1000 according to the embodiment of the present invention, the visible light imaging unit 210 and the far infrared light imaging unit 220 are preferably formed on the same substrate. Thereby, compared with the case where the imaging part for visible rays and a far-infrared ray are manufactured separately, the imaging device 1000 can be manufactured more simply.

また、好ましくは、可視光線用撮像部及び遠赤外光線用撮像部は、互いに交互にマトリックス状に配列されている。このように、可視光線用撮像部210及び遠赤外光線用撮像部220を、互いに交互にマトリックス状に配列することで、撮像部200に均一に配置することによって、可視光線用の撮像部210により撮像された可視光画像と、遠赤外光線用撮像部220により撮像された遠赤外光画像を、同一の画角で取得することができる。この結果、可視光画像と遠赤外光画像を簡単に合成することができる。   Preferably, the visible light imaging unit and the far-infrared light imaging unit are alternately arranged in a matrix. As described above, the visible light imaging unit 210 and the far infrared light imaging unit 220 are alternately arranged in a matrix so as to be uniformly arranged in the imaging unit 200, whereby the visible light imaging unit 210 is arranged. And the far-infrared light image captured by the far-infrared ray imaging unit 220 can be acquired at the same angle of view. As a result, the visible light image and the far-infrared light image can be easily combined.

特に、可視光線波長帯用の撮像装置により撮像された可視光画像と、遠赤外光線波長帯用の撮像装置により撮像された遠赤外光画像とを合成したい場合などに様々な問題が生じていた。可視光画像と遠赤外光画像とを合成するには、光学的に合わせる方法と、電気的に合わせる方法が知られている。   In particular, various problems arise when it is desired to synthesize a visible light image captured by an imaging device for the visible light wavelength band and a far infrared light image captured by an imaging device for the far infrared light wavelength band. It was. In order to synthesize a visible light image and a far-infrared light image, an optical matching method and an electrical matching method are known.

しかし、光学的に合わせる方法によれば、各撮像装置のレンズの画角(ズーム・フォーカス)を合わせる必要がある。このため、各撮像装置により撮像された被写体画像のデータ出力を外部の画像処理装置で検出したうえで、その結果を外部の光学制御装置によりフィードバックさせるなど、複数の外部装置間で連係を要することになり、制御が煩雑になるという問題があった。   However, according to the optical matching method, it is necessary to match the angle of view (zoom / focus) of the lens of each imaging device. For this reason, the data output of the subject image captured by each imaging device is detected by an external image processing device, and the result is fed back by an external optical control device, so that it is necessary to coordinate between a plurality of external devices. As a result, there is a problem that the control becomes complicated.

また、電気的に合わせる方法によれば、各撮像装置から出力された画像から、双方のレンズの画角内の重複領域の画像を切り出すために、外部の画像処理装置を設ける必要があり、この外部の画像処理装置による処理が複雑で順次の処理が難しいなどの問題があった。   Further, according to the method of electrically matching, it is necessary to provide an external image processing device in order to cut out the image of the overlapping area within the angle of view of both lenses from the image output from each imaging device. There are problems such as complicated processing by an external image processing apparatus and difficulty in sequential processing.

本発明では、可視光線用撮像部210及び遠赤外光線用撮像部220の配列方法を工夫することにより、可視光画像と遠赤外光画像を同一の画角で取得するようにした。このため、前述したような外部の光学制御装置の制御や処理の問題を生じさせることなく、可視光画像と遠赤外光画像を簡単に合成することができる。   In the present invention, the visible light image and the far-infrared light image are acquired at the same angle of view by devising the arrangement method of the visible-light image capturing unit 210 and the far-infrared light image capturing unit 220. For this reason, the visible light image and the far-infrared light image can be easily combined without causing the problem of the control and processing of the external optical control device as described above.

以上、実施の形態をもとに本発明を説明した。実施の形態は例示であり、本発明の主旨から逸脱しない限り、上述各実施の形態に対して、さまざまな変更、増減、組合せを加えてもよい。これらの変更、増減、組合せが加えられた変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described above based on the embodiment. The embodiment is an exemplification, and various modifications, increases / decreases, and combinations may be added to the above-described embodiments without departing from the gist of the present invention. It will be understood by those skilled in the art that modifications to which these changes, increases / decreases, and combinations are also within the scope of the present invention.

100 レンズ
200 撮像部
210 可視光線用撮像部
220 遠赤外光線用撮像部
300 可視光線用AFE部
400 遠赤外光線用AFE部
500 信号処理部
510 可視光線用濃度変換部
520 遠赤外光線用濃度変換部
530 可視光線用特徴抽出フィルタ部
540 遠赤外光線用特徴抽出フィルタ部
550 エッジ比較部
560 出力画像データ生成部
600 出力部
1000 撮像装置
DESCRIPTION OF SYMBOLS 100 Lens 200 Imaging part 210 Imaging part for visible rays 220 Imaging part for far infrared rays 300 AFE part for visible rays 400 AFE part for far infrared rays 500 Signal processing part 510 Density conversion part for visible rays 520 For far infrared rays Density conversion unit 530 Visible light feature extraction filter unit 540 Far infrared light feature extraction filter unit 550 Edge comparison unit 560 Output image data generation unit 600 Output unit 1000 Imaging device

Claims (9)

可視光線波長帯及び遠赤外光線波長帯の光を透過するレンズと、
前記レンズを透過する前記可視光線波長帯の光を受光して、第1の画像信号に変換する可視光線用撮像部と、
前記レンズを透過する前記遠赤外光線波長帯の光を受光して、第2の画像信号に変換する遠赤外光線用撮像部と、
前記第1の画像信号から得られる画像データのエッジ部と、前記第2の画像信号から得られる画像データのエッジ部とを比較するエッジ比較部と、
前記エッジ比較部による比較結果に基づいて、前記第1の画像信号及び前記第2の画像信号のいずれか、もしくは、双方を使用するかを決定し、決定された前記第1の画像信号及び前記第2の画像信号のいずれか、もしくは、双方から前記出力画像データを生成する出力画像データ生成部とを備えた撮像装置。
A lens that transmits light in the visible light wavelength band and the far-infrared light wavelength band;
A visible light imaging unit that receives light in the visible light wavelength band that passes through the lens and converts the light into a first image signal;
A far-infrared ray imaging unit that receives light in the far-infrared ray wavelength band that passes through the lens and converts the light into a second image signal;
An edge comparison unit that compares an edge portion of image data obtained from the first image signal and an edge portion of image data obtained from the second image signal;
Based on the comparison result by the edge comparison unit, it is determined whether to use the first image signal or the second image signal , or both, and the determined first image signal and the determined image signal An imaging apparatus comprising: an output image data generation unit configured to generate the output image data from one or both of the second image signals .
前記エッジ比較部は、前記第1の画像信号から得られる画像データのエッジ部の輝度の微分値である第1のエッジ輝度微分値と、前記第2の画像信号から得られる画像データのエッジ部の輝度の微分値である第2のエッジ輝度微分値とを比較する請求項1に記載の撮像装置。   The edge comparison unit includes a first edge luminance differential value that is a differential value of luminance of an edge portion of image data obtained from the first image signal, and an edge portion of image data obtained from the second image signal. The imaging apparatus according to claim 1, wherein a second edge luminance differential value that is a differential value of luminance of the second edge luminance is compared. 前記出力画像データ生成部は、
前記エッジ比較部が、前記第1のエッジ輝度微分値が前記第2のエッジ輝度微分値より大きいと判断したとき、前記第1の画像信号を用い、前記第2の画像信号を用いずに、前記出力画像データを生成し、
前記エッジ比較部が、前記第1のエッジ輝度微分値が前記第2のエッジ輝度微分値より小さいと判断したとき、前記第2の画像信号を用い、前記第1の画像信号を用いずに、前記出力画像データを生成する請求項2に記載の撮像装置。
The output image data generation unit
When the edge comparison unit determines that the first edge luminance differential value is larger than the second edge luminance differential value, the first image signal is used, and the second image signal is not used. Generating the output image data;
When the edge comparison unit determines that the first edge luminance differential value is smaller than the second edge luminance differential value, the second image signal is used, and the first image signal is not used. The imaging apparatus according to claim 2, wherein the output image data is generated.
前記エッジ比較部が、前記第1のエッジ輝度微分値と前記第2のエッジ輝度微分値の差分値が所定値以下であると判断したとき、前記第1の画像信号及び前記第2の画像信号の双方を用いて、前記出力画像データを生成する請求項2に記載の撮像装置。 When the edge comparison unit determines that a difference value between the first edge luminance differential value and the second edge luminance differential value is a predetermined value or less, the first image signal and the second image signal The imaging apparatus according to claim 2 , wherein the output image data is generated using both of the two . 前記エッジ比較部は、前記第1の画像信号から得られる画像データのエッジ部の個数である第1のエッジ個数と、前記第2の画像信号から得られる画像データのエッジ部の個数である第2のエッジ個数とを比較する請求項1〜4のいずれかに記載の撮像装置。   The edge comparison unit is a first edge number that is the number of edge portions of image data obtained from the first image signal and a first edge number that is the number of edge portions of image data obtained from the second image signal. The imaging device according to claim 1, which compares the number of edges of two. 前記出力画像データ生成部は、
前記エッジ比較部が、前記第1のエッジ個数が前記第2のエッジ個数より大きいと判断したとき、前記第1の画像信号を用い、前記第2の画像信号を用いずに、前記出力画像データを生成し、
前記エッジ比較部が、前記第1のエッジ個数が前記第2のエッジ個数より小さいと判断したとき、前記第2の画像信号を用い、前記第1の画像信号を用いずに、前記出力画像データを生成する請求項5に記載の撮像装置。
The output image data generation unit
When the edge comparison unit determines that the number of first edges is larger than the number of second edges, the output image data is used without using the second image signal and using the first image signal. Produces
When the edge comparison unit determines that the number of first edges is smaller than the number of second edges, the output image data is used without using the first image signal and using the second image signal. The imaging device according to claim 5, which generates
前記エッジ比較部が、前記第1のエッジ個数と前記第2のエッジ個数の差分値が所定値以下であると判断したとき、前記第1の画像信号及び前記第2の画像信号の双方を用いて、前記出力画像データを生成する請求項5に記載の撮像装置。 When the edge comparison unit determines that the difference value between the first edge number and the second edge number is equal to or less than a predetermined value, both the first image signal and the second image signal are used. The imaging apparatus according to claim 5 , wherein the output image data is generated. 前記可視光線用撮像部及び前記遠赤外光線用撮像部は、同一の基板上に形成された請求項1〜7のいずれかに記載の撮像装置。   The imaging apparatus according to claim 1, wherein the visible light imaging unit and the far infrared light imaging unit are formed on the same substrate. 前記可視光線用撮像部及び前記遠赤外光線用撮像部は、互いに交互にマトリックス状に配列されている請求項8に記載の撮像装置。   The imaging device according to claim 8, wherein the visible light imaging unit and the far infrared light imaging unit are alternately arranged in a matrix.
JP2011043745A 2011-03-01 2011-03-01 Imaging device Active JP5708036B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011043745A JP5708036B2 (en) 2011-03-01 2011-03-01 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011043745A JP5708036B2 (en) 2011-03-01 2011-03-01 Imaging device

Publications (2)

Publication Number Publication Date
JP2012182626A JP2012182626A (en) 2012-09-20
JP5708036B2 true JP5708036B2 (en) 2015-04-30

Family

ID=47013453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011043745A Active JP5708036B2 (en) 2011-03-01 2011-03-01 Imaging device

Country Status (1)

Country Link
JP (1) JP5708036B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015022738A (en) * 2013-07-24 2015-02-02 三菱電機株式会社 Image synthesis display device
WO2015178079A1 (en) * 2014-05-20 2015-11-26 コニカミノルタ株式会社 Image capturing device, control method for image capturing device, and control program for image capturing device
JP2016092712A (en) 2014-11-10 2016-05-23 セイコーエプソン株式会社 Image processing apparatus, image processing method and program
JP6511777B2 (en) 2014-11-10 2019-05-15 セイコーエプソン株式会社 Image processing apparatus, image processing method and program
US10354366B2 (en) 2015-01-16 2019-07-16 Nec Corporation Image processing device, image processing method, and recording medium
JP6564421B2 (en) * 2017-05-17 2019-08-21 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
WO2023166742A1 (en) * 2022-03-04 2023-09-07 オリンパス株式会社 Image processing device, treatment system, and image processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4678172B2 (en) * 2004-11-22 2011-04-27 株式会社豊田中央研究所 Imaging device
JP4858210B2 (en) * 2007-02-16 2012-01-18 三菱電機株式会社 Image sensor
JP5182518B2 (en) * 2009-01-29 2013-04-17 株式会社Jvcケンウッド Imaging apparatus and imaging method

Also Published As

Publication number Publication date
JP2012182626A (en) 2012-09-20

Similar Documents

Publication Publication Date Title
JP5708036B2 (en) Imaging device
US9270875B2 (en) Dual image capture processing
US7582871B2 (en) Image pickup apparatus and a switching-over method for the same
EP3468178B1 (en) Image defogging method and image capture apparatus implementing image defogging
JP2014241584A (en) Image processing method and image processing system
JP5696026B2 (en) Imaging apparatus, imaging method, and monitoring system
US20130100311A1 (en) Solid-state imaging device, camera module, and focus adjustment method of camera module
KR102229152B1 (en) Image photographing appratus
JP2010098416A (en) Imaging apparatus
JP2015169722A (en) Imaging apparatus
JP2009010616A (en) Imaging device and image output control method
US20070046783A1 (en) Image pickup apparatus and image pickup method
JP2007174032A (en) Imaging device
US20070269133A1 (en) Image-data noise reduction apparatus and method of controlling same
JP2009253447A (en) Solid state image sensor for both near-infrared light and visible light, and solid-state imaging apparatus
JP4523629B2 (en) Imaging device
JP5464008B2 (en) Image input device
JP5182518B2 (en) Imaging apparatus and imaging method
JP2008311834A (en) Defective pixel correcting device and method
JP4530149B2 (en) High dynamic range camera system
JP2010171950A (en) Imaging apparatus and color correcting method of imaging apparatus
JP2007266787A (en) Imaging apparatus provided with process for making excessive-noise pixel usable
JPH09163210A (en) Image pickup system
JP5967504B1 (en) Omni-directional camera system
WO2018193544A1 (en) Image capturing device and endoscope device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150216

R150 Certificate of patent or registration of utility model

Ref document number: 5708036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150