JP7274909B2 - far infrared camera - Google Patents

far infrared camera Download PDF

Info

Publication number
JP7274909B2
JP7274909B2 JP2019067259A JP2019067259A JP7274909B2 JP 7274909 B2 JP7274909 B2 JP 7274909B2 JP 2019067259 A JP2019067259 A JP 2019067259A JP 2019067259 A JP2019067259 A JP 2019067259A JP 7274909 B2 JP7274909 B2 JP 7274909B2
Authority
JP
Japan
Prior art keywords
image data
image
far
temperature
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019067259A
Other languages
Japanese (ja)
Other versions
JP2020167556A (en
Inventor
昂輝 吉田
淳史 小出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tamron Co Ltd
Original Assignee
Tamron Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tamron Co Ltd filed Critical Tamron Co Ltd
Priority to JP2019067259A priority Critical patent/JP7274909B2/en
Publication of JP2020167556A publication Critical patent/JP2020167556A/en
Application granted granted Critical
Publication of JP7274909B2 publication Critical patent/JP7274909B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radiation Pyrometers (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、遠赤外線カメラに関し、特に、遠赤外線画像を撮影して、撮影された画像のデータを外部機器に送信する動画撮影用の遠赤外線カメラに関する。 TECHNICAL FIELD The present invention relates to a far-infrared camera, and more particularly to a far-infrared camera for capturing moving images that captures a far-infrared image and transmits data of the captured image to an external device.

遠赤外線画像は、撮影対象物から放射された遠赤外線を画像化したものであるため、夜間等の可視光線の少ない環境においても、撮影用の照明を用いることなく取得することができ、監視用途等に好適である。特開2018-152106号公報(特許文献1)には、水上侵入検知システムおよびその方法が記載されている。この水上侵入検知システムでは、海上を監視する可視カメラ及び遠赤外線カメラ映像から侵入する物体の候補を検知し、さらに、大きさ、速度、侵入する方向および直線性等を導き、ある程度の物体識別を行っている。さらに、遠赤外線映像での輝度等から、船舶、ヒト、浮遊物を区別している。また、映像をフーリエ変換するなどして、物体が無い場所での海面の通常の波の周期性を観測して、その通常状態の波の動きと物体の動きとの連動性に基づいて、物体の識別精度を向上させている。 A far-infrared image is an image of the far-infrared rays emitted from the object to be photographed, so it can be acquired without using lighting for photography, even in environments with little visible light, such as at night. etc. Japanese Patent Laying-Open No. 2018-152106 (Patent Document 1) describes a water intrusion detection system and method. This waterborne intrusion detection system detects candidates of intruding objects from images of visible cameras and far-infrared cameras that monitor the sea, and further derives the size, speed, intruding direction, linearity, etc., and identifies objects to some extent. Is going. Furthermore, ships, people, and floating objects are distinguished from the brightness of the far-infrared image. In addition, by Fourier transforming the image, we observe the periodicity of normal waves on the sea surface where there are no objects. It improves the identification accuracy of

一方、取得された遠赤外線画像には、撮影された対象物の温度の情報も含まれており、遠赤外線画像の使用目的に応じて、この情報を有効に活用することができる。即ち、遠赤外線画像に基づいて、撮影された対象物の特性や状態を検出することが可能であり、このような目的での応用においても、遠赤外線カメラの活用が期待されている。 On the other hand, the acquired far-infrared image also includes temperature information of the photographed object, and this information can be effectively utilized according to the intended use of the far-infrared image. That is, it is possible to detect the characteristics and state of the photographed object based on the far-infrared image, and it is expected that the far-infrared camera will be used for this purpose as well.

特開2018-152106号公報JP 2018-152106 A

しかしながら、遠赤外線カメラによって撮影された遠赤外線画像は、一般に、輝度やコントラストが低く、撮影された像のエッジも不鮮明である。さらに、遠赤外線画像は、画像データの中に含まれるノイズも多い。このような理由から、遠赤外線カメラによって撮影された対象物の形態を把握するためには、遠赤外線画像に何らかの画像処理を施すことが好ましい。一方、撮影された対象物の視認性を改善するために、画像データに補正を加えてしまうと、遠赤外線画像に含まれる温度の情報が毀損されてしまう場合がある。 However, the far-infrared image captured by the far-infrared camera generally has low brightness and contrast, and the edges of the captured image are unclear. Furthermore, the far-infrared image has much noise included in the image data. For this reason, it is preferable to apply some image processing to the far-infrared image in order to grasp the shape of the object photographed by the far-infrared camera. On the other hand, if the image data is corrected in order to improve the visibility of the photographed object, the temperature information included in the far-infrared image may be damaged.

従って、本発明は、遠赤外線画像を撮影し、取得された画像データに基づいて撮影された対象物の形状及び温度を把握することが可能な遠赤外線カメラを提供することを目的としている。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a far-infrared camera capable of capturing a far-infrared image and grasping the shape and temperature of the captured object based on the acquired image data.

上述した課題を解決するために、本発明は、遠赤外線画像の画像データを外部機器に送信する動画撮影用の遠赤外線カメラであって、入射した遠赤外線を合焦させる遠赤外レンズと、この遠赤外レンズによって合焦された遠赤外線画像の画像データを取得する遠赤外線アレイセンサと、遠赤外線アレイセンサによって取得された画像データにノンユニフォミティ画像補正を施した補正画像データを生成するノンユニフォミティ補正部と、補正画像データに基づいて、画像内の各部における温度を表す温度画像データを生成する温度画像生成部と、補正画像データに基づいて、当該画像データの階調を補正した処理画像データを生成する画像処理部と、温度画像データ、及び処理画像データを送信する送信部と、を有することを特徴としている。 In order to solve the above-described problems, the present invention provides a far-infrared camera for video shooting that transmits image data of a far-infrared image to an external device, comprising: a far-infrared lens that focuses incident far-infrared rays; A far-infrared array sensor that acquires image data of a far-infrared image focused by the far-infrared lens, and a non-uniformity image correction that generates corrected image data by applying non-uniformity image correction to the image data acquired by the far-infrared array sensor. A uniformity correction unit, a temperature image generation unit that generates temperature image data representing the temperature of each part in the image based on the corrected image data, and a processed image obtained by correcting the gradation of the image data based on the corrected image data. It is characterized by having an image processing unit that generates data, and a transmission unit that transmits temperature image data and processed image data.

このように構成された本発明によれば、画像データに基づいて生成された温度画像データ及び処理画像データから、撮影された対象物の形状及び温度の両方を把握することができる。 According to the present invention configured as described above, both the shape and temperature of the photographed object can be grasped from the temperature image data and the processed image data generated based on the image data.

本発明の遠赤外線カメラによれば、遠赤外線画像を撮影し、取得された画像データに基づいて撮影された対象物の形状及び温度を把握することができる。 According to the far-infrared camera of the present invention, it is possible to capture a far-infrared image and grasp the shape and temperature of the captured object based on the acquired image data.

本発明の実施形態による遠赤外線カメラの外観を示す斜視図である。1 is a perspective view showing the appearance of a far-infrared camera according to an embodiment of the present invention; FIG. 本発明の実施形態による遠赤外線カメラの内部構造を示す斜視断面図である。1 is a perspective cross-sectional view showing an internal structure of a far-infrared camera according to an embodiment of the present invention; FIG. 本発明の実施形態による遠赤外線カメラの構成を示すブロック図である。1 is a block diagram showing the configuration of a far-infrared camera according to an embodiment of the present invention; FIG. 本発明の実施形態による遠赤外線カメラに内蔵されたデータ処理基板におけるデータ処理の流れを示すブロック図である。4 is a block diagram showing the flow of data processing in the data processing board built into the far-infrared camera according to the embodiment of the present invention; FIG. 本発明の実施形態による遠赤外線カメラに内蔵されたデータ処理基板の画像処理部において実行される多閾値ヒストグラム平坦化処理を示すフローチャートである。4 is a flow chart showing multi-threshold histogram equalization processing executed in the image processing section of the data processing board incorporated in the far-infrared camera according to the embodiment of the present invention; 本発明の実施形態による遠赤外線カメラによって撮影された遠赤外線画像のヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram of the far-infrared image image|photographed with the far-infrared camera by embodiment of this invention. 従来のヒストグラム平坦化処理後の画像と、本発明の実施形態による遠赤外線カメラにおける多閾値ヒストグラム平坦化処理後の画像の一例を比較して示す図である。FIG. 10 is a diagram showing a comparison between an image after conventional histogram equalization processing and an example of an image after multi-threshold histogram equalization processing in the far-infrared camera according to the embodiment of the present invention; 本発明の実施形態による遠赤外線カメラに内蔵されたデータ処理基板において実行される三次元ノイズリダクション処理を示すフローチャートである。4 is a flow chart showing three-dimensional noise reduction processing executed in the data processing board built into the far-infrared camera according to the embodiment of the present invention; 本発明の実施形態による遠赤外線カメラに内蔵されたデータ処理基板において実行されるエッジ強調処理を示すフローチャートである。4 is a flow chart showing edge enhancement processing performed in a data processing board built into the far-infrared camera according to the embodiment of the present invention; 本発明の実施形態による遠赤外線カメラに内蔵された通信基板によるデータの送信に使用される通信用データのフォーマットの一例を示す図である。FIG. 3 is a diagram showing an example format of communication data used for data transmission by a communication board built into the far-infrared camera according to the embodiment of the present invention; 本発明の実施形態による遠赤外線カメラに内蔵された通信基板によるデータの送信に使用される通信用データの一例を示す図である。FIG. 4 is a diagram showing an example of communication data used for data transmission by a communication board built into the far-infrared camera according to the embodiment of the present invention; 本発明の実施形態による遠赤外線カメラに内蔵された通信基板によるデータの送信に使用される通信用データの一例を示す図である。FIG. 4 is a diagram showing an example of communication data used for data transmission by a communication board built into the far-infrared camera according to the embodiment of the present invention; 本発明の実施形態による遠赤外線カメラに内蔵された通信基板によるデータの送信に使用される画像出力用データフォーマットの一例を示す図である。FIG. 4 is a diagram showing an example of an image output data format used for data transmission by a communication board built into the far-infrared camera according to the embodiment of the present invention;

次に、添付図面を参照して、本発明の好ましい実施形態を説明する。
まず、図1及び図2を参照して、本発明の実施形態による遠赤外線カメラを説明する。図1は、本実施形態の遠赤外線カメラの外観を示す斜視図である。図2は、遠赤外線カメラの内部構造を示す斜視断面図である。
Preferred embodiments of the present invention will now be described with reference to the accompanying drawings.
First, a far-infrared camera according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG. FIG. 1 is a perspective view showing the appearance of the far-infrared camera of this embodiment. FIG. 2 is a perspective sectional view showing the internal structure of the far-infrared camera.

<遠赤外線カメラの構成>
図1及び図2に示すように、本発明の実施形態による遠赤外線カメラ1は、直方体状の箱形の筐体を有しており、遠赤外線カメラ1のレンズが筐体の一側面に取り付けられている。また、図2に示すように、遠赤外線カメラ1の筐体内には、遠赤外線カメラ1によって撮影された遠赤外線画像を画像処理するための信号処理用のデータ処理基板8、及び通信基板10が内蔵されている。
<Configuration of far-infrared camera>
As shown in FIGS. 1 and 2, a far-infrared camera 1 according to an embodiment of the present invention has a rectangular parallelepiped box-shaped housing, and a lens of the far-infrared camera 1 is attached to one side of the housing. It is Further, as shown in FIG. 2, the housing of the far-infrared camera 1 contains a data processing board 8 for signal processing for processing a far-infrared image captured by the far-infrared camera 1, and a communication board 10. Built-in.

次に、図3を参照して、遠赤外線カメラ1の全体構成を説明する。図3は、本実施形態の遠赤外線カメラの構成を示すブロック図である。
図3に示すように、遠赤外線カメラ1は、遠赤外レンズである遠赤外広角レンズ2と、遠赤外線アレイセンサである熱画像アレイ4と、ボロメータ基板6と、を備え、遠赤外線画像のデータを取得するように構成されている。さらに、遠赤外線カメラ1には、データ処理基板8、及び送信部である通信基板10が内蔵されている。なお、本実施形態の遠赤外線カメラ1は、1秒間に8フレームの頻度で、連続的に遠赤外線画像を撮影するように構成されている。なお、本明細書において、「遠赤外線」とは、波長が約8μm乃至約14μmの赤外線を意味している。
Next, the overall configuration of the far-infrared camera 1 will be described with reference to FIG. FIG. 3 is a block diagram showing the configuration of the far-infrared camera of this embodiment.
As shown in FIG. 3, the far-infrared camera 1 includes a far-infrared wide-angle lens 2 that is a far-infrared lens, a thermal image array 4 that is a far-infrared array sensor, and a bolometer substrate 6. is configured to retrieve data from Further, the far-infrared camera 1 incorporates a data processing board 8 and a communication board 10 as a transmitter. The far-infrared camera 1 of this embodiment is configured to continuously capture far-infrared images at a frequency of 8 frames per second. In this specification, "far-infrared rays" means infrared rays with a wavelength of about 8 μm to about 14 μm.

遠赤外広角レンズ2は、入射した遠赤外線を熱画像アレイ4上に合焦させるように構成されている。好ましくは、遠赤外広角レンズ2は広角で、中心から周辺まで均質且つ高透過に熱放射エネルギーを伝達して、熱画像アレイ4上に結像するレンズを使用する。また、本実施形態においては、遠赤外広角レンズ2は単一のレンズであるが、遠赤外広角レンズ2は複数のレンズから構成されていても良い。さらに、本実施形態において、遠赤外広角レンズ2として、水平角度70度以上で、遠赤外線の波長の透過率の中心に対する周辺10割像高の光量比が70%以上のレンズが使用されている。 Far-infrared wide-angle lens 2 is configured to focus incident far-infrared rays onto thermal imaging array 4 . Preferably, the far-infrared wide-angle lens 2 uses a lens that is wide-angle, transmits thermal radiation energy uniformly and with high transmission from the center to the periphery, and forms an image on the thermal imaging array 4 . Further, in this embodiment, the far-infrared wide-angle lens 2 is a single lens, but the far-infrared wide-angle lens 2 may be composed of a plurality of lenses. Furthermore, in this embodiment, as the far-infrared wide-angle lens 2, a lens having a horizontal angle of 70 degrees or more and a light amount ratio of 70% or more at the peripheral 100% image height with respect to the center of the transmittance of the far-infrared wavelength is used. there is

熱画像アレイ4は、縦横に配列された多数のマイクロボロメータピクセルから構成されている。熱画像アレイ4の各ピクセルは遠赤外線が入射すると温度が上昇し、この温度変化により抵抗値が変化して、入射した遠赤外線の強度を電流値の変化として取り出すことができるように構成されている。なお、本実施形態においては、熱画像アレイ4は、縦横に80×80個のピクセルが配列された比較的低画素の熱画像アレイ4が使用されている。 The thermal image array 4 is composed of a large number of microbolometer pixels arranged vertically and horizontally. Each pixel of the thermal image array 4 rises in temperature when far-infrared rays are incident thereon, and this temperature change causes a change in resistance value. there is In this embodiment, the thermal image array 4 is a relatively low-pixel thermal image array 4 in which 80×80 pixels are arranged vertically and horizontally.

ボロメータ基板6は、熱画像アレイ4の各ピクセルに入射した遠赤外線の強度を表すRAW階調信号を、熱画像アレイ4から取り出すように構成されている。本実施形態において、ボロメータ基板6は取り出された信号を14bitのA/D変換器によりディジタル値に変換するように構成されている。従って、熱画像アレイ4から取り出された遠赤外線の強度を表す信号は、ボロメータ基板6によって16384階調のRAW階調信号として取り出される。 The bolometer substrate 6 is configured to extract from the thermal image array 4 RAW grayscale signals representing the intensity of far-infrared rays incident on each pixel of the thermal image array 4 . In this embodiment, the bolometer substrate 6 is configured to convert the extracted signal into a digital value by a 14-bit A/D converter. Therefore, the signal representing the intensity of the far-infrared rays extracted from the thermal image array 4 is extracted by the bolometer substrate 6 as a RAW gradation signal of 16384 gradations.

データ処理基板8は、ボロメータ基板6からRAW階調信号として入力された画像データを、画像処理するように構成されている。また、データ処理基板8は、ボロメータ基板6から入力された遠赤外線画像のデータを温度データに変換するように構成されている。なお、本実施形態において、データ処理基板8は、遠赤外線画像のデータに基づいて16bitの温度データを生成するように構成されている。具体的には、データ処理基板8は、マイクロプロセッサ、各種インターフェイス回路、メモリ、及びこれらを作動させるプログラム(以上、図示せず)等から構成されている。 The data processing board 8 is configured to process the image data input from the bolometer board 6 as a RAW gradation signal. The data processing board 8 is configured to convert far-infrared image data input from the bolometer board 6 into temperature data. In this embodiment, the data processing board 8 is configured to generate 16-bit temperature data based on far-infrared image data. Specifically, the data processing board 8 is composed of a microprocessor, various interface circuits, memories, and programs (not shown) for operating them.

通信基板10は、データ処理基板8によって処理された遠赤外線画像の画像データを、外部機器であるサーバー12等に送信するように構成されている。本実施形態においては、通信基板10は無線LANによってサーバー12に情報を送信するように構成されているが、有線LANの他、無線又は有線の任意の通信方式によりサーバー12に情報を送信することができる。
これらデータ処理基板8及び通信基板10における具体的な信号処理については後述する。
The communication board 10 is configured to transmit the image data of the far-infrared image processed by the data processing board 8 to the server 12 or the like, which is an external device. In this embodiment, the communication board 10 is configured to transmit information to the server 12 via a wireless LAN. can be done.
Specific signal processing in the data processing board 8 and communication board 10 will be described later.

サーバー12は、通信基板10から送信されたデータを格納する。また、サーバー12は例えばパーソナルコンピュータ(PC)やスマートフォン、タブレット端末などのユーザ端末からアクセス可能であり、ユーザはサーバー12に格納されているデータ(赤外線画像、温度情報等)をユーザ端末のディスプレイ等に表示して確認することができる。 The server 12 stores data transmitted from the communication board 10 . In addition, the server 12 can be accessed from a user terminal such as a personal computer (PC), a smartphone, a tablet terminal, etc., and the user can display data (infrared image, temperature information, etc.) stored in the server 12 on the display of the user terminal, etc. can be displayed and checked.

<データ処理基板における処理>
次に、図4乃至図9を参照して、データ処理基板において実行されるデータ処理を説明する。
図4は、遠赤外線カメラ1に内蔵されたデータ処理基板8におけるデータ処理の流れを示すブロック図である。データ処理基板8において処理された遠赤外線画像は通信基板10に出力され、通信基板10から外部機器に送信される。
<Processing on the data processing board>
Next, data processing performed in the data processing board will be described with reference to FIGS. 4 to 9. FIG.
FIG. 4 is a block diagram showing the flow of data processing in the data processing board 8 incorporated in the far-infrared camera 1. As shown in FIG. The far-infrared image processed by the data processing board 8 is output to the communication board 10 and transmitted from the communication board 10 to an external device.

図4に示すように、遠赤外線カメラ1の遠赤外広角レンズ2によって熱画像アレイ4上に合焦された遠赤外線画像は、画像データとしてボロメータ基板6に読み込まれる。ボロメータ基板6に読み込まれた画像データはデータ処理基板8内で画像処理される。即ち、本実施形態においては、ノンユニフォミティ画像補正(NUC)が施されていない14bitのRAW画像データが、データ処理基板8に入力される。 As shown in FIG. 4, a far-infrared image focused on the thermal image array 4 by the far-infrared wide-angle lens 2 of the far-infrared camera 1 is read into the bolometer substrate 6 as image data. The image data read into the bolometer board 6 is image-processed in the data processing board 8 . That is, in the present embodiment, 14-bit RAW image data not subjected to non-uniformity image correction (NUC) is input to the data processing board 8 .

データ処理基板8には、ノンユニフォミティ画像補正を施すためのノンユニフォミティ補正部14と、温度画像を生成するための温度画像生成部16と、処理画像を生成するための画像処理部18と、合成部19が内蔵されている。これらノンユニフォミティ補正部14、温度画像生成部16、及び画像処理部18、及び合成部19は、具体的には、データ処理基板8上の、マイクロプロセッサ、メモリ、及びこれらを作動させるプログラム等によって実現されている。また、本実施形態においては、画像処理部18は、画像情報入力部18a、ヒストグラム生成部18b、ヒストグラム再構成部18c、平坦化処理部18d、平滑化処理部18e、及びエッジ強調処理部18fから構成されている。 The data processing board 8 includes a non-uniformity correction unit 14 for performing non-uniformity image correction, a temperature image generation unit 16 for generating a temperature image, an image processing unit 18 for generating a processed image, and a combination A part 19 is incorporated. Specifically, the non-uniformity correction unit 14, the temperature image generation unit 16, the image processing unit 18, and the synthesizing unit 19 are implemented by a microprocessor, a memory, and a program for operating them on the data processing board 8. Realized. In the present embodiment, the image processing unit 18 includes an image information input unit 18a, a histogram generation unit 18b, a histogram reconstruction unit 18c, a flattening processing unit 18d, a smoothing processing unit 18e, and an edge enhancement processing unit 18f. It is configured.

データ処理基板8にノンユニフォミティ未補正のRAW画像データが入力されると、ノンユニフォミティ補正部14によって、画素欠陥補正、及びノンユニフォミティ画像補正(NUC)が施され、補正画像データが生成される。画素欠陥補正では、熱画像アレイ4上で欠陥のある画素が予め特定されており、この欠陥のある画素の画素値が、周辺の画素の画素値によって置き換えられる。ノンユニフォミティ画像補正は、熱画像アレイ4の各画素の感度等の不均一性を補正する処理である。ノンユニフォミティ補正部14により、RAW画像データから、ノンユニフォミティ画像補正を施した14bitの補正画像データが生成される。 When non-uniformity uncorrected RAW image data is input to the data processing board 8, the non-uniformity correction unit 14 performs pixel defect correction and non-uniformity image correction (NUC) to generate corrected image data. In pixel defect correction, defective pixels are previously identified on the thermal image array 4, and pixel values of the defective pixels are replaced by pixel values of surrounding pixels. Non-uniformity image correction is processing for correcting non-uniformity such as sensitivity of each pixel of the thermal image array 4 . The non-uniformity correction unit 14 generates 14-bit corrected image data that has undergone non-uniformity image correction from the RAW image data.

ノンユニフォミティ補正部14によって補正された補正画像データに対し、温度画像生成部16によって「温度演算」が実行される。即ち、遠赤外線画像の各画素の画素値は、画像内の、その画素に対応する部分の温度に対応している。温度画像生成部16は、遠赤外線画像(RAW画像データ)に含まれる全ての画素の画素値を、予め設定されている変換テーブルに基づいて対応する温度に変換し、画像内の各部における温度を表す16bitの「温度画像」が生成される。 “Temperature calculation” is performed by the temperature image generation unit 16 on the corrected image data corrected by the non-uniformity correction unit 14 . That is, the pixel value of each pixel in the far-infrared image corresponds to the temperature of the portion corresponding to that pixel in the image. The temperature image generation unit 16 converts the pixel values of all pixels included in the far-infrared image (RAW image data) into corresponding temperatures based on a preset conversion table, and calculates the temperature at each part in the image. A 16-bit "temperature image" is generated to represent the

一方、ノンユニフォミティ補正部14によって補正した後の補正画像データに対して、「温度演算」と平行して、画像処理部18による画像処理が施される。一般に、遠赤外線画像は、画像に多くのノイズが含まれるばかりでなく、極めて階調性が悪く(ヒストグラムに偏りがある)、これに基づいて撮影された対象物の形状等を把握することが困難である。本実施形態においては、遠赤外線画像から有用な情報を抽出できるよう、画像処理部18において、補正画像データの階調を補正して「処理画像」を生成する。具体的には、画像処理部18は、「多閾値ヒストグラム平坦化処理」、「三次元ノイズリダクション処理」、及び「エッジ強調処理」を施す。この画像処理部18による処理が施された後の処理画像は、各画素が8bitの輝度階調データに変換されている。このように、本実施形態においては、「温度画像」と「処理画像」で有効なbit数が異なっている。しかしながら、有効なbit数が少ない方の画像データの上位又は下位桁に「0」を充当し、各画像データの見かけ上のbit数を同一にすることもできる。 On the other hand, the corrected image data corrected by the non-uniformity correction unit 14 is subjected to image processing by the image processing unit 18 in parallel with the "temperature calculation". In general, far-infrared images not only contain a lot of noise, but also have extremely poor gradation (the histogram is biased). Have difficulty. In this embodiment, the image processing unit 18 corrects the gradation of the corrected image data to generate a "processed image" so that useful information can be extracted from the far-infrared image. Specifically, the image processing unit 18 performs "multi-threshold histogram equalization processing", "three-dimensional noise reduction processing", and "edge enhancement processing". In the processed image after being processed by the image processing unit 18, each pixel is converted into 8-bit luminance gradation data. Thus, in this embodiment, the number of valid bits differs between the "temperature image" and the "processed image". However, it is also possible to assign "0" to the upper or lower digits of the image data with the smaller effective number of bits, and make the apparent number of bits of each image data the same.

これら温度画像生成部16によって生成された温度画像、及び画像処理部18によって生成された処理画像は、通信基板10に送られる。通信基板10は、温度画像のデータ、及び処理画像のデータの両方をサーバー12等の外部機器に送信する。通信基板10による処理については後述する。 The temperature image generated by the temperature image generator 16 and the processed image generated by the image processor 18 are sent to the communication board 10 . The communication board 10 transmits both the temperature image data and the processed image data to an external device such as the server 12 . Processing by the communication board 10 will be described later.

<画像処理部における処理>
次に、図5乃至図7を参照して、画像処理部18において実行される「多閾値ヒストグラム平坦化処理」を説明する。
図5は、画像処理部18において実行される多閾値ヒストグラム平坦化処理を示すフローチャートである。図6は、本実施形態による遠赤外線カメラ1によって撮影された遠赤外線画像のヒストグラムの一例を示す図である。図7は、原画像と、従来のヒストグラム平坦化処理後の画像と、本実施形態における多閾値ヒストグラム平坦化処理後の画像の一例を比較して示す図である。
<Processing in Image Processing Unit>
Next, the "multi-threshold histogram equalization process" executed in the image processing unit 18 will be described with reference to FIGS. 5 to 7. FIG.
FIG. 5 is a flow chart showing the multi-threshold histogram equalization process executed in the image processing section 18. As shown in FIG. FIG. 6 is a diagram showing an example of a histogram of a far-infrared image captured by the far-infrared camera 1 according to this embodiment. FIG. 7 is a diagram showing an example of comparison between an original image, an image after conventional histogram equalization processing, and an image after multi-threshold histogram equalization processing in this embodiment.

画像処理部18における処理は、図4の画像処理部18に内蔵された画像情報入力部18a、ヒストグラム生成部18b、ヒストグラム再構成部18c、平坦化処理部18d、平滑化処理部18e、及びエッジ強調処理部18fによって実行される。具体的には、画像情報入力部18a、ヒストグラム生成部18b、ヒストグラム再構成部18c、平坦化処理部18d、平滑化処理部18e、及びエッジ強調処理部18fは、マイクロプロセッサ、各種インターフェイス回路、メモリ、及びこれらを作動させるプログラム(以上、図示せず)等から構成されている。 The processing in the image processing unit 18 includes an image information input unit 18a, a histogram generation unit 18b, a histogram reconstruction unit 18c, a flattening processing unit 18d, a smoothing processing unit 18e, and an edge It is executed by the enhancement processing unit 18f. Specifically, the image information input unit 18a, the histogram generation unit 18b, the histogram reconstruction unit 18c, the flattening processing unit 18d, the smoothing processing unit 18e, and the edge enhancement processing unit 18f include a microprocessor, various interface circuits, and a memory. , and a program (not shown) for operating them.

まず、図5のステップS61においては、ノンユニフォミティ画像補正後の14bitの補正画像データが、画像情報入力部18aによって取り込まれる。 First, in step S61 of FIG. 5, 14-bit corrected image data after non-uniformity image correction is captured by the image information input unit 18a.

次に、ステップS62においては、ヒストグラム生成処理として、ステップS61において取り込まれた画像データに含まれる画素値のヒストグラムが、ヒストグラム生成部18bによって生成される。本実施形態において、具体的には、画像情報入力部18aによって取り込まれた画像データは画素値として輝度を有しており、ヒストグラム生成部18bは、横軸を画素値v(輝度)、縦軸を各画素値の度数Hist(v)(画素の個数)としたヒストグラムを生成する。 Next, in step S62, as histogram generation processing, a histogram of pixel values included in the image data captured in step S61 is generated by the histogram generator 18b. Specifically, in this embodiment, the image data captured by the image information input unit 18a has luminance as a pixel value, and the histogram generation unit 18b plots the pixel value v (luminance) on the horizontal axis and the pixel value v (luminance) on the vertical axis. is the frequency Hist(v) (the number of pixels) of each pixel value.

図6は、遠赤外線画像のヒストグラムの一例を示す図であり、ヒストグラム生成部18bによって生成されたヒストグラムを(a)欄に、本発明の実施形態における多閾値ヒストグラム平坦化法によって平坦化されたヒストグラムを(b)欄に、従来のヒストグラム平坦化法によって平坦化されたヒストグラムを(c)欄に示している。 FIG. 6 is a diagram showing an example of a histogram of a far-infrared image. Column (a) shows the histogram generated by the histogram generation unit 18b. The histogram is shown in column (b) and the histogram smoothed by the conventional histogram equalization method is shown in column (c).

図6の(a)欄に示すように、画像情報入力部18aによって取り込まれた画像データは14bitの補正画像データであるため、その画素値v(輝度)は0~16383の間の値を有する。しかしながら、補正画像データは、極めてコントラストが低く、大部分の画素は約12000~約14000程度の画素値vを有し、画素値が約12000以下の画素は殆ど存在しない。また、画素値v=約14000~約16000の間にも僅かに画素が分布しており、画素値v=約16383付近に小さなピークが存在している。しかしながら、この補正画像データをそのまま画像化しても、その画像から対象物の形状等、有意な情報を抽出することは困難である。 As shown in column (a) of FIG. 6, since the image data captured by the image information input unit 18a is 14-bit corrected image data, its pixel value v (luminance) has a value between 0 and 16383. . However, the corrected image data has extremely low contrast, most of the pixels have a pixel value v of about 12000 to about 14000, and there are almost no pixels with a pixel value of about 12000 or less. In addition, a small number of pixels are distributed between the pixel value v of approximately 14000 and approximately 16000, and a small peak exists near the pixel value v of approximately 16383. However, even if the corrected image data is converted into an image as it is, it is difficult to extract significant information such as the shape of the object from the image.

次に、図5のステップS63においては、ステップS62において得られたヒストグラムに対し、上端閾値THigh及び下端閾値TLowが設定される。本実施形態においては、図6に示すように、上端閾値THighの値は画素値v=約12000~約14000の間に分布するピークにおける度数Hist(v)よりも小さい値に設定されている。一方、下端閾値TLowは、上端閾値THighよりも小さく、0よりも大きい所定の値(度数)に設定されている。 Next, in step S63 of FIG. 5, an upper threshold value T High and a lower threshold value T Low are set for the histogram obtained in step S62. In this embodiment, as shown in FIG. 6, the value of the upper threshold value T High is set to a value smaller than the frequency Hist(v) at the peak distributed between the pixel value v=about 12000 and about 14000. . On the other hand, the lower threshold T Low is set to a predetermined value (frequency) that is smaller than the upper threshold T High and greater than zero.

具体的には、本実施形態においては、上端閾値THigh=2700画素、下端閾値TLow=70画素に設定されている。好ましくは、上端閾値THighは全画素数の約30%~約65%の値に設定し、下端閾値TLowは全画素数の0%~約2%の値に設定する。なお、本実施形態においては、上端閾値THigh及び下端閾値TLowは固定値であるが、取り込まれた補正画像データや、撮影環境等に基づいて異なる上端閾値THigh、下端閾値TLowが設定されるように本発明を構成することもできる。 Specifically, in this embodiment, the upper threshold value T High is set to 2700 pixels, and the lower threshold value T Low is set to 70 pixels. Preferably, the upper threshold T High is set to a value between about 30% and about 65% of the total number of pixels, and the lower threshold T Low is set to a value between 0% and about 2% of the total number of pixels. In the present embodiment, the upper threshold value T High and the lower threshold value T Low are fixed values, but different upper threshold value T High and lower threshold value T Low are set based on the captured corrected image data, the imaging environment, and the like. The present invention can also be configured so that

次に、ステップS64においては、ヒストグラム再構成処理として、ヒストグラム再構成部18c(図4)によってヒストグラムが再構成される。具体的には、ヒストグラム生成部18bによって生成されたヒストグラムの度数Hist(v)が、上端閾値THigh及び下端閾値TLowを使用して、上端閾値THighと下端閾値TLowの間の値となるように、ヒストグラム再構成部18cによって修正される。即ち、ヒストグラム生成部18bによって生成されたヒストグラムの度数Hist(v)が、下記の数式(1)によって上端閾値THighと下端閾値TLowの間の値に修正され、修正された度数Hist'(v)を有するヒストグラムが再構成される。換言すれば、度数Hist(v)が上端閾値THighと下端閾値TLowの値である場合には、度数の修正は行われない(Hist'(v)=Hist(v))。また、度数Hist(v)が上端閾値THigh以上の場合には、度数Hist(v)は上端閾値THighに修正され(Hist'(v)=THigh)、度数Hist(v)が1以上、下端閾値TLow以下の場合には、度数Hist(v)は下端閾値TLowに修正される(Hist'(v)=TLow)。さらに、度数Hist(v)が0である場合には、度数Hist(v)は0のまま修正されない(Hist'(v)=0)。

Figure 0007274909000001
Next, in step S64, a histogram is reconstructed by the histogram reconstruction unit 18c (FIG. 4) as histogram reconstruction processing. Specifically, the frequency Hist(v) of the histogram generated by the histogram generation unit 18b is between the upper threshold value T High and the lower threshold value T Low using the upper threshold value T High and the lower threshold value T Low . is corrected by the histogram reconstruction unit 18c. That is, the histogram frequency Hist(v) generated by the histogram generating unit 18b is corrected to a value between the upper threshold value T High and the lower threshold value T Low by the following formula (1), and the corrected frequency Hist'( A histogram with v) is reconstructed. In other words, if the degree Hist(v) is the value of the upper threshold T High and the lower threshold T Low , no correction of the degree is performed (Hist'(v)=Hist(v)). Further, when the frequency Hist(v) is equal to or higher than the upper threshold T High , the frequency Hist(v) is corrected to the upper threshold T High (Hist'(v)=T High ), and the frequency Hist(v) is 1 or higher. , the frequency Hist(v) is corrected to the lower threshold T Low ( Hist'(v)=T Low ). Furthermore, when the frequency Hist(v) is 0, the frequency Hist(v) remains 0 and is not corrected (Hist'(v)=0).
Figure 0007274909000001

次いで、ステップS65においては、ヒストグラムの平坦化処理として、度数がHist'(v)に修正されたヒストグラムに基づいて、ヒストグラムの平坦化テーブルT(v)が、平坦化処理部18d(図4)によって作成される。具体的には、ヒストグラムを平坦化するための平坦化テーブルT(v)が、下記の数式(2)によって生成される。なお、本実施形態においては、補正画像データが14bit階調を有するため、数式(2)において、Dipth=214=16384である。

Figure 0007274909000002
Next, in step S65, as the histogram flattening process, the histogram flattening table T(v) is generated by the flattening processor 18d (FIG. 4) based on the histogram whose frequency has been corrected to His'(v). Created by Specifically, a flattening table T(v) for flattening the histogram is generated by Equation (2) below. In the present embodiment, since the corrected image data has 14-bit gradation, Dipth=2 14 =16384 in Equation (2).
Figure 0007274909000002

次に、ステップS66においては、ステップS65において生成された平坦化テーブルT(v)を使用して、元の遠赤外線画像データの画素値vの値が、画素値v’=T(v)に変換される。さらに、ステップS66においては、変換された画素値v’に基づいて、ヒストグラムが平坦化された画像データが生成され、図5に示すフローチャートの1回の処理を終了する。 Next, in step S66, the flattening table T(v) generated in step S65 is used to convert the pixel value v of the original far-infrared image data to the pixel value v'=T(v). converted. Further, in step S66, image data with a flattened histogram is generated based on the converted pixel values v', and one processing of the flow chart shown in FIG. 5 is completed.

ここで、図6の(b)欄には、図6の(a)欄に示すヒストグラムの画素値vを、平坦化テーブルT(v)によって変換した画素値v’に基づいて生成されたヒストグラムが示されている。なお、本実施形態においては、変換後の画素値v’は8bit階調のデータ(画素値=0~255)に変換され、データ量が圧縮されている。ここで、図7の(a)欄は、画像情報入力部18a(図4)に入力された原画像を示している。また、図7の(b)欄は、画素値の値が図6の(b)欄に示すようにヒストグラムが変換された遠赤外線画像を示している。 Here, in column (b) of FIG. 6, a histogram generated based on pixel values v′ obtained by converting the pixel values v of the histogram shown in column (a) of FIG. It is shown. In this embodiment, the converted pixel value v' is converted to 8-bit gradation data (pixel value=0 to 255), and the data amount is compressed. Here, column (a) in FIG. 7 shows the original image input to the image information input section 18a (FIG. 4). Also, column (b) in FIG. 7 shows a far-infrared image in which the histogram has been converted so that the pixel values are shown in column (b) in FIG.

図7の(a)欄の画像では、撮影された像を殆ど認識することができない。図7の(b)欄の画像では、画像の中央及び左側に撮影されている人20の輪郭を視認することができる。即ち、図6の(b)欄に示すヒストグラムでは、画面の背景等に対応する画素値(輝度)の小さい部分(画素値=0~150程度)と、人20に対応する画素値(輝度)の大きい部分(画素値=255付近)が明確に分離されている。この結果、画像内の人20の輪郭をある程度明確に把握することが可能になる。 In the image in column (a) of FIG. 7, the photographed image can hardly be recognized. In the image in column (b) of FIG. 7, the contour of the person 20 photographed in the center and left of the image can be visually recognized. That is, in the histogram shown in column (b) of FIG. is clearly separated (around pixel value = 255). As a result, it becomes possible to grasp the outline of the person 20 in the image to some extent clearly.

一方、図6の(c)欄には、比較例として、従来のヒストグラム平坦化処理により平坦化されたヒストグラムが示されている。また、図7の(c)欄には、比較例として、図6の(c)欄のように平坦化されたヒストグラムに基づく画像が示されている。即ち、図6の(c)に示すヒストグラムは、図6の(a)欄に示すヒストグラムを上端閾値THigh及び下端閾値TLowにより再構成することなく、そのまま平坦化したものである。 On the other hand, column (c) of FIG. 6 shows, as a comparative example, a histogram flattened by a conventional histogram flattening process. Also, in column (c) of FIG. 7, as a comparative example, an image based on the histogram flattened as in column (c) of FIG. 6 is shown. That is, the histogram shown in (c) of FIG. 6 is obtained by flattening the histogram shown in column (a) of FIG. 6 without reconstructing it using the upper threshold value T High and the lower threshold value T Low .

ここで、図6の(a)欄に示すヒストグラムでは、上述したように画素値v=約12000以下の画素は皆無に等しく、画素値v=約14000~約16000の間の画素の度数は非常に小さい(画素の数が少ない)。このため、ヒストグラムを再構成することなくヒストグラム平坦化処理を施すと、平坦化後のヒストグラム(図6の(c)欄)において、図6の(a)欄の画素値v=約12000以下、及び画素値v=約14000~約16000に対応して割り当てられる画素値(輝度階調)が極めて少なくなる。この結果、遠赤外線画像中の背景等に対応する部分と、画像中の人20に対応する部分の間の画素値(輝度)の差(輝度差)が極めて少なくなる。このため、図6の(a)欄に示すヒストグラムに対して従来のヒストグラム平坦化処理を施すと、比較例として図7の(c)欄に示す画像のように、画像中の人20の輪郭を視認しにくい画像となる。 Here, in the histogram shown in column (a) of FIG. 6, as described above, pixels with a pixel value v of approximately 12,000 or less are almost non-existent, and pixels with a pixel value v of approximately 14,000 to approximately 16,000 have a very high frequency. small (small number of pixels). Therefore, if the histogram flattening process is performed without reconstructing the histogram, the pixel value v in the column (a) of FIG. And the pixel values (brightness gradation) allocated corresponding to the pixel value v=about 14000 to about 16000 are extremely small. As a result, the difference (brightness difference) in pixel value (brightness) between the portion corresponding to the background or the like in the far-infrared image and the portion corresponding to the person 20 in the image becomes extremely small. Therefore, if the conventional histogram flattening process is applied to the histogram shown in column (a) of FIG. becomes an image that is difficult to see.

これに対して、図6の(a)欄のヒストグラムを、本実施形態のように再構成することにより、非常に高い度数を有する画素値(図6(a)欄の画素値約12000~約14000)については、度数が上端閾値THighにより頭打ちにされる。これに対して、低い度数を有する画素値(図6(a)欄の画素値約14000~約16000)については、度数が下端閾値TLowにより底上げされる。このようにヒストグラムを再構成しておくことにより、元の画像(図6(a)欄)における画素値約14000~約16000に対応した画素値が、平坦化処理後のヒストグラム(図6(b)欄)においてもある程度割り当てられるようになる。この結果、人20の輪郭を把握することが可能な遠赤外線画像を生成することが可能になる。 On the other hand, by reconstructing the histogram in column (a) of FIG. 14000), the frequency is capped by the upper threshold T High . On the other hand, for pixel values having a low frequency (pixel values of about 14000 to about 16000 in column (a) of FIG. 6), the frequency is raised by the lower end threshold value T Low . By reconstructing the histogram in this way, the pixel values corresponding to the pixel values of about 14000 to about 16000 in the original image (column (a) in FIG. 6) are compared to the histogram after the flattening process (column (b in FIG. 6)). ) column) will also be assigned to some extent. As a result, it becomes possible to generate a far-infrared image from which the contour of the person 20 can be grasped.

次に、図8を参照して、画像処理部18において実行される「三次元ノイズリダクション処理」を説明する。
図8は、画像処理部18において実行される三次元ノイズリダクション処理を示すフローチャートである。なお、図8に示す三次元ノイズリダクション処理は、データ処理基板8に内蔵された平滑化処理部18e(図4)により実行される。
Next, "three-dimensional noise reduction processing" executed in the image processing unit 18 will be described with reference to FIG.
FIG. 8 is a flow chart showing three-dimensional noise reduction processing executed in the image processing section 18. As shown in FIG. The three-dimensional noise reduction processing shown in FIG. 8 is executed by a smoothing processing section 18e (FIG. 4) incorporated in the data processing board 8. FIG.

まず、図8のステップS71においては、図5示す多閾値ヒストグラム平坦化処理が施された画像データが取り込まれる。
次に、ステップS72においては、ステップS71において取り込まれた画像が(二次元的に)平滑化される。即ち、画像データ中の注目画素の画素値が、注目画素及びその周囲の画素の画素値に所定の重みを夫々乗じて合算した値に置き換えられる。本実施形態においては、平滑化フィルタとして、下記のフィルタ係数を使用した3×3の一般的なガウシアンフィルタが使用される。

Figure 0007274909000003

上記のフィルタ係数を使用することにより、注目画素の画素値に4/16を、注目画素の上下左右の画素の画素値に夫々2/16を、注目画素の左右の斜め上下の4つの画素の画素値に夫々1/16を乗じた値が合算され、注目画素の画素値が合算された合計値に置き換えられる。 First, at step S71 in FIG. 8, the image data subjected to the multi-threshold histogram flattening process shown in FIG. 5 is captured.
Next, in step S72, the image captured in step S71 is (two-dimensionally) smoothed. That is, the pixel value of the pixel of interest in the image data is replaced with a value obtained by multiplying the pixel values of the pixel of interest and its surrounding pixels by predetermined weights and summing them. In this embodiment, a 3×3 general Gaussian filter using the following filter coefficients is used as the smoothing filter.
Figure 0007274909000003

By using the above filter coefficients, the pixel value of the target pixel is 4/16, the pixel values of the pixels above, below, left and right of the target pixel are respectively 2/16, and the four pixels on the left, right, diagonally above and below the target pixel are set to 2/16. The values obtained by multiplying the pixel values by 1/16 are summed up, and the pixel values of the target pixel are replaced with the summed sum value.

さらに、ステップS73以下の処理においては、ステップS72においてガウシアンフィルタが施された画像データを、2枚の画像データについて平均化することにより、画像が三次元的に平滑化される。上述したように本実施形態においては、遠赤外線カメラ1により、所定の時間間隔で連続的に動画として遠赤外線画像が撮影されている。平滑化処理部18eは、平坦化処理部18dによって時系列で生成された複数フレームの画像データに基づいて画像を平滑化する。具体的には、本実施形態においては1秒間に8フレームの遠赤外線画像が撮影されており、連続的に撮影された2枚の画像データ(フレーム)に重みを付けて平均化することにより、画像が平滑化される。 Further, in the processing from step S73 onwards, the image data is three-dimensionally smoothed by averaging the image data of the two images to which the Gaussian filter has been applied in step S72. As described above, in this embodiment, the far-infrared camera 1 continuously captures far-infrared images as moving images at predetermined time intervals. The smoothing processing unit 18e smoothes the image based on the multiple frames of image data generated in time series by the smoothing processing unit 18d. Specifically, in the present embodiment, 8 frames of far-infrared images are captured per second, and by weighting and averaging two consecutively captured image data (frames), The image is smoothed.

まず、ステップS73においては、最新の画像と、1つ前のフレームの画像(前画像)の画素値の差(輝度差)が計算される。具体的には、最新の画像のi番目の画素の輝度f(i)と、前画像のi番目の画素の輝度f'(i)との差の絶対値σ(i)が全ての画素について夫々計算される。即ち、最新の画像と前画像の間で、同一の画素における輝度の差が大きいほど輝度差σ(i)の値が大きくなる。 First, in step S73, the difference (luminance difference) between the pixel values of the latest image and the image of the previous frame (previous image) is calculated. Specifically, the absolute value σ(i) of the difference between the brightness f(i) of the i-th pixel in the latest image and the brightness f'(i) of the i-th pixel in the previous image is calculated respectively. That is, the value of the luminance difference σ(i) increases as the luminance difference in the same pixel between the latest image and the previous image increases.

次に、ステップS74においては、輝度差σ(i)に基づいて、重み係数が全ての画素について計算される。本実施形態においては、i番目の画素に対する重み係数Range(i)の値は、下記の数式(3)により計算される。なお、本実施形態においては、数式(3)の最右辺に示すように、重み係数Range(i)の計算においてeの冪乗の値を3次までのテイラー展開により近似して計算しており、これにより必要な精度を確保しながら計算量を低下させている。

Figure 0007274909000004
Next, in step S74, weighting factors are calculated for all pixels based on the luminance difference σ(i). In this embodiment, the value of the weighting factor Range(i) for the i-th pixel is calculated by Equation (3) below. In the present embodiment, as shown on the rightmost side of the formula (3), in the calculation of the weighting factor Range(i), the power value of e is approximated by Taylor expansion up to third order. , thereby reducing the amount of computation while ensuring the required accuracy.
Figure 0007274909000004

さらに、ステップS75においては、ステップS74において計算された重み係数Range(i)を使用して、最新の画像のi番目の画素の輝度と、前画像のi番目の画素の輝度との重み付き平均が、全ての画素について計算される。具体的には、i番目の画素の重み付き平均値Average(i)の値は、下記の数式(4)により計算される。

Figure 0007274909000005
Further, in step S75, using the weighting factor Range(i) calculated in step S74, a weighted average of the brightness of the i-th pixel of the latest image and the brightness of the i-th pixel of the previous image is calculated for all pixels. Specifically, the value of the weighted average value Average(i) of the i-th pixel is calculated by Equation (4) below.
Figure 0007274909000005

ここで、数式(4)において、f(i)は最新の画像のi番目の画素の輝度を示している。また、Range(i)は、最新の画像と前画像に基づいて計算されたi番目の画素に対する重み係数である。Average'(i)は、i番目の画素について、前画像と前々画像に基づいて同様にして数式(4)により計算された重み付き平均値である。 Here, in Equation (4), f(i) indicates the brightness of the i-th pixel of the latest image. Also, Range(i) is the weighting factor for the i-th pixel calculated based on the current image and the previous image. Average'(i) is a weighted average value similarly calculated by Equation (4) based on the previous image and the pre-previous image for the i-th pixel.

最後に、ステップS76においては、ステップS75において計算された各画素に対する重み付き平均値Average(i)から構成された画像が、「三次元ノイズリダクション処理」の出力画像として出力され、図8のフローチャートの1回の処理を終了する。 Finally, in step S76, an image composed of the weighted average value Average(i) for each pixel calculated in step S75 is output as an output image of the "three-dimensional noise reduction process", and the flow chart of FIG. terminates the one-time processing of

このように、図8に示す「三次元ノイズリダクション処理」においては、まず、各フレームの遠赤外線画像について3×3のガウシアンフィルタが施される。次いで、同一画素(各画像中の同一の位置にある画素)について最新の画像の輝度と前画像の輝度の重み付き平均値を計算することにより、遠赤外線画像に含まれるノイズが低減される。なお、本実施形態においては、2枚の画像の重み付き平均が計算されているが、3枚以上の画像に基づいて重み付き平均値を計算し、三次元ノイズリダクション処理を実行することもできる。また、その場合には平均値を計算する画像は5枚以下であるのが良い。或いは、複数フレームの画像データに基づく平滑化は行わなくても良い。 Thus, in the "three-dimensional noise reduction processing" shown in FIG. 8, first, a 3×3 Gaussian filter is applied to the far-infrared image of each frame. The noise contained in the far-infrared image is then reduced by calculating the weighted average of the brightness of the current image and the brightness of the previous image for the same pixel (the pixel at the same position in each image). In this embodiment, the weighted average of two images is calculated, but it is also possible to calculate the weighted average value based on three or more images and perform three-dimensional noise reduction processing. . In that case, it is preferable that the number of images for which the average value is calculated is five or less. Alternatively, smoothing based on multiple frames of image data may not be performed.

(エッジ強調処理)
次に、図9を参照して、画像処理部18において実行される「エッジ強調処理」を説明する。
図9は、画像処理部18において実行されるエッジ強調処理を示すフローチャートである。なお、図9に示すエッジ強調処理は、画像処理部18に内蔵されたエッジ強調処理部18f(図4)により実行される。
(edge enhancement processing)
Next, "edge enhancement processing" executed in the image processing unit 18 will be described with reference to FIG.
FIG. 9 is a flow chart showing edge enhancement processing executed in the image processing unit 18. As shown in FIG. The edge enhancement processing shown in FIG. 9 is executed by the edge enhancement processing section 18f (FIG. 4) incorporated in the image processing section 18. FIG.

上述した「三次元ノイズリダクション処理」においては、画素値の平均値を三次元的に計算することにより、遠赤外線画像に含まれるノイズを低減した。しかしながら、注目画素と周辺の画素の平均によりノイズを低減すると、遠赤外線画像中に含まれる像のエッジが不鮮明になるという問題が生じる。そこで、画像処理部18では、エッジ強調処理部18fにおいて、平滑化処理部18eによって「三次元ノイズリダクション処理」が施された画像に対して「エッジ強調処理」が施され、像のエッジが強調され、鮮明にされる。また、本実施形態においては、「エッジ強調処理」としてソーベルフィルタ(Sobel Filter)が使用されている。 In the "three-dimensional noise reduction processing" described above, the noise contained in the far-infrared image is reduced by three-dimensionally calculating the average value of the pixel values. However, if the noise is reduced by averaging the pixel of interest and its surrounding pixels, there arises a problem that the edges of the image included in the far-infrared image become unclear. Therefore, in the image processing unit 18, the edge enhancement processing unit 18f performs “edge enhancement processing” on the image that has been subjected to the “three-dimensional noise reduction processing” by the smoothing processing unit 18e, thereby emphasizing the edges of the image. and made clear. Also, in this embodiment, a Sobel filter is used as the "edge enhancement process".

まず、図9のステップS81においては、図8示す三次元ノイズリダクション処理が施された画像データが取り込まれる。
次に、ステップS82においては、ステップS81において取り込まれた画像に対してソーベルフィルタが施される。本実施形態においては、ソーベルフィルタによる縦線検出(強調)オペレータとして、

Figure 0007274909000006

が使用され、横線検出(強調)オペレータとして、
Figure 0007274909000007

が使用される。 First, in step S81 of FIG. 9, image data that has been subjected to three-dimensional noise reduction processing shown in FIG. 8 is captured.
Next, in step S82, a Sobel filter is applied to the image captured in step S81. In this embodiment, as a vertical line detection (enhancement) operator using a Sobel filter,
Figure 0007274909000006

is used as the horizontal line detection (enhancement) operator,
Figure 0007274909000007

is used.

即ち、縦線検出オペレータKxを使用することにより、注目画素及びその上下の画素の画素値に夫々0を、注目画素の左上及び左下の画素の画素値に夫々-1を、右上及び右下の画素の画素値に夫々1を、左の画素の画素値に-2を、右の画素の画素値に2を夫々乗じた値が合算され、注目画素の画素値f(i)が合算された合計値(輝度)fx(i)に置き換えられる。また、横線検出オペレータKyを使用することにより、注目画素及びその左右の画素の画素値に夫々0を、注目画素の左上及び右上の画素の画素値に夫々-1を、左下及び右下の画素の画素値に夫々1を、上の画素の画素値に-2を、下の画素の画素値に2を夫々乗じた値が合算され、注目画素の画素値f(i)が合算された合計値(輝度)fy(i)に置き換えられる。これらの輝度fx(i)、fy(i)の値が全ての画素について計算される。 That is, by using the vertical line detection operator Kx , the pixel values of the pixel of interest and the pixels above and below it are set to 0, the pixel values of the upper left and lower left pixels of the target pixel are set to -1, and the upper right and lower right pixels are set to -1. multiplied by 1, the pixel value of the left pixel by -2, and the pixel value of the right pixel by 2 are summed, and the pixel value f(i) of the target pixel is summed. is replaced by the total value (luminance) f x (i). Also, by using the horizontal line detection operator K y , the pixel values of the pixel of interest and the pixels to the left and right of it are set to 0, the pixel values of the upper left and upper right pixels of the target pixel are set to -1, and the lower left and lower right pixels are set to -1. The pixel value of each pixel is multiplied by 1, the pixel value of the upper pixel is multiplied by -2, and the pixel value of the lower pixel is multiplied by 2, and the pixel value f(i) of the target pixel is added. It is replaced by the total value (luminance) f y (i). These luminance f x (i), f y (i) values are calculated for all pixels.

次に、ステップS83においては、ステップS82において計算された輝度を使用して、縦横両方(対角線方向)が強調された輝度が全ての画素について夫々計算される。即ち、遠赤外線画像のi番目の画素の輝度f(i)に縦線検出オペレータKxを施すことにより得られた輝度をfx(i)、横線検出オペレータKyを施すことにより得られた輝度をfy(i)とすると、対角線方向が強調された輝度fxy(i)は数式(5)により計算される。

Figure 0007274909000008
Next, in step S83, using the luminance calculated in step S82, both vertically and horizontally (diagonally) emphasized luminances are calculated for all pixels, respectively. That is, f x (i) is the luminance obtained by applying the vertical line detection operator K x to the luminance f (i) of the i-th pixel of the far-infrared image, and f x (i) is obtained by applying the horizontal line detection operator K y Assuming that the luminance is f y (i), the luminance f xy (i) in which the diagonal direction is emphasized is calculated by Equation (5).
Figure 0007274909000008

さらに、ステップS84においては、ステップS82及びステップS83において計算された輝度fx(i)、fy(i)及びfxy(i)を使用して、エッジが強調された出力画像が生成され、図9に示すフローチャートの1回の処理を終了する。対角線方向が強調された各輝度fxy(i)から構成される画像は、像のエッジ部分の輝度が高く、他の部分の輝度が低いものとなる。このため、強調された輝度fx(i)、fy(i)及びfxy(i)からなる画像の各々と、エッジ強調処理を施す前の画像を合成することにより、何れの方向についてもエッジが強調された画像を生成することができる。なお、本実施形態において輝度fx(i)、fy(i)、及びfxy(i)を用いてエッジが強調された画像を生成しているが、本発明はこれに限定されず、少なくとも対角線方向強調されたfxy(i)からなる画像を用いてエッジが強調された画像を生成すれば、従来では得られなかったエッジの強調された画像を得ることができる。 Further, in step S84, the luminances f x (i), f y (i), and f xy (i) calculated in steps S82 and S83 are used to generate an edge-enhanced output image, One process of the flow chart shown in FIG. 9 ends. An image composed of the brightnesses f xy (i) emphasized in the diagonal direction has high brightness in the edge portion of the image and low brightness in other portions. For this reason, by synthesizing each of the images composed of the enhanced luminance f x (i), f y (i) and f xy (i) with the image before edge enhancement processing is performed, An edge-enhanced image can be generated. In the present embodiment, the luminances f x (i), f y (i), and f xy (i) are used to generate an edge-enhanced image, but the present invention is not limited to this. If an edge-enhanced image is generated using at least a diagonally-enhanced image of f xy (i), an edge-enhanced image that could not be obtained conventionally can be obtained.

本実施形態においては、三次元ノイズリダクション処理が施された遠赤外線画像の各画素の輝度f(i)と、これに対してエッジ強調処理を施すことにより得られた輝度fxy(i)に基づいて、出力画像OutImage(i)が数式(6)により求められる。

Figure 0007274909000009

数式(6)におけるβは合成係数であり、本実施形態においてはβ=1/3とすることにより、エッジが適度に強調された画像が得られている。 In this embodiment, the luminance f(i) of each pixel of the far-infrared image subjected to three-dimensional noise reduction processing and the luminance f xy (i) obtained by performing edge enhancement processing on this Based on this, the output image OutImage(i) is obtained by Equation (6).
Figure 0007274909000009

β in Equation (6) is a synthesis coefficient, and in this embodiment, by setting β=1/3, an image with moderately emphasized edges is obtained.

上述したように、画像処理部18において、「多閾値ヒストグラム平坦化処理」、「三次元ノイズリダクション処理」、及び「エッジ強調処理」からなる「画像処理」が施された処理画像のデータは、通信基板10を介してサーバー12に出力される。 As described above, in the image processing unit 18, the data of the processed image that has been subjected to "image processing" consisting of "multi-threshold histogram equalization processing", "three-dimensional noise reduction processing", and "edge enhancement processing" is It is output to the server 12 via the communication board 10 .

(合成部における処理)
次に、合成部19における合成処理について説明する。合成部19は、図4に示すように、温度画像生成部16により生成された温度画像データと画像処理部18により生成された処理画像データとを合成し、1つのデータパッケージとして通信基板10にデータを送信する。
(Processing in the synthesizing unit)
Next, the synthesizing process in the synthesizing unit 19 will be described. As shown in FIG. 4, the synthesizing unit 19 synthesizes the temperature image data generated by the temperature image generating unit 16 and the processed image data generated by the image processing unit 18, and outputs them as one data package to the communication board 10. Send data.

<データ処理基板におけるデータの処理の流れ>
以上ではデータ処理基板8における各部の処理を説明した。以下では、データ処理基板8における処理全体の流れについて説明する。
本実施形態に係るデータ処理基板8では、ボロメータ基板6からRAW画像データを取得すると、まず、ノンユニフォミティ補正部14が、取得したRAW画像データ毎に対してノンユニフォミティ補正が施された補正画像データを生成し、不図示の記憶部に格納する。つまり、記憶部には、ボロメータ基板6から取得したRAW画像データの各々について、ノンユニフォミティ補正が施された補正画像データが逐次格納されていく。
<Data processing flow in the data processing board>
The processing of each part in the data processing board 8 has been described above. The overall flow of processing in the data processing board 8 will be described below.
In the data processing board 8 according to the present embodiment, when RAW image data is acquired from the bolometer board 6, first, the non-uniformity correction unit 14 performs corrected image data obtained by non-uniformity correction for each acquired RAW image data. is generated and stored in a storage unit (not shown). In other words, corrected image data obtained by applying non-uniformity correction to each piece of RAW image data acquired from the bolometer substrate 6 is sequentially stored in the storage unit.

また、ノンユニフォミティ補正部14における補正画像データの生成及び格納が開始されると、温度画像生成部16及び画像処理部18は、記憶部から同一の補正画像データを抽出し、温度画像データの生成と処理画像データの生成とを並行して実行する。ここで、本実施形態に係る温度画像生成部16及び画像処理部18(特に画像処理部18)における処理には上述の通り多くの処理が必要になることから、ノンユニフォミティ補正部14における補正画像データの生成にかかる処理時間よりも長い処理時間が必要となる。従って、1つの温度画像データ及び処理画像データが生成される間に、複数の補正画像データが生成され、格納されることとなる。 Further, when generation and storage of corrected image data in the non-uniformity correction unit 14 are started, the temperature image generation unit 16 and the image processing unit 18 extract the same corrected image data from the storage unit and generate temperature image data. and generation of processed image data are executed in parallel. Here, since many processes are required as described above for the processing in the temperature image generation unit 16 and the image processing unit 18 (especially the image processing unit 18) according to the present embodiment, the corrected image in the non-uniformity correction unit 14 Processing time longer than the processing time required for data generation is required. Therefore, a plurality of pieces of corrected image data are generated and stored while one piece of temperature image data and processed image data is generated.

本実施形態では、温度画像生成部16及び画像処理部18は、1つの温度画像データ及び処理画像データを生成する間に記憶部に格納された複数の補正画像データを用いて、次の温度画像データ及び処理画像データを生成することが好ましい。この場合には、温度画像生成部16及び画像処理部18は、複数の補正画像データにおける各画素に対応する値を平均したデータを用いて温度画像データ及び処理画像データを生成することが好ましい。遠赤外線画像である補正画像データは、多くのノイズを含むため処理が難しいことが知られているが、このように複数の補正画像データを平均することでノイズを低減し、より高い精度で温度画像データ及び処理画像データを生成することができる。 In the present embodiment, the temperature image generation unit 16 and the image processing unit 18 generate the next temperature image using a plurality of corrected image data stored in the storage unit while generating one temperature image data and processed image data. Data and processed image data are preferably generated. In this case, the temperature image generator 16 and the image processor 18 preferably generate the temperature image data and the processed image data using data obtained by averaging the values corresponding to each pixel in the plurality of corrected image data. Corrected image data, which is a far-infrared image, is known to be difficult to process because it contains a lot of noise. Image data and processed image data can be generated.

なお、本発明はこれに限定されるものではなく、温度画像生成部16及び画像処理部18は、1つの温度画像データ及び処理画像データを生成する間に生成され、格納された複数の補正画像データのうち、何れか1つの同一の補正画像データを用いて、次の温度画像データ及び処理画像データを生成してもよい。 Note that the present invention is not limited to this, and the temperature image generation unit 16 and the image processing unit 18 generate and store a plurality of corrected images generated while generating one piece of temperature image data and processed image data. Any one of the same corrected image data may be used to generate the next temperature image data and processed image data.

また、本実施形態では温度画像生成部16及び画像処理部18が同一の補正画像データに基づいて温度画像データ及び処理画像データを生成する構成を例に説明したが、これに限定されない。例えば、温度画像生成部16がある補正画像データに基づいて温度画像データを生成した後、次にある補正画像データの後に生成された補正画像データに基づいて処理画像データを生成する、というように、温度画像データと処理画像データを異なる補正画像データに基づいて交互に生成してもよい。温度画像データと処理画像データを交互に生成することでデータ量を低減することができるため、データ処理基板8における処理及び通信基板10における通信にかかる処理を低減することができる。 Further, in the present embodiment, the temperature image generation unit 16 and the image processing unit 18 generate temperature image data and processed image data based on the same corrected image data, but the configuration is not limited to this. For example, the temperature image generating unit 16 generates temperature image data based on certain corrected image data, and then generates processed image data based on corrected image data generated after certain corrected image data. Alternatively, temperature image data and processed image data may be alternately generated based on different corrected image data. Since the data amount can be reduced by alternately generating the temperature image data and the processed image data, the processing in the data processing board 8 and the communication processing in the communication board 10 can be reduced.

合成部19は、温度画像データ及び処理画像データを1つのデータパッケージとして(つまり、同期して)通信基板10に出力する。データパッケージ(画像出力用プロトコル)についてはその一例を、図13を参照して後述する。なお、合成部19の出力は特に限定されるものではなく、同一の補正画像データに基づいて生成された温度画像データ及び処理画像データを同時に出力してもよいし、交互に出力してもよい。また、温度画像データと処理画像データが異なる補正画像データに基づいて交互に生成された場合にも、温度画像データと処理画像データを交互に出力すればよい。この場合には、温度画像データと処理画像データとを異なるデータパッケージとして出力するように合成部19を構成することもできる。 The synthesizer 19 outputs the temperature image data and the processed image data as one data package (that is, synchronously) to the communication board 10 . An example of the data package (protocol for image output) will be described later with reference to FIG. Note that the output of the synthesizing unit 19 is not particularly limited, and the temperature image data and the processed image data generated based on the same corrected image data may be output simultaneously or alternately. . Moreover, even when the temperature image data and the processed image data are alternately generated based on different corrected image data, the temperature image data and the processed image data may be output alternately. In this case, the synthesizer 19 can be configured to output the temperature image data and the processed image data as different data packages.

また、赤外線カメラ1は、例えば熱画像アレイ4において撮影されたRAW画像に対して撮影時刻を示す時刻データを関連づけてデータ処理基板8にデータを送信できる構成を備えていてもよい。これによれば、合成部19は、時刻データに基づいて同一のRAW画像から生成された温度画像データと処理画像データとを特定し、同時又は交互に(同期して)通信基板10に送信することができる。また、温度画像データと処理画像データとが交互に生成される場合には、時刻データの示す撮影時刻の早い順に温度画像データと処理画像データとを交互に出力することもできる。 Further, the infrared camera 1 may have a configuration capable of transmitting data to the data processing board 8, for example, by associating the RAW image captured by the thermal image array 4 with time data indicating the capturing time. According to this, the synthesizing unit 19 identifies the temperature image data and the processed image data generated from the same RAW image based on the time data, and simultaneously or alternately (synchronously) transmits them to the communication board 10 . be able to. Further, when the temperature image data and the processed image data are generated alternately, the temperature image data and the processed image data can be alternately output in the order of the shooting time indicated by the time data.

<通信基板における処理>
次に、図10乃至図13を参照して、通信基板10における処理を説明する。
図10は、通信基板10によるデータの送信に使用される制御用プロトコルのフォーマットである。図11は、通信基板10によるデータの送信に使用される制御用のシステムコマンドの一例である。図12は、通信基板10によるデータの送信に使用される制御用のキャリブレーションコマンドの一例である。図13は、通信基板10によるデータの送信に使用される画像出力用プロトコルのフォーマットである。
<Processing on communication board>
Next, processing in the communication board 10 will be described with reference to FIGS. 10 to 13. FIG.
FIG. 10 shows the format of the control protocol used for data transmission by the communication board 10. As shown in FIG. FIG. 11 shows an example of control system commands used for data transmission by the communication board 10 . FIG. 12 is an example of a calibration command for control used for data transmission by the communication board 10 . FIG. 13 shows the format of the image output protocol used for data transmission by the communication board 10. As shown in FIG.

上述したように、通信基板10は、温度画像生成部16によって生成された温度画像データ、及び画像処理部18によって生成された処理画像データを、サーバー12等の外部機器に送信するように構成されている。 As described above, the communication board 10 is configured to transmit the temperature image data generated by the temperature image generator 16 and the processed image data generated by the image processor 18 to an external device such as the server 12. ing.

図10に示すように、通信基板10によって使用される制御用プロトコルには3種類のコマンドがある。即ち、図10の(a)欄に示す送信要求コマンドと、図10の(b)欄に示す送信要求に対する応答(リターンデータあり)コマンドと、図10の(c)欄に示す送信要求に対する応答(リターンデータなし)がある。 As shown in FIG. 10, the control protocol used by the communication board 10 has three types of commands. That is, a transmission request command shown in column (a) of FIG. 10, a response (with return data) command to the transmission request shown in column (b) of FIG. 10, and a response to the transmission request shown in column (c) of FIG. (no return data).

図10の(a)欄に示すように、送信要求コマンドは、最初の2バイトがアルファベット2文字のキーワードに割り当てられ、次の2バイトがデータ長に割り当てられ、次の1バイトがコマンドカテゴリに割り当てられ、次の1バイトがコマンドのコードに割り当てられている。さらに、コマンドのコードに続いて、「データ長」において指定されたバイト数のデータが、送信要求コマンドに含められる。本実施形態においては、「コマンドカテゴリ」として、システムコマンド「S」、キャリブレーションコマンド「N」、カメラ管理コマンド「C」等が設定されている。また、本実施形態においては、各「コマンドカテゴリ」に対し、255個のコマンドを割り付けることができる。 As shown in column (a) of FIG. 10, in the transmission request command, the first 2 bytes are assigned to a keyword consisting of two alphabetic characters, the next 2 bytes are assigned to a data length, and the next 1 byte is assigned to a command category. and the next 1 byte is allocated to the code of the command. Furthermore, following the command code, data of the number of bytes specified in "data length" is included in the transmission request command. In this embodiment, system command "S", calibration command "N", camera management command "C", etc. are set as the "command category". Also, in this embodiment, 255 commands can be assigned to each "command category".

次に、図10の(b)欄に示すように、応答コマンド(リターンデータあり)は、最初の2バイトがアルファベット2文字のキーワードに割り当てられ、次の2バイトがデータ長に割り当てられ、次の1バイトがコマンドカテゴリに割り当てられ、次の1バイトがコマンドのコードに割り当てられている。さらに、コマンドのコードに続いて、「データ長」において指定されたバイト数のデータが、応答コマンドに含められる。 Next, as shown in column (b) of FIG. 10, in the response command (with return data), the first 2 bytes are assigned to the keyword of 2 alphabetic characters, the next 2 bytes are assigned to the data length, and the next 2 bytes are assigned to the data length. 1 byte is assigned to the command category, and the next 1 byte is assigned to the code of the command. Furthermore, following the code of the command, data of the number of bytes specified in "data length" is included in the response command.

さらに、図10の(c)欄に示すように、応答コマンド(リターンデータなし)は、最初の2バイトがアルファベット2文字のキーワードに割り当てられ、次の2バイトがデータ長に割り当てられ、次の1バイトがコマンドカテゴリに割り当てられ、次の1バイトがコマンドのコードに割り当てられている。応答コマンド(リターンデータなし)では、「データ長」として常に「2」が割り当てられ、コマンドのコードに続いて、アルファベット2文字(例えば「O」、「K」)が送信される。 Further, as shown in column (c) of FIG. 10, the response command (no return data) has the first 2 bytes assigned to the keyword of 2 alphabetic characters, the next 2 bytes assigned to the data length, and the next 2 bytes assigned to the data length. One byte is assigned to the command category and the next byte is assigned to the code of the command. In a response command (without return data), "2" is always assigned as the "data length", and two alphabetic characters (for example, "O" and "K") are transmitted following the code of the command.

ここで、キーワードは、単にデータの開始点を示してもよいし、また、通信基板10からのデータの送信先(本実施形態では、サーバー12)において実行される制御用プロトコルを指定する識別子として使用されてもよい。換言すれば、後者の場合、キーワードは、以降に続くデータが何れの制御用プロトコルで処理されるデータであるかを示すことができる。 Here, the keyword may simply indicate the starting point of the data, or as an identifier specifying a control protocol executed at the destination of the data from the communication board 10 (the server 12 in this embodiment). may be used. In other words, in the latter case, the keyword can indicate which control protocol the following data is processed by.

例えば、本実施形態に係る通信基板10は、サーバー12において実行される制御プロトコルを指定可能に構成されていてもよい。この場合、実行される制御用プロトコルとキーワードとを関連付けておくことで、サーバー12は、送信されたコマンドに含まれるキーワードから実行する制御用プロトコルを特定し、キーワードに対応した制御用プロトコルを実行することができる。 For example, the communication board 10 according to this embodiment may be configured to be able to specify the control protocol executed by the server 12 . In this case, by associating the control protocol to be executed with the keyword, the server 12 identifies the control protocol to be executed from the keyword included in the transmitted command, and executes the control protocol corresponding to the keyword. can do.

次に、図11及び図12を参照して、制御用のシステムコマンドの一例を説明する。
図11に示すように、本実施形態においては、システムコマンド(コマンドカテゴリ「S」)として、Stream start, Stream end, Alive, Reset, Stream continue(1)等が設定されており、これらに対してコード0x01~0x05が夫々割り当てられている。また、各システムコマンドには、送信要求コマンド(Request)及び応答コマンド(Responseリターンデータなし)が設けられている。さらに、各システムコマンドには、キーワードとして「XX」が設定されており、各送信要求コマンドのデータ長には「0」(データなし)が設定されている。
Next, an example of a control system command will be described with reference to FIGS. 11 and 12. FIG.
As shown in FIG. 11, in this embodiment, Stream start, Stream end, Alive, Reset, Stream continue (1), etc. are set as system commands (command category "S"). Codes 0x01 to 0x05 are assigned respectively. Each system command is provided with a transmission request command (Request) and a response command (Response without return data). Further, each system command is set with "XX" as a keyword, and "0" (no data) is set as the data length of each transmission request command.

また、図12に示すように、本実施形態においては、キャリブレーションコマンド(コマンドカテゴリ「N」)として、Get Cold Image, Get Hot Image, Create Tamron NUC, Range Mode Set, Range Mode Get, Range Max Set, Range Max Get, Range Min Set, Range Min Get, Gamma Set, Gamma Get等が設定されており、これらに対してコード0x11~0x18が夫々割り当てられている。また、各システムコマンドには、送信要求コマンド(Request)と、応答コマンド(Responseリターンデータなし)又は応答コマンド(Responseリターンデータあり)が設けられている。さらに、各システムコマンドには、キーワードとして「XX」が設定されている。これらのキャリブレーションコマンドにより、動作モードやデータレンジ等の設定、確認を行うことができる。 Further, as shown in FIG. 12, in the present embodiment, Get Cold Image, Get Hot Image, Create Tamron NUC, Range Mode Set, Range Mode Get, Range Max Set as calibration commands (command category "N"). , Range Max Get, Range Min Set, Range Min Get, Gamma Set, Gamma Get, etc. are set, and codes 0x11 to 0x18 are assigned to these. Each system command includes a transmission request command (Request) and a response command (without Response return data) or response command (with Response return data). Furthermore, each system command is set with "XX" as a keyword. With these calibration commands, the operation mode, data range, etc. can be set and confirmed.

次に、図13を参照して、画像出力用プロトコルのフォーマットを説明する。
上述したように、本実施形態においては、温度画像生成部16によって生成された温度画像、画像処理部18によって生成された処理画像とも、80×80個の画素から構成されている。これらの画像のデータが、画像出力用プロトコルに基づいて送信される。ここで、「温度画像」を形成する各画素の画素値は、16bit(2バイト)の温度データ(画像データ)によって表されている。また、「処理画像」を形成する各画素の画素値は、8bit(1バイト)の輝度階調データ(画像データ)によって表されている。なお、本実施形態においては、熱画像アレイ4によって取得された1フレームの画像データに基づいて「温度画像」及び「処理画像」が夫々生成され、これらの画像のデータが1フレーム分の画像データの中に含められて通信基板10から送信される。この1フレーム分の画像データの中には、「温度画像」、「処理画像」の順で各画素の画素データが埋め込まれている。
Next, the format of the image output protocol will be described with reference to FIG.
As described above, in this embodiment, both the temperature image generated by the temperature image generator 16 and the processed image generated by the image processor 18 are composed of 80×80 pixels. These image data are transmitted based on the image output protocol. Here, the pixel value of each pixel forming the "temperature image" is represented by 16-bit (2-byte) temperature data (image data). Further, the pixel value of each pixel forming the "processed image" is represented by 8-bit (1-byte) luminance gradation data (image data). In the present embodiment, a "temperature image" and a "processed image" are generated based on one frame of image data acquired by the thermal image array 4, and the data of these images are the image data of one frame. , and transmitted from the communication board 10 . In the image data for one frame, the pixel data of each pixel is embedded in the order of "temperature image" and "processed image".

図13に示すように、画像出力用プロトコルにおいては、1行の出力データの最初の2バイトが画像の行番号(line num)に割り当てられ、次の2バイトが必要なデータ(v temp, Thermistor)に割り当てられている。本実施形態においては、「v temp」は熱画像アレイ4の温度データであり、「Thermistor」は遠赤外線カメラ1内部の雰囲気温度のデータである。これらの温度のデータは1フレーム分の画像データの最初の2行に埋め込まれており、3行目以下では「0」にされている。この「必要なデータ」に続いて、画像の1行分の画素データが割り当てられている。出力データの最初の80行(0~79行)には、「温度画像」の画素データが埋め込まれている。即ち、出力データの0行目には、2バイトの「必要なデータ」に続き、「温度画像」の0行目(line num 0)の画素データ(2バイト×80=160バイト)が埋め込まれている。同様にして、「温度画像」の1行目以降の画素データが出力データに埋め込まれ、出力データの79行目には、「温度画像」の79行目(line num 79)の画素データが埋め込まれる。さらに、出力データの80~83行目は空行であり、「FF」が埋め込まれている。 As shown in FIG. 13, in the image output protocol, the first two bytes of the output data of one line are assigned to the line number (line num) of the image, and the next two bytes are the required data (v temp, Thermistor ). In this embodiment, “v temp” is temperature data of the thermal image array 4 and “Thermistor” is data of the ambient temperature inside the far-infrared camera 1 . These temperature data are embedded in the first two lines of the image data for one frame, and are set to "0" in the third and subsequent lines. Following this "required data", pixel data for one row of the image is assigned. The first 80 lines (0 to 79 lines) of the output data are embedded with the pixel data of the "temperature image". That is, in the 0th line of the output data, the pixel data (2 bytes×80=160 bytes) of the 0th line (line num 0) of the "temperature image" is embedded following the 2-byte "required data". ing. Similarly, the pixel data of the 1st and subsequent lines of the "temperature image" are embedded in the output data, and the pixel data of the 79th line (line num 79) of the "temperature image" is embedded in the 79th line of the output data. be Furthermore, the 80th to 83rd lines of the output data are blank lines and are filled with "FF".

次いで、出力データの84行目には、「処理画像」の行番号(line num 0)の2バイトに続き、「必要なデータ」2バイト、さらに、「処理画像」の0行目(line num 0)の画素データ(1バイト×80=80バイト)が埋め込まれている。同様にして、「処理画像」の1行目以降の画素データが出力データに埋め込まれ、出力データの163行目には、「処理画像」の79行目(line num 79)の画素データが埋め込まれる。さらに、出力データの164~167行目は空行であり、「FF」が埋め込まれている。 Next, on the 84th line of the output data, 2 bytes of the line number (line num 0) of the "processed image" are followed by 2 bytes of "required data", and further, the 0th line (line num 0) pixel data (1 byte×80=80 bytes) is embedded. Similarly, the pixel data of the 1st and subsequent lines of the "processed image" are embedded in the output data, and the pixel data of the 79th line (line num 79) of the "processed image" is embedded in the 163rd line of the output data. be Furthermore, the 164th to 167th lines of the output data are blank lines and are filled with "FF".

さらに、通信基板10では、このようにして生成された「温度画像」及び「処理画像」の両方の情報を含む1フレーム分の画像データが、下位層の通信プロトコル(例えば、TCP, IP, Ethernet等)に引き渡され、送信される。さらに、遠赤外線カメラ1の通信基板10から送信された画像のデータは、サーバー12等の外部機器によって受信される。画像データを受信した外部機器は、例えば、画像データ中の「処理画像」を表す部分を動画としてディスプレイに表示することができる。また、受信された画像データ中の「温度画像」を表す部分は、画像中の対象物の温度を表示するために使用することができる。例えば、ディスプレイに表示されている動画中の或る点がマウスポインタで指示されると、その点の温度を「温度画像」の画素値に基づいて表示するように外部機器を構成することもできる。 Furthermore, in the communication board 10, one frame of image data including information on both the "temperature image" and the "processed image" generated in this way is transferred to a lower layer communication protocol (for example, TCP, IP, Ethernet, etc.). etc.) and sent. Further, image data transmitted from the communication board 10 of the far-infrared camera 1 is received by an external device such as the server 12 or the like. The external device that has received the image data can display, for example, a portion representing the "processed image" in the image data as a moving image on the display. Also, the portion of the received image data representing a "temperature image" can be used to display the temperature of the object in the image. For example, the external device can be configured to display the temperature of that point based on the pixel values of the "temperature image" when a certain point in the moving image displayed on the display is indicated by the mouse pointer. .

ここで、本実施形態においては、「処理画像」と「温度画像」は、同一の画素数を有すると共に、熱画像アレイ4によって取得された同一フレームの画像データから生成されたものである。このため、ディスプレイ上に表示される画像と、画像上の各点に対応する温度データの整合性が高く、信頼性の高い温度を表示することができる。なお、外部機器において、遠赤外線カメラ1から送信された「処理画像」及び「温度画像」データに対して種々の処理を行うことができ、各データに対して任意の処理を施し利用することができる。 Here, in the present embodiment, the “processed image” and the “temperature image” have the same number of pixels and are generated from the same frame of image data acquired by the thermal image array 4 . Therefore, the image displayed on the display is highly consistent with the temperature data corresponding to each point on the image, and highly reliable temperatures can be displayed. In the external device, various processing can be performed on the "processed image" and "temperature image" data transmitted from the far-infrared camera 1, and each data can be subjected to arbitrary processing and used. can.

なお、図13では温度画像データと処理画像データを1つのデータパッケージとして同時に出力する場合のデータフォーマットの一例について説明したが、本発明はこれに限定されるものではない。例えば、温度画像データと処理画像データを交互に送信する場合には、例えば図13に示すデータフォーマットのうち、Line0~Line79及びLine80~Line83(FF)を1つのデータパッケージとして送信した後、Line84~Line163及びLine164~Line167(FF)を次のデータパッケージとして送信する構成を採用することもできる。 Although FIG. 13 illustrates an example of a data format when temperature image data and processed image data are simultaneously output as one data package, the present invention is not limited to this. For example, when transmitting temperature image data and processed image data alternately, after transmitting Line 0 to Line 79 and Line 80 to Line 83 (FF) in the data format shown in FIG. 13 as one data package, Line 84 to A configuration in which Line 163 and Line 164 to Line 167 (FF) are transmitted as the next data package can also be adopted.

なお、本実施形態では、データ処理基板8の合成部19において温度画像データと処理画像データとを1つのデータパッケージとして通信基板10に出力する構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、通信基板10の機能がデータ処理基板8に実装されていてもよいし、合成部19の機能や他の機能が通信基板10に実装されていてもよい。 In the present embodiment, an example of a configuration in which temperature image data and processed image data are output to the communication board 10 as one data package in the synthesizing section 19 of the data processing board 8 has been described. is not limited to For example, the functions of the communication board 10 may be implemented on the data processing board 8 , or the functions of the synthesizing unit 19 and other functions may be implemented on the communication board 10 .

本発明の実施形態の遠赤外線カメラ1によれば、温度画像生成部16によって生成された温度画像のデータ、及び画像処理部18によって生成された処理画像のデータ(図13)がサーバー12等の外部機器に送信されるので、撮影された対象物の形状及び温度の両方を把握することができる。 According to the far-infrared camera 1 of the embodiment of the present invention, temperature image data generated by the temperature image generation unit 16 and processed image data (FIG. 13) generated by the image processing unit 18 are sent to the server 12 or the like. Since it is transmitted to an external device, both the shape and temperature of the photographed object can be grasped.

また、本実施形態の遠赤外線カメラ1によれば、遠赤外線アレイセンサである熱画像アレイ4によって取得された1フレームの画像データ(補正画像データ)に対し、温度画像及び処理画像が夫々生成されるので、処理画像中に撮影されている対象物と、温度画像中の温度の整合性が高く、信頼性の高い温度情報を得ることができる。 Further, according to the far-infrared camera 1 of the present embodiment, a temperature image and a processed image are generated for one frame of image data (corrected image data) acquired by the thermal image array 4, which is a far-infrared array sensor. Therefore, it is possible to obtain highly reliable temperature information with high consistency between the object photographed in the processed image and the temperature in the temperature image.

さらに、本実施形態の遠赤外線カメラ1によれば、画像処理部18は、ノンユニフォミティ補正部14によって補正した後の補正画像データの階調を補正するので、熱画像アレイ4によって取得されたデータに基づいて、対象物を視認しやすい画像を生成することができる。 Furthermore, according to the far-infrared camera 1 of the present embodiment, the image processing unit 18 corrects the gradation of the corrected image data after being corrected by the non-uniformity correcting unit 14, so the data acquired by the thermal image array 4 Based on, it is possible to generate an image in which the object can be easily visually recognized.

また、本実施形態の遠赤外線カメラ1によれば、温度画像生成部16によって生成された温度画像の各画素の画素値を表す画像データと、画像処理部18によって生成された処理画像の各画素の画素値を表す画像データは、有効なbit数が異なっている。このため、温度画像及び処理画像を必要にして十分な分解能で生成することができ、画像処理に要する計算量、送信すべきデータ量を最適化することができる。 Further, according to the far-infrared camera 1 of the present embodiment, the image data representing the pixel value of each pixel of the temperature image generated by the temperature image generation unit 16 and each pixel of the processed image generated by the image processing unit 18 The image data representing the pixel values of are different in the effective number of bits. Therefore, the temperature image and the processed image can be generated with necessary and sufficient resolution, and the amount of calculation required for image processing and the amount of data to be transmitted can be optimized.

さらに、本実施形態の遠赤外線カメラ1によれば、温度画像生成部によって生成された温度画像と、画像処理部によって生成された処理画像は、同一の画素数を有する。このため、処理画像中に撮影されている対象物の位置と、温度画像中の温度のデータを正確に整合させることができ、信頼性の高い温度測定値を得ることができる。 Furthermore, according to the far-infrared camera 1 of the present embodiment, the temperature image generated by the temperature image generating section and the processed image generated by the image processing section have the same number of pixels. Therefore, the position of the object photographed in the processed image can be accurately matched with the temperature data in the temperature image, and highly reliable temperature measurements can be obtained.

また、本実施形態の遠赤外線カメラ1によれば、送信部である通信基板10は、温度画像生成部16によって生成された温度画像のデータ、及び画像処理部18によって生成された処理画像のデータを、1フレームの画像データの中に含めてサーバー12等の外部機器に送信する。このため、処理画像と、これと同時に取得された温度画像を容易に対応させることができ、処理画像中に撮影されている対象物の正確な温度を特定することができる。 Further, according to the far-infrared camera 1 of the present embodiment, the communication board 10, which is the transmitter, transmits the data of the temperature image generated by the temperature image generation unit 16 and the data of the processed image generated by the image processing unit 18. is included in one frame of image data and transmitted to an external device such as the server 12 or the like. Therefore, the processed image can be easily correlated with the temperature image acquired at the same time, and the exact temperature of the object photographed in the processed image can be specified.

以上、本発明の実施形態による遠赤外線カメラを説明したが、上述した実施形態に種々の変更を加えることができる。特に、上述した実施形態において、画像処理部は補正画像データの階調を補正していたが、任意の処理を施した画像データを処理画像として送信するように、本発明の遠赤外線カメラを構成することができる。 Although the far-infrared camera according to the embodiment of the present invention has been described above, various modifications can be made to the embodiment described above. In particular, in the above-described embodiment, the image processing unit corrects the gradation of the corrected image data, but the far infrared camera of the present invention is configured so that the image data subjected to arbitrary processing is transmitted as a processed image. can do.

さらに、上述した実施形態においては、温度画像のデータ、及び処理画像のデータが、1フレーム分の画像データとして送信されていたが、これらを別々に送信することもできる。また、上述した実施形態においては、熱画像アレイによって取得された1フレームの画像データから、温度画像及び処理画像が夫々生成されていたが、温度画像及び処理画像を別フレームの画像データから生成することもできる。さらに、上述した実施形態においては、温度画像の画素値として16bit、処理画像の画素値として8bitの画素値が割り当てられていたが、各画素値に任意のbit数を割り当てることができる。また、上述した実施形態においては、温度画像及び処理画像は同一の画素数で構成されていたが、各画像の画素数は、任意に設定することができる。 Furthermore, in the above-described embodiment, the temperature image data and the processed image data are transmitted as one frame of image data, but they can be transmitted separately. In the above-described embodiment, the temperature image and the processed image are generated from one frame of image data acquired by the thermal image array, but the temperature image and the processed image are generated from another frame of image data. can also Furthermore, in the above-described embodiment, 16-bit pixel values are assigned to the temperature image and 8-bit pixel values are assigned to the processed image, but any number of bits can be assigned to each pixel value. Further, in the above-described embodiment, the temperature image and the processed image are composed of the same number of pixels, but the number of pixels of each image can be set arbitrarily.

1 遠赤外線カメラ
2 遠赤外広角レンズ(遠赤外レンズ)
4 熱画像アレイ(遠赤外線アレイセンサ)
6 ボロメータ基板
8 データ処理基板
10 通信基板(送信部)
12 サーバー(外部機器)
14 ノンユニフォミティ補正部
16 温度画像生成部
18 画像処理部
18a 画像情報入力部
18b ヒストグラム生成部
18c ヒストグラム再構成部
18d 平坦化処理部
18e 平滑化処理部
18f エッジ強調処理部
19 合成部
20 人
1 far-infrared camera 2 far-infrared wide-angle lens (far-infrared lens)
4 Thermal imaging array (far infrared array sensor)
6 bolometer substrate 8 data processing substrate 10 communication substrate (transmitting unit)
12 Server (external device)
14 non-uniformity correction unit 16 temperature image generation unit 18 image processing unit 18a image information input unit 18b histogram generation unit 18c histogram reconstruction unit 18d flattening processing unit 18e smoothing processing unit 18f edge enhancement processing unit 19 synthesis unit 20 people

Claims (9)

遠赤外線画像の画像データを外部機器に送信する動画撮影用の遠赤外線カメラであって、
入射した遠赤外線を合焦させる遠赤外レンズと、
この遠赤外レンズによって合焦された遠赤外線画像の画像データを取得する遠赤外線アレイセンサと、
上記遠赤外線アレイセンサによって取得された画像データにノンユニフォミティ画像補正を施した補正画像データを生成するノンユニフォミティ補正部と、
上記補正画像データに基づいて、画像内の各部における温度を表す温度画像データを生成する温度画像生成部と、
上記補正画像データに基づいて、当該補正画像データの階調を補正した処理画像データを生成する画像処理部と、
上記温度画像データ、及び上記処理画像データを送信する送信部と、
を有し、
上記温度画像データと、上記処理画像データは、有効なbit数が異なることを特徴とする遠赤外線カメラ。
A far-infrared camera for video shooting that transmits image data of a far-infrared image to an external device,
a far-infrared lens for focusing incident far-infrared rays;
a far-infrared array sensor for acquiring image data of a far-infrared image focused by the far-infrared lens;
a non-uniformity correction unit that generates corrected image data by applying non-uniformity image correction to the image data acquired by the far-infrared array sensor;
a temperature image generation unit that generates temperature image data representing the temperature of each part in the image based on the corrected image data;
an image processing unit that generates processed image data obtained by correcting the gradation of the corrected image data based on the corrected image data;
a transmission unit that transmits the temperature image data and the processed image data;
has
A far-infrared camera , wherein the temperature image data and the processed image data have different effective bit numbers .
遠赤外線画像の画像データを外部機器に送信する動画撮影用の遠赤外線カメラであって、A far-infrared camera for video shooting that transmits image data of a far-infrared image to an external device,
入射した遠赤外線を合焦させる遠赤外レンズと、 a far-infrared lens for focusing incident far-infrared rays;
この遠赤外レンズによって合焦された遠赤外線画像の画像データを取得する遠赤外線アレイセンサと、 a far-infrared array sensor for acquiring image data of a far-infrared image focused by the far-infrared lens;
上記遠赤外線アレイセンサによって取得された画像データにノンユニフォミティ画像補正を施した補正画像データを生成するノンユニフォミティ補正部と、 a non-uniformity correction unit that generates corrected image data by applying non-uniformity image correction to the image data acquired by the far-infrared array sensor;
上記補正画像データに基づいて、画像内の各部における温度を表す温度画像データを生成する温度画像生成部と、 a temperature image generation unit that generates temperature image data representing the temperature of each part in the image based on the corrected image data;
上記補正画像データに基づいて、当該補正画像データの階調を補正した処理画像データを生成する画像処理部と、 an image processing unit that generates processed image data obtained by correcting the gradation of the corrected image data based on the corrected image data;
上記温度画像データ、及び上記処理画像データを送信する送信部と、 a transmission unit that transmits the temperature image data and the processed image data;
を有し、 has
上記送信部は、上記温度画像データ及び上記処理画像データを、1フレームの画像データの中に含めて送信することを特徴とする遠赤外線カメラ。 The far-infrared camera, wherein the transmission unit transmits the temperature image data and the processed image data in one frame of image data.
遠赤外線画像の画像データを外部機器に送信する動画撮影用の遠赤外線カメラであって、A far-infrared camera for video shooting that transmits image data of a far-infrared image to an external device,
入射した遠赤外線を合焦させる遠赤外レンズと、 a far-infrared lens for focusing incident far-infrared rays;
この遠赤外レンズによって合焦された遠赤外線画像の画像データを取得する遠赤外線アレイセンサと、 a far-infrared array sensor for acquiring image data of a far-infrared image focused by the far-infrared lens;
上記遠赤外線アレイセンサによって取得された画像データにノンユニフォミティ画像補正を施した補正画像データを生成するノンユニフォミティ補正部と、 a non-uniformity correction unit that generates corrected image data by applying non-uniformity image correction to the image data acquired by the far-infrared array sensor;
上記補正画像データに基づいて、画像内の各部における温度を表す温度画像データを生成する温度画像生成部と、 a temperature image generation unit that generates temperature image data representing the temperature of each part in the image based on the corrected image data;
上記補正画像データに基づいて、当該補正画像データの階調を補正した処理画像データを生成する画像処理部と、 an image processing unit that generates processed image data obtained by correcting the gradation of the corrected image data based on the corrected image data;
上記温度画像データ、及び上記処理画像データを送信する送信部と、 a transmission unit that transmits the temperature image data and the processed image data;
を有し、 has
上記送信部は、上記温度画像データ及び上記処理画像データに対して、上記温度画像データ及び上記処理画像データを受信する端末における処理を指定する所定の識別子を関連付けて送信することを特徴とする遠赤外線カメラ。 wherein the transmission unit transmits the temperature image data and the processed image data in association with a predetermined identifier designating processing in a terminal that receives the temperature image data and the processed image data. infrared camera.
上記送信部は、上記温度画像データ及び上記処理画像データを同期して出力する請求項1乃至3の何れか1項に記載の遠赤外線カメラ。 The far-infrared camera according to any one of claims 1 to 3, wherein the transmission section outputs the temperature image data and the processed image data synchronously. 上記送信部は、上記温度画像データと上記処理画像データとを同時に送信する請求項1乃至3の何れか1項に記載の遠赤外線カメラ。 The far-infrared camera according to any one of claims 1 to 3, wherein the transmission section simultaneously transmits the temperature image data and the processed image data. 上記送信部は、上記温度画像データと上記処理画像データとをそれぞれ交互に送信する請求項1乃至3の何れか1項に記載の遠赤外線カメラ。 The far-infrared camera according to any one of claims 1 to 3, wherein the transmission section alternately transmits the temperature image data and the processed image data. 上記温度画像生成部及び上記画像処理部は、同一の上記補正画像データに基づいて上記温度画像データ及び上記処理画像データを生成する請求項1乃至の何れか1項に記載の遠赤外線カメラ。 The far-infrared camera according to any one of claims 1 to 6 , wherein the temperature image generating section and the image processing section generate the temperature image data and the processed image data based on the same corrected image data. 上記温度画像生成部及び上記画像処理部は、同一の上記補正画像データに基づいて生成された上記温度画像データ及び上記処理画像データが上記送信部により送信された後、同一の上記補正画像データとは異なる補正画像データに基づく上記温度画像データ及び上記処理画像データの生成を開始する請求項1乃至の何れか1項に記載の遠赤外線カメラ。 After the transmission unit transmits the temperature image data and the processed image data generated based on the same corrected image data, the temperature image generation unit and the image processing unit generate the same corrected image data. 8. A far-infrared camera according to any one of claims 1 to 7 , wherein the temperature image data and the processed image data are generated based on different corrected image data. 上記温度画像データの表す温度画像と、上記処理画像データの表す処理画像は、同一の画素数を有する請求項1乃至8の何れか1項に記載の遠赤外線カメラ。 The far-infrared camera according to any one of claims 1 to 8, wherein the temperature image represented by the temperature image data and the processed image represented by the processed image data have the same number of pixels.
JP2019067259A 2019-03-29 2019-03-29 far infrared camera Active JP7274909B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019067259A JP7274909B2 (en) 2019-03-29 2019-03-29 far infrared camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019067259A JP7274909B2 (en) 2019-03-29 2019-03-29 far infrared camera

Publications (2)

Publication Number Publication Date
JP2020167556A JP2020167556A (en) 2020-10-08
JP7274909B2 true JP7274909B2 (en) 2023-05-17

Family

ID=72715305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019067259A Active JP7274909B2 (en) 2019-03-29 2019-03-29 far infrared camera

Country Status (1)

Country Link
JP (1) JP7274909B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325120A (en) 2006-06-02 2007-12-13 Sumitomo Electric Ind Ltd Far infrared imaging system and far infrared imaging method
JP2012083822A (en) 2010-10-07 2012-04-26 Seiko Epson Corp Image processor and image processing method
US20160042500A1 (en) 2014-08-05 2016-02-11 Seek Thermal, Inc. Local contrast adjustment for digital images
WO2018025466A1 (en) 2016-08-04 2018-02-08 ソニー株式会社 Image processing apparatus and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325120A (en) 2006-06-02 2007-12-13 Sumitomo Electric Ind Ltd Far infrared imaging system and far infrared imaging method
JP2012083822A (en) 2010-10-07 2012-04-26 Seiko Epson Corp Image processor and image processing method
US20160042500A1 (en) 2014-08-05 2016-02-11 Seek Thermal, Inc. Local contrast adjustment for digital images
WO2018025466A1 (en) 2016-08-04 2018-02-08 ソニー株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2020167556A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
CN108055452A (en) Image processing method, device and equipment
JP2020535758A (en) Image processing methods, devices, and devices
CN108304821B (en) Image recognition method and device, image acquisition method and device, computer device and non-volatile computer-readable storage medium
JP5968073B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP2009212853A (en) White balance controller, its control method, and imaging apparatus
TWI709110B (en) Camera calibration method and apparatus, electronic device
CN108024054A (en) Image processing method, device and equipment
CN110191291A (en) Image processing method and device based on multiple image
CN107704798B (en) Image blurring method and device, computer readable storage medium and computer device
JP6852411B2 (en) Video signal processing device, video signal processing method and program
KR101849740B1 (en) Method and apparatus for enhancing local contrast in a thermal image
CN110213502A (en) Image processing method, device, storage medium and electronic equipment
JP2015127668A (en) Measurement device, system and program
US20180197282A1 (en) Method and device for producing a digital image
JP2014138290A (en) Imaging device and imaging method
CN107454335B (en) Image processing method, image processing device, computer-readable storage medium and mobile terminal
CN108111768A (en) Control method, apparatus, electronic equipment and the computer readable storage medium of focusing
CN107563329B (en) Image processing method, image processing device, computer-readable storage medium and mobile terminal
JPWO2018021048A1 (en) Color calibration apparatus, color calibration system, color calibration hologram, color calibration method, and program
JP7274909B2 (en) far infrared camera
CN112750087A (en) Image processing method and device
JP2017138927A (en) Image processing device, imaging apparatus, control method and program thereof
CN110266967A (en) Image processing method, device, storage medium and electronic equipment
CN112995633B (en) Image white balance processing method and device, electronic equipment and storage medium
JP7321772B2 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230502

R150 Certificate of patent or registration of utility model

Ref document number: 7274909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150