JP7274909B2 - far infrared camera - Google Patents
far infrared camera Download PDFInfo
- Publication number
- JP7274909B2 JP7274909B2 JP2019067259A JP2019067259A JP7274909B2 JP 7274909 B2 JP7274909 B2 JP 7274909B2 JP 2019067259 A JP2019067259 A JP 2019067259A JP 2019067259 A JP2019067259 A JP 2019067259A JP 7274909 B2 JP7274909 B2 JP 7274909B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- far
- temperature
- infrared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 152
- 230000005540 biological transmission Effects 0.000 claims description 27
- 238000012937 correction Methods 0.000 claims description 19
- 238000003702 image correction Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 description 43
- 235000019557 luminance Nutrition 0.000 description 24
- 238000000034 method Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000009467 reduction Effects 0.000 description 12
- 230000004044 response Effects 0.000 description 12
- 238000009499 grossing Methods 0.000 description 10
- 230000002194 synthesizing effect Effects 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 9
- 239000000758 substrate Substances 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 238000012935 Averaging Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000001931 thermography Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000009529 body temperature measurement Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Radiation Pyrometers (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
本発明は、遠赤外線カメラに関し、特に、遠赤外線画像を撮影して、撮影された画像のデータを外部機器に送信する動画撮影用の遠赤外線カメラに関する。 TECHNICAL FIELD The present invention relates to a far-infrared camera, and more particularly to a far-infrared camera for capturing moving images that captures a far-infrared image and transmits data of the captured image to an external device.
遠赤外線画像は、撮影対象物から放射された遠赤外線を画像化したものであるため、夜間等の可視光線の少ない環境においても、撮影用の照明を用いることなく取得することができ、監視用途等に好適である。特開2018-152106号公報(特許文献1)には、水上侵入検知システムおよびその方法が記載されている。この水上侵入検知システムでは、海上を監視する可視カメラ及び遠赤外線カメラ映像から侵入する物体の候補を検知し、さらに、大きさ、速度、侵入する方向および直線性等を導き、ある程度の物体識別を行っている。さらに、遠赤外線映像での輝度等から、船舶、ヒト、浮遊物を区別している。また、映像をフーリエ変換するなどして、物体が無い場所での海面の通常の波の周期性を観測して、その通常状態の波の動きと物体の動きとの連動性に基づいて、物体の識別精度を向上させている。 A far-infrared image is an image of the far-infrared rays emitted from the object to be photographed, so it can be acquired without using lighting for photography, even in environments with little visible light, such as at night. etc. Japanese Patent Laying-Open No. 2018-152106 (Patent Document 1) describes a water intrusion detection system and method. This waterborne intrusion detection system detects candidates of intruding objects from images of visible cameras and far-infrared cameras that monitor the sea, and further derives the size, speed, intruding direction, linearity, etc., and identifies objects to some extent. Is going. Furthermore, ships, people, and floating objects are distinguished from the brightness of the far-infrared image. In addition, by Fourier transforming the image, we observe the periodicity of normal waves on the sea surface where there are no objects. It improves the identification accuracy of
一方、取得された遠赤外線画像には、撮影された対象物の温度の情報も含まれており、遠赤外線画像の使用目的に応じて、この情報を有効に活用することができる。即ち、遠赤外線画像に基づいて、撮影された対象物の特性や状態を検出することが可能であり、このような目的での応用においても、遠赤外線カメラの活用が期待されている。 On the other hand, the acquired far-infrared image also includes temperature information of the photographed object, and this information can be effectively utilized according to the intended use of the far-infrared image. That is, it is possible to detect the characteristics and state of the photographed object based on the far-infrared image, and it is expected that the far-infrared camera will be used for this purpose as well.
しかしながら、遠赤外線カメラによって撮影された遠赤外線画像は、一般に、輝度やコントラストが低く、撮影された像のエッジも不鮮明である。さらに、遠赤外線画像は、画像データの中に含まれるノイズも多い。このような理由から、遠赤外線カメラによって撮影された対象物の形態を把握するためには、遠赤外線画像に何らかの画像処理を施すことが好ましい。一方、撮影された対象物の視認性を改善するために、画像データに補正を加えてしまうと、遠赤外線画像に含まれる温度の情報が毀損されてしまう場合がある。 However, the far-infrared image captured by the far-infrared camera generally has low brightness and contrast, and the edges of the captured image are unclear. Furthermore, the far-infrared image has much noise included in the image data. For this reason, it is preferable to apply some image processing to the far-infrared image in order to grasp the shape of the object photographed by the far-infrared camera. On the other hand, if the image data is corrected in order to improve the visibility of the photographed object, the temperature information included in the far-infrared image may be damaged.
従って、本発明は、遠赤外線画像を撮影し、取得された画像データに基づいて撮影された対象物の形状及び温度を把握することが可能な遠赤外線カメラを提供することを目的としている。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a far-infrared camera capable of capturing a far-infrared image and grasping the shape and temperature of the captured object based on the acquired image data.
上述した課題を解決するために、本発明は、遠赤外線画像の画像データを外部機器に送信する動画撮影用の遠赤外線カメラであって、入射した遠赤外線を合焦させる遠赤外レンズと、この遠赤外レンズによって合焦された遠赤外線画像の画像データを取得する遠赤外線アレイセンサと、遠赤外線アレイセンサによって取得された画像データにノンユニフォミティ画像補正を施した補正画像データを生成するノンユニフォミティ補正部と、補正画像データに基づいて、画像内の各部における温度を表す温度画像データを生成する温度画像生成部と、補正画像データに基づいて、当該画像データの階調を補正した処理画像データを生成する画像処理部と、温度画像データ、及び処理画像データを送信する送信部と、を有することを特徴としている。 In order to solve the above-described problems, the present invention provides a far-infrared camera for video shooting that transmits image data of a far-infrared image to an external device, comprising: a far-infrared lens that focuses incident far-infrared rays; A far-infrared array sensor that acquires image data of a far-infrared image focused by the far-infrared lens, and a non-uniformity image correction that generates corrected image data by applying non-uniformity image correction to the image data acquired by the far-infrared array sensor. A uniformity correction unit, a temperature image generation unit that generates temperature image data representing the temperature of each part in the image based on the corrected image data, and a processed image obtained by correcting the gradation of the image data based on the corrected image data. It is characterized by having an image processing unit that generates data, and a transmission unit that transmits temperature image data and processed image data.
このように構成された本発明によれば、画像データに基づいて生成された温度画像データ及び処理画像データから、撮影された対象物の形状及び温度の両方を把握することができる。 According to the present invention configured as described above, both the shape and temperature of the photographed object can be grasped from the temperature image data and the processed image data generated based on the image data.
本発明の遠赤外線カメラによれば、遠赤外線画像を撮影し、取得された画像データに基づいて撮影された対象物の形状及び温度を把握することができる。 According to the far-infrared camera of the present invention, it is possible to capture a far-infrared image and grasp the shape and temperature of the captured object based on the acquired image data.
次に、添付図面を参照して、本発明の好ましい実施形態を説明する。
まず、図1及び図2を参照して、本発明の実施形態による遠赤外線カメラを説明する。図1は、本実施形態の遠赤外線カメラの外観を示す斜視図である。図2は、遠赤外線カメラの内部構造を示す斜視断面図である。
Preferred embodiments of the present invention will now be described with reference to the accompanying drawings.
First, a far-infrared camera according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG. FIG. 1 is a perspective view showing the appearance of the far-infrared camera of this embodiment. FIG. 2 is a perspective sectional view showing the internal structure of the far-infrared camera.
<遠赤外線カメラの構成>
図1及び図2に示すように、本発明の実施形態による遠赤外線カメラ1は、直方体状の箱形の筐体を有しており、遠赤外線カメラ1のレンズが筐体の一側面に取り付けられている。また、図2に示すように、遠赤外線カメラ1の筐体内には、遠赤外線カメラ1によって撮影された遠赤外線画像を画像処理するための信号処理用のデータ処理基板8、及び通信基板10が内蔵されている。
<Configuration of far-infrared camera>
As shown in FIGS. 1 and 2, a far-
次に、図3を参照して、遠赤外線カメラ1の全体構成を説明する。図3は、本実施形態の遠赤外線カメラの構成を示すブロック図である。
図3に示すように、遠赤外線カメラ1は、遠赤外レンズである遠赤外広角レンズ2と、遠赤外線アレイセンサである熱画像アレイ4と、ボロメータ基板6と、を備え、遠赤外線画像のデータを取得するように構成されている。さらに、遠赤外線カメラ1には、データ処理基板8、及び送信部である通信基板10が内蔵されている。なお、本実施形態の遠赤外線カメラ1は、1秒間に8フレームの頻度で、連続的に遠赤外線画像を撮影するように構成されている。なお、本明細書において、「遠赤外線」とは、波長が約8μm乃至約14μmの赤外線を意味している。
Next, the overall configuration of the far-
As shown in FIG. 3, the far-
遠赤外広角レンズ2は、入射した遠赤外線を熱画像アレイ4上に合焦させるように構成されている。好ましくは、遠赤外広角レンズ2は広角で、中心から周辺まで均質且つ高透過に熱放射エネルギーを伝達して、熱画像アレイ4上に結像するレンズを使用する。また、本実施形態においては、遠赤外広角レンズ2は単一のレンズであるが、遠赤外広角レンズ2は複数のレンズから構成されていても良い。さらに、本実施形態において、遠赤外広角レンズ2として、水平角度70度以上で、遠赤外線の波長の透過率の中心に対する周辺10割像高の光量比が70%以上のレンズが使用されている。
Far-infrared wide-
熱画像アレイ4は、縦横に配列された多数のマイクロボロメータピクセルから構成されている。熱画像アレイ4の各ピクセルは遠赤外線が入射すると温度が上昇し、この温度変化により抵抗値が変化して、入射した遠赤外線の強度を電流値の変化として取り出すことができるように構成されている。なお、本実施形態においては、熱画像アレイ4は、縦横に80×80個のピクセルが配列された比較的低画素の熱画像アレイ4が使用されている。
The
ボロメータ基板6は、熱画像アレイ4の各ピクセルに入射した遠赤外線の強度を表すRAW階調信号を、熱画像アレイ4から取り出すように構成されている。本実施形態において、ボロメータ基板6は取り出された信号を14bitのA/D変換器によりディジタル値に変換するように構成されている。従って、熱画像アレイ4から取り出された遠赤外線の強度を表す信号は、ボロメータ基板6によって16384階調のRAW階調信号として取り出される。
The
データ処理基板8は、ボロメータ基板6からRAW階調信号として入力された画像データを、画像処理するように構成されている。また、データ処理基板8は、ボロメータ基板6から入力された遠赤外線画像のデータを温度データに変換するように構成されている。なお、本実施形態において、データ処理基板8は、遠赤外線画像のデータに基づいて16bitの温度データを生成するように構成されている。具体的には、データ処理基板8は、マイクロプロセッサ、各種インターフェイス回路、メモリ、及びこれらを作動させるプログラム(以上、図示せず)等から構成されている。
The
通信基板10は、データ処理基板8によって処理された遠赤外線画像の画像データを、外部機器であるサーバー12等に送信するように構成されている。本実施形態においては、通信基板10は無線LANによってサーバー12に情報を送信するように構成されているが、有線LANの他、無線又は有線の任意の通信方式によりサーバー12に情報を送信することができる。
これらデータ処理基板8及び通信基板10における具体的な信号処理については後述する。
The
Specific signal processing in the
サーバー12は、通信基板10から送信されたデータを格納する。また、サーバー12は例えばパーソナルコンピュータ(PC)やスマートフォン、タブレット端末などのユーザ端末からアクセス可能であり、ユーザはサーバー12に格納されているデータ(赤外線画像、温度情報等)をユーザ端末のディスプレイ等に表示して確認することができる。
The
<データ処理基板における処理>
次に、図4乃至図9を参照して、データ処理基板において実行されるデータ処理を説明する。
図4は、遠赤外線カメラ1に内蔵されたデータ処理基板8におけるデータ処理の流れを示すブロック図である。データ処理基板8において処理された遠赤外線画像は通信基板10に出力され、通信基板10から外部機器に送信される。
<Processing on the data processing board>
Next, data processing performed in the data processing board will be described with reference to FIGS. 4 to 9. FIG.
FIG. 4 is a block diagram showing the flow of data processing in the
図4に示すように、遠赤外線カメラ1の遠赤外広角レンズ2によって熱画像アレイ4上に合焦された遠赤外線画像は、画像データとしてボロメータ基板6に読み込まれる。ボロメータ基板6に読み込まれた画像データはデータ処理基板8内で画像処理される。即ち、本実施形態においては、ノンユニフォミティ画像補正(NUC)が施されていない14bitのRAW画像データが、データ処理基板8に入力される。
As shown in FIG. 4, a far-infrared image focused on the
データ処理基板8には、ノンユニフォミティ画像補正を施すためのノンユニフォミティ補正部14と、温度画像を生成するための温度画像生成部16と、処理画像を生成するための画像処理部18と、合成部19が内蔵されている。これらノンユニフォミティ補正部14、温度画像生成部16、及び画像処理部18、及び合成部19は、具体的には、データ処理基板8上の、マイクロプロセッサ、メモリ、及びこれらを作動させるプログラム等によって実現されている。また、本実施形態においては、画像処理部18は、画像情報入力部18a、ヒストグラム生成部18b、ヒストグラム再構成部18c、平坦化処理部18d、平滑化処理部18e、及びエッジ強調処理部18fから構成されている。
The
データ処理基板8にノンユニフォミティ未補正のRAW画像データが入力されると、ノンユニフォミティ補正部14によって、画素欠陥補正、及びノンユニフォミティ画像補正(NUC)が施され、補正画像データが生成される。画素欠陥補正では、熱画像アレイ4上で欠陥のある画素が予め特定されており、この欠陥のある画素の画素値が、周辺の画素の画素値によって置き換えられる。ノンユニフォミティ画像補正は、熱画像アレイ4の各画素の感度等の不均一性を補正する処理である。ノンユニフォミティ補正部14により、RAW画像データから、ノンユニフォミティ画像補正を施した14bitの補正画像データが生成される。
When non-uniformity uncorrected RAW image data is input to the
ノンユニフォミティ補正部14によって補正された補正画像データに対し、温度画像生成部16によって「温度演算」が実行される。即ち、遠赤外線画像の各画素の画素値は、画像内の、その画素に対応する部分の温度に対応している。温度画像生成部16は、遠赤外線画像(RAW画像データ)に含まれる全ての画素の画素値を、予め設定されている変換テーブルに基づいて対応する温度に変換し、画像内の各部における温度を表す16bitの「温度画像」が生成される。
“Temperature calculation” is performed by the temperature
一方、ノンユニフォミティ補正部14によって補正した後の補正画像データに対して、「温度演算」と平行して、画像処理部18による画像処理が施される。一般に、遠赤外線画像は、画像に多くのノイズが含まれるばかりでなく、極めて階調性が悪く(ヒストグラムに偏りがある)、これに基づいて撮影された対象物の形状等を把握することが困難である。本実施形態においては、遠赤外線画像から有用な情報を抽出できるよう、画像処理部18において、補正画像データの階調を補正して「処理画像」を生成する。具体的には、画像処理部18は、「多閾値ヒストグラム平坦化処理」、「三次元ノイズリダクション処理」、及び「エッジ強調処理」を施す。この画像処理部18による処理が施された後の処理画像は、各画素が8bitの輝度階調データに変換されている。このように、本実施形態においては、「温度画像」と「処理画像」で有効なbit数が異なっている。しかしながら、有効なbit数が少ない方の画像データの上位又は下位桁に「0」を充当し、各画像データの見かけ上のbit数を同一にすることもできる。
On the other hand, the corrected image data corrected by the
これら温度画像生成部16によって生成された温度画像、及び画像処理部18によって生成された処理画像は、通信基板10に送られる。通信基板10は、温度画像のデータ、及び処理画像のデータの両方をサーバー12等の外部機器に送信する。通信基板10による処理については後述する。
The temperature image generated by the
<画像処理部における処理>
次に、図5乃至図7を参照して、画像処理部18において実行される「多閾値ヒストグラム平坦化処理」を説明する。
図5は、画像処理部18において実行される多閾値ヒストグラム平坦化処理を示すフローチャートである。図6は、本実施形態による遠赤外線カメラ1によって撮影された遠赤外線画像のヒストグラムの一例を示す図である。図7は、原画像と、従来のヒストグラム平坦化処理後の画像と、本実施形態における多閾値ヒストグラム平坦化処理後の画像の一例を比較して示す図である。
<Processing in Image Processing Unit>
Next, the "multi-threshold histogram equalization process" executed in the
FIG. 5 is a flow chart showing the multi-threshold histogram equalization process executed in the
画像処理部18における処理は、図4の画像処理部18に内蔵された画像情報入力部18a、ヒストグラム生成部18b、ヒストグラム再構成部18c、平坦化処理部18d、平滑化処理部18e、及びエッジ強調処理部18fによって実行される。具体的には、画像情報入力部18a、ヒストグラム生成部18b、ヒストグラム再構成部18c、平坦化処理部18d、平滑化処理部18e、及びエッジ強調処理部18fは、マイクロプロセッサ、各種インターフェイス回路、メモリ、及びこれらを作動させるプログラム(以上、図示せず)等から構成されている。
The processing in the
まず、図5のステップS61においては、ノンユニフォミティ画像補正後の14bitの補正画像データが、画像情報入力部18aによって取り込まれる。
First, in step S61 of FIG. 5, 14-bit corrected image data after non-uniformity image correction is captured by the image
次に、ステップS62においては、ヒストグラム生成処理として、ステップS61において取り込まれた画像データに含まれる画素値のヒストグラムが、ヒストグラム生成部18bによって生成される。本実施形態において、具体的には、画像情報入力部18aによって取り込まれた画像データは画素値として輝度を有しており、ヒストグラム生成部18bは、横軸を画素値v(輝度)、縦軸を各画素値の度数Hist(v)(画素の個数)としたヒストグラムを生成する。
Next, in step S62, as histogram generation processing, a histogram of pixel values included in the image data captured in step S61 is generated by the
図6は、遠赤外線画像のヒストグラムの一例を示す図であり、ヒストグラム生成部18bによって生成されたヒストグラムを(a)欄に、本発明の実施形態における多閾値ヒストグラム平坦化法によって平坦化されたヒストグラムを(b)欄に、従来のヒストグラム平坦化法によって平坦化されたヒストグラムを(c)欄に示している。
FIG. 6 is a diagram showing an example of a histogram of a far-infrared image. Column (a) shows the histogram generated by the
図6の(a)欄に示すように、画像情報入力部18aによって取り込まれた画像データは14bitの補正画像データであるため、その画素値v(輝度)は0~16383の間の値を有する。しかしながら、補正画像データは、極めてコントラストが低く、大部分の画素は約12000~約14000程度の画素値vを有し、画素値が約12000以下の画素は殆ど存在しない。また、画素値v=約14000~約16000の間にも僅かに画素が分布しており、画素値v=約16383付近に小さなピークが存在している。しかしながら、この補正画像データをそのまま画像化しても、その画像から対象物の形状等、有意な情報を抽出することは困難である。
As shown in column (a) of FIG. 6, since the image data captured by the image
次に、図5のステップS63においては、ステップS62において得られたヒストグラムに対し、上端閾値THigh及び下端閾値TLowが設定される。本実施形態においては、図6に示すように、上端閾値THighの値は画素値v=約12000~約14000の間に分布するピークにおける度数Hist(v)よりも小さい値に設定されている。一方、下端閾値TLowは、上端閾値THighよりも小さく、0よりも大きい所定の値(度数)に設定されている。 Next, in step S63 of FIG. 5, an upper threshold value T High and a lower threshold value T Low are set for the histogram obtained in step S62. In this embodiment, as shown in FIG. 6, the value of the upper threshold value T High is set to a value smaller than the frequency Hist(v) at the peak distributed between the pixel value v=about 12000 and about 14000. . On the other hand, the lower threshold T Low is set to a predetermined value (frequency) that is smaller than the upper threshold T High and greater than zero.
具体的には、本実施形態においては、上端閾値THigh=2700画素、下端閾値TLow=70画素に設定されている。好ましくは、上端閾値THighは全画素数の約30%~約65%の値に設定し、下端閾値TLowは全画素数の0%~約2%の値に設定する。なお、本実施形態においては、上端閾値THigh及び下端閾値TLowは固定値であるが、取り込まれた補正画像データや、撮影環境等に基づいて異なる上端閾値THigh、下端閾値TLowが設定されるように本発明を構成することもできる。 Specifically, in this embodiment, the upper threshold value T High is set to 2700 pixels, and the lower threshold value T Low is set to 70 pixels. Preferably, the upper threshold T High is set to a value between about 30% and about 65% of the total number of pixels, and the lower threshold T Low is set to a value between 0% and about 2% of the total number of pixels. In the present embodiment, the upper threshold value T High and the lower threshold value T Low are fixed values, but different upper threshold value T High and lower threshold value T Low are set based on the captured corrected image data, the imaging environment, and the like. The present invention can also be configured so that
次に、ステップS64においては、ヒストグラム再構成処理として、ヒストグラム再構成部18c(図4)によってヒストグラムが再構成される。具体的には、ヒストグラム生成部18bによって生成されたヒストグラムの度数Hist(v)が、上端閾値THigh及び下端閾値TLowを使用して、上端閾値THighと下端閾値TLowの間の値となるように、ヒストグラム再構成部18cによって修正される。即ち、ヒストグラム生成部18bによって生成されたヒストグラムの度数Hist(v)が、下記の数式(1)によって上端閾値THighと下端閾値TLowの間の値に修正され、修正された度数Hist'(v)を有するヒストグラムが再構成される。換言すれば、度数Hist(v)が上端閾値THighと下端閾値TLowの値である場合には、度数の修正は行われない(Hist'(v)=Hist(v))。また、度数Hist(v)が上端閾値THigh以上の場合には、度数Hist(v)は上端閾値THighに修正され(Hist'(v)=THigh)、度数Hist(v)が1以上、下端閾値TLow以下の場合には、度数Hist(v)は下端閾値TLowに修正される(Hist'(v)=TLow)。さらに、度数Hist(v)が0である場合には、度数Hist(v)は0のまま修正されない(Hist'(v)=0)。
Next, in step S64, a histogram is reconstructed by the histogram reconstruction unit 18c (FIG. 4) as histogram reconstruction processing. Specifically, the frequency Hist(v) of the histogram generated by the
次いで、ステップS65においては、ヒストグラムの平坦化処理として、度数がHist'(v)に修正されたヒストグラムに基づいて、ヒストグラムの平坦化テーブルT(v)が、平坦化処理部18d(図4)によって作成される。具体的には、ヒストグラムを平坦化するための平坦化テーブルT(v)が、下記の数式(2)によって生成される。なお、本実施形態においては、補正画像データが14bit階調を有するため、数式(2)において、Dipth=214=16384である。
Next, in step S65, as the histogram flattening process, the histogram flattening table T(v) is generated by the flattening
次に、ステップS66においては、ステップS65において生成された平坦化テーブルT(v)を使用して、元の遠赤外線画像データの画素値vの値が、画素値v’=T(v)に変換される。さらに、ステップS66においては、変換された画素値v’に基づいて、ヒストグラムが平坦化された画像データが生成され、図5に示すフローチャートの1回の処理を終了する。 Next, in step S66, the flattening table T(v) generated in step S65 is used to convert the pixel value v of the original far-infrared image data to the pixel value v'=T(v). converted. Further, in step S66, image data with a flattened histogram is generated based on the converted pixel values v', and one processing of the flow chart shown in FIG. 5 is completed.
ここで、図6の(b)欄には、図6の(a)欄に示すヒストグラムの画素値vを、平坦化テーブルT(v)によって変換した画素値v’に基づいて生成されたヒストグラムが示されている。なお、本実施形態においては、変換後の画素値v’は8bit階調のデータ(画素値=0~255)に変換され、データ量が圧縮されている。ここで、図7の(a)欄は、画像情報入力部18a(図4)に入力された原画像を示している。また、図7の(b)欄は、画素値の値が図6の(b)欄に示すようにヒストグラムが変換された遠赤外線画像を示している。
Here, in column (b) of FIG. 6, a histogram generated based on pixel values v′ obtained by converting the pixel values v of the histogram shown in column (a) of FIG. It is shown. In this embodiment, the converted pixel value v' is converted to 8-bit gradation data (pixel value=0 to 255), and the data amount is compressed. Here, column (a) in FIG. 7 shows the original image input to the image
図7の(a)欄の画像では、撮影された像を殆ど認識することができない。図7の(b)欄の画像では、画像の中央及び左側に撮影されている人20の輪郭を視認することができる。即ち、図6の(b)欄に示すヒストグラムでは、画面の背景等に対応する画素値(輝度)の小さい部分(画素値=0~150程度)と、人20に対応する画素値(輝度)の大きい部分(画素値=255付近)が明確に分離されている。この結果、画像内の人20の輪郭をある程度明確に把握することが可能になる。
In the image in column (a) of FIG. 7, the photographed image can hardly be recognized. In the image in column (b) of FIG. 7, the contour of the
一方、図6の(c)欄には、比較例として、従来のヒストグラム平坦化処理により平坦化されたヒストグラムが示されている。また、図7の(c)欄には、比較例として、図6の(c)欄のように平坦化されたヒストグラムに基づく画像が示されている。即ち、図6の(c)に示すヒストグラムは、図6の(a)欄に示すヒストグラムを上端閾値THigh及び下端閾値TLowにより再構成することなく、そのまま平坦化したものである。 On the other hand, column (c) of FIG. 6 shows, as a comparative example, a histogram flattened by a conventional histogram flattening process. Also, in column (c) of FIG. 7, as a comparative example, an image based on the histogram flattened as in column (c) of FIG. 6 is shown. That is, the histogram shown in (c) of FIG. 6 is obtained by flattening the histogram shown in column (a) of FIG. 6 without reconstructing it using the upper threshold value T High and the lower threshold value T Low .
ここで、図6の(a)欄に示すヒストグラムでは、上述したように画素値v=約12000以下の画素は皆無に等しく、画素値v=約14000~約16000の間の画素の度数は非常に小さい(画素の数が少ない)。このため、ヒストグラムを再構成することなくヒストグラム平坦化処理を施すと、平坦化後のヒストグラム(図6の(c)欄)において、図6の(a)欄の画素値v=約12000以下、及び画素値v=約14000~約16000に対応して割り当てられる画素値(輝度階調)が極めて少なくなる。この結果、遠赤外線画像中の背景等に対応する部分と、画像中の人20に対応する部分の間の画素値(輝度)の差(輝度差)が極めて少なくなる。このため、図6の(a)欄に示すヒストグラムに対して従来のヒストグラム平坦化処理を施すと、比較例として図7の(c)欄に示す画像のように、画像中の人20の輪郭を視認しにくい画像となる。
Here, in the histogram shown in column (a) of FIG. 6, as described above, pixels with a pixel value v of approximately 12,000 or less are almost non-existent, and pixels with a pixel value v of approximately 14,000 to approximately 16,000 have a very high frequency. small (small number of pixels). Therefore, if the histogram flattening process is performed without reconstructing the histogram, the pixel value v in the column (a) of FIG. And the pixel values (brightness gradation) allocated corresponding to the pixel value v=about 14000 to about 16000 are extremely small. As a result, the difference (brightness difference) in pixel value (brightness) between the portion corresponding to the background or the like in the far-infrared image and the portion corresponding to the
これに対して、図6の(a)欄のヒストグラムを、本実施形態のように再構成することにより、非常に高い度数を有する画素値(図6(a)欄の画素値約12000~約14000)については、度数が上端閾値THighにより頭打ちにされる。これに対して、低い度数を有する画素値(図6(a)欄の画素値約14000~約16000)については、度数が下端閾値TLowにより底上げされる。このようにヒストグラムを再構成しておくことにより、元の画像(図6(a)欄)における画素値約14000~約16000に対応した画素値が、平坦化処理後のヒストグラム(図6(b)欄)においてもある程度割り当てられるようになる。この結果、人20の輪郭を把握することが可能な遠赤外線画像を生成することが可能になる。
On the other hand, by reconstructing the histogram in column (a) of FIG. 14000), the frequency is capped by the upper threshold T High . On the other hand, for pixel values having a low frequency (pixel values of about 14000 to about 16000 in column (a) of FIG. 6), the frequency is raised by the lower end threshold value T Low . By reconstructing the histogram in this way, the pixel values corresponding to the pixel values of about 14000 to about 16000 in the original image (column (a) in FIG. 6) are compared to the histogram after the flattening process (column (b in FIG. 6)). ) column) will also be assigned to some extent. As a result, it becomes possible to generate a far-infrared image from which the contour of the
次に、図8を参照して、画像処理部18において実行される「三次元ノイズリダクション処理」を説明する。
図8は、画像処理部18において実行される三次元ノイズリダクション処理を示すフローチャートである。なお、図8に示す三次元ノイズリダクション処理は、データ処理基板8に内蔵された平滑化処理部18e(図4)により実行される。
Next, "three-dimensional noise reduction processing" executed in the
FIG. 8 is a flow chart showing three-dimensional noise reduction processing executed in the
まず、図8のステップS71においては、図5示す多閾値ヒストグラム平坦化処理が施された画像データが取り込まれる。
次に、ステップS72においては、ステップS71において取り込まれた画像が(二次元的に)平滑化される。即ち、画像データ中の注目画素の画素値が、注目画素及びその周囲の画素の画素値に所定の重みを夫々乗じて合算した値に置き換えられる。本実施形態においては、平滑化フィルタとして、下記のフィルタ係数を使用した3×3の一般的なガウシアンフィルタが使用される。
上記のフィルタ係数を使用することにより、注目画素の画素値に4/16を、注目画素の上下左右の画素の画素値に夫々2/16を、注目画素の左右の斜め上下の4つの画素の画素値に夫々1/16を乗じた値が合算され、注目画素の画素値が合算された合計値に置き換えられる。
First, at step S71 in FIG. 8, the image data subjected to the multi-threshold histogram flattening process shown in FIG. 5 is captured.
Next, in step S72, the image captured in step S71 is (two-dimensionally) smoothed. That is, the pixel value of the pixel of interest in the image data is replaced with a value obtained by multiplying the pixel values of the pixel of interest and its surrounding pixels by predetermined weights and summing them. In this embodiment, a 3×3 general Gaussian filter using the following filter coefficients is used as the smoothing filter.
By using the above filter coefficients, the pixel value of the target pixel is 4/16, the pixel values of the pixels above, below, left and right of the target pixel are respectively 2/16, and the four pixels on the left, right, diagonally above and below the target pixel are set to 2/16. The values obtained by multiplying the pixel values by 1/16 are summed up, and the pixel values of the target pixel are replaced with the summed sum value.
さらに、ステップS73以下の処理においては、ステップS72においてガウシアンフィルタが施された画像データを、2枚の画像データについて平均化することにより、画像が三次元的に平滑化される。上述したように本実施形態においては、遠赤外線カメラ1により、所定の時間間隔で連続的に動画として遠赤外線画像が撮影されている。平滑化処理部18eは、平坦化処理部18dによって時系列で生成された複数フレームの画像データに基づいて画像を平滑化する。具体的には、本実施形態においては1秒間に8フレームの遠赤外線画像が撮影されており、連続的に撮影された2枚の画像データ(フレーム)に重みを付けて平均化することにより、画像が平滑化される。
Further, in the processing from step S73 onwards, the image data is three-dimensionally smoothed by averaging the image data of the two images to which the Gaussian filter has been applied in step S72. As described above, in this embodiment, the far-
まず、ステップS73においては、最新の画像と、1つ前のフレームの画像(前画像)の画素値の差(輝度差)が計算される。具体的には、最新の画像のi番目の画素の輝度f(i)と、前画像のi番目の画素の輝度f'(i)との差の絶対値σ(i)が全ての画素について夫々計算される。即ち、最新の画像と前画像の間で、同一の画素における輝度の差が大きいほど輝度差σ(i)の値が大きくなる。 First, in step S73, the difference (luminance difference) between the pixel values of the latest image and the image of the previous frame (previous image) is calculated. Specifically, the absolute value σ(i) of the difference between the brightness f(i) of the i-th pixel in the latest image and the brightness f'(i) of the i-th pixel in the previous image is calculated respectively. That is, the value of the luminance difference σ(i) increases as the luminance difference in the same pixel between the latest image and the previous image increases.
次に、ステップS74においては、輝度差σ(i)に基づいて、重み係数が全ての画素について計算される。本実施形態においては、i番目の画素に対する重み係数Range(i)の値は、下記の数式(3)により計算される。なお、本実施形態においては、数式(3)の最右辺に示すように、重み係数Range(i)の計算においてeの冪乗の値を3次までのテイラー展開により近似して計算しており、これにより必要な精度を確保しながら計算量を低下させている。
Next, in step S74, weighting factors are calculated for all pixels based on the luminance difference σ(i). In this embodiment, the value of the weighting factor Range(i) for the i-th pixel is calculated by Equation (3) below. In the present embodiment, as shown on the rightmost side of the formula (3), in the calculation of the weighting factor Range(i), the power value of e is approximated by Taylor expansion up to third order. , thereby reducing the amount of computation while ensuring the required accuracy.
さらに、ステップS75においては、ステップS74において計算された重み係数Range(i)を使用して、最新の画像のi番目の画素の輝度と、前画像のi番目の画素の輝度との重み付き平均が、全ての画素について計算される。具体的には、i番目の画素の重み付き平均値Average(i)の値は、下記の数式(4)により計算される。
Further, in step S75, using the weighting factor Range(i) calculated in step S74, a weighted average of the brightness of the i-th pixel of the latest image and the brightness of the i-th pixel of the previous image is calculated for all pixels. Specifically, the value of the weighted average value Average(i) of the i-th pixel is calculated by Equation (4) below.
ここで、数式(4)において、f(i)は最新の画像のi番目の画素の輝度を示している。また、Range(i)は、最新の画像と前画像に基づいて計算されたi番目の画素に対する重み係数である。Average'(i)は、i番目の画素について、前画像と前々画像に基づいて同様にして数式(4)により計算された重み付き平均値である。 Here, in Equation (4), f(i) indicates the brightness of the i-th pixel of the latest image. Also, Range(i) is the weighting factor for the i-th pixel calculated based on the current image and the previous image. Average'(i) is a weighted average value similarly calculated by Equation (4) based on the previous image and the pre-previous image for the i-th pixel.
最後に、ステップS76においては、ステップS75において計算された各画素に対する重み付き平均値Average(i)から構成された画像が、「三次元ノイズリダクション処理」の出力画像として出力され、図8のフローチャートの1回の処理を終了する。 Finally, in step S76, an image composed of the weighted average value Average(i) for each pixel calculated in step S75 is output as an output image of the "three-dimensional noise reduction process", and the flow chart of FIG. terminates the one-time processing of
このように、図8に示す「三次元ノイズリダクション処理」においては、まず、各フレームの遠赤外線画像について3×3のガウシアンフィルタが施される。次いで、同一画素(各画像中の同一の位置にある画素)について最新の画像の輝度と前画像の輝度の重み付き平均値を計算することにより、遠赤外線画像に含まれるノイズが低減される。なお、本実施形態においては、2枚の画像の重み付き平均が計算されているが、3枚以上の画像に基づいて重み付き平均値を計算し、三次元ノイズリダクション処理を実行することもできる。また、その場合には平均値を計算する画像は5枚以下であるのが良い。或いは、複数フレームの画像データに基づく平滑化は行わなくても良い。 Thus, in the "three-dimensional noise reduction processing" shown in FIG. 8, first, a 3×3 Gaussian filter is applied to the far-infrared image of each frame. The noise contained in the far-infrared image is then reduced by calculating the weighted average of the brightness of the current image and the brightness of the previous image for the same pixel (the pixel at the same position in each image). In this embodiment, the weighted average of two images is calculated, but it is also possible to calculate the weighted average value based on three or more images and perform three-dimensional noise reduction processing. . In that case, it is preferable that the number of images for which the average value is calculated is five or less. Alternatively, smoothing based on multiple frames of image data may not be performed.
(エッジ強調処理)
次に、図9を参照して、画像処理部18において実行される「エッジ強調処理」を説明する。
図9は、画像処理部18において実行されるエッジ強調処理を示すフローチャートである。なお、図9に示すエッジ強調処理は、画像処理部18に内蔵されたエッジ強調処理部18f(図4)により実行される。
(edge enhancement processing)
Next, "edge enhancement processing" executed in the
FIG. 9 is a flow chart showing edge enhancement processing executed in the
上述した「三次元ノイズリダクション処理」においては、画素値の平均値を三次元的に計算することにより、遠赤外線画像に含まれるノイズを低減した。しかしながら、注目画素と周辺の画素の平均によりノイズを低減すると、遠赤外線画像中に含まれる像のエッジが不鮮明になるという問題が生じる。そこで、画像処理部18では、エッジ強調処理部18fにおいて、平滑化処理部18eによって「三次元ノイズリダクション処理」が施された画像に対して「エッジ強調処理」が施され、像のエッジが強調され、鮮明にされる。また、本実施形態においては、「エッジ強調処理」としてソーベルフィルタ(Sobel Filter)が使用されている。
In the "three-dimensional noise reduction processing" described above, the noise contained in the far-infrared image is reduced by three-dimensionally calculating the average value of the pixel values. However, if the noise is reduced by averaging the pixel of interest and its surrounding pixels, there arises a problem that the edges of the image included in the far-infrared image become unclear. Therefore, in the
まず、図9のステップS81においては、図8示す三次元ノイズリダクション処理が施された画像データが取り込まれる。
次に、ステップS82においては、ステップS81において取り込まれた画像に対してソーベルフィルタが施される。本実施形態においては、ソーベルフィルタによる縦線検出(強調)オペレータとして、
が使用され、横線検出(強調)オペレータとして、
が使用される。
First, in step S81 of FIG. 9, image data that has been subjected to three-dimensional noise reduction processing shown in FIG. 8 is captured.
Next, in step S82, a Sobel filter is applied to the image captured in step S81. In this embodiment, as a vertical line detection (enhancement) operator using a Sobel filter,
is used as the horizontal line detection (enhancement) operator,
is used.
即ち、縦線検出オペレータKxを使用することにより、注目画素及びその上下の画素の画素値に夫々0を、注目画素の左上及び左下の画素の画素値に夫々-1を、右上及び右下の画素の画素値に夫々1を、左の画素の画素値に-2を、右の画素の画素値に2を夫々乗じた値が合算され、注目画素の画素値f(i)が合算された合計値(輝度)fx(i)に置き換えられる。また、横線検出オペレータKyを使用することにより、注目画素及びその左右の画素の画素値に夫々0を、注目画素の左上及び右上の画素の画素値に夫々-1を、左下及び右下の画素の画素値に夫々1を、上の画素の画素値に-2を、下の画素の画素値に2を夫々乗じた値が合算され、注目画素の画素値f(i)が合算された合計値(輝度)fy(i)に置き換えられる。これらの輝度fx(i)、fy(i)の値が全ての画素について計算される。 That is, by using the vertical line detection operator Kx , the pixel values of the pixel of interest and the pixels above and below it are set to 0, the pixel values of the upper left and lower left pixels of the target pixel are set to -1, and the upper right and lower right pixels are set to -1. multiplied by 1, the pixel value of the left pixel by -2, and the pixel value of the right pixel by 2 are summed, and the pixel value f(i) of the target pixel is summed. is replaced by the total value (luminance) f x (i). Also, by using the horizontal line detection operator K y , the pixel values of the pixel of interest and the pixels to the left and right of it are set to 0, the pixel values of the upper left and upper right pixels of the target pixel are set to -1, and the lower left and lower right pixels are set to -1. The pixel value of each pixel is multiplied by 1, the pixel value of the upper pixel is multiplied by -2, and the pixel value of the lower pixel is multiplied by 2, and the pixel value f(i) of the target pixel is added. It is replaced by the total value (luminance) f y (i). These luminance f x (i), f y (i) values are calculated for all pixels.
次に、ステップS83においては、ステップS82において計算された輝度を使用して、縦横両方(対角線方向)が強調された輝度が全ての画素について夫々計算される。即ち、遠赤外線画像のi番目の画素の輝度f(i)に縦線検出オペレータKxを施すことにより得られた輝度をfx(i)、横線検出オペレータKyを施すことにより得られた輝度をfy(i)とすると、対角線方向が強調された輝度fxy(i)は数式(5)により計算される。
Next, in step S83, using the luminance calculated in step S82, both vertically and horizontally (diagonally) emphasized luminances are calculated for all pixels, respectively. That is, f x (i) is the luminance obtained by applying the vertical line detection operator K x to the luminance f (i) of the i-th pixel of the far-infrared image, and f x (i) is obtained by applying the horizontal line detection operator K y Assuming that the luminance is f y (i), the luminance f xy (i) in which the diagonal direction is emphasized is calculated by Equation (5).
さらに、ステップS84においては、ステップS82及びステップS83において計算された輝度fx(i)、fy(i)及びfxy(i)を使用して、エッジが強調された出力画像が生成され、図9に示すフローチャートの1回の処理を終了する。対角線方向が強調された各輝度fxy(i)から構成される画像は、像のエッジ部分の輝度が高く、他の部分の輝度が低いものとなる。このため、強調された輝度fx(i)、fy(i)及びfxy(i)からなる画像の各々と、エッジ強調処理を施す前の画像を合成することにより、何れの方向についてもエッジが強調された画像を生成することができる。なお、本実施形態において輝度fx(i)、fy(i)、及びfxy(i)を用いてエッジが強調された画像を生成しているが、本発明はこれに限定されず、少なくとも対角線方向強調されたfxy(i)からなる画像を用いてエッジが強調された画像を生成すれば、従来では得られなかったエッジの強調された画像を得ることができる。 Further, in step S84, the luminances f x (i), f y (i), and f xy (i) calculated in steps S82 and S83 are used to generate an edge-enhanced output image, One process of the flow chart shown in FIG. 9 ends. An image composed of the brightnesses f xy (i) emphasized in the diagonal direction has high brightness in the edge portion of the image and low brightness in other portions. For this reason, by synthesizing each of the images composed of the enhanced luminance f x (i), f y (i) and f xy (i) with the image before edge enhancement processing is performed, An edge-enhanced image can be generated. In the present embodiment, the luminances f x (i), f y (i), and f xy (i) are used to generate an edge-enhanced image, but the present invention is not limited to this. If an edge-enhanced image is generated using at least a diagonally-enhanced image of f xy (i), an edge-enhanced image that could not be obtained conventionally can be obtained.
本実施形態においては、三次元ノイズリダクション処理が施された遠赤外線画像の各画素の輝度f(i)と、これに対してエッジ強調処理を施すことにより得られた輝度fxy(i)に基づいて、出力画像OutImage(i)が数式(6)により求められる。
数式(6)におけるβは合成係数であり、本実施形態においてはβ=1/3とすることにより、エッジが適度に強調された画像が得られている。
In this embodiment, the luminance f(i) of each pixel of the far-infrared image subjected to three-dimensional noise reduction processing and the luminance f xy (i) obtained by performing edge enhancement processing on this Based on this, the output image OutImage(i) is obtained by Equation (6).
β in Equation (6) is a synthesis coefficient, and in this embodiment, by setting β=1/3, an image with moderately emphasized edges is obtained.
上述したように、画像処理部18において、「多閾値ヒストグラム平坦化処理」、「三次元ノイズリダクション処理」、及び「エッジ強調処理」からなる「画像処理」が施された処理画像のデータは、通信基板10を介してサーバー12に出力される。
As described above, in the
(合成部における処理)
次に、合成部19における合成処理について説明する。合成部19は、図4に示すように、温度画像生成部16により生成された温度画像データと画像処理部18により生成された処理画像データとを合成し、1つのデータパッケージとして通信基板10にデータを送信する。
(Processing in the synthesizing unit)
Next, the synthesizing process in the synthesizing
<データ処理基板におけるデータの処理の流れ>
以上ではデータ処理基板8における各部の処理を説明した。以下では、データ処理基板8における処理全体の流れについて説明する。
本実施形態に係るデータ処理基板8では、ボロメータ基板6からRAW画像データを取得すると、まず、ノンユニフォミティ補正部14が、取得したRAW画像データ毎に対してノンユニフォミティ補正が施された補正画像データを生成し、不図示の記憶部に格納する。つまり、記憶部には、ボロメータ基板6から取得したRAW画像データの各々について、ノンユニフォミティ補正が施された補正画像データが逐次格納されていく。
<Data processing flow in the data processing board>
The processing of each part in the
In the
また、ノンユニフォミティ補正部14における補正画像データの生成及び格納が開始されると、温度画像生成部16及び画像処理部18は、記憶部から同一の補正画像データを抽出し、温度画像データの生成と処理画像データの生成とを並行して実行する。ここで、本実施形態に係る温度画像生成部16及び画像処理部18(特に画像処理部18)における処理には上述の通り多くの処理が必要になることから、ノンユニフォミティ補正部14における補正画像データの生成にかかる処理時間よりも長い処理時間が必要となる。従って、1つの温度画像データ及び処理画像データが生成される間に、複数の補正画像データが生成され、格納されることとなる。
Further, when generation and storage of corrected image data in the
本実施形態では、温度画像生成部16及び画像処理部18は、1つの温度画像データ及び処理画像データを生成する間に記憶部に格納された複数の補正画像データを用いて、次の温度画像データ及び処理画像データを生成することが好ましい。この場合には、温度画像生成部16及び画像処理部18は、複数の補正画像データにおける各画素に対応する値を平均したデータを用いて温度画像データ及び処理画像データを生成することが好ましい。遠赤外線画像である補正画像データは、多くのノイズを含むため処理が難しいことが知られているが、このように複数の補正画像データを平均することでノイズを低減し、より高い精度で温度画像データ及び処理画像データを生成することができる。
In the present embodiment, the temperature
なお、本発明はこれに限定されるものではなく、温度画像生成部16及び画像処理部18は、1つの温度画像データ及び処理画像データを生成する間に生成され、格納された複数の補正画像データのうち、何れか1つの同一の補正画像データを用いて、次の温度画像データ及び処理画像データを生成してもよい。
Note that the present invention is not limited to this, and the temperature
また、本実施形態では温度画像生成部16及び画像処理部18が同一の補正画像データに基づいて温度画像データ及び処理画像データを生成する構成を例に説明したが、これに限定されない。例えば、温度画像生成部16がある補正画像データに基づいて温度画像データを生成した後、次にある補正画像データの後に生成された補正画像データに基づいて処理画像データを生成する、というように、温度画像データと処理画像データを異なる補正画像データに基づいて交互に生成してもよい。温度画像データと処理画像データを交互に生成することでデータ量を低減することができるため、データ処理基板8における処理及び通信基板10における通信にかかる処理を低減することができる。
Further, in the present embodiment, the temperature
合成部19は、温度画像データ及び処理画像データを1つのデータパッケージとして(つまり、同期して)通信基板10に出力する。データパッケージ(画像出力用プロトコル)についてはその一例を、図13を参照して後述する。なお、合成部19の出力は特に限定されるものではなく、同一の補正画像データに基づいて生成された温度画像データ及び処理画像データを同時に出力してもよいし、交互に出力してもよい。また、温度画像データと処理画像データが異なる補正画像データに基づいて交互に生成された場合にも、温度画像データと処理画像データを交互に出力すればよい。この場合には、温度画像データと処理画像データとを異なるデータパッケージとして出力するように合成部19を構成することもできる。
The
また、赤外線カメラ1は、例えば熱画像アレイ4において撮影されたRAW画像に対して撮影時刻を示す時刻データを関連づけてデータ処理基板8にデータを送信できる構成を備えていてもよい。これによれば、合成部19は、時刻データに基づいて同一のRAW画像から生成された温度画像データと処理画像データとを特定し、同時又は交互に(同期して)通信基板10に送信することができる。また、温度画像データと処理画像データとが交互に生成される場合には、時刻データの示す撮影時刻の早い順に温度画像データと処理画像データとを交互に出力することもできる。
Further, the
<通信基板における処理>
次に、図10乃至図13を参照して、通信基板10における処理を説明する。
図10は、通信基板10によるデータの送信に使用される制御用プロトコルのフォーマットである。図11は、通信基板10によるデータの送信に使用される制御用のシステムコマンドの一例である。図12は、通信基板10によるデータの送信に使用される制御用のキャリブレーションコマンドの一例である。図13は、通信基板10によるデータの送信に使用される画像出力用プロトコルのフォーマットである。
<Processing on communication board>
Next, processing in the
FIG. 10 shows the format of the control protocol used for data transmission by the
上述したように、通信基板10は、温度画像生成部16によって生成された温度画像データ、及び画像処理部18によって生成された処理画像データを、サーバー12等の外部機器に送信するように構成されている。
As described above, the
図10に示すように、通信基板10によって使用される制御用プロトコルには3種類のコマンドがある。即ち、図10の(a)欄に示す送信要求コマンドと、図10の(b)欄に示す送信要求に対する応答(リターンデータあり)コマンドと、図10の(c)欄に示す送信要求に対する応答(リターンデータなし)がある。
As shown in FIG. 10, the control protocol used by the
図10の(a)欄に示すように、送信要求コマンドは、最初の2バイトがアルファベット2文字のキーワードに割り当てられ、次の2バイトがデータ長に割り当てられ、次の1バイトがコマンドカテゴリに割り当てられ、次の1バイトがコマンドのコードに割り当てられている。さらに、コマンドのコードに続いて、「データ長」において指定されたバイト数のデータが、送信要求コマンドに含められる。本実施形態においては、「コマンドカテゴリ」として、システムコマンド「S」、キャリブレーションコマンド「N」、カメラ管理コマンド「C」等が設定されている。また、本実施形態においては、各「コマンドカテゴリ」に対し、255個のコマンドを割り付けることができる。 As shown in column (a) of FIG. 10, in the transmission request command, the first 2 bytes are assigned to a keyword consisting of two alphabetic characters, the next 2 bytes are assigned to a data length, and the next 1 byte is assigned to a command category. and the next 1 byte is allocated to the code of the command. Furthermore, following the command code, data of the number of bytes specified in "data length" is included in the transmission request command. In this embodiment, system command "S", calibration command "N", camera management command "C", etc. are set as the "command category". Also, in this embodiment, 255 commands can be assigned to each "command category".
次に、図10の(b)欄に示すように、応答コマンド(リターンデータあり)は、最初の2バイトがアルファベット2文字のキーワードに割り当てられ、次の2バイトがデータ長に割り当てられ、次の1バイトがコマンドカテゴリに割り当てられ、次の1バイトがコマンドのコードに割り当てられている。さらに、コマンドのコードに続いて、「データ長」において指定されたバイト数のデータが、応答コマンドに含められる。 Next, as shown in column (b) of FIG. 10, in the response command (with return data), the first 2 bytes are assigned to the keyword of 2 alphabetic characters, the next 2 bytes are assigned to the data length, and the next 2 bytes are assigned to the data length. 1 byte is assigned to the command category, and the next 1 byte is assigned to the code of the command. Furthermore, following the code of the command, data of the number of bytes specified in "data length" is included in the response command.
さらに、図10の(c)欄に示すように、応答コマンド(リターンデータなし)は、最初の2バイトがアルファベット2文字のキーワードに割り当てられ、次の2バイトがデータ長に割り当てられ、次の1バイトがコマンドカテゴリに割り当てられ、次の1バイトがコマンドのコードに割り当てられている。応答コマンド(リターンデータなし)では、「データ長」として常に「2」が割り当てられ、コマンドのコードに続いて、アルファベット2文字(例えば「O」、「K」)が送信される。 Further, as shown in column (c) of FIG. 10, the response command (no return data) has the first 2 bytes assigned to the keyword of 2 alphabetic characters, the next 2 bytes assigned to the data length, and the next 2 bytes assigned to the data length. One byte is assigned to the command category and the next byte is assigned to the code of the command. In a response command (without return data), "2" is always assigned as the "data length", and two alphabetic characters (for example, "O" and "K") are transmitted following the code of the command.
ここで、キーワードは、単にデータの開始点を示してもよいし、また、通信基板10からのデータの送信先(本実施形態では、サーバー12)において実行される制御用プロトコルを指定する識別子として使用されてもよい。換言すれば、後者の場合、キーワードは、以降に続くデータが何れの制御用プロトコルで処理されるデータであるかを示すことができる。
Here, the keyword may simply indicate the starting point of the data, or as an identifier specifying a control protocol executed at the destination of the data from the communication board 10 (the
例えば、本実施形態に係る通信基板10は、サーバー12において実行される制御プロトコルを指定可能に構成されていてもよい。この場合、実行される制御用プロトコルとキーワードとを関連付けておくことで、サーバー12は、送信されたコマンドに含まれるキーワードから実行する制御用プロトコルを特定し、キーワードに対応した制御用プロトコルを実行することができる。
For example, the
次に、図11及び図12を参照して、制御用のシステムコマンドの一例を説明する。
図11に示すように、本実施形態においては、システムコマンド(コマンドカテゴリ「S」)として、Stream start, Stream end, Alive, Reset, Stream continue(1)等が設定されており、これらに対してコード0x01~0x05が夫々割り当てられている。また、各システムコマンドには、送信要求コマンド(Request)及び応答コマンド(Responseリターンデータなし)が設けられている。さらに、各システムコマンドには、キーワードとして「XX」が設定されており、各送信要求コマンドのデータ長には「0」(データなし)が設定されている。
Next, an example of a control system command will be described with reference to FIGS. 11 and 12. FIG.
As shown in FIG. 11, in this embodiment, Stream start, Stream end, Alive, Reset, Stream continue (1), etc. are set as system commands (command category "S"). Codes 0x01 to 0x05 are assigned respectively. Each system command is provided with a transmission request command (Request) and a response command (Response without return data). Further, each system command is set with "XX" as a keyword, and "0" (no data) is set as the data length of each transmission request command.
また、図12に示すように、本実施形態においては、キャリブレーションコマンド(コマンドカテゴリ「N」)として、Get Cold Image, Get Hot Image, Create Tamron NUC, Range Mode Set, Range Mode Get, Range Max Set, Range Max Get, Range Min Set, Range Min Get, Gamma Set, Gamma Get等が設定されており、これらに対してコード0x11~0x18が夫々割り当てられている。また、各システムコマンドには、送信要求コマンド(Request)と、応答コマンド(Responseリターンデータなし)又は応答コマンド(Responseリターンデータあり)が設けられている。さらに、各システムコマンドには、キーワードとして「XX」が設定されている。これらのキャリブレーションコマンドにより、動作モードやデータレンジ等の設定、確認を行うことができる。 Further, as shown in FIG. 12, in the present embodiment, Get Cold Image, Get Hot Image, Create Tamron NUC, Range Mode Set, Range Mode Get, Range Max Set as calibration commands (command category "N"). , Range Max Get, Range Min Set, Range Min Get, Gamma Set, Gamma Get, etc. are set, and codes 0x11 to 0x18 are assigned to these. Each system command includes a transmission request command (Request) and a response command (without Response return data) or response command (with Response return data). Furthermore, each system command is set with "XX" as a keyword. With these calibration commands, the operation mode, data range, etc. can be set and confirmed.
次に、図13を参照して、画像出力用プロトコルのフォーマットを説明する。
上述したように、本実施形態においては、温度画像生成部16によって生成された温度画像、画像処理部18によって生成された処理画像とも、80×80個の画素から構成されている。これらの画像のデータが、画像出力用プロトコルに基づいて送信される。ここで、「温度画像」を形成する各画素の画素値は、16bit(2バイト)の温度データ(画像データ)によって表されている。また、「処理画像」を形成する各画素の画素値は、8bit(1バイト)の輝度階調データ(画像データ)によって表されている。なお、本実施形態においては、熱画像アレイ4によって取得された1フレームの画像データに基づいて「温度画像」及び「処理画像」が夫々生成され、これらの画像のデータが1フレーム分の画像データの中に含められて通信基板10から送信される。この1フレーム分の画像データの中には、「温度画像」、「処理画像」の順で各画素の画素データが埋め込まれている。
Next, the format of the image output protocol will be described with reference to FIG.
As described above, in this embodiment, both the temperature image generated by the
図13に示すように、画像出力用プロトコルにおいては、1行の出力データの最初の2バイトが画像の行番号(line num)に割り当てられ、次の2バイトが必要なデータ(v temp, Thermistor)に割り当てられている。本実施形態においては、「v temp」は熱画像アレイ4の温度データであり、「Thermistor」は遠赤外線カメラ1内部の雰囲気温度のデータである。これらの温度のデータは1フレーム分の画像データの最初の2行に埋め込まれており、3行目以下では「0」にされている。この「必要なデータ」に続いて、画像の1行分の画素データが割り当てられている。出力データの最初の80行(0~79行)には、「温度画像」の画素データが埋め込まれている。即ち、出力データの0行目には、2バイトの「必要なデータ」に続き、「温度画像」の0行目(line num 0)の画素データ(2バイト×80=160バイト)が埋め込まれている。同様にして、「温度画像」の1行目以降の画素データが出力データに埋め込まれ、出力データの79行目には、「温度画像」の79行目(line num 79)の画素データが埋め込まれる。さらに、出力データの80~83行目は空行であり、「FF」が埋め込まれている。
As shown in FIG. 13, in the image output protocol, the first two bytes of the output data of one line are assigned to the line number (line num) of the image, and the next two bytes are the required data (v temp, Thermistor ). In this embodiment, “v temp” is temperature data of the
次いで、出力データの84行目には、「処理画像」の行番号(line num 0)の2バイトに続き、「必要なデータ」2バイト、さらに、「処理画像」の0行目(line num 0)の画素データ(1バイト×80=80バイト)が埋め込まれている。同様にして、「処理画像」の1行目以降の画素データが出力データに埋め込まれ、出力データの163行目には、「処理画像」の79行目(line num 79)の画素データが埋め込まれる。さらに、出力データの164~167行目は空行であり、「FF」が埋め込まれている。 Next, on the 84th line of the output data, 2 bytes of the line number (line num 0) of the "processed image" are followed by 2 bytes of "required data", and further, the 0th line (line num 0) pixel data (1 byte×80=80 bytes) is embedded. Similarly, the pixel data of the 1st and subsequent lines of the "processed image" are embedded in the output data, and the pixel data of the 79th line (line num 79) of the "processed image" is embedded in the 163rd line of the output data. be Furthermore, the 164th to 167th lines of the output data are blank lines and are filled with "FF".
さらに、通信基板10では、このようにして生成された「温度画像」及び「処理画像」の両方の情報を含む1フレーム分の画像データが、下位層の通信プロトコル(例えば、TCP, IP, Ethernet等)に引き渡され、送信される。さらに、遠赤外線カメラ1の通信基板10から送信された画像のデータは、サーバー12等の外部機器によって受信される。画像データを受信した外部機器は、例えば、画像データ中の「処理画像」を表す部分を動画としてディスプレイに表示することができる。また、受信された画像データ中の「温度画像」を表す部分は、画像中の対象物の温度を表示するために使用することができる。例えば、ディスプレイに表示されている動画中の或る点がマウスポインタで指示されると、その点の温度を「温度画像」の画素値に基づいて表示するように外部機器を構成することもできる。
Furthermore, in the
ここで、本実施形態においては、「処理画像」と「温度画像」は、同一の画素数を有すると共に、熱画像アレイ4によって取得された同一フレームの画像データから生成されたものである。このため、ディスプレイ上に表示される画像と、画像上の各点に対応する温度データの整合性が高く、信頼性の高い温度を表示することができる。なお、外部機器において、遠赤外線カメラ1から送信された「処理画像」及び「温度画像」データに対して種々の処理を行うことができ、各データに対して任意の処理を施し利用することができる。
Here, in the present embodiment, the “processed image” and the “temperature image” have the same number of pixels and are generated from the same frame of image data acquired by the
なお、図13では温度画像データと処理画像データを1つのデータパッケージとして同時に出力する場合のデータフォーマットの一例について説明したが、本発明はこれに限定されるものではない。例えば、温度画像データと処理画像データを交互に送信する場合には、例えば図13に示すデータフォーマットのうち、Line0~Line79及びLine80~Line83(FF)を1つのデータパッケージとして送信した後、Line84~Line163及びLine164~Line167(FF)を次のデータパッケージとして送信する構成を採用することもできる。
Although FIG. 13 illustrates an example of a data format when temperature image data and processed image data are simultaneously output as one data package, the present invention is not limited to this. For example, when transmitting temperature image data and processed image data alternately, after transmitting
なお、本実施形態では、データ処理基板8の合成部19において温度画像データと処理画像データとを1つのデータパッケージとして通信基板10に出力する構成を例に挙げて説明したが、本発明はこれに限定されるものではない。例えば、通信基板10の機能がデータ処理基板8に実装されていてもよいし、合成部19の機能や他の機能が通信基板10に実装されていてもよい。
In the present embodiment, an example of a configuration in which temperature image data and processed image data are output to the
本発明の実施形態の遠赤外線カメラ1によれば、温度画像生成部16によって生成された温度画像のデータ、及び画像処理部18によって生成された処理画像のデータ(図13)がサーバー12等の外部機器に送信されるので、撮影された対象物の形状及び温度の両方を把握することができる。
According to the far-
また、本実施形態の遠赤外線カメラ1によれば、遠赤外線アレイセンサである熱画像アレイ4によって取得された1フレームの画像データ(補正画像データ)に対し、温度画像及び処理画像が夫々生成されるので、処理画像中に撮影されている対象物と、温度画像中の温度の整合性が高く、信頼性の高い温度情報を得ることができる。
Further, according to the far-
さらに、本実施形態の遠赤外線カメラ1によれば、画像処理部18は、ノンユニフォミティ補正部14によって補正した後の補正画像データの階調を補正するので、熱画像アレイ4によって取得されたデータに基づいて、対象物を視認しやすい画像を生成することができる。
Furthermore, according to the far-
また、本実施形態の遠赤外線カメラ1によれば、温度画像生成部16によって生成された温度画像の各画素の画素値を表す画像データと、画像処理部18によって生成された処理画像の各画素の画素値を表す画像データは、有効なbit数が異なっている。このため、温度画像及び処理画像を必要にして十分な分解能で生成することができ、画像処理に要する計算量、送信すべきデータ量を最適化することができる。
Further, according to the far-
さらに、本実施形態の遠赤外線カメラ1によれば、温度画像生成部によって生成された温度画像と、画像処理部によって生成された処理画像は、同一の画素数を有する。このため、処理画像中に撮影されている対象物の位置と、温度画像中の温度のデータを正確に整合させることができ、信頼性の高い温度測定値を得ることができる。
Furthermore, according to the far-
また、本実施形態の遠赤外線カメラ1によれば、送信部である通信基板10は、温度画像生成部16によって生成された温度画像のデータ、及び画像処理部18によって生成された処理画像のデータを、1フレームの画像データの中に含めてサーバー12等の外部機器に送信する。このため、処理画像と、これと同時に取得された温度画像を容易に対応させることができ、処理画像中に撮影されている対象物の正確な温度を特定することができる。
Further, according to the far-
以上、本発明の実施形態による遠赤外線カメラを説明したが、上述した実施形態に種々の変更を加えることができる。特に、上述した実施形態において、画像処理部は補正画像データの階調を補正していたが、任意の処理を施した画像データを処理画像として送信するように、本発明の遠赤外線カメラを構成することができる。 Although the far-infrared camera according to the embodiment of the present invention has been described above, various modifications can be made to the embodiment described above. In particular, in the above-described embodiment, the image processing unit corrects the gradation of the corrected image data, but the far infrared camera of the present invention is configured so that the image data subjected to arbitrary processing is transmitted as a processed image. can do.
さらに、上述した実施形態においては、温度画像のデータ、及び処理画像のデータが、1フレーム分の画像データとして送信されていたが、これらを別々に送信することもできる。また、上述した実施形態においては、熱画像アレイによって取得された1フレームの画像データから、温度画像及び処理画像が夫々生成されていたが、温度画像及び処理画像を別フレームの画像データから生成することもできる。さらに、上述した実施形態においては、温度画像の画素値として16bit、処理画像の画素値として8bitの画素値が割り当てられていたが、各画素値に任意のbit数を割り当てることができる。また、上述した実施形態においては、温度画像及び処理画像は同一の画素数で構成されていたが、各画像の画素数は、任意に設定することができる。 Furthermore, in the above-described embodiment, the temperature image data and the processed image data are transmitted as one frame of image data, but they can be transmitted separately. In the above-described embodiment, the temperature image and the processed image are generated from one frame of image data acquired by the thermal image array, but the temperature image and the processed image are generated from another frame of image data. can also Furthermore, in the above-described embodiment, 16-bit pixel values are assigned to the temperature image and 8-bit pixel values are assigned to the processed image, but any number of bits can be assigned to each pixel value. Further, in the above-described embodiment, the temperature image and the processed image are composed of the same number of pixels, but the number of pixels of each image can be set arbitrarily.
1 遠赤外線カメラ
2 遠赤外広角レンズ(遠赤外レンズ)
4 熱画像アレイ(遠赤外線アレイセンサ)
6 ボロメータ基板
8 データ処理基板
10 通信基板(送信部)
12 サーバー(外部機器)
14 ノンユニフォミティ補正部
16 温度画像生成部
18 画像処理部
18a 画像情報入力部
18b ヒストグラム生成部
18c ヒストグラム再構成部
18d 平坦化処理部
18e 平滑化処理部
18f エッジ強調処理部
19 合成部
20 人
1 far-
4 Thermal imaging array (far infrared array sensor)
6
12 Server (external device)
14
Claims (9)
入射した遠赤外線を合焦させる遠赤外レンズと、
この遠赤外レンズによって合焦された遠赤外線画像の画像データを取得する遠赤外線アレイセンサと、
上記遠赤外線アレイセンサによって取得された画像データにノンユニフォミティ画像補正を施した補正画像データを生成するノンユニフォミティ補正部と、
上記補正画像データに基づいて、画像内の各部における温度を表す温度画像データを生成する温度画像生成部と、
上記補正画像データに基づいて、当該補正画像データの階調を補正した処理画像データを生成する画像処理部と、
上記温度画像データ、及び上記処理画像データを送信する送信部と、
を有し、
上記温度画像データと、上記処理画像データは、有効なbit数が異なることを特徴とする遠赤外線カメラ。 A far-infrared camera for video shooting that transmits image data of a far-infrared image to an external device,
a far-infrared lens for focusing incident far-infrared rays;
a far-infrared array sensor for acquiring image data of a far-infrared image focused by the far-infrared lens;
a non-uniformity correction unit that generates corrected image data by applying non-uniformity image correction to the image data acquired by the far-infrared array sensor;
a temperature image generation unit that generates temperature image data representing the temperature of each part in the image based on the corrected image data;
an image processing unit that generates processed image data obtained by correcting the gradation of the corrected image data based on the corrected image data;
a transmission unit that transmits the temperature image data and the processed image data;
has
A far-infrared camera , wherein the temperature image data and the processed image data have different effective bit numbers .
入射した遠赤外線を合焦させる遠赤外レンズと、 a far-infrared lens for focusing incident far-infrared rays;
この遠赤外レンズによって合焦された遠赤外線画像の画像データを取得する遠赤外線アレイセンサと、 a far-infrared array sensor for acquiring image data of a far-infrared image focused by the far-infrared lens;
上記遠赤外線アレイセンサによって取得された画像データにノンユニフォミティ画像補正を施した補正画像データを生成するノンユニフォミティ補正部と、 a non-uniformity correction unit that generates corrected image data by applying non-uniformity image correction to the image data acquired by the far-infrared array sensor;
上記補正画像データに基づいて、画像内の各部における温度を表す温度画像データを生成する温度画像生成部と、 a temperature image generation unit that generates temperature image data representing the temperature of each part in the image based on the corrected image data;
上記補正画像データに基づいて、当該補正画像データの階調を補正した処理画像データを生成する画像処理部と、 an image processing unit that generates processed image data obtained by correcting the gradation of the corrected image data based on the corrected image data;
上記温度画像データ、及び上記処理画像データを送信する送信部と、 a transmission unit that transmits the temperature image data and the processed image data;
を有し、 has
上記送信部は、上記温度画像データ及び上記処理画像データを、1フレームの画像データの中に含めて送信することを特徴とする遠赤外線カメラ。 The far-infrared camera, wherein the transmission unit transmits the temperature image data and the processed image data in one frame of image data.
入射した遠赤外線を合焦させる遠赤外レンズと、 a far-infrared lens for focusing incident far-infrared rays;
この遠赤外レンズによって合焦された遠赤外線画像の画像データを取得する遠赤外線アレイセンサと、 a far-infrared array sensor for acquiring image data of a far-infrared image focused by the far-infrared lens;
上記遠赤外線アレイセンサによって取得された画像データにノンユニフォミティ画像補正を施した補正画像データを生成するノンユニフォミティ補正部と、 a non-uniformity correction unit that generates corrected image data by applying non-uniformity image correction to the image data acquired by the far-infrared array sensor;
上記補正画像データに基づいて、画像内の各部における温度を表す温度画像データを生成する温度画像生成部と、 a temperature image generation unit that generates temperature image data representing the temperature of each part in the image based on the corrected image data;
上記補正画像データに基づいて、当該補正画像データの階調を補正した処理画像データを生成する画像処理部と、 an image processing unit that generates processed image data obtained by correcting the gradation of the corrected image data based on the corrected image data;
上記温度画像データ、及び上記処理画像データを送信する送信部と、 a transmission unit that transmits the temperature image data and the processed image data;
を有し、 has
上記送信部は、上記温度画像データ及び上記処理画像データに対して、上記温度画像データ及び上記処理画像データを受信する端末における処理を指定する所定の識別子を関連付けて送信することを特徴とする遠赤外線カメラ。 wherein the transmission unit transmits the temperature image data and the processed image data in association with a predetermined identifier designating processing in a terminal that receives the temperature image data and the processed image data. infrared camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019067259A JP7274909B2 (en) | 2019-03-29 | 2019-03-29 | far infrared camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019067259A JP7274909B2 (en) | 2019-03-29 | 2019-03-29 | far infrared camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020167556A JP2020167556A (en) | 2020-10-08 |
JP7274909B2 true JP7274909B2 (en) | 2023-05-17 |
Family
ID=72715305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019067259A Active JP7274909B2 (en) | 2019-03-29 | 2019-03-29 | far infrared camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7274909B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007325120A (en) | 2006-06-02 | 2007-12-13 | Sumitomo Electric Ind Ltd | Far infrared imaging system and far infrared imaging method |
JP2012083822A (en) | 2010-10-07 | 2012-04-26 | Seiko Epson Corp | Image processor and image processing method |
US20160042500A1 (en) | 2014-08-05 | 2016-02-11 | Seek Thermal, Inc. | Local contrast adjustment for digital images |
WO2018025466A1 (en) | 2016-08-04 | 2018-02-08 | ソニー株式会社 | Image processing apparatus and image processing method |
-
2019
- 2019-03-29 JP JP2019067259A patent/JP7274909B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007325120A (en) | 2006-06-02 | 2007-12-13 | Sumitomo Electric Ind Ltd | Far infrared imaging system and far infrared imaging method |
JP2012083822A (en) | 2010-10-07 | 2012-04-26 | Seiko Epson Corp | Image processor and image processing method |
US20160042500A1 (en) | 2014-08-05 | 2016-02-11 | Seek Thermal, Inc. | Local contrast adjustment for digital images |
WO2018025466A1 (en) | 2016-08-04 | 2018-02-08 | ソニー株式会社 | Image processing apparatus and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2020167556A (en) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108055452A (en) | Image processing method, device and equipment | |
JP2020535758A (en) | Image processing methods, devices, and devices | |
CN108304821B (en) | Image recognition method and device, image acquisition method and device, computer device and non-volatile computer-readable storage medium | |
JP5968073B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
JP2009212853A (en) | White balance controller, its control method, and imaging apparatus | |
TWI709110B (en) | Camera calibration method and apparatus, electronic device | |
CN108024054A (en) | Image processing method, device and equipment | |
CN110191291A (en) | Image processing method and device based on multiple image | |
CN107704798B (en) | Image blurring method and device, computer readable storage medium and computer device | |
JP6852411B2 (en) | Video signal processing device, video signal processing method and program | |
KR101849740B1 (en) | Method and apparatus for enhancing local contrast in a thermal image | |
CN110213502A (en) | Image processing method, device, storage medium and electronic equipment | |
JP2015127668A (en) | Measurement device, system and program | |
US20180197282A1 (en) | Method and device for producing a digital image | |
JP2014138290A (en) | Imaging device and imaging method | |
CN107454335B (en) | Image processing method, image processing device, computer-readable storage medium and mobile terminal | |
CN108111768A (en) | Control method, apparatus, electronic equipment and the computer readable storage medium of focusing | |
CN107563329B (en) | Image processing method, image processing device, computer-readable storage medium and mobile terminal | |
JPWO2018021048A1 (en) | Color calibration apparatus, color calibration system, color calibration hologram, color calibration method, and program | |
JP7274909B2 (en) | far infrared camera | |
CN112750087A (en) | Image processing method and device | |
JP2017138927A (en) | Image processing device, imaging apparatus, control method and program thereof | |
CN110266967A (en) | Image processing method, device, storage medium and electronic equipment | |
CN112995633B (en) | Image white balance processing method and device, electronic equipment and storage medium | |
JP7321772B2 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230320 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230502 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7274909 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |