JP7492211B2 - Non-contact body temperature measuring device, method and program - Google Patents

Non-contact body temperature measuring device, method and program Download PDF

Info

Publication number
JP7492211B2
JP7492211B2 JP2020174011A JP2020174011A JP7492211B2 JP 7492211 B2 JP7492211 B2 JP 7492211B2 JP 2020174011 A JP2020174011 A JP 2020174011A JP 2020174011 A JP2020174011 A JP 2020174011A JP 7492211 B2 JP7492211 B2 JP 7492211B2
Authority
JP
Japan
Prior art keywords
temperature
face
visible image
measurement
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020174011A
Other languages
Japanese (ja)
Other versions
JP2022065425A (en
Inventor
瑞木 萩原
篤 梶原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gunma Prefecture
Original Assignee
Gunma Prefecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gunma Prefecture filed Critical Gunma Prefecture
Priority to JP2020174011A priority Critical patent/JP7492211B2/en
Publication of JP2022065425A publication Critical patent/JP2022065425A/en
Application granted granted Critical
Publication of JP7492211B2 publication Critical patent/JP7492211B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Radiation Pyrometers (AREA)

Description

本発明は非接触体温測定装置、方法及びプログラムに係り、特に測定対象の表面温度を非接触で測定するための非接触体温測定装置、方法及びプログラムに関する。 The present invention relates to a non-contact body temperature measurement device, method, and program, and in particular to a non-contact body temperature measurement device, method, and program for measuring the surface temperature of a measurement target without contact.

従来、測定対象の表面温度を非接触で測定するための放射温度計が知られている。放射温度計の例として、測定者が手で持って測定対象の人の前額部等にかざして体温を測定するハンディタイプの非接触型体温計が知られている。このようなハンディタイプの非接触型体温計は、腋の下又は口腔で体温を測定する接触型の体温計と比較して短時間での計測が可能なため、建物の入場時等における体温の測定に広く用いられている。しかし、このようなハンディタイプの非接触型体温計の場合には、体温計1個につき1人の測定者が必要となり、測定対象を1人ずつ測定することになる。また、測定した温度データの管理等のために人手が必要となる。 Conventionally, radiation thermometers for non-contact measurement of the surface temperature of a measurement target are known. One example of a radiation thermometer is a handheld non-contact thermometer that is held by the person measuring the temperature by placing it over the forehead of the person being measured. Such handheld non-contact thermometers can measure body temperature in a shorter time than contact thermometers that measure body temperature under the arm or in the mouth, and are therefore widely used to measure body temperature when entering a building, etc. However, with such handheld non-contact thermometers, one person is needed to measure each thermometer, and each person is measured one by one. In addition, manpower is required for managing the measured temperature data, etc.

放射温度計の別の例としては、測定対象から放射される赤外線を分析して、測定対象とその周囲における熱分布を測定して可視化する赤外線サーモグラフィカメラも用いられている。このようなサーモグラフィカメラは、モニタとともに自立スタンドに取り付けられて設置され、測定範囲内に入った人の熱画像をモニタに出力する。これにより、建物の入退場時等における人の体温のモニタリングを行うことができる。 Another example of a radiation thermometer is an infrared thermography camera, which analyzes the infrared rays emitted from the object to be measured and measures and visualizes the heat distribution in and around the object. Such a thermography camera is installed on a freestanding stand together with a monitor, and outputs to the monitor a thermal image of anyone who enters the measurement range. This makes it possible to monitor the body temperature of people when they enter or leave a building.

赤外線サーモグラフィカメラ(以下、熱画像カメラともいう。)を用いた関連技術として、特許文献1には、対象動物の体温を反映する体表上の特定の位置(子牛の眼縁部)の温度を測定することによって対象動物の体温を非接触で測定する体温測定システムが開示されている。 As a related technology using an infrared thermography camera (hereinafter also referred to as a thermal imaging camera), Patent Document 1 discloses a body temperature measurement system that measures the body temperature of a target animal without contact by measuring the temperature at a specific location on the body surface (the eye margin of a calf) that reflects the body temperature of the target animal.

特開2017-062125号公報JP 2017-062125 A

特許文献1に開示された体温測定システムでは、環境温度の影響によりサーモグラフィカメラの測定精度が低下することを考慮して、サーモグラフィカメラの視野内に基準熱源面を配置し、基準熱源面の温度を用いて熱画像を補正するようになっているが、以下のような問題がある。 In the body temperature measurement system disclosed in Patent Document 1, a reference heat source surface is placed within the field of view of the thermographic camera to take into account the fact that the measurement accuracy of the thermographic camera decreases due to the influence of the environmental temperature, and the thermal image is corrected using the temperature of the reference heat source surface. However, there are the following problems.

すなわち、上記体温測定システムにおいては、測定対象(子牛の眼縁部)の温度を精度よく測定するために、サーモグラフィカメラから測定対象までの距離が一定の距離に保たれる状態で熱画像の取得が行われるようになっているが、建物の出入口のように多数の人が入退場を繰り返す場所においては、熱画像中における測定対象の位置が一定とならず、サーモグラフィカメラの測定精度を低下させる要因となる。 In other words, in the above-mentioned body temperature measurement system, in order to accurately measure the temperature of the measurement target (the eye margin of the calf), the thermal image is taken while the distance from the thermographic camera to the measurement target is kept constant. However, in places where many people repeatedly enter and exit, such as building entrances, the position of the measurement target in the thermal image is not constant, which causes a decrease in the measurement accuracy of the thermographic camera.

また、上記体温測定システムでは、サーモグラフィカメラの視野内に基準熱源面を配置する必要があり、その配置の自由度が制限されるし、手間もかかるので、非効率である。 In addition, the above-mentioned body temperature measurement system requires that a reference heat source surface be placed within the field of view of the thermographic camera, which limits the freedom of placement and is time-consuming, making it inefficient.

本発明はこのような事情に鑑みてなされたもので、測定対象の表面温度を高精度かつ効率的に測定することが可能な非接触体温測定装置、方法及びプログラムを提供することを目的とする。 The present invention has been made in consideration of these circumstances, and aims to provide a non-contact body temperature measurement device, method, and program that can measure the surface temperature of a measurement target with high accuracy and efficiency.

上記課題を解決するために、本発明の第1の態様に係る非接触体温測定装置は、測定対象から可視光線の波長域の光を受光して可視画像を撮像する可視画像カメラと、測定対象から放出される赤外線量を可視化した熱画像を撮像するための熱画像カメラと、可視画像から顔領域を検出し、熱画像中の顔領域から顔温度を検出する顔温度検出部と、可視画像から測定対象の輪郭の外部の背景領域を特定し、背景領域に対応する熱画像中の領域の温度を、測定対象の存する空間の環境温度として求め、環境温度に基づいて顔温度を補正する顔温度補正部とを備える。 In order to solve the above problems, the non-contact body temperature measuring device according to the first aspect of the present invention comprises a visible image camera that receives light in the wavelength range of visible light from the measurement target and captures a visible image, a thermal image camera that captures a thermal image that visualizes the amount of infrared light emitted from the measurement target, a facial temperature detection unit that detects a facial area from the visible image and detects the facial temperature from the facial area in the thermal image, and a facial temperature correction unit that identifies a background area outside the contour of the measurement target from the visible image, determines the temperature of the area in the thermal image corresponding to the background area as the environmental temperature of the space in which the measurement target exists, and corrects the facial temperature based on the environmental temperature.

本発明の第2の態様に係る非接触体温測定装置は、第1の態様において、顔温度補正部は、熱画像の背景領域内の複数の測定点における温度の代表値又は中央値を環境温度として求める。 In the non-contact body temperature measuring device according to the second aspect of the present invention, in the first aspect, the face temperature correction unit determines a representative value or median value of temperatures at multiple measurement points in the background area of the thermal image as the environmental temperature.

本発明の第3の態様に係る非接触体温測定装置は、第2の態様において、顔温度補正部は、複数の測定点のうち、測定点の温度の平均値からの差分絶対値が閾値以上の測定点を除外して代表値を求める。 In the non-contact body temperature measuring device according to the third aspect of the present invention, in the second aspect, the face temperature correction unit calculates a representative value by excluding, from among the multiple measurement points, measurement points whose absolute difference from the average temperature of the measurement points is equal to or greater than a threshold value.

本発明の第4の態様に係る非接触体温測定装置は、第1から第3の態様のいずれかにおいて、顔温度補正部は、複数フレームの可視画像からそれぞれ背景領域を特定し、複数フレームの可視画像にそれぞれ対応する複数フレームの熱画像において背景領域に対応する領域の温度の時間的な代表値を、環境温度として求める。 In the non-contact body temperature measuring device according to the fourth aspect of the present invention, in any of the first to third aspects, the face temperature correction unit identifies a background region from each of the multiple frames of visible images, and determines, as the environmental temperature, a temporal representative value of the temperature of the region corresponding to the background region in the multiple frames of thermal images that correspond to the multiple frames of visible images.

本発明の第5の態様に係る非接触体温測定装置は、第1から第4の態様のいずれかにおいて、顔温度補正部は、可視画像カメラと測定対象の顔との間の測定距離と、顔領域のサイズとの間の対応関係を示すテーブルを用いて、顔領域の測定距離の推定値を算出し、推定値が閾値以上の場合に顔温度に補正値を加算する。 In the non-contact body temperature measuring device according to the fifth aspect of the present invention, in any of the first to fourth aspects, the face temperature correction unit calculates an estimate of the measured distance of the face area using a table showing the correspondence between the measured distance between the visible image camera and the face of the measurement subject and the size of the face area, and adds a correction value to the face temperature if the estimated value is equal to or greater than a threshold value.

本発明の第6の態様に係る非接触体温測定装置は、第1から第5の態様のいずれかにおいて、顔温度補正部は、測定対象が存する空間の環境温度、湿度及び気圧のうちの少なくとも1つの情報を取得し、情報に基づいて顔温度を補正する。 In the non-contact body temperature measuring device according to the sixth aspect of the present invention, in any one of the first to fifth aspects, the facial temperature correction unit acquires information on at least one of the environmental temperature, humidity, and air pressure of the space in which the measurement subject is present, and corrects the facial temperature based on the information.

本発明の第7の態様に係る非接触体温測定方法は、可視画像カメラにより、測定対象から可視光線の波長域の光を受光して可視画像を撮像する工程と、熱画像カメラにより、測定対象から放出される赤外線量を可視化した熱画像を撮像する工程と、可視画像から顔領域を検出し、熱画像中の顔領域から顔温度を検出する工程と、可視画像から測定対象の輪郭の外部の背景領域を特定し、背景領域に対応する熱画像中の領域の温度を、測定対象の存する空間の環境温度として求め、環境温度に基づいて顔温度を補正する工程とを含む。 The non-contact body temperature measurement method according to the seventh aspect of the present invention includes the steps of receiving light in the visible light wavelength range from the measurement target using a visible image camera to capture a visible image, capturing a thermal image that visualizes the amount of infrared radiation emitted from the measurement target using a thermal image camera, detecting a face area from the visible image and detecting the face temperature from the face area in the thermal image, identifying a background area outside the contour of the measurement target from the visible image, determining the temperature of the area in the thermal image corresponding to the background area as the environmental temperature of the space in which the measurement target exists, and correcting the face temperature based on the environmental temperature.

本発明の第8の態様に係る非接触体温測定プログラムは、可視画像カメラにより、測定対象から可視光線の波長域の光を受光して可視画像を撮像する機能と、熱画像カメラにより、測定対象から放出される赤外線量を可視化した熱画像を撮像する機能と、可視画像から顔領域を検出し、熱画像中の顔領域から顔温度を検出する機能と、可視画像から測定対象の輪郭の外部の背景領域を特定し、背景領域に対応する熱画像中の領域の温度を、測定対象の存する空間の環境温度として求め、環境温度に基づいて顔温度を補正する機能とをコンピュータに実現させる。 The non-contact body temperature measurement program according to the eighth aspect of the present invention causes a computer to realize the following functions: receiving light in the visible light wavelength range from the measurement target and capturing a visible image using a visible image camera; capturing a thermal image that visualizes the amount of infrared light emitted from the measurement target using a thermal image camera; detecting a face area from the visible image and detecting the face temperature from the face area in the thermal image; identifying a background area outside the contour of the measurement target from the visible image, determining the temperature of the area in the thermal image corresponding to the background area as the environmental temperature of the space in which the measurement target exists, and correcting the face temperature based on the environmental temperature.

本発明によれば、背景領域から求めた環境温度に基づいて温度補正を行うことにより、測定対象の表面温度を高精度かつ効率的に測定することができる。 According to the present invention, the surface temperature of the measurement object can be measured with high accuracy and efficiency by performing temperature correction based on the environmental temperature obtained from the background area.

図1は、本発明の第1の実施形態に係る非接触体温測定装置を示すブロック図である。FIG. 1 is a block diagram showing a non-contact body temperature measuring device according to a first embodiment of the present invention. 図2は、本発明の第1の実施形態に係る非接触体温測定装置を汎用の操作端末により実現した例を示すブロック図である。FIG. 2 is a block diagram showing an example in which the non-contact body temperature measuring device according to the first embodiment of the present invention is realized by a general-purpose operation terminal. 図3は、本発明の第1の実施形態に係る非接触体温測定方法の処理の流れを示すデータフローである。FIG. 3 is a data flow showing the process flow of the non-contact body temperature measuring method according to the first embodiment of the present invention. 図4は、可視画像の例を示す図である。FIG. 4 is a diagram showing an example of a visible image. 図5は、熱画像の例を示す図である。FIG. 5 is a diagram showing an example of a thermal image. 図6は、入出力装置への出力の例を示す図である。FIG. 6 is a diagram showing an example of an output to an input/output device. 図7は、本発明の第2の実施形態に係る非接触体温測定装置を示すブロック図である。FIG. 7 is a block diagram showing a non-contact body temperature measuring device according to the second embodiment of the present invention. 図8は、本発明の第2の実施形態に係る非接触体温測定装置を入退出管理システムに適用した場合における処理の流れを示すフローチャートである。FIG. 8 is a flowchart showing a process flow when the non-contact body temperature measuring device according to the second embodiment of the present invention is applied to an entrance/exit management system. 図9は、図8の人物検出工程を示すフローチャートである。FIG. 9 is a flow chart showing the person detection process of FIG.

以下、添付図面に従って本発明に係る非接触体温測定装置、方法及びプログラムの実施の形態について説明する。 Below, an embodiment of the non-contact body temperature measuring device, method, and program according to the present invention will be described with reference to the attached drawings.

[第1の実施形態]
(非接触体温測定装置の構成例)
図1は、本発明の第1の実施形態に係る非接触体温測定装置を示すブロック図である。
[First embodiment]
(Example of the configuration of a non-contact body temperature measuring device)
FIG. 1 is a block diagram showing a non-contact body temperature measuring device according to a first embodiment of the present invention.

図1に示すように、本実施形態に係る非接触体温測定装置10は、演算装置12、電源14、可視画像カメラ16及び熱画像カメラ18を含んでいる。非接触体温測定装置10は、可視画像カメラ16及び熱画像カメラ18を用いて撮像された画像から、測定対象の人の体温を非接触で測定するための装置である。 As shown in FIG. 1, the non-contact body temperature measuring device 10 according to this embodiment includes a computing device 12, a power supply 14, a visible image camera 16, and a thermal image camera 18. The non-contact body temperature measuring device 10 is a device for non-contactly measuring the body temperature of a person to be measured from images captured using the visible image camera 16 and the thermal image camera 18.

演算装置12は、非接触体温測定装置10の各部の動作を制御するCPU(Central Processing Unit)を含んでいる。演算装置12は、非接触体温測定装置10の各部との間で制御信号及びデータの送受信が可能となっている。演算装置12は、入出力装置20を介してユーザからの指示入力を受け付け、この指示入力に応じた制御信号を非接触体温測定装置10の各部に送信して各部の動作を制御する。 The arithmetic device 12 includes a CPU (Central Processing Unit) that controls the operation of each part of the non-contact body temperature measuring device 10. The arithmetic device 12 is capable of sending and receiving control signals and data to and from each part of the non-contact body temperature measuring device 10. The arithmetic device 12 accepts instruction input from the user via the input/output device 20, and transmits control signals corresponding to this instruction input to each part of the non-contact body temperature measuring device 10 to control the operation of each part.

また、演算装置12は、EEPROM(Electronically Erasable and Programmable Read Only Memory)、各種演算のための作業領域として使用されるRAM(Random Access Memory)、及び入出力装置20に出力される画像データを一時記憶するため領域として使用されるVRAM(Video Random Access Memory)を含んでいる。 The calculation device 12 also includes an EEPROM (Electronically Erasable and Programmable Read Only Memory), a RAM (Random Access Memory) used as a working area for various calculations, and a VRAM (Video Random Access Memory) used as an area for temporarily storing image data output to the input/output device 20.

さらに、演算装置12は、例えば、HDD(Hard Disk Drive)等の磁気ディスク、若しくはSSD(Solid State Drive)又はeMMC(embedded Multi Media Card)等のフラッシュメモリ等を含む記憶装置(ストレージデバイス)を含んでいる。この記憶装置には、各種演算のための制御プログラム及び非接触体温測定プログラム等を含むデータが格納される。 Furthermore, the computing device 12 includes a storage device including, for example, a magnetic disk such as a hard disk drive (HDD), or a flash memory such as a solid state drive (SSD) or an embedded multi media card (eMMC). This storage device stores data including control programs for various calculations and a non-contact body temperature measurement program.

入出力装置20は、画像を表示するための表示装置と、ユーザからの指示入力を受け付ける入力装置とを含んでいる。具体的には、入出力装置20は、表示装置としての液晶モニタ(LCD:Liquid Crystal Display)と、入力装置として液晶モニタの表面に設けられたタッチパネルとを含んでいる。なお、入力装置としては、タッチパネルに代えて、文字入力等のためのキーボード及びポインティングデバイス(例えば、マウス又はトラックボール等)等を備えてもよい。 The input/output device 20 includes a display device for displaying images and an input device for receiving instruction input from a user. Specifically, the input/output device 20 includes a liquid crystal display (LCD) monitor as the display device, and a touch panel provided on the surface of the LCD monitor as the input device. Note that the input device may include a keyboard and a pointing device (e.g., a mouse or a trackball) for character input, etc., instead of a touch panel.

電源14は、非接触体温測定装置10の各部に電力を供給する装置である。電源14としては、例えば、商用電源から入力された交流電流を変換して所定の直流電流を出力するAC(Alternating Current)アダプタ、又は非接触体温測定装置10に取り付け可能なバッテリ(例えば、充電式)を用いることができる。 The power supply 14 is a device that supplies power to each part of the non-contact body temperature measuring device 10. The power supply 14 can be, for example, an AC (Alternating Current) adapter that converts alternating current input from a commercial power source and outputs a predetermined direct current, or a battery (e.g., rechargeable) that can be attached to the non-contact body temperature measuring device 10.

可視画像カメラ16は、撮像領域の物体から、可視光線の波長域(一例で波長360nm~800nm程度)の光を受光して画像(例えば、動画)を撮像する装置である。可視画像カメラ16は、例えば、CCD(Charge Coupled Device)カメラ又はCMOS(Complementary Metal Oxide Semiconductor)カメラである。 The visible image camera 16 is a device that receives light in the visible light wavelength range (for example, wavelengths of about 360 nm to 800 nm) from an object in the imaging area and captures an image (e.g., a video). The visible image camera 16 is, for example, a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal Oxide Semiconductor) camera.

熱画像カメラ18は、撮像領域の物体から放出される赤外線量を可視化(例えば、動画に)するための装置である。熱画像カメラ18は、撮像領域の物体から放出される赤外線を電気信号に変換して赤外線量を測定する赤外線撮像素子(量子型又は非冷却型)を含んでいる。 The thermal imaging camera 18 is a device for visualizing (e.g., creating a video) the amount of infrared radiation emitted from an object in the imaging area. The thermal imaging camera 18 includes an infrared imaging element (quantum type or uncooled type) that converts the infrared radiation emitted from the object in the imaging area into an electrical signal to measure the amount of infrared radiation.

可視画像カメラ16と熱画像カメラ18とは、互いの撮像範囲(画角)は略同一になるように配置されている。ここで、可視画像カメラ16と熱画像カメラ18の撮像範囲は厳密に同一である必要はない。可視画像カメラ16と熱画像カメラ18の撮像範囲は厳密に同一でなくても、画像処理(例えば、パターンマッチング等)により一致させることができる。 The visible image camera 16 and the thermal image camera 18 are positioned so that their imaging ranges (angle of view) are approximately the same. Here, the imaging ranges of the visible image camera 16 and the thermal image camera 18 do not need to be strictly the same. Even if the imaging ranges of the visible image camera 16 and the thermal image camera 18 are not strictly the same, they can be made to match by image processing (e.g., pattern matching, etc.).

可視画像カメラ16と熱画像カメラ18とは、略同一画角の画像を略同期して撮像可能となっている。ここで、可視画像カメラ16と熱画像カメラ18の撮像タイミングが完全に同期している必要はなく、測定精度に影響を与えない程度のずれは許容される。また、可視画像IMG1又は熱画像IMG2のフレームを補間することにより撮像タイミングが相互に同期したフレーム画像を生成してもよい。なお、以下の説明では、説明の簡略化のため、可視画像カメラ16と熱画像カメラ18の撮像タイミングが同期しているものとして説明する(図4~図6参照)。 The visible image camera 16 and the thermal image camera 18 are capable of capturing images of approximately the same angle of view in a substantially synchronized manner. Here, the image capturing timing of the visible image camera 16 and the thermal image camera 18 does not need to be perfectly synchronized, and a degree of deviation that does not affect the measurement accuracy is acceptable. In addition, frame images whose image capturing timing is synchronized with each other may be generated by interpolating frames of the visible image IMG1 or the thermal image IMG2. In the following explanation, for the sake of simplicity, it is assumed that the image capturing timing of the visible image camera 16 and the thermal image camera 18 is synchronized (see Figures 4 to 6).

可視画像カメラ16は、測定対象の人の判別(人の顔又は瞳の検出)を行うのに十分な解像度の画像を所定のフレームレートで撮像可能となっている。可視画像カメラ16の解像度は、一例で800pixel×600pixel程度である。 The visible image camera 16 is capable of capturing images at a predetermined frame rate with a resolution sufficient to identify the person being measured (detect the person's face or eyes). The resolution of the visible image camera 16 is, for example, approximately 800 pixels x 600 pixels.

熱画像カメラ18は、可視画像カメラ16により撮像された可視画像からの測定対象の検出結果に基づいて、測定対象の人と、測定対象以外の背景領域(例えば、壁等)とを分離可能な程度の解像度の画像を所定のフレームレートで撮像可能となっている。熱画像カメラ18の解像度は、一例で可視画像カメラ16の解像度の10分の1程度であり、80pixel×60pixel程度である。本実施形態では、熱画像カメラ18として、可視画像カメラ16よりも低解像度のものを用いることにより、低コストかつ高精度な測定を実現することができる。 The thermal imaging camera 18 is capable of capturing images at a predetermined frame rate with a resolution that allows the measurement target person to be separated from background areas other than the measurement target (e.g., walls, etc.) based on the detection results of the measurement target from the visible image captured by the visible image camera 16. The resolution of the thermal imaging camera 18 is, for example, about one-tenth the resolution of the visible image camera 16, about 80 pixels x 60 pixels. In this embodiment, a thermal imaging camera 18 with a lower resolution than the visible image camera 16 is used, thereby making it possible to achieve low-cost, highly accurate measurements.

なお、熱画像カメラ18の解像度はこれに限定されるものではなく、可視画像カメラ16と同等の解像度であってもよい。この場合、測定精度のさらなる向上を実現することができる。 The resolution of the thermal imaging camera 18 is not limited to this, and may be the same as that of the visible image camera 16. In this case, further improvement in measurement accuracy can be achieved.

本実施形態では、可視画像カメラ16及び熱画像カメラ18を用いて撮像範囲内の人の可視画像及び熱画像をそれぞれ撮像する。演算装置12は、可視画像を処理して撮像範囲内の人の顔又は瞳を検出する。そして、演算装置12は、可視画像からの人の顔又は瞳の検出結果に基づいて、熱画像に含まれる測定対象の人の領域を背景領域から分離して、測定対象の人の体温の推定値を算出する。 In this embodiment, a visible image and a thermal image of a person within the imaging range are captured using a visible image camera 16 and a thermal image camera 18, respectively. The computing device 12 processes the visible image to detect the face or pupils of the person within the imaging range. Then, based on the detection result of the person's face or pupils from the visible image, the computing device 12 separates the area of the person being measured contained in the thermal image from the background area, and calculates an estimate of the body temperature of the person being measured.

センサ22は、測定対象の人が存在する場所の気温(環境温度)、湿度又は圧力(気圧)等を測定するための装置である。センサ22は、可視画像カメラ16及び熱画像カメラ18の撮像範囲内の任意の場所に設置可能である。センサ22は、可視画像カメラ16及び熱画像カメラ18と測定対象との間の距離が短い場合には、可視画像カメラ16及び熱画像カメラ18からなるモジュールに設けられていてもよい。 The sensor 22 is a device for measuring the air temperature (ambient temperature), humidity, or pressure (atmospheric pressure) in the location where the person being measured is present. The sensor 22 can be installed at any location within the imaging range of the visible image camera 16 and the thermal image camera 18. When the distance between the visible image camera 16 and the thermal image camera 18 and the measurement target is short, the sensor 22 may be provided in a module consisting of the visible image camera 16 and the thermal image camera 18.

演算装置12は、センサ22による環境温度、湿度又は気圧の測定結果に基づいて、測定対象の人の体温の推定値を補正することが可能である。 The computing device 12 can correct the estimated body temperature of the person being measured based on the measurement results of the environmental temperature, humidity, or air pressure by the sensor 22.

なお、センサ22は、非接触体温測定装置10に含まれていてもよいし、非接触体温測定装置10とは別の装置から測定結果を取得する構成としてもよい。例えば、演算装置12が、インターネット上に公開されている気象庁発表の地域の気象データ、又はIoT(Internet of Things)気象センサによる気象データ(温湿度、気圧等)等の情報を取得するようにしてもよい。この場合、演算装置12は、測定範囲に関する位置情報を取得して、この位置情報を用いて、インターネット上の気象データを検索するようにしてもよい。測定範囲の位置情報は、例えば、演算装置12に手動入力してもよいし、演算装置のIP(Internet Protocol)アドレス又は無線LAN(Local Area Network)等に関する情報から自動取得してもよい。また、センサ22は、非接触体温測定装置10に必須のものではなく、省略することも可能である。 The sensor 22 may be included in the non-contact body temperature measuring device 10, or may be configured to obtain the measurement results from a device other than the non-contact body temperature measuring device 10. For example, the computing device 12 may obtain information such as local weather data published by the Japan Meteorological Agency and published on the Internet, or weather data (temperature, humidity, air pressure, etc.) from an IoT (Internet of Things) weather sensor. In this case, the computing device 12 may obtain location information regarding the measurement range and use this location information to search for weather data on the Internet. The location information of the measurement range may be manually input to the computing device 12, or may be automatically obtained from information regarding the computing device's IP (Internet Protocol) address or wireless LAN (Local Area Network), etc. In addition, the sensor 22 is not essential for the non-contact body temperature measuring device 10 and may be omitted.

また、センサ22による測定結果は、例えば、1又は複数の非接触体温測定装置10を管理装置により遠隔操作する場合には(第2の実施形態参照)、各非接触体温測定装置10に対応するセンサ22の測定結果を管理装置に送信するようにしてもよい。 In addition, for example, when one or more non-contact body temperature measuring devices 10 are remotely operated by a management device (see the second embodiment), the measurement results by the sensor 22 corresponding to each non-contact body temperature measuring device 10 may be transmitted to the management device.

また、演算装置12は、例えば、パーソナルコンピュータ、ワークステーション又はタブレット端末等の汎用の操作端末により実現することができる。この場合、入出力装置20は、非接触体温測定装置10に含まれていてもよい。 The calculation device 12 can be realized by, for example, a general-purpose operation terminal such as a personal computer, a workstation, or a tablet terminal. In this case, the input/output device 20 may be included in the non-contact body temperature measuring device 10.

(非接触体温測定装置を汎用の操作端末により実現した例)
図2は、本発明の第1の実施形態に係る非接触体温測定装置を汎用の操作端末により実現した例を示すブロック図である。
(An example of a non-contact body temperature measuring device using a general-purpose operating terminal)
FIG. 2 is a block diagram showing an example in which the non-contact body temperature measuring device according to the first embodiment of the present invention is realized by a general-purpose operation terminal.

図2に示す例では、非接触体温測定装置10Aは、操作端末30及びカメラモジュール32を含んでいる。 In the example shown in FIG. 2, the non-contact body temperature measuring device 10A includes an operation terminal 30 and a camera module 32.

操作端末30は、パーソナルコンピュータ、ワークステーション又はタブレット端末等の汎用の操作端末からなり、図1に示した演算装置12、電源14及び入出力装置20として機能する。操作端末30は、後述の画像処理、温度(体温、顔温度)検出、顔認証及び結果出力等のためのソフトウェアがインストールされている。 The operation terminal 30 is a general-purpose operation terminal such as a personal computer, a workstation, or a tablet terminal, and functions as the calculation device 12, the power supply 14, and the input/output device 20 shown in FIG. 1. The operation terminal 30 has software installed therein for image processing, temperature (body temperature, facial temperature) detection, facial authentication, and result output, which will be described later.

カメラモジュール32は、図1に示した可視画像カメラ16及び熱画像カメラ18を含んでいる。カメラモジュール32は、USB(Universal Serial Bus)等のインターフェイスを介して操作端末30と接続されており、操作端末30からの電力の供給を受けたり、操作端末30との間で制御信号及びデータの伝送を行うことが可能となっている。 The camera module 32 includes the visible image camera 16 and the thermal image camera 18 shown in FIG. 1. The camera module 32 is connected to the operation terminal 30 via an interface such as a USB (Universal Serial Bus), and is capable of receiving power from the operation terminal 30 and transmitting control signals and data to and from the operation terminal 30.

画像処理、温度(体温、顔温)検出、顔認証及び結果出力等の処理は、可視画像IMG1及び熱画像IMG2等のデータをカメラモジュール32から操作端末30に伝送して、操作端末30により測定対象の温度を推定してもよい。また、カメラモジュール32で温度の推定等の各種処理を行い、その結果を操作端末30に伝送して結果を表示させてもよい。例えば、操作端末30とカメラモジュール32との間の伝送路の帯域が狭い場合等には、カメラモジュール32で温度の推定等の各種処理を行うことにより、操作端末30とカメラモジュール32との間で伝送するデータ量を節約することができる。 Processing such as image processing, temperature (body temperature, facial temperature) detection, facial recognition, and result output may be performed by transmitting data such as the visible image IMG1 and thermal image IMG2 from the camera module 32 to the operation terminal 30, and the temperature of the measurement target may be estimated by the operation terminal 30. Also, various processes such as temperature estimation may be performed in the camera module 32, and the results may be transmitted to the operation terminal 30 to display the results. For example, when the bandwidth of the transmission path between the operation terminal 30 and the camera module 32 is narrow, the amount of data transmitted between the operation terminal 30 and the camera module 32 can be reduced by performing various processes such as temperature estimation in the camera module 32.

(非接触体温測定方法)
次に、本発明の第1の実施形態に係る非接触体温測定方法について、図3から図5を参照して説明する。図3は、本発明の第1の実施形態に係る非接触体温測定方法の処理の流れを示すデータフローである。本実施形態では、可視画像カメラ16及び熱画像カメラ18は同期して撮像範囲の画像(動画)を取得し、演算装置12は、図3に示す処理を動画のフレームごとに行う。
(Non-contact body temperature measurement method)
Next, a non-contact body temperature measuring method according to a first embodiment of the present invention will be described with reference to Fig. 3 to Fig. 5. Fig. 3 is a data flow showing the process flow of the non-contact body temperature measuring method according to the first embodiment of the present invention. In this embodiment, the visible image camera 16 and the thermal image camera 18 synchronously acquire images (moving images) of the imaging range, and the calculation device 12 performs the process shown in Fig. 3 for each frame of the moving images.

まず、演算装置12は、可視画像カメラ16及び熱画像カメラ18からそれぞれ可視画像IMG1及び熱画像IMG2を取得する。そして、演算装置12は、可視画像IMG1及び熱画像IMG2に対してそれぞれ前処理を行う(ステップS10及びS20)。なお、熱画像IMG2に対する前処理S20は、ステップS10からS16の後に行うようにしてもよいし、並行して行ってもよい。 First, the calculation device 12 acquires a visible image IMG1 and a thermal image IMG2 from the visible image camera 16 and the thermal image camera 18, respectively. Then, the calculation device 12 performs pre-processing on the visible image IMG1 and the thermal image IMG2, respectively (steps S10 and S20). Note that the pre-processing S20 on the thermal image IMG2 may be performed after steps S10 to S16, or may be performed in parallel.

可視画像IMG1に対する前処理では(ステップS10)、演算装置12は、色情報等に基づいて測定範囲内の測定対象の人の概略形状(輪郭)を認識する。そして、演算装置12は、可視画像IMG1と熱画像IMG2とを比較しながら、人の部分の位置調整を行う。具体的には、演算装置12は、測定対象の人の部分の拡大縮小処理、平行移動等の処理を行う。ここで、拡大縮小率、移動量の設定は、画像認識の結果を踏まえて演算装置12が自動で行ってもよいし、手動で行ってもよい。 In pre-processing of the visible image IMG1 (step S10), the calculation device 12 recognizes the general shape (outline) of the person being measured within the measurement range based on color information, etc. Then, the calculation device 12 adjusts the position of the person while comparing the visible image IMG1 with the thermal image IMG2. Specifically, the calculation device 12 performs processes such as enlarging/reducing and translating the person being measured. Here, the enlargement/reduction rate and the amount of movement may be set automatically by the calculation device 12 based on the results of image recognition, or may be set manually.

また、演算装置12は、可視画像IMG1からの人の顔の検出(顔認識)を容易にするための画像調整を行う。具体的には、演算装置12は、ホワイトバランス調整、ガンマ補正、コントラスト調整等を行う。 The calculation device 12 also performs image adjustments to facilitate detection of a human face (face recognition) from the visible image IMG1. Specifically, the calculation device 12 performs white balance adjustment, gamma correction, contrast adjustment, etc.

さらに、演算装置12は、可視画像IMG1のうち、熱画像IMG2の撮像範囲外の部分を切り取るなどの処理も行ってもよい。 Furthermore, the calculation device 12 may also perform processing such as cutting out parts of the visible image IMG1 that are outside the imaging range of the thermal image IMG2.

一方、熱画像IMG2に対する前処理では(ステップS20)、可視画像IMG1における測定対象に対して、熱画像IMG2における測定対象の大きさ及び位置(画角)を合わせる処理を行う。具体的には、可視画像IMG1に対する前処理と同様に、演算装置12は、拡大縮小処理、平行移動等の処理を行う。ここで、拡大縮小率、移動量の設定は、演算装置12が画像認識の結果を踏まえて自動で行ってもよいし、手動で行ってもよい。 On the other hand, in pre-processing of the thermal image IMG2 (step S20), a process is performed to match the size and position (angle of view) of the measurement target in the thermal image IMG2 with the measurement target in the visible image IMG1. Specifically, similar to the pre-processing of the visible image IMG1, the calculation device 12 performs processes such as enlargement/reduction processing and translation. Here, the enlargement/reduction rate and the amount of movement may be set automatically by the calculation device 12 based on the results of image recognition, or may be set manually.

なお、ステップS10及びS20において、画像の位置調整を自動で行う場合、演算装置12は、可視画像IMG1及び熱画像IMG2の各画像から輪郭線の抽出を行い、両画像から抽出した輪郭線に基づいて両画像の重ね合わせを行ってもよい。具体的には、演算装置12は、それぞれの輪郭の相関が最も高くなるように両画像を重ね合わせてもよい。また、可視画像IMG1及び熱画像IMG2の各画像から人の瞳又はメガネを検出し、検出した瞳又はメガネを基準に両画像を重ね合わせてもよい。あるいは、演算装置12は、各画像から照明装置等の特徴ある特異点を検出し、その特異点を基準に各画像を重ね合わせてもよい。 When adjusting the image positions automatically in steps S10 and S20, the calculation device 12 may extract contour lines from each of the visible image IMG1 and the thermal image IMG2, and superimpose the two images based on the contour lines extracted from both images. Specifically, the calculation device 12 may superimpose the two images so that the correlation between the contours is maximized. In addition, a person's eyes or glasses may be detected from each of the visible image IMG1 and the thermal image IMG2, and the two images may be superimposed based on the detected eyes or glasses. Alternatively, the calculation device 12 may detect characteristic singular points, such as lighting devices, from each image, and superimpose the images based on the singular points.

図4は可視画像IMG1の例を示しており、図5は熱画像IMG2の例を示している。また、図5に示す熱画像IMG2では、熱画像カメラ18によって検出された温度が色分けによって可視化されており、温度が高い方から順に赤(R)、橙(O)、黄(Y)、緑(G)、青(B)となっている。図5では、赤(R)が縦縞、橙(O)が斜め格子、黄(Y)が格子、緑(G)が斜め縞、青(B)が横縞で表されている。なお、図5の符号CSは、色と検出温度の対応関係を示すカラースケールである。 Figure 4 shows an example of a visible image IMG1, and Figure 5 shows an example of a thermal image IMG2. In the thermal image IMG2 shown in Figure 5, the temperatures detected by the thermal imaging camera 18 are visualized by color coding, with the colors red (R), orange (O), yellow (Y), green (G), and blue (B) representing the highest temperatures. In Figure 5, red (R) is represented by vertical stripes, orange (O) by a diagonal grid, yellow (Y) by a grid, green (G) by diagonal stripes, and blue (B) by horizontal stripes. Note that the symbol CS in Figure 5 is a color scale that indicates the correspondence between colors and detected temperatures.

図4に示す可視画像IMG1には、測定対象の人P1が1人写っている。演算装置12は、人P1と背景領域BG1との間の色(温度)の相違、又は人間の体型とのパターンマッチング等の処理を行って、人P1の輪郭を検出する。 The visible image IMG1 shown in FIG. 4 shows one person P1 to be measured. The calculation device 12 detects the outline of the person P1 by processing the difference in color (temperature) between the person P1 and the background region BG1, or by pattern matching with the human body type.

一方、図5に示す熱画像IMG2には、人P1に対応する領域P2が示されている。領域P2のうち、頭部H1に対応する領域H2のうち顔及び耳の部分(すなわち、皮膚が露出している部分)は高温(赤)となっており、頭部H1に対応する領域H2のうち頭髪部分、及び胴部B1に対応する領域B2は低温(青)となっている。また、メガネに対応する領域G2は顔よりも低温(緑)となっている。 On the other hand, the thermal image IMG2 shown in Figure 5 shows an area P2 corresponding to person P1. Within area P2, the face and ears (i.e., exposed skin) of area H2 corresponding to head H1 are hot (red), while the hair part of area H2 corresponding to head H1 and area B2 corresponding to torso B1 are cold (blue). Additionally, area G2 corresponding to glasses is colder (green) than the face.

なお、頭髪部分及び胴部の領域B2では、高温部である顔に近い領域ほど高温の領域として検出される。すなわち、実際の熱画像IMG2では、顔に近づくにつれて、頭髪部分及び胴部の領域B2の色が青、青緑、緑、黄緑のように変化する。図5では、図示の制約上、頭髪部分及び胴部の領域B2のうち、顔に近い領域を緑としている。 In addition, in the hair and torso area B2, the areas closer to the face, which is the hotter area, are detected as hotter. That is, in the actual thermal image IMG2, the color of the hair and torso area B2 changes from blue to blue-green, green, and yellow-green as it gets closer to the face. In Figure 5, due to the limitations of the illustration, the areas of the hair and torso area B2 that are closer to the face are shown as green.

演算装置12は、熱画像IMG2における領域P2と背景領域BG2との間の色(温度)の相違、又は人間の体型とのパターンマッチング等の処理を行って、人P1に対応する領域P2の輪郭を検出する。 The computing device 12 detects the contour of the area P2 corresponding to the person P1 by performing processing such as the difference in color (temperature) between the area P2 in the thermal image IMG2 and the background area BG2, or pattern matching with the human body shape.

次に、演算装置12は、図3に示すように、可視画像IMG1から測定対象の人の顔を検出する(ステップS12)。ステップS12では、演算装置12は、可視画像IMG1から測定対象の人の顔の瞳又はメガネを含む瞳領域G1の検出を行って顔の有無を判定する。そして、可視画像IMG1から人の顔が検出されなかった場合には(ステップS14のNo)、その可視画像IMG1及びこれに対応する熱画像IMG2に対する処理を中止し、次に取得した可視画像IMG1に対してステップS10及びS12を繰り返す。 Next, the calculation device 12 detects the face of the person being measured from the visible image IMG1 as shown in FIG. 3 (step S12). In step S12, the calculation device 12 detects the pupil area G1 including the pupils or glasses of the face of the person being measured from the visible image IMG1 to determine the presence or absence of a face. Then, if a human face is not detected from the visible image IMG1 (No in step S14), the processing of the visible image IMG1 and the corresponding thermal image IMG2 is stopped, and steps S10 and S12 are repeated for the next acquired visible image IMG1.

一方、可視画像IMG1から人P1の顔が検出された場合には(ステップS14のYes)、演算装置12は、瞳領域G1の検出結果に基づいて顔領域F1を抽出し、可視画像IMG1における顔領域F1から顔温度(体温)の測定に用いる額領域A1の抽出を行う(ステップS16)。 On the other hand, if the face of person P1 is detected from the visible image IMG1 (Yes in step S14), the calculation device 12 extracts the face area F1 based on the detection result of the pupil area G1, and extracts the forehead area A1 used to measure the face temperature (body temperature) from the face area F1 in the visible image IMG1 (step S16).

具体的には、演算装置12は、可視画像IMG1における色情報又はパターンマッチングの結果に基づいて、測定対象の人P1の瞳領域G1(例えば、両目又はメガネを含む矩形領域)を検出する(ステップS12)。ここで、瞳領域の検出は、例えば、Haar特徴ベースのCascade型分類器を用いた物体検出手法(例えば、越前功,“人間とデバイスの感度の違いを利用したプライバシー保護技術”,[online],2012年12月12日,大学共同利用機関法人国立情報学研究所,[2020年9月29日検索],インターネット〈URL:https://www.nii.ac.jp/userimg/press_20121212.pdf〉参照)を適用可能である。 Specifically, the arithmetic unit 12 detects the pupil region G1 (e.g., a rectangular region including both eyes or glasses) of the person P1 to be measured based on the color information in the visible image IMG1 or the result of pattern matching (step S12). Here, the pupil region can be detected, for example, by an object detection method using a Haar feature-based Cascade-type classifier (see, for example, Echizen Isao, "Privacy protection technology utilizing the difference in sensitivity between humans and devices," [online], December 12, 2012, National Institute of Informatics, Inter-University Research Institute Corporation, [searched September 29, 2020], Internet <URL: https://www.nii.ac.jp/userimg/press_20121212.pdf>).

次に、演算装置12は、可視画像IMG1において瞳領域G1を縦横に所定の倍率で拡大した領域を、可視画像IMG1における顔領域F1として抽出する(ステップS16)。 Next, the calculation device 12 extracts an area in the visible image IMG1 obtained by enlarging the pupil area G1 vertically and horizontally at a predetermined magnification as the face area F1 in the visible image IMG1 (step S16).

図4に示すように、可視画像IMG1における瞳領域G1の縦横のサイズをそれぞれV及びH、顔領域F1の縦横のサイズをそれぞれV及びHとすると、瞳領域G1と顔領域F1の関係は下記の式により表される。なお、下記の式において、m及びnは、瞳領域G1からそれぞれ顔領域F1を求めるときに用いる縦横の倍率であり、倍率m及びnは実験的又は統計的に決定可能である。 4, if the vertical and horizontal sizes of the pupil region G1 in the visible image IMG1 are V G and H G , and the vertical and horizontal sizes of the face region F1 are V F and H F , respectively, the relationship between the pupil region G1 and the face region F1 is expressed by the following formula: In the formula, m and n are the vertical and horizontal magnifications used when obtaining the face region F1 from the pupil region G1, and the magnifications m and n can be determined experimentally or statistically.

=m×V
=n×H
なお、瞳領域G1は、一般的に横長の矩形領域になる。このため、顔領域F1の形状(例えば、正方形又は長方形)に近づけるために、倍率mとnの関係は、一般的にm>nとなる。一例で、縦方向の倍率mは8倍、横方向の倍率nは1.5倍である。
VF = m × VG
HF = n x HG
The pupil region G1 is generally a horizontally long rectangular region. Therefore, in order to approximate the shape of the face region F1 (for example, a square or rectangle), the relationship between the magnifications m and n is generally m>n. In one example, the vertical magnification m is 8 times, and the horizontal magnification n is 1.5 times.

上記のように、本実施形態では、瞳領域G1を基準として顔領域F1を抽出するので、測定対象の人P1がマスクを着用している場合であっても、人の顔を検出することが可能になる。 As described above, in this embodiment, the face area F1 is extracted based on the pupil area G1, so it is possible to detect the human face even if the person P1 being measured is wearing a mask.

次に、演算装置12は、可視画像IMG1における顔領域F1から体温の測定に用いる額領域A1の抽出を行う(ステップS16)。演算装置12は、例えば、〔A〕瞳領域G1の上辺より上で、かつ、〔B〕顔の輪郭上端(頭部H1の上端)より下の特定の比率)の領域を額領域A1と推定する。額領域A1を推定する際の条件としては、〔C〕肌色の領域、又は〔D〕色情報に基づいて頭髪を除いた領域という条件を付加してもよい。また、額領域A1は、上記〔A〕及び〔B〕の条件を満たす矩形領域として検出するようにしてもよいし、上記〔A〕及び〔B〕の条件を満たす矩形領域を、〔C〕又は〔D〕の条件により変形した領域(例えば、楕円状の領域)としてもよい。なお、後述する顔領域の算出において、平均値からの差分絶対値が所定値以上の画素を除外する場合には、額領域A1を厳密に検出する必要はないので、〔C〕及び〔D〕の条件は必須ではない。 Next, the calculation device 12 extracts the forehead area A1 used for measuring the body temperature from the face area F1 in the visible image IMG1 (step S16). For example, the calculation device 12 estimates the area (A) above the upper side of the pupil area G1 and (B) a specific ratio below the top end of the face outline (the top end of the head H1) as the forehead area A1. Conditions for estimating the forehead area A1 may include (C) a skin-colored area, or (D) an area excluding hair based on color information. In addition, the forehead area A1 may be detected as a rectangular area satisfying the above conditions (A) and (B), or the rectangular area satisfying the above conditions (A) and (B) may be a deformed area (e.g., an elliptical area) according to the conditions (C) or (D). In addition, in the calculation of the face area described later, if pixels whose absolute difference from the average value is equal to or greater than a predetermined value are excluded, it is not necessary to strictly detect the forehead area A1, so the conditions (C) and (D) are not essential.

次に、演算装置12は、可視画像IMG1における顔領域F1の抽出結果に基づいて、熱画像IMG2において顔領域F1に対応する領域F2を特定し、額領域A1に対応する領域A2を特定する。そして、演算装置12は、熱画像IMG2に含まれる温度情報に基づいて、領域A2の温度(以下、顔温度という。)を検出する(ステップS22)。ここで、演算装置12は、顔温度検出部として機能する。ステップS22では、可視画像IMG1における額領域A1と位置及び大きさが同じ熱画像IMG2中の領域A2から顔温度を検出する。ここで、顔温度としては、領域A2において温度が最高の画素の顔温度を採用してもよいし、領域A2内の複数の測定点における温度の代表値(例えば、平均値又は中央値等)を採用してもよい。また、顔温度の代表値を算出する際には、領域A2の画素のうち、平均値からの差分絶対値が所定値以上の画素を除外するようにしてもよい。 Next, the calculation device 12 identifies an area F2 corresponding to the face area F1 in the thermal image IMG2 based on the extraction result of the face area F1 in the visible image IMG1, and identifies an area A2 corresponding to the forehead area A1. Then, the calculation device 12 detects the temperature of the area A2 (hereinafter referred to as the face temperature) based on the temperature information contained in the thermal image IMG2 (step S22). Here, the calculation device 12 functions as a face temperature detection unit. In step S22, the face temperature is detected from the area A2 in the thermal image IMG2, which has the same position and size as the forehead area A1 in the visible image IMG1. Here, as the face temperature, the face temperature of the pixel with the highest temperature in the area A2 may be adopted, or a representative value (for example, the average value or the median value) of the temperatures at multiple measurement points in the area A2 may be adopted. In addition, when calculating the representative value of the face temperature, pixels in the area A2 whose absolute difference from the average value is equal to or greater than a predetermined value may be excluded.

なお、上記の例では、熱画像IMG2における複数の測定点の代表値(空間的な代表値)について説明したが、複数フレームの熱画像IMG2において検出された領域A2内の測定点における時間的な代表値を採用してもよい。 In the above example, a representative value (spatial representative value) of multiple measurement points in thermal image IMG2 was described, but a temporal representative value of measurement points within area A2 detected in multiple frames of thermal image IMG2 may also be used.

次に、演算装置12は、ステップS22で検出した顔温度の温度補正を行う(ステップS24)。ここで、演算装置12は、顔温度補正部として機能する。 Next, the calculation device 12 performs temperature correction of the face temperature detected in step S22 (step S24). Here, the calculation device 12 functions as a face temperature correction unit.

〈A〉額領域A2と腋窩温の相関性に基づく顔温度の補正
ステップS24では、例えば、額領域A2と腋窩温の相関性に基づいて、ステップS22で検出した顔温度を補正する。額領域A2と腋窩温の相関性に基づく補正については、例えば、遠藤芳子,外3名,“電子体温計による腋窩体温と前額部深部温との比較検討”,[online],2009年1月,宮城大学,[2020年9月29日検索],インターネット〈URL:https://myu.repo.nii.ac.jp/?action=repository_action_common_download&item_id=225&item_no=1&attribute_id=19&file_no=1〉に記載の方法を適用可能である。
<A> Correction of face temperature based on correlation between forehead area A2 and armpit temperature In step S24, for example, the face temperature detected in step S22 is corrected based on the correlation between the forehead area A2 and armpit temperature. For correction based on the correlation between the forehead area A2 and armpit temperature, for example, the method described in Yoshiko Endo and 3 others, "Comparative study of armpit temperature and deep forehead temperature using electronic thermometer", [online], January 2009, Miyagi University, [searched on September 29, 2020], Internet <URL: https://myu.repo.nii.ac.jp/?action=repository_action_common_download&item_id=225&item_no=1&attribute_id=19&file_no=1> can be applied.

〈B〉環境温度(周囲温度)に基づく顔温度の補正
また、熱画像IMG2から測定した顔温度には、測定対象の周囲の環境温度及び測定距離(人P1と熱画像カメラ18との間の距離)に起因する誤差が含まれ得る。このため、ステップS24では、環境温度及び測定距離に起因する誤差の補正を行うことが可能となっている。
<B> Correction of face temperature based on environmental temperature (ambient temperature) Furthermore, the face temperature measured from the thermal image IMG2 may contain errors due to the environmental temperature around the measurement target and the measurement distance (the distance between the person P1 and the thermal image camera 18). For this reason, in step S24, it is possible to correct the errors due to the environmental temperature and the measurement distance.

一般に、環境温度の推定は、装置の筐体内部等に配置した温度センサを用いて行われるが、筐体内部に配置した温度センサは、筐体内部に配置された電子回路又はモニタ等の機器の発熱による影響を受ける。そこで、本実施形態では、熱画像IMG2の背景領域BG2の検出温度から環境温度を推定する。 Generally, the environmental temperature is estimated using a temperature sensor placed inside the housing of the device, but the temperature sensor placed inside the housing is affected by heat generated by electronic circuits or devices such as monitors placed inside the housing. Therefore, in this embodiment, the environmental temperature is estimated from the detected temperature of the background region BG2 of the thermal image IMG2.

具体的には、演算装置12は、可視画像IMG1から推定された測定対象の人P1の輪郭の外部の背景領域BG1に基づいて、熱画像IMG2中の背景領域BG2を特定する。そして、演算装置12は、背景領域BG2(例えば、壁等)の温度を複数の測定点で測定し、その代表値(例えば、平均値又は中央値等)を、人P1が存する空間の環境温度として採用する。ここで、環境温度を算出する際には、背景領域BG2に写り込んだ窓及び照明器具等の影響を排除するため、代表値として中央値を採用してもよい。また、統計処理により他の測定点と比較して大きく温度が異なる(例えば、平均値からの差分絶対値が閾値以上の)測定点を除外した後の平均値又は中央値等を代表値として採用することもできる。 Specifically, the calculation device 12 identifies the background area BG2 in the thermal image IMG2 based on the background area BG1 outside the contour of the person P1 to be measured, which is estimated from the visible image IMG1. The calculation device 12 then measures the temperature of the background area BG2 (e.g., a wall, etc.) at multiple measurement points, and adopts the representative value (e.g., the average value or the median value, etc.) as the environmental temperature of the space in which the person P1 is present. Here, when calculating the environmental temperature, the median value may be adopted as the representative value in order to eliminate the influence of windows, lighting fixtures, etc. reflected in the background area BG2. In addition, the average value or the median value after excluding measurement points whose temperatures are significantly different from other measurement points (e.g., the absolute difference value from the average value is equal to or greater than a threshold value) through statistical processing may be adopted as the representative value.

上記の例では、熱画像IMG2における複数の測定点の代表値(空間的な代表値)について説明したが、複数フレームの熱画像IMG2において検出された背景領域BG2内の測定点における時間的な代表値を採用してもよい。背景領域BG2内の測定点における時間的な代表値を採用する場合、可視画像IMG1から人の顔が検出されなかった場合(ステップS14のNo)の可視画像IMG1及び熱画像IMG2についても、時間的な代表値の算出に使用してもよい。 In the above example, the representative value (spatial representative value) of multiple measurement points in the thermal image IMG2 was described, but a temporal representative value at a measurement point in the background region BG2 detected in multiple frames of the thermal image IMG2 may also be used. When a temporal representative value at a measurement point in the background region BG2 is used, the visible image IMG1 and thermal image IMG2 may also be used to calculate the temporal representative value when no human face is detected in the visible image IMG1 (No in step S14).

なお、環境温度に基づく顔温度の補正には、例えば、田村照子,“サーモグラフィによる全身および区分別平均皮膚温の推定”,[online],1980年,家政学雑誌,[2020年9月29日検索],インターネット〈URL:https://www.jstage.jst.go.jp/article/jhej1951/31/6/31_6_461/_pdf〉に記載の方法を適用可能である。 For example, the method described in Tamura, Teruko, "Estimation of whole-body and sectional average skin temperature using thermography," [online], 1980, Home Economics Magazine, [searched September 29, 2020], Internet (URL: https://www.jstage.jst.go.jp/article/jhej1951/31/6/31_6_461/_pdf) can be applied to correct the facial temperature based on the environmental temperature.

〈C〉測定距離に基づく顔温度の補正
さらに、熱画像カメラ18と測定対象の人との間の距離については、装置に取り付けた構造物(例えば、指示標識等)によって一定距離での測定を促すもの、熱画像カメラ18の前に指定位置に測定対象の人が立つように促し一定距離での測定を行うものがある。また、レーザー測距装置により距離を測定し補正を行うものもある。しかしながら、これらの装置は、移動中の測定対象の温度測定には不向きである。
<C> Correction of face temperature based on measurement distance Furthermore, regarding the distance between the thermal imaging camera 18 and the person being measured, some devices encourage measurement at a certain distance using a structure (e.g., an indicator sign, etc.) attached to the device, while others encourage the person being measured to stand at a specified position in front of the thermal imaging camera 18 and measure at a certain distance. Some devices also use a laser distance measuring device to measure the distance and perform correction. However, these devices are not suitable for measuring the temperature of a moving subject.

そこで、本実施形態では、可視画像カメラ16の画角と撮影した顔の輪郭から、測定対象の距離を推定し補正に用いることが可能となっている。具体的には、同じ画角のカメラで測定した場合、〔a〕顔領域の面積が大きければ距離が近くなること、〔b〕測定対象の面積が小さい(距離が遠い)場合、測定対象の温度の測定値が低くなることが実験的にわかっている。〔b〕について、測定対象の温度の測定値の誤差は1.0℃以上になることもある。 In this embodiment, the angle of view of the visible image camera 16 and the contour of the captured face can be used to estimate the distance of the measurement object and make corrections. Specifically, it has been experimentally shown that when measurements are taken with a camera of the same angle of view, (a) if the area of the face region is large, the distance will be closer, and (b) if the area of the measurement object is small (the distance is farther), the measured temperature value of the measurement object will be lower. With regard to (b), the error in the measured temperature value of the measurement object can be 1.0°C or more.

したがって、演算装置12は、顔領域F1の面積が相対的に大きければ距離が近いと判断し、顔領域F1の面積が相対的に小さければ距離が遠いと判断して、顔温度の検出結果を所定の補正式にしたがって計算する。 Therefore, the calculation device 12 determines that the distance is close if the area of the face area F1 is relatively large, and determines that the distance is far if the area of the face area F1 is relatively small, and calculates the facial temperature detection result according to a predetermined correction formula.

具体的には、可視画像カメラ16と測定対象の人の顔との間の測定距離と、顔領域F1のサイズ(例えば、面積、縦又は横の長さ等)との間の対応関係を示すテーブルを、演算装置12の記憶装置にあらかじめ格納しておく。そして、演算装置12は、可視画像IMG1から顔領域F1のサイズを求め、このテーブルを用いて測定距離の推定値を算出する。 Specifically, a table showing the correspondence between the measured distance between the visible image camera 16 and the face of the person being measured and the size of the face area F1 (e.g., area, vertical or horizontal length, etc.) is stored in advance in the storage device of the calculation device 12. Then, the calculation device 12 obtains the size of the face area F1 from the visible image IMG1 and calculates an estimate of the measured distance using this table.

次に、演算装置12は、測定距離の推定値が閾値以上の場合に、熱画像IMG2から求められる顔温度に補正値を加算する。ここで、測定距離の閾値を複数設定して、測定距離が長くなるほど、補正値の値を大きくするようにしてもよい。 Next, when the estimated value of the measurement distance is equal to or greater than the threshold value, the calculation device 12 adds a correction value to the face temperature obtained from the thermal image IMG2. Here, multiple threshold values for the measurement distance may be set so that the longer the measurement distance, the larger the correction value becomes.

また、測定距離が所定の閾値以上となった場合に、その顔領域F1については、顔温度の測定の対象から除外するようにしてもよい。この場合、ステップS14において、測定距離を推定し、測定距離が所定の閾値以上となった場合に、顔なしと判定するようにしてもよい。 Also, if the measurement distance is equal to or greater than a predetermined threshold, the face area F1 may be excluded from the measurement of the face temperature. In this case, the measurement distance may be estimated in step S14, and if the measurement distance is equal to or greater than a predetermined threshold, it may be determined that there is no face.

なお、可視画像カメラ16と測定対象の人の顔との間の距離については、可視画像カメラ16のオートフォーカス機能を用いて求めてもよいし、測距センサを設けて直接測定してもよい。 The distance between the visible image camera 16 and the face of the person being measured may be determined using the autofocus function of the visible image camera 16, or may be measured directly using a distance sensor.

〈D〉センサ22による測定結果に基づく顔温度の補正
また、ステップS24では、センサ22による測定結果(例えば、測定対象の人が存在する場所の気温(環境温度)、湿度又は圧力(気圧)等)に基づく温度補正を行ってもよい。
<D> Correction of facial temperature based on the measurement results by sensor 22 In addition, in step S24, temperature correction may be performed based on the measurement results by sensor 22 (e.g., the air temperature (ambient temperature), humidity or pressure (atmospheric pressure) at the location where the person being measured is present, etc.).

上記のようにして補正された顔温度に関するデータは、顔温度データD1として、可視画像IMG1及び熱画像IMG2とともに演算装置12の記憶装置に記憶される。 The facial temperature data corrected as described above is stored as facial temperature data D1 in the storage device of the computing device 12 together with the visible image IMG1 and the thermal image IMG2.

また、演算装置12は、測定結果を入出力装置20に出力する場合には、合成画像IMG3を作成するようにしてもよい(ステップS30)。合成画像IMG3では、例えば、可視画像IMG1と熱画像IMG2とを並べて表示するようにしてもよいし、重畳表示してもよい。合成画像IMG3を作成する場合、例えば、可視画像IMG1と熱画像IMG2の解像度又は画素数が同じになるように画像処理を行う。可視画像IMG1よりも熱画像IMG2の方が解像度が低い場合には、熱画像IMG2について補間処理を行ってもよい。例えば、可視画像IMG1の解像度が800pixel×600pixel、熱画像IMG2の解像度が80pixel×60pixelの場合には、補間処理により、熱画像IMG2の解像度を10倍にすればよい。また、出力先の表示装置の解像度が小さい場合等には、可視画像IMG1に対して間引き処理を行って解像度を下げてもよいし、可視画像IMG1の間引き処理と熱画像IMG2の補間処理を両方行うようにしてもよい。 In addition, when the calculation device 12 outputs the measurement results to the input/output device 20, it may create a composite image IMG3 (step S30). In the composite image IMG3, for example, the visible image IMG1 and the thermal image IMG2 may be displayed side by side or may be superimposed. When creating the composite image IMG3, for example, image processing is performed so that the resolution or number of pixels of the visible image IMG1 and the thermal image IMG2 are the same. If the resolution of the thermal image IMG2 is lower than that of the visible image IMG1, an interpolation process may be performed on the thermal image IMG2. For example, if the resolution of the visible image IMG1 is 800 pixels x 600 pixels and the resolution of the thermal image IMG2 is 80 pixels x 60 pixels, the resolution of the thermal image IMG2 may be increased by 10 times by the interpolation process. Furthermore, if the resolution of the output display device is low, the resolution may be reduced by performing a thinning process on the visible image IMG1, or both the thinning process on the visible image IMG1 and the interpolation process on the thermal image IMG2 may be performed.

次に、演算装置12は、合成画像IMG3と測定結果を入出力装置20に出力して表示装置に表示させる(ステップS32)。ステップS32では、可視画像IMG1、熱画像IMG2、顔温度及び環境温度等の情報が表示装置に出力される。 Next, the calculation device 12 outputs the composite image IMG3 and the measurement results to the input/output device 20 and displays them on the display device (step S32). In step S32, information such as the visible image IMG1, the thermal image IMG2, the facial temperature, and the environmental temperature is output to the display device.

本実施形態によれば、背景領域BG2から求めた環境温度に基づいて温度補正を行うことにより、測定対象の人の体温を高精度かつ効率的に測定することができる。 According to this embodiment, the body temperature of the person being measured can be measured with high accuracy and efficiency by performing temperature correction based on the environmental temperature obtained from the background area BG2.

なお、本実施形態に係る非接触体温測定装置10は、例えば、建物の入退場ゲート等に設置して、演算装置12からの信号によりドアの開錠、又は警報装置の作動などを行うようにしてもよい。 The non-contact body temperature measuring device 10 according to this embodiment may be installed, for example, at the entrance and exit gates of a building, and may unlock the door or activate an alarm device in response to a signal from the computing device 12.

図6は、本実施形態に係る非接触体温測定装置10を入退場ゲート等に適用した場合の入出力装置20への出力(合成画像IMG3)の例を示す図である。なお、図6における色の表現は図5と同様である。図6では、図4の人P1、頭部H1、胴部B1、瞳領域G1及び顔領域F1に対応する領域にそれぞれ符号P3、H3、B3、G3及びF3を付して領域の対応関係を示している。 Figure 6 is a diagram showing an example of the output (composite image IMG3) to the input/output device 20 when the non-contact body temperature measuring device 10 according to this embodiment is applied to an entrance/exit gate or the like. Note that the color representation in Figure 6 is the same as in Figure 5. In Figure 6, the regions corresponding to the person P1, head H1, torso B1, pupil region G1 and face region F1 in Figure 4 are respectively labeled with the symbols P3, H3, B3, G3 and F3 to show the correspondence between the regions.

図6に示す例では、可視画像IMG1と熱画像IMG2が重畳表示されており、重畳画像の右側にはカラースケールCSが表示されている。また、顔温度の測定結果と、顔温度の測定結果に基づく警報メッセージM1が表示されている。これにより、測定対象の人の体温の異常を操作者等に報知することができる。 In the example shown in FIG. 6, a visible image IMG1 and a thermal image IMG2 are displayed superimposed, with a color scale CS displayed to the right of the superimposed images. In addition, the facial temperature measurement result and a warning message M1 based on the facial temperature measurement result are displayed. This makes it possible to notify an operator or the like of an abnormality in the body temperature of the person being measured.

[第2の実施形態]
図7は、本発明の第2の実施形態に係る非接触体温測定装置を示すブロック図である。本実施形態の非接触体温測定装置10-1、10-2は、第1の実施形態と同様の構成を有しており、複数の非接触体温測定装置を区別するために枝番を付している。なお、非接触体温測定装置10-1、10-2に共通する説明については、枝番を省略して説明する。
Second Embodiment
7 is a block diagram showing a non-contact body temperature measuring device according to a second embodiment of the present invention. The non-contact body temperature measuring devices 10-1 and 10-2 of this embodiment have the same configuration as the first embodiment, and are assigned sub-numbers to distinguish between the multiple non-contact body temperature measuring devices. Note that the sub-numbers will be omitted for explanations common to the non-contact body temperature measuring devices 10-1 and 10-2.

図7に示すように、本実施形態では、複数(図7の例では2個)の非接触体温測定装置10-1、10-2が設置されており、非接触体温測定装置10-1、10-2による測定結果は、管理装置50により収集されて記憶可能となっている。ここで、管理装置50と、非接触体温測定装置10-1、10-2とは、例えば、USB(Universal Serial Bus)、LAN(Local Area Network)等の有線のインターフェイス、又は無線LAN、WiFi、Bluetooth(登録商標)等の無線のインターフェイスを解して接続される。 As shown in FIG. 7, in this embodiment, multiple (two in the example of FIG. 7) non-contact body temperature measuring devices 10-1, 10-2 are installed, and the measurement results by the non-contact body temperature measuring devices 10-1, 10-2 can be collected and stored by the management device 50. Here, the management device 50 and the non-contact body temperature measuring devices 10-1, 10-2 are connected via a wired interface such as a Universal Serial Bus (USB) or a Local Area Network (LAN), or a wireless interface such as a wireless LAN, WiFi, or Bluetooth (registered trademark).

管理装置50は、パーソナルコンピュータ、ワークステーション又はタブレット端末等の汎用の操作端末からなる。管理装置50は、CPU、EEPROM、RAM及びVRAM等の各種メモリ、ストレージデバイス及び入出力装置を含んでいる。なお、管理装置50は、演算装置12と同様の構成とすることができる。 The management device 50 is a general-purpose operation terminal such as a personal computer, a workstation, or a tablet terminal. The management device 50 includes a CPU, various memories such as an EEPROM, a RAM, and a VRAM, a storage device, and an input/output device. The management device 50 may have a configuration similar to that of the calculation device 12.

また、非接触体温測定装置10-1、10-2による測定結果等のデータは、例えば、インターネット回線を通じてクラウド上のサーバーで処理することも可能である。 In addition, data such as the measurement results from the non-contact body temperature measuring devices 10-1 and 10-2 can also be processed, for example, on a cloud server via an internet line.

本実施形態では、非接触体温測定装置10を複数配置することで、例えば、学校、駅、遊興施設等、複数の出入り口を有し、多くの人が出入りするような施設に適用することが容易になる。例えば、すべての出入り口、入退場ゲートに非接触体温測定装置10を配置することで、施設に出入りする人すべての健康状態及び入退場状況を管理することが可能となる。 In this embodiment, by arranging multiple non-contact body temperature measuring devices 10, it becomes easy to apply the device to facilities that have multiple entrances and exits and where many people enter and exit, such as schools, stations, and entertainment facilities. For example, by arranging non-contact body temperature measuring devices 10 at all entrances and exits and entrance and exit gates, it becomes possible to manage the health status and entry and exit status of all people entering and exiting the facility.

また、非接触体温測定装置10から、可視画像IMG1及び熱画像IMG2等のデータを管理装置50(外部コンピュータ)に伝送し、第1の実施形態で説明した処理を管理装置50で行うことも可能である。これにより、すべての採取データを同じ基準で推定することができる。例えば、温度推定と合わせて顔認証による測定対象の特定を行うなどして、個々の非接触体温測定装置10により測定対象ごとの顔温度等の判定を繰り返した場合、機械学習などの状況により、顔温度の検出及び補正等の際の判定基準にばらつきが生じる可能性がある。しかし、個々の画像から同じ基準で推定を繰り返すことにより、機械学習の頻度が向上し推定精度の向上を図ることができる。また、この場合、採取した画像データを蓄積することも容易となる。 It is also possible to transmit data such as the visible image IMG1 and thermal image IMG2 from the non-contact body temperature measuring device 10 to a management device 50 (external computer), and perform the processing described in the first embodiment in the management device 50. This allows all collected data to be estimated using the same criteria. For example, if the face temperature of each measurement target is repeatedly determined using each non-contact body temperature measuring device 10 by identifying the measurement target using face recognition in addition to temperature estimation, there is a possibility that the criteria for detecting and correcting the face temperature may vary depending on the machine learning situation. However, by repeating estimation using the same criteria from each image, the frequency of machine learning can be improved, and the estimation accuracy can be improved. In this case, it is also easy to store the collected image data.

(入退出管理システムへの適用例)
以下、本実施形態を施設の入退出管理システムに適用した場合について説明する。一般的な入退出管理システムでは、事前に登録した識別情報(ID)と顔等の画像情報を用いて登録された人物かどうかを判定し、入退場ゲートの解錠等を行う。しかしながら、このようなシステムは、事前の登録が必要となるため、不特定多数の入退場の管理には適さない。
(Example of application to an entrance/exit management system)
The following describes the case where this embodiment is applied to an entrance/exit management system for a facility. In a typical entrance/exit management system, a person is determined to be a registered person using identification information (ID) and image information such as a face registered in advance, and the entrance/exit gate is unlocked. However, such a system requires prior registration, and is therefore not suitable for managing the entrance/exit of an unspecified number of people.

そこで、本実施形態では、可視画像カメラ16等により採取したデータから同一人物と推定される情報に自動的に固有の識別情報(ID)を割り付け、そのIDを利用してその人が施設内に滞在中か、退場済みかの判定を行う。本実施形態によれば、入場時間及び退場時間を記録することで、各人の滞在時間を知ることができる。また、同時(近い時間)に入場した時間及び場所と退場した時間及び場所から、グループで来場した人たちの構成を推測することもできる。 In this embodiment, therefore, a unique identification information (ID) is automatically assigned to information presumed to be from the same person from data collected by the visible image camera 16, etc., and the ID is used to determine whether the person is currently staying in the facility or has already left. According to this embodiment, by recording the entry and exit times, it is possible to know the length of stay of each person. In addition, the composition of people who visited in groups can be inferred from the simultaneous (close) entry times and locations and exit times and locations.

また、可視画像カメラ16等により採取したデータを、例えば、1か月等の一定期間保存することで、あとから感染症などの問題が発生した場合、管理装置50に記憶されたその人の画像から行動記録を割り出し、その時近傍にいたであろう人の画像を抽出することも可能となる。このとき、管理装置50に記憶された画像と、その人の連絡先等の個人情報とが紐づけられている場合には、必要に応じて簡単に連絡をとったり、検査の要請を行うことも可能になる。 In addition, by storing data collected by the visible image camera 16 etc. for a fixed period of time, such as one month, if a problem such as an infectious disease occurs later, it is possible to determine the person's behavioral record from the image stored in the management device 50 and extract images of people who may have been nearby at the time. At this time, if the image stored in the management device 50 is linked to the person's personal information such as contact details, it becomes possible to easily contact the person or request an examination as necessary.

上記のように、本実施形態では、個人情報を事前に登録する必要がなく、必要に応じて事後的に顔の可視画像IMG1等のデータと個人情報とを紐づけることが可能である。例えば、このような設備を設置した施設で何らかの問題が発生した場合、何月何日にその施設でこのような問題が発生した旨を告知し、必要であればその当事者に自主的に申告してもらえれば、当事者の滞在時間、行動場所を割り出し接触情報の絞り込みを効率的に行うことが可能となる。 As described above, in this embodiment, there is no need to register personal information in advance, and data such as the visible image IMG1 of the face can be linked to personal information after the fact as necessary. For example, if a problem occurs at a facility where such equipment is installed, it is possible to announce the date on which such problem occurred at the facility and, if necessary, have the person involved report it voluntarily, thereby determining the person's stay time and location of activity, and efficiently narrowing down contact information.

また、本実施形態に係るシステムは、健康状態に異常がある人を検知した場合、無線端末を通して係員に知らせたり、入退場ゲートを止める等のアクションに利用可能である。 In addition, if the system according to this embodiment detects that someone has an abnormality in their health condition, it can be used to notify staff via wireless device or take other actions such as stopping the entrance and exit gates.

また、介護施設や病院等、特定の人物、例えば、被介護者や入院患者、施設職員等が短い周期で複数回入退場する場合には、撮像された人物の体温をその都度測定することとなるため、体調変化の時期の履歴を振り返ることができ、異常発生時の対応を迅速に行うことができる。例えば、そのような人がたびたび通る動線上に非接触体温測定装置10を複数台配置することでより正確に行動及び異常発生時点を検出することが可能となる。 In addition, in cases where a particular person, such as a care recipient, hospitalized patient, or facility staff member, enters and exits a care facility or hospital multiple times in a short period of time, the body temperature of the photographed person is measured each time, making it possible to review the history of changes in physical condition and quickly respond to any abnormalities that may occur. For example, by placing multiple non-contact body temperature measuring devices 10 along the routes that such people frequently pass, it becomes possible to more accurately detect their behavior and the time when the abnormality occurred.

本実施形態によれば、事前に識別情報を登録する必要がないので、例えば、遊園地等の遊興施設や、ショッピングモールなどの商業施設でも、異常が発生した場合、その個人の顔の画像をもとに行動記録、又はその異常を持った人物と接触した可能性の高い人物を後から顔の画像をもとに推定できる。必要に応じて後からその顔の画像に、氏名や連絡先などの個人情報を紐付けることも可能となる。 According to this embodiment, there is no need to register identification information in advance, so if an abnormality occurs, for example, in an entertainment facility such as an amusement park or a commercial facility such as a shopping mall, it is possible to later estimate, based on the facial image, the behavioral record of the individual, or people who are likely to have come into contact with the person with the abnormality. If necessary, it is also possible to later link personal information such as name and contact information to the facial image.

図8は、本発明の第2の実施形態に係る非接触体温測定装置を入退出管理システムに適用した場合における処理の流れを示すフローチャートであり、図9は、図8の人物検出工程を示すフローチャートである。図8及び図9に示す処理は、各非接触体温測定装置10を用いて採取したデータ(可視画像IMG1及び熱画像IMG2等)に基づいて、管理装置50において行うものとして説明する。 Figure 8 is a flowchart showing the process flow when the non-contact body temperature measuring device according to the second embodiment of the present invention is applied to an entrance/exit management system, and Figure 9 is a flowchart showing the person detection process of Figure 8. The processes shown in Figures 8 and 9 will be explained as being performed in the management device 50 based on data (visible image IMG1 and thermal image IMG2, etc.) collected using each non-contact body temperature measuring device 10.

まず、管理装置50により、各非接触体温測定装置10に対して監視開始の指示が送信されると(ステップS50)、各非接触体温測定装置10の可視画像カメラ16及び熱画像カメラ18により、それぞれの測定範囲の撮像が行われる(ステップS52)。 First, the management device 50 sends an instruction to each non-contact body temperature measuring device 10 to start monitoring (step S50), and the visible image camera 16 and thermal image camera 18 of each non-contact body temperature measuring device 10 capture images of their respective measurement ranges (step S52).

次に、管理装置50により、人物の検出及び記録等の処理が行われる(ステップS54及びS56)。なお、ステップS54及びS56の処理は、各非接触体温測定装置10から送信された画像ごとに行われる。 Next, the management device 50 performs processes such as person detection and recording (steps S54 and S56). Note that steps S54 and S56 are performed for each image sent from each non-contact body temperature measuring device 10.

まず、ステップS52において取得した可視画像IMG1から人物の検出処理が行われる(ステップS54)。なお、人物の検出処理は図3と同様である。ステップS54において、可視画像IMG1から人が検出されなかった場合には(ステップS54のNo)、ステップS52に戻り、次のフレームの可視画像IMG1について人物の検出が行われる。 First, a person is detected from the visible image IMG1 acquired in step S52 (step S54). The person detection process is the same as that in FIG. 3. If a person is not detected from the visible image IMG1 in step S54 (No in step S54), the process returns to step S52 and person detection is performed on the visible image IMG1 of the next frame.

一方、ステップS54において、可視画像IMG1から人が検出された場合には(ステップS54のYes)、人物検出工程が行われる(ステップS56)。 On the other hand, if a person is detected from the visible image IMG1 in step S54 (Yes in step S54), a person detection process is performed (step S56).

そして、上記の工程は、管理装置50により、各非接触体温測定装置10に対して監視終了の指示が送信されるまで(ステップS58のYes)、繰り返し実行される。 The above process is then repeated until the management device 50 sends an instruction to end monitoring to each non-contact body temperature measuring device 10 (Yes in step S58).

次に、人物検出工程(ステップS56)について説明する。ステップS56では、まず、管理装置50は、可視画像IMG1から人物を検出し(ステップS70)、管理装置50のストレージデバイスに記憶されたデータの中に、ステップS70で検出した人物と同一人物のデータがあるかどうか判断する(ステップS72)。 Next, the person detection process (step S56) will be described. In step S56, the management device 50 first detects a person from the visible image IMG1 (step S70), and determines whether the data stored in the storage device of the management device 50 contains data of the same person as the person detected in step S70 (step S72).

ステップS70で検出した人物と同一人物のデータがない場合には(ステップS72のNo)、管理装置50は、新規IDを発行し、可視画像IMG1及びこれに対応する熱画像IMG2と新規IDとを関連付けてストレージデバイスに記憶させる(ステップS74)。 If there is no data of the same person as the person detected in step S70 (No in step S72), the management device 50 issues a new ID and associates the visible image IMG1 and the corresponding thermal image IMG2 with the new ID and stores them in the storage device (step S74).

一方、ステップS70で検出した人物と同一人物のデータがある場合には(ステップS72のYes)、管理装置50は、可視画像IMG1及びこれに対応する熱画像IMG2と同一人物のIDとを関連付けて管理装置50のストレージデバイスに記憶させる(ステップS76)。 On the other hand, if there is data of the same person as the person detected in step S70 (Yes in step S72), the management device 50 associates the visible image IMG1 and the corresponding thermal image IMG2 with the ID of the same person and stores them in the storage device of the management device 50 (step S76).

次に、管理装置50は、図3と同様の処理により、可視画像IMG1を用いた顔領域F1及び額領域A1の抽出と、熱画像IMG2を用いた顔温度の検出及び補正を行う。これらの検出結果は、管理装置50の入出力装置に出力可能としてもよいし、非接触体温測定装置10の入出力装置20に出力可能としてもよい。 Next, the management device 50 performs processing similar to that shown in FIG. 3 to extract the face area F1 and the forehead area A1 using the visible image IMG1, and detect and correct the face temperature using the thermal image IMG2. These detection results may be output to an input/output device of the management device 50, or may be output to the input/output device 20 of the non-contact body temperature measuring device 10.

そして、顔温度が基準値未満の場合には、管理装置50は、その人に異常なしと判定して(ステップS78のNo)、図8のメインフローに戻る。 If the facial temperature is below the reference value, the management device 50 determines that there is nothing abnormal with the person (No in step S78) and returns to the main flow in FIG. 8.

一方、顔温度が基準値以上の場合には、管理装置50は、その人に異常ありと判定して(ステップS78のYes)、その人が写っている可視画像IMG1を伝送した非接触体温測定装置10に対して報知処理を行う(ステップS80)。その結果、例えば、図6に示すような合成画像IMG3と警報メッセージM1が報知処理の対象の非接触体温測定装置10の入出力装置20に出力される。また、非接触体温測定装置10の近くにいる係員に無線等による通知を行ってもよい。これにより、顔温度に異常が検出された人を特定することができ、その入場をゲートで止めることが可能になる。 On the other hand, if the facial temperature is equal to or higher than the reference value, the management device 50 determines that there is something wrong with the person (Yes in step S78) and performs a notification process on the non-contact body temperature measuring device 10 that transmitted the visible image IMG1 showing the person (step S80). As a result, for example, a composite image IMG3 and a warning message M1 as shown in FIG. 6 are output to the input/output device 20 of the non-contact body temperature measuring device 10 that is the target of the notification process. In addition, a notification may be sent wirelessly or otherwise to a staff member near the non-contact body temperature measuring device 10. This makes it possible to identify people whose facial temperature has been detected to be abnormal, and to stop their entry at the gate.

なお、上記の例では、図8及び図9に示す処理を管理装置50において行うようにしたが、本発明はこれに限定されない。例えば、各非接触体温測定装置10において、図8及び図9に示す処理を行い、その結果を管理装置50に伝送して記憶させるようにしてもよい。 In the above example, the processes shown in Figures 8 and 9 are performed in the management device 50, but the present invention is not limited to this. For example, each non-contact body temperature measuring device 10 may perform the processes shown in Figures 8 and 9, and the results may be transmitted to and stored in the management device 50.

また、上記の各実施形態では、測定対象を人とした場合について説明したが、人以外の動物等の測定対象についても、その対象動物の体温を反映する体表上の特定の位置に基づく体温の推定を行うことにより、本発明を適用可能である。 In addition, in each of the above embodiments, the measurement subject is described as a human being, but the present invention can also be applied to measurement subjects other than humans, such as animals, by estimating the body temperature based on a specific position on the body surface that reflects the body temperature of the target animal.

10、10A、10-1、10-2…非接触体温測定装置、12、12-1、12-2…演算装置、14、14-1、14-2…電源、16、16-1、16-2…可視画像カメラ、18、18-1、18-2…熱画像カメラ、20、20-1、20-2…入出力装置、22、22-1、22-2…センサ、30…操作端末、32…カメラモジュール、50…管理装置 10, 10A, 10-1, 10-2... Non-contact body temperature measuring device, 12, 12-1, 12-2... Computing device, 14, 14-1, 14-2... Power supply, 16, 16-1, 16-2... Visible image camera, 18, 18-1, 18-2... Thermal image camera, 20, 20-1, 20-2... Input/output device, 22, 22-1, 22-2... Sensor, 30... Operation terminal, 32... Camera module, 50... Management device

Claims (8)

測定対象から可視光線の波長域の光を受光して可視画像を撮像する可視画像カメラと、
前記測定対象から放出される赤外線量を可視化した熱画像を撮像するための熱画像カメラと、
前記可視画像から顔領域を検出し、前記熱画像中の顔領域から顔温度を検出する顔温度検出部と、
前記可視画像から前記測定対象の輪郭の外部の背景領域を特定し、前記背景領域に対応する前記熱画像中の領域の温度を、前記測定対象の存する空間の環境温度として求め、前記環境温度に基づいて前記顔温度を補正する顔温度補正部と、
を備える非接触体温測定装置。
a visible image camera that receives light in a visible light wavelength range from a measurement object and captures a visible image;
A thermal imaging camera for capturing a thermal image that visualizes the amount of infrared radiation emitted from the measurement object;
a face temperature detection unit that detects a face area from the visible image and detects a face temperature from the face area in the thermal image;
a face temperature correction unit that identifies a background area outside the contour of the measurement object from the visible image, calculates a temperature of an area in the thermal image corresponding to the background area as an environmental temperature of the space in which the measurement object exists, and corrects the face temperature based on the environmental temperature;
A non-contact body temperature measuring device comprising:
前記顔温度補正部は、前記熱画像の前記背景領域内の複数の測定点における温度の代表値又は中央値を前記環境温度として求める、請求項1に記載の非接触体温測定装置。 The non-contact body temperature measurement device according to claim 1, wherein the face temperature correction unit determines a representative value or a median value of temperatures at multiple measurement points in the background region of the thermal image as the environmental temperature. 前記顔温度補正部は、前記複数の測定点のうち、前記測定点の温度の平均値からの差分絶対値が閾値以上の測定点を除外して、前記代表値を求める、請求項2に記載の非接触体温測定装置。 The non-contact body temperature measuring device according to claim 2, wherein the face temperature correction unit calculates the representative value by excluding, from among the plurality of measurement points, measurement points whose absolute difference from the average temperature of the measurement points is equal to or greater than a threshold value. 前記顔温度補正部は、複数フレームの可視画像からそれぞれ背景領域を特定し、前記複数フレームの可視画像にそれぞれ対応する複数フレームの熱画像において前記背景領域に対応する領域の温度の時間的な代表値を、前記環境温度として求める、請求項1から3のいずれか1項に記載の非接触体温測定装置。 The non-contact body temperature measuring device according to any one of claims 1 to 3, wherein the face temperature correction unit identifies a background region from each of multiple frames of visible images, and determines, as the environmental temperature, a temporal representative value of the temperature of the region corresponding to the background region in multiple frames of thermal images that correspond to the multiple frames of visible images. 前記顔温度補正部は、前記可視画像カメラと前記測定対象の顔との間の測定距離と、前記顔領域のサイズとの間の対応関係を示すテーブルを用いて、前記顔領域の測定距離の推定値を算出し、前記推定値が閾値以上の場合に前記顔温度に補正値を加算する、請求項1から4のいずれか1項に記載の非接触体温測定装置。 The non-contact body temperature measuring device according to any one of claims 1 to 4, wherein the face temperature correction unit uses a table showing the correspondence between the measured distance between the visible image camera and the face of the measurement target and the size of the face area to calculate an estimate of the measured distance of the face area, and adds a correction value to the face temperature if the estimated value is equal to or greater than a threshold value. 前記顔温度補正部は、前記測定対象が存する空間の環境温度、湿度及び気圧のうちの少なくとも1つの情報を取得し、前記情報に基づいて前記顔温度を補正する、請求項1から5のいずれか1項に記載の非接触体温測定装置。 The non-contact body temperature measurement device according to any one of claims 1 to 5, wherein the facial temperature correction unit acquires information on at least one of the environmental temperature, humidity, and air pressure of the space in which the measurement target exists, and corrects the facial temperature based on the information. 可視画像カメラにより、測定対象から可視光線の波長域の光を受光して可視画像を撮像する工程と、
熱画像カメラにより、前記測定対象から放出される赤外線量を可視化した熱画像を撮像する工程と、
前記可視画像から顔領域を検出し、前記熱画像中の顔領域から顔温度を検出する工程と、
前記可視画像から前記測定対象の輪郭の外部の背景領域を特定し、前記背景領域に対応する前記熱画像中の領域の温度を、前記測定対象の存する空間の環境温度として求め、前記環境温度に基づいて前記顔温度を補正する工程と、
を含む非接触体温測定方法。
A step of receiving light in a wavelength range of visible light from the measurement object by a visible image camera and capturing a visible image;
Taking a thermal image by a thermal imaging camera, which visualizes the amount of infrared rays emitted from the measurement target;
detecting a face region from the visible image and detecting a face temperature from the face region in the thermal image;
identifying a background area outside the contour of the measurement object from the visible image, determining a temperature of an area in the thermal image corresponding to the background area as an environmental temperature of the space in which the measurement object exists, and correcting the face temperature based on the environmental temperature;
A non-contact body temperature measurement method including:
可視画像カメラにより、測定対象から可視光線の波長域の光を受光して可視画像を撮像する機能と、
熱画像カメラにより、前記測定対象から放出される赤外線量を可視化した熱画像を撮像する機能と、
前記可視画像から顔領域を検出し、前記熱画像中の顔領域から顔温度を検出する機能と、
前記可視画像から前記測定対象の輪郭の外部の背景領域を特定し、前記背景領域に対応する前記熱画像中の領域の温度を、前記測定対象の存する空間の環境温度として求め、前記環境温度に基づいて前記顔温度を補正する機能と、
をコンピュータに実現させるための非接触体温測定プログラム。
A function to capture a visible image by receiving light in the visible wavelength range from the measurement target using a visible image camera;
A function of capturing a thermal image that visualizes the amount of infrared rays emitted from the measurement object by a thermal imaging camera;
a function of detecting a face area from the visible image and detecting a face temperature from the face area in the thermal image;
a function of identifying a background area outside the contour of the measurement object from the visible image, calculating the temperature of an area in the thermal image corresponding to the background area as an environmental temperature of the space in which the measurement object exists, and correcting the face temperature based on the environmental temperature;
A non-contact body temperature measurement program to realize this on a computer.
JP2020174011A 2020-10-15 2020-10-15 Non-contact body temperature measuring device, method and program Active JP7492211B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020174011A JP7492211B2 (en) 2020-10-15 2020-10-15 Non-contact body temperature measuring device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020174011A JP7492211B2 (en) 2020-10-15 2020-10-15 Non-contact body temperature measuring device, method and program

Publications (2)

Publication Number Publication Date
JP2022065425A JP2022065425A (en) 2022-04-27
JP7492211B2 true JP7492211B2 (en) 2024-05-29

Family

ID=81386362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020174011A Active JP7492211B2 (en) 2020-10-15 2020-10-15 Non-contact body temperature measuring device, method and program

Country Status (1)

Country Link
JP (1) JP7492211B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115736844B (en) * 2022-11-16 2023-10-24 吉林省科英医疗激光有限责任公司 Real-time body surface temperature detection system and detection method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010230392A (en) 2009-03-26 2010-10-14 Toshiba Corp Human body temperature measuring apparatus and measuring method of the same
JP2010264095A (en) 2009-05-15 2010-11-25 Nissan Motor Co Ltd Heart rate measuring apparatus and heart rate measuring method
JP2013543134A (en) 2010-11-17 2013-11-28 株式会社Easytem Portable temperature measuring device using infrared array sensor
JP2016103786A (en) 2014-11-28 2016-06-02 日立マクセル株式会社 Imaging system
JP2016165415A (en) 2015-03-10 2016-09-15 株式会社国際電気通信基礎技術研究所 Biological information measurement device
JP2017147498A (en) 2016-02-15 2017-08-24 カシオ計算機株式会社 Image processing apparatus, image processing method and program
CN111189545A (en) 2020-02-21 2020-05-22 中国科学院半导体研究所 High-precision wide-area intelligent infrared body temperature screening method and system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010230392A (en) 2009-03-26 2010-10-14 Toshiba Corp Human body temperature measuring apparatus and measuring method of the same
JP2010264095A (en) 2009-05-15 2010-11-25 Nissan Motor Co Ltd Heart rate measuring apparatus and heart rate measuring method
JP2013543134A (en) 2010-11-17 2013-11-28 株式会社Easytem Portable temperature measuring device using infrared array sensor
JP2016103786A (en) 2014-11-28 2016-06-02 日立マクセル株式会社 Imaging system
JP2016165415A (en) 2015-03-10 2016-09-15 株式会社国際電気通信基礎技術研究所 Biological information measurement device
JP2017147498A (en) 2016-02-15 2017-08-24 カシオ計算機株式会社 Image processing apparatus, image processing method and program
CN111189545A (en) 2020-02-21 2020-05-22 中国科学院半导体研究所 High-precision wide-area intelligent infrared body temperature screening method and system

Also Published As

Publication number Publication date
JP2022065425A (en) 2022-04-27

Similar Documents

Publication Publication Date Title
Metzmacher et al. Real-time human skin temperature analysis using thermal image recognition for thermal comfort assessment
CN108344525B (en) Self-adaptive body temperature monitoring method and system
Lin et al. A thermal camera based continuous body temperature measurement system
US20180110416A1 (en) Monitoring system, monitoring device, and monitoring method
KR101420200B1 (en) Body temperature detecting system using thermal image camera
CN110332995A (en) Contactless humanbody temp measuring method, device, system and storage medium
WO2018188147A1 (en) Artificial intelligence-based infrared thermal imaging body temperature detection method, apparatus, and terminal device
US11864860B2 (en) Biometric imaging and biotelemetry system
KR102212773B1 (en) Apparatus for video surveillance integrated with body temperature measurement and method thereof
Ring et al. New standards for fever screening with thermal imaging systems
JP7217058B2 (en) Detecting the presence of one or more human occupants in the built space in real time using one or more thermographic cameras and one or more RGB-D sensors to estimate thermal comfort
JP7492211B2 (en) Non-contact body temperature measuring device, method and program
KR20130118512A (en) System and method for monitoring the health of a patient using face recognition technology
US20210369122A1 (en) Temperature Screening Systems and Methods
Ashrafi et al. Charlotte-thermalface: A fully annotated thermal infrared face dataset with various environmental conditions and distances
WO2017038035A1 (en) Device, system, and method for generating behavior history information
CN115695734A (en) Infrared thermal imaging protection monitoring method, device, equipment, system and medium
CN113627448A (en) Method for constructing human body thermal comfort prediction model, prediction method and system
Rao et al. F 3 s: Free flow fever screening
Moghadam 3D medical thermography device
Ippisch et al. mVEGAS–mobile smartphone-based spatiotemporal gait analysis in healthy and ataxic gait disorders
Ashrafi et al. Machine learning-based automated thermal comfort prediction: integration of low-cost thermal and visual cameras for higher accuracy
Ashrafi et al. A novel fully annotated thermal infrared face dataset: recorded in various environment conditions and distances from the camera
CN113362951A (en) Human body infrared thermal structure attendance and health assessment and epidemic prevention early warning system and method
JP2006174919A (en) Body temperature analyzing device and body temperature measuring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230622

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240430

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240501

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240508