JP2022518005A - 1つまたは複数のサーモグラフィカメラおよび1つまたは複数のrgb-dセンサを使用して構築空間内の1人または複数の人間の居住者の存在をリアルタイムで検出し、熱的快適性を推定すること - Google Patents

1つまたは複数のサーモグラフィカメラおよび1つまたは複数のrgb-dセンサを使用して構築空間内の1人または複数の人間の居住者の存在をリアルタイムで検出し、熱的快適性を推定すること Download PDF

Info

Publication number
JP2022518005A
JP2022518005A JP2021540410A JP2021540410A JP2022518005A JP 2022518005 A JP2022518005 A JP 2022518005A JP 2021540410 A JP2021540410 A JP 2021540410A JP 2021540410 A JP2021540410 A JP 2021540410A JP 2022518005 A JP2022518005 A JP 2022518005A
Authority
JP
Japan
Prior art keywords
rgb
human
construction space
image
resident
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021540410A
Other languages
English (en)
Other versions
JP7217058B2 (ja
Inventor
リ,ダ
メナッサ,キャロル・シィ
カマト,ビニート
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Michigan
Original Assignee
University of Michigan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Michigan filed Critical University of Michigan
Publication of JP2022518005A publication Critical patent/JP2022518005A/ja
Application granted granted Critical
Publication of JP7217058B2 publication Critical patent/JP7217058B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F11/00Control or safety arrangements
    • F24F11/62Control or safety arrangements characterised by the type of control or by internal processing, e.g. using fuzzy logic, adaptive control or estimation of values
    • F24F11/63Electronic processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60HARRANGEMENTS OF HEATING, COOLING, VENTILATING OR OTHER AIR-TREATING DEVICES SPECIALLY ADAPTED FOR PASSENGER OR GOODS SPACES OF VEHICLES
    • B60H1/00Heating, cooling or ventilating [HVAC] devices
    • B60H1/00642Control systems or circuits; Control members or indication devices for heating, cooling or ventilating devices
    • B60H1/00735Control systems or circuits characterised by their input, i.e. by the detection, measurement or calculation of particular conditions, e.g. signal treatment, dynamic models
    • B60H1/00742Control systems or circuits characterised by their input, i.e. by the detection, measurement or calculation of particular conditions, e.g. signal treatment, dynamic models by detection of the vehicle occupants' presence; by detection of conditions relating to the body of occupants, e.g. using radiant heat detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0022Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation of moving bodies
    • G01J5/0025Living bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2120/00Control inputs relating to users or occupants
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24FAIR-CONDITIONING; AIR-HUMIDIFICATION; VENTILATION; USE OF AIR CURRENTS FOR SCREENING
    • F24F2120/00Control inputs relating to users or occupants
    • F24F2120/10Occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Human Computer Interaction (AREA)
  • Thermal Sciences (AREA)
  • Radiation Pyrometers (AREA)
  • Air Conditioning Control Device (AREA)
  • Air-Conditioning For Vehicles (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

構築空間内の1人または複数の人間の居住者の熱的快適性推定をリアルタイムで行う方法が提示される。本方法は、1つまたは複数のサーモグラフィカメラと、1つまたは複数の赤、緑、および青の深度(RGB-D)センサとを使用する。本方法は、いくつかのステップを有する。一例では、本方法は、サーモグラフィカメラを介して人間の居住者の熱画像を取り込むことと、RGB-Dカメラを介して人間の居住者のRGB-D画像を取り込むこととを含む。本方法は、取り込まれた熱画像を使用して、および取り込まれたRGB-D画像を使用して、人間の居住者の顔の皮膚温度を抽出することをさらに含む。そして、本方法は、抽出された顔の皮膚温度を使用して、人間の居住者の熱的快適性を推定することを含む。

Description

連邦政府による資金提供を受けた研究に関する声明
本明細書に記載の1つまたは複数の発明は、全米科学財団(NSF)によって授与された助成金第1407908号、第1349921号、および第1804321号の下で政府の支援を受けてなされた。政府は、本発明の1つまたは複数に一定の権利を有し得る。
技術分野
本開示は、様々な構築空間内の個人の熱的快適性の評価に関し、より詳細には、構築空間内の暖房、換気、および空調(HVAC)システムを制御する目的で熱的快適性を評価することに関する。
人の熱的快適性は、人の健康および幸福に影響を及ぼす。熱的に不快な環境、すなわち、暑すぎたり、寒すぎたりする環境は、オフィスの職場環境における居住者の生産性を低下させ、輸送車両のオペレータの集中を低下させ、他の欠点の中でも「シックハウス症候群」として知られる状態の一因にさえなることが示されている。さらに、いくつかの推定値は、建物が世界中で生成されるエネルギーの約40%を消費し、暖房、換気、および空調(HVAC)システムが建物におけるエネルギー消費の最大量を占めることを示している。
人の熱的快適性を評価することは課題である。まず、熱的快適性はしばしば客観的よりも主観的であり、ある人にとって寒すぎる熱的状態は、別の人にとってちょうど良いと感じることがある。また、特定の設定では、熱的感覚および好みが経時的に変化する傾向があり、例えば、夏の空調された部屋は、最初は快適に感じることがあるが、その後、身体が徐々に熱を失うので、寒すぎると感じることがある。さらに、人の熱的快適性は、一般に、生理学的(例えば、性別、ボディーマス指数)、心理学的(例えば、期待、ストレス)、および行動的(例えば、衣服、活動レベル)要因によって左右される。熱的快適性を評価するための以前の取り組みは、データ収集の侵入手段としてしばしば観察されるものを伴っていた。この手段は、電話ベースまたはウェブベースのアプリケーションまたは何らかの他の方法を介して継続的な人間のフィードバックを必要とすることを含み、他の取り組みの中でも、人の身体と直接接触するように配置されたセンサなどのデバイスを含んでいた。これらの手段のいくつかは、信頼性がなく非実用的であることが証明されており、いくつかは、広範な非実験的実施に必要なスケーラビリティおよび柔軟性を欠いている。
発明の概要
本開示の一態様によれば、構築空間内の1人または複数の人間の居住者の熱的快適性推定をリアルタイムで行う方法は、1つまたは複数のサーモグラフィカメラならびに1つまたは複数の赤、緑、および青の深度(RGB-D)センサの使用を用いる。本方法は、いくつかのステップを有し得る。本方法は、構築空間にサーモグラフィカメラを設けることと、構築空間にRGB-Dセンサを設けることとを含み得る。本方法は、サーモグラフィカメラによって構築空間内の人間の居住者の熱画像を取り込むことと、RGB-Dセンサによって構築空間内の人間の居住者のRGB-D画像を取り込むこととをさらに含み得る。本方法はまた、取り込まれた熱画像および取り込まれたRGB-D画像を使用して、人間の居住者の顔の皮膚温度を抽出することを含み得る。顔の皮膚温度を抽出することは、取り込まれた熱画像および取り込まれたRGB-D画像を登録することを含み得る。また、本方法は、人間の居住者の抽出された顔の皮膚温度を使用して、構築空間内の人間の居住者の熱的快適性を推定することを含み得る。
本開示の別の態様によれば、構築空間内の1人または複数の人間の居住者の熱的快適性推定をリアルタイムで行う方法は、1つまたは複数のサーモグラフィカメラならびに1つまたは複数の赤、緑、および青の深度(RGB-D)センサの使用を用いる。本方法は、いくつかのステップを有し得る。本方法は、様々な距離および様々な角度からサーモグラフィカメラによって構築空間内の人間の居住者の熱画像を取り込むことと、様々な距離および様々な角度からRGB-Dセンサによって構築空間内の人間の居住者のRGB-D画像を取り込むこととを含み得る。様々な距離および様々な角度は、サーモグラフィカメラおよびRGB-Dセンサに対する人間の居住者の様々な距離および様々な角度である。本方法はまた、取り込まれた熱画像および取り込まれたRGB-D画像を使用して、人間の居住者の顔の皮膚温度を抽出することを含み得る。RGB-Dセンサから提供された距離データは、抽出ステップにおいてサーモグラフィカメラから提供された温度データと共に使用され得る。また、本方法は、人間の居住者の抽出された顔の皮膚温度を使用して、構築空間内の人間の居住者の熱的快適性を推定することを含み得る。
本開示のさらに別の態様によれば、構築空間内の1人または複数の人間の居住者の熱的快適性推定をリアルタイムで行う方法は、1つまたは複数のサーモグラフィカメラならびに1つまたは複数の赤、緑、および青の深度(RGB-D)センサの使用を用いる。本方法は、いくつかのステップを有し得る。本方法は、サーモグラフィカメラによって構築空間内の人間の居住者の熱画像を取り込むことと、RGB-Dセンサによって構築空間内の人間の居住者のRGB-D画像を取り込むこととを含み得る。本方法はまた、取り込まれた熱画像および取り込まれたRGB-D画像を使用して、人間の居住者の顔の皮膚温度を抽出することを含み得る。抽出ステップは、取り込まれたRGB-D画像内の座標を取り込まれた熱画像上に配置することをさらに含み得る。本方法は、人間の居住者の抽出された顔の皮膚温度を使用して、構築空間内の人間の居住者の熱的快適性を推定することを含み得る。また、本方法は、人間の居住者の推定された熱的快適性に基づいて、構築空間の暖房、換気、および空調(HVAC)を制御することを含み得る。
図面の簡単な説明
例示的な実施形態は、添付の図面と併せて以下に説明され、同様の符号は同様の要素を示す。
熱的快適性推定およびその後の暖房、換気、および空調(HVAC)システムの制御を行う方法の一実施形態の概略図である。 重心追跡アルゴリズムの概略図である。 カメラノードおよび居住者の例示的なネットワークのグラフ抽象化表現である。 ステレオビジョン較正プロセスの概略図である。 ステレオビジョン較正プロセスで使用することができる格子縞パターンのいくつかの図である。 単一のカメラノードからの取り込まれたRGB-D画像および取り込まれた熱画像の図である。 異なる距離での顔の皮膚温度収集の研究結果を示す一対のグラフであり、メートル(m)単位の距離がx軸にプロットされ、摂氏(℃)単位の温度がy軸にプロットされている。 加熱、冷却、および定常状態段階における居住者の最大顔皮膚温度の実験結果を示すグラフであり、時間(分)がx軸にプロットされ、顔の皮膚温度(摂氏(℃))がy軸にプロットされている。 例示的な居住者についての個人向け快適性予測モデルのランダムフォレスト構造である。 熱的設定点最適化プロセスの一実施形態の概略図である。
いくつかの例示的な実施形態において、構築空間内の1人または複数の人間の居住者の熱的快適性推定をリアルタイムで行う方法が本明細書で詳述される。本方法は、複数のステップを含み、1つまたは複数のサーモグラフィカメラと、1つまたは複数の赤、緑、および青の深度(RGB-D)センサとのネットワークの使用を相乗的な目的のために用いる。熱的快適性を評価する以前の取り組みと比較して、本明細書に詳述される方法は、意図的な人間のフィードバックなしで、および個人の身体と直接接触する装置なしで、連続的に非侵入的に熱的快適性を推定する。本方法は、構築空間内で様々な姿勢を示し、様々な動きに関与する複数の居住者の熱的快適性を同時に推定することができ、その結果、個人間ならびにサーモグラフィカメラおよびRGB-Dセンサ間の任意の異なる距離および角度が得られる。以前の取り組みのより受動的なアプローチとは異なり、本明細書に詳述される方法は、自動化されたデータ駆動のユーザ中心のアプローチである。さらに、本方法は、非実験的な構築空間および設定で容易に実施できるように、スケーラビリティおよび柔軟性を伴って設計および構築される。本方法で熱的快適性を推定すると、構築空間に向けられた暖房、換気、および空調(HVAC)を、最終的に居住者の熱的快適性を改善し、HVACシステムによるエネルギー消費を最小限に抑えるために、推定値に部分的またはそれ以上に基づいて制御することができる。
本明細書で使用される場合、「構築空間」という用語は拡張的な意味を有する。この用語は、他の例の中でも、住宅、商業ビル、職場オフィスおよび会議室、病院および養護施設、ならびに教室に見られる部屋およびホールならびに他の領域などの屋内空間を指す。また、構築空間は、自動車の車室、飛行機のコックピット、電車の乗車エリアなど、輸送車両内の空間でもある。さらに、「構築空間」という用語は、他の環境および他の車両における他の空間を指すことができる。
構築空間内の人間の居住者の熱的快適性推定を行う方法は、他の可能な要因の中でも、本方法が意図する特定の構築空間、ならびに使用されるサーモグラフィカメラおよびRGB-Dセンサの特定のネットワークに応じて、異なる実施形態において異なり得る。この説明が発展すると、本方法は、図面を参照して記載されたステップより多い、少ない、および/または異なるステップを有することができることが当業者に明らかになるであろう。方法の一例(参照番号10)を図1に示す。この実施形態では、構築空間内の人間の居住者の熱的快適性推定を行う方法は、i)サーモグラフィカメラおよびRGB-Dセンサ(参照符号12)を設けることと、ii)サーモグラフィカメラを介して人間の居住者の熱画像を取り込み、RGB-Dセンサ(12)を介して人間の居住者のRGB-D画像を取り込むことと、iii)取り込まれた熱画像および取り込まれたRGB-D画像(参照符号14)を使用することによって人間の居住者の顔の皮膚温度を抽出することと、iv)抽出された顔の皮膚温度(14)を使用することによって人間の居住者の熱的快適性を推定することと、v)推定された熱的快適性(参照番号16)に部分的またはそれ以上に基づいて、構築空間のHVACを制御することと、を含む。
サーモグラフィカメラは、本方法における温度測定および温度データに利用される。サーモグラフィカメラは、構築空間内の人間の居住者の熱画像を連続的に取り込む。設けられるサーモグラフィカメラは、様々なタイプのものとすることができ、様々な仕様を有することができる。一例では、サーモグラフィカメラは、放射測定用長波赤外線(LWIR)カメラであり、例えば、米国オレゴン州ウィルソンビル所在のFLIRシステムズ社の製品であるレプトン(登録商標)2.5モデル熱カメラが挙げられ、これは比較的低コストのサーモグラフィカメラであり、本明細書に記載の方法における使用に適している。この例示的な熱カメラの仕様は、寸法8.5×11.7×5.6mm、解像度80(h)×60(v)画素、熱感度<50mK、読み取り精度:作業範囲内の±5℃または±5%、ならびに視野(FOV)51°(h)および42°(v)を含む。さらに、他のタイプのサーモグラフィカメラが適切であり得、サーモグラフィカメラの他の仕様が適切であり得る。本方法では、RGB-Dセンサは、RGBカメラ機能を介した人間検出、RGBカメラ機能を介した特徴検出、および深度センサ機能を介した距離データに利用される。RGB-Dセンサは、構築空間内の人間の居住者のRGB-D画像を連続的に取り込む。サーモグラフィカメラと同様に、設けられるRGB-Dセンサは、様々なタイプのものとすることができ、様々な仕様を有することができる。一例では、RGB-Dセンサは、米国ワシントン州レドモンドのMicrosoft Corporationの製品であるKinect(商標)RGB-Dカメラである。この例示的なRGB-Dカメラの仕様は、解像度640(h)×480(v)画素、FOV57°(h)および43°(v)、有効深度センサ範囲0.8~5.0m、ならびに深度精度:最大動作範囲(5.0m)で±4cmを含む。さらに、他のタイプのRGB-Dセンサが適切であり得、RGB-Dセンサの他の仕様が適切であり得る。サーモグラフィカメラおよびRGB-Dセンサの機能は、互いに補完し合い、開示された方法の全体的な有効性を高めることが確認されている。後述するように、RGB-Dセンサは、顔の皮膚温度を抽出するために人間の顔の検出および位置特定でサーモグラフィカメラを支援し、RGB-Dセンサからの距離データも、サーモグラフィカメラの温度測定値に対する距離の影響を説明するために使用される。RGB-Dセンサは、サーモグラフィカメラよりも高い解像度を有し、RGB-D画像は、一般に、熱画像よりも多くの色データを含み、したがって、より高度な検出アルゴリズムにより適している。
サーモグラフィカメラおよびRGB-Dセンサは共に、カメラおよびセンサのネットワークを形成する。特定の構築空間に応じて、人間の居住者の熱的快適性推定を行う方法は、単一のRGB-Dセンサと共に単一のサーモグラフィカメラを有することができ、または各々が1つのRGB-Dセンサと対になる複数のサーモグラフィカメラを有することができる。特定の構築空間内のサーモグラフィカメラおよびRGB-Dセンサの正確な数は、少なくともいくつかの例では、構築空間のサイズ、ならびに予想される居住者の数、位置、姿勢、および動きによって決定され得る。単一のRGB-Dセンサと共に単一のサーモグラフィカメラで十分であり得る構築空間の一例は、セミトレーラトラックの客室および飛行機コックピットであるが、もちろん、これらの空間に複数のサーモグラフィカメラおよびRGB-Dセンサを装備することもできる。図1は、複数のサーモグラフィカメラおよびRGB-Dセンサを有する構築空間18の一例を示す。この例における構築空間18は、多数の居住者が様々な姿勢で様々な場所に座ったままであり得る一方で、他の居住者が様々な方法で動き回る可能性がある職場オフィスをモデルとしている。5つのカメラノード20は、付随するサーモグラフィカメラおよびRGB-Dセンサが様々な距離および角度からすべての居住者の画像を取り込むために構築空間18内のすべての領域をカバーし観察する視野を示すように、構築空間18内の異なる場所に配置されるが、構築空間18には多くの居住者がいる。各カメラノード20は、ユニットとして一緒に対になった単一のサーモグラフィカメラ22および単一のRGB-Dセンサ24を含む。ユニットは、構築空間18内のその場所に堅固に取り付けられている。
熱的快適性推定を行う方法の一実施形態では、単一のサーモグラフィカメラ22および単一のRGB-Dセンサ24で構成される単一のカメラノード20は、構築空間18内の多くの居住者の中から個々のおよび別個の居住者を区別することができ、各居住者の動きを追跡することができる。一例では、重心追跡アルゴリズムがこの目的のために使用されるが、さらに、他の実施形態では他の手段が使用されてもよい。重心追跡アルゴリズムは、現在の取り込まれた画像フレーム内の各居住者の各顔の重心を最初に検出するが、これは、例えば、オープンソースコンピュータビジョン(OpenCV3.3)のライブラリに見られるディープニューラルネットワーク(DNN)の顔検出モジュールを介して実行することができ、さらに、他の実施形態では、居住者を区別し、その動きを追跡する他の手段が使用されてもよい。構築空間18内に2人の居住者がいる例では、
時刻t+1において、重心追跡アルゴリズムは、時刻tおよびt+1における2つの連続する画像フレーム内の顔重心の各対の間のユークリッド距離を計算し、次いで、画像フレームt内の最も近い顔重心によって画像フレームt+1内の居住者IDを更新し、
Figure 2022518005000002
式中、Mtは、時間tにおける構築空間18内のすべての居住者の顔重心のセットであり、mは、セットMt内の1つの顔重心であり、xt+1は、(更新される必要がある)時間t+1における特定の居住者の顔重心であり、||・||はL2-ノルムである。重心追跡アルゴリズムは、図2に概略的に示されている。
熱的快適性推定を行う方法の一実施形態では、サーモグラフィカメラ22を介して構築空間18内で人間の居住者の総数を決定し、計数することができる。この決定は、様々な方法および様々なステップで実行することができる。一例では、決定および計数は、形態学的操作を使用してサーモグラフィカメラ22によって取り込まれた熱画像を処理することを含む。決定および計数は、ブロブ検出方法論を使用して形態学的に変換された熱画像内の人間の居住者の位置を特定することをさらに含むことができる。
サーモグラフィカメラ22およびRGB-Dセンサ24のネットワークは、本明細書に開示される方法の異なる実施形態によれば、異なる構築空間18において異なる設計を有することができる。ネットワークは、ノードおよびエッジから構成されるグラフ抽象化表現で表すことができる。図3は、3人の居住者26および2つのカメラノード20を有する例示的なネットワークを示す。図3のグラフ抽象化表現は、3つのタイプのノード、すなわち(1)カメラノード20、(2)居住者ノード(居住者26)、および(3)3次元世界における原点を示す世界座標ノード28を有する。ノードを接続するエッジは、観測値30および制約32を含む。観測値30は、特定のカメラノード20と居住者ノード26との間の姿勢を表す。観測値30は、居住者26が姿勢を変え、構築空間18内を動き回るときに変化し得る。観測値30は、その後、後にこの説明に記載されるピンホールカメラモデルを使用して計算することができる。制約32は、既知の所定の幾何学的関係を表す。各カメラノード20内に存在する制約32は、特定のカメラノード20のサーモグラフィカメラ22とRGB-Dセンサ24との間の相対姿勢を示す。図3の別個のカメラノード20間にまたがる唯一の制約32は、構築空間18内のそれらの取り付けられた場所に応じたそれらの2つのカメラノード20間の相対姿勢を示す。これらの制約32は、構築空間18内のサーモグラフィカメラ22およびRGB-Dセンサ24のネットワークの初期設計作業の最中に決定することができ、構築空間18内の居住者26の数、位置、姿勢、および動きの影響を受けない。さらに、取り付けられた場所におけるカメラノード20の位置が既知であるため、ネットワークの初期設計作業の最中に、1つのカメラノード20と世界座標ノード28との間にまたがる1つの制約32を決定することもできる。
一実施形態では、本方法における人間の居住者の顔の皮膚温度を抽出するステップは、RGB-Dセンサを介して人間の居住者の顔を検出することを含む。人間の顔は、血管の密度が高く、一般に人間の身体の他の領域のように衣服で覆われていないため、温度抽出のための理想的な対象領域であることが分かっている。OpenCV3.3ライブラリのDNN顔検出モジュールは、人間の顔を検出するのに適していることが分かっており、さらに、他の実施形態では、顔検出の他の手段および他のアルゴリズムが使用されてもよい。
さらに、一実施形態では、本方法における人間の居住者の顔の皮膚温度を抽出するステップは、RGB-D画像の検出された顔の座標が熱画像上にマッピングされ、位置特定され得るように、取り込まれた熱画像および取り込まれたRGB-D画像を登録することを含む。一例では、ピンホールカメラモデルがこの目的のために使用されるが、さらに、他の実施形態では他の手段が使用されてもよい。ピンホールカメラモデルでは、3次元世界座標は、透視変換(式100)を介して2次元画像座標に投影される。
Figure 2022518005000003
より簡潔な形式では、式100は次のようになり、
s m= K[R│T]M
式中、Mは、3次元世界座標空間における3次元点の同次座標を表す4×1ベクトルであり、mは、画像座標における2次元点の同次座標を表す3×1ベクトルであり、Kは、焦点距離(fxfy)および主点(CxCy)から構成されるカメラの3×3の固有行列であり、[R│T]は、回転Rおよび並進Tから構成される3×4の外部行列であり、sはスケーリング係数である。
単一のサーモグラフィカメラ22および単一のRGB-Dセンサ24を有するカメラノード20において、登録のための較正は、熱カメラKIRの内部行列、RGB-Dセンサ24のRGBカメラKRGBの内部行列、およびサーモグラフィカメラ22とRGBカメラとの間の同次変換行列[R│T]を推定することを含む。これらの推定が行われると、式100のピンホールカメラモデルを介して、2つのカメラにおける点の対応関係を決定することができる。実際には、カメラノード20の較正は、MathWorks(登録商標)によってMATLAB(登録商標)で利用可能なものなどのステレオ視覚較正プロセスを用いて実行することができるが、さらに、他の実施形態では他の手段が使用されてもよい。一般に、ステレオ視覚較正プロセスは、例として、最尤推定法を使用して未知数を決定するために、サーモグラフィカメラ22およびRGB-Dセンサ24が、2つ以上の異なる向きから、市松模様または正方格子パターンなどの平面的で予め定義されたパターンを観察することを含む。図4の概略図は、ステレオ視覚較正プロセスを示す。
パターンを横切って放射される赤外線エネルギーが同じままであるために、サーモグラフィカメラ22がそのような較正目的のためにいくつかの白黒パターンを観察および取り込みできない可能性があるので、アルミニウム箔およびビニルポリマーの6×7格子縞パターンを準備した。図5は、銀色で示されたアルミニウム箔正方形34および黒色で示されたビニルポリマー正方形36を有する、準備された市松模様を示す。ビュー(a)は、市松模様の写真である。コントラスト色により、図5の格子縞パターンの画像は、パターン内の角点を抽出するためにRGB-Dセンサ24によって取り込みおよび検出することができ、ビュー(c)はこれを示している。熱画像化のために、アルミニウム箔正方形34は、ビニルポリマー正方形36よりも高い放射率を有し、したがって、より大きな赤外線エネルギーを放出する。結果として、格子縞パターンが加熱されたとき、アルミニウム箔正方形34は、取り込まれた熱画像においてビニルポリマー正方形36よりも明るく見え、図5のビュー(b)はこれを示している。また、ビュー(d)に示すように、サーモグラフィカメラ22によって市松模様の角点を観察することができる。較正されると、取り込まれたRGB-D画像内の検出された顔の座標および距離データは、取り込まれた熱画像上にマッピングされ、位置特定され得る。図6は、これを単一のカメラノードから得られた異なるビューで示しており、ビュー(a)は、RGB-Dセンサ24からの深度/距離データを示し、ビュー(b)は、RGB-Dセンサ24から取り込まれたRGB-D画像を、対象居住者の顔領域を囲む境界ボックス38と共に示し、ビュー(c)は、サーモグラフィカメラ22から取り込まれた熱画像を、対象居住者の顔領域を囲むマッピングされた境界ボックス40と共に示す。
人間の顔などの物体によって放出され、最終的にサーモグラフィカメラ22によって取り込まれる赤外線エネルギーは、物体とサーモグラフィカメラ22との間の距離によって影響を受ける可能性があることが分かっている。したがって、一実施形態では、特定の構築空間内のサーモグラフィカメラ22と居住者の顔との間で測定された距離データを使用して、本方法の顔の皮膚温度を抽出するステップにおける赤外線エネルギー放射に対するこの影響を説明することができる。複数のサーモグラフィカメラ22を有する例では、各サーモグラフィカメラ22と各人間の顔との間で得られた距離データを、本明細書で説明するように使用することができる。距離データを説明するための較正目的で、0.05mのステップサイズで0.8メートル(m)~2.0mの距離でサーモグラフィカメラが対象の平均顔皮膚温度を収集する研究が行われた。この研究では、室温は26℃であり、相対湿度は28.5%であった。距離データはKinect(商標)RGB-Dカメラによって提供され、このカメラは5mの作業範囲で±4センチメートル(cm)の深度測定精度を有することが示されている。距離データは1分の時間枠内で収集されたため、特定の対象の顔の皮膚温度は、その時間枠の中で一定であると仮定した。各距離で3つのサンプルを収集し、平均して、特定の距離での顔の皮膚温度測定値を表した。図7は、研究の結果をグラフ形式で示す。グラフ(a)では、サンプル
Figure 2022518005000004
から線形関係が明らかであり、顔の皮膚温度測定値は、研究で使用されたサーモグラフィカメラの距離が1メートル増加するごとに0.5℃減少し得ることを意味する。グラフ(b)は、線形フィットの残差プロットを示す。ここで、残差プロットは0付近に幾分対称的に分布しており、明確なパターンが現れず、線形モデルの良好な適合を示していることが観察され得る。当業者は、他の同様の研究が他の結果をもたらし得ることを理解するであろう。
熱的快適性推定を行う方法の一実施形態では、複数のカメラノード20(ここでも、各々が単一のサーモグラフィカメラ22および単一のRGB-Dセンサ24から構成される)は、複数の居住者26の複数の取り込まれた熱的プロファイルを3次元世界の正しい居住者と関連付けることができる。これを居住者登録と呼ぶ。再び図3を参照すると、一例では、図中の番号1のカメラノード20は、3人の居住者26のうちの2人のみを観察して取り込むが、図中の番号2のカメラノード20は、これら3人の居住者26のうちの3人すべてを観察して取り込む。ここで、本方法は、番号2のカメラノード20内の居住者26の2つの熱的プロファイルを、番号1のカメラノード20内の2つの対応する正しい居住者26と関連付けることができる。このような例で居住者登録を実行するための特定の特徴ベースの方法は、カメラノード1および2の特徴点が幾分実質的に異なり得るため(例えば、カメラノード1は顔の正面を取り込み、カメラノード2は顔の側面のプロファイルを取り込む)、また特徴記述子の計算はリアルタイム実装のために計算集約的であり得るため、方法のすべての実施形態では適していない可能性があることが分かった。結果として、一実施形態では、位置に基づいて、式100のピンホールカメラモデルおよびステレオ視覚較正プロセスを介して、居住者登録を実行することができる。しかしながら、居住者登録の目的のために、サーモグラフィカメラ22およびRGB-Dセンサ24を較正する代わりに、(RGB-Dセンサ24の)RGB-Dカメラの各対を、同次変換行列[R│T]に到達するように較正することができる。この較正は、例えば、紙に印刷された市松模様パターンを用いて行うことができる。そして、世界座標ノード28に対する各居住者26の3次元世界座標[X Y Z 1]Tを、式100から求めることができる。最後に、この実施形態では、式200を用いて、カメラノードi内の居住者IDを、最も近い距離に基づいて異なる視点jからの居住者IDにマッピングして位置特定することができ、
Figure 2022518005000005
式中、Mjは、カメラノードj内のすべての居住者の3次元世界座標のセットであり、mは、セットMにおける1つの3次元世界座標であり、xは、(登録の対象となる)カメラノードi内の特定の居住者の3次元世界座標であり、||・||はL2-ノルムである。したがって、このようにして、カメラネットワークは、異なるカメラノード20に同じ居住者26を再帰的に登録することができる。
さらに、別個のカメラノード20間の通信のために、ユーザデータグラムプロトコル(UDP)データ通信プロトコルを、熱的快適性推定を行う方法の一実施形態において実装することができる。交換される通信は、居住者登録目的のための居住者26の3次元世界座標を含むことができる。
一実施形態では、本方法における人間の居住者の顔の皮膚温度を抽出するステップは、1つまたは複数の関心領域から皮膚温度を抽出することを含むことができる。関心領域は、額、鼻、頬、口、耳、および/または首などの人間の顔の領域を含むことができる。特定の関心領域内に位置する各画素のサーモグラフィカメラ22からの温度測定値は、その特定の関心領域の皮膚温度の表現として機能するように平均化することができる。精度を高めるために、一実施形態では、特定の閾値(例えば、28℃未満または38℃超)を超える画素温度測定値をフィルタリングで除外し、各関心領域から除去することができる。そのような値は、決定されており、単に背景またはノイズである可能性が高く、結果的に顔の皮膚温度の測定を妨げる可能性がある。例えば、近くの電球が特定の関心領域の皮膚温度測定値に含まれる可能性があり、フィルタリングして除去しない場合、そのより高い測定温度は、同伴する居住者が実際よりも温かいという不正確な推定をもたらす可能性がある。この実施形態では、人間の顔およびその勾配について得られた最大顔皮膚温度測定値、ならびに各関心領域(すなわち、額、鼻、頬、口、耳、および首)の最大、最小、平均、および勾配温度を含む、合計26個の顔皮膚温度測定値を抽出することができる。勾配温度について、5分間にわたる平均勾配は、式300および400(この順序で提示される)を用いて決定することができ、
Figure 2022518005000006
式中、∇Tiは時間間隔iの勾配温度であり、Tcは、時間cにおける温度測定値であり、
Figure 2022518005000007
は、特徴として選択された5分間にわたる平均勾配温度である。
別の実施形態では、上記の関心領域から温度を抽出する代わりに、本方法における人間の居住者の顔の皮膚温度を抽出するステップは、人間の顔全体から皮膚温度を抽出することを含むことができる。人間の顔全体は、この例では、顔の正面ならびに顔の側面のプロファイルを含む。この実施形態は、より小さい関心領域の熱画像を取り込むことがより困難であり得る実施形態においてより適切であり得る。この代替的な実施形態では、人間の顔全体から皮膚温度を抽出することは、(i)検出された顔領域内のすべての画素の最高、最低、平均、および四分位(第1、第2、第3)の温度測定値(これらの温度測定値は、検出された顔領域にわたる顔の皮膚温度の全体的な分布を示す)、(ii)検出された顔領域内のすべての画素の皮膚温度変化(鼻、耳、および頬は、他の関心領域よりも大きな皮膚温度変化を有し、したがって、検出された顔領域にわたる大きな皮膚温度変化は、居住者が冷却ストレスを受けていることの指標として役立ち得ることが分かっている)、および(iii)式300および式400からの1分間ごとの勾配温度(勾配温度が熱/冷却ストレスの指標として機能し得ることが分かっている)を含むことができる。
さらに、顔の皮膚温度を抽出する実施形態では、人間の顔の特定の領域または部分が検出不能である場合、省略された温度データは、逆確率重み付け帰属技法などの方法を使用して、人間の顔の他の検出可能な領域または部分および/または過去の観察に基づいて帰属させることができる。
熱的快適性推定を行う方法の一実施形態では、温度データをクリーニングおよび平滑化して、潜在的な誤差のデータを取り除くことができる。誤差は、(1)観察間で変化し得るランダムな実験誤差(例えば、水を飲んでいる最中に居住者の口に隣接して位置する手は、データのスパイクに対応する可能性がある)、および(2)平均がゼロのガウス分布に従うと仮定できるサーモグラフィカメラ22のランダム測定誤差を含む原因に起因し得る。これらの誤差を解決するために、一実施形態では、式500を使用して隣接する測定値の差を確認することによって、取り込まれた熱画像フレームを毎分平均し、外れ値を除去することができ、
Figure 2022518005000008
式中、diおよびdi-1は、時間iおよびi-1で収集された温度データであり、σは、時間0から時間iまでに収集された温度データの標準偏差である。異常値が除去されると、ガウシアンフィルタを適用して生の温度データを平滑化することができる。図8は、加熱段階42、冷却段階44、および定常状態段階46における居住者の最大顔皮膚温度の実験結果を示すグラフである。グラフの破線/一点鎖線は、実験で利用されたサーモグラフィカメラから直接収集した生の温度データを表し、より太い実線(参照番号42、44、46で示される)は、異常値を除去して平滑化した後の処理済み温度データを表す。データ処理により、さらなる分析を適用する前に、より大きな測定誤差を除去することができ、平滑化された曲線が得られる。さらに、図8のグラフから、加熱段階42における顔の皮膚温度の上昇傾向、冷却段階44における顔の皮膚温度の低下傾向、および定常状態段階46における顔の皮膚温度の比較的安定した傾向を観察することができる。当業者は、他の同様の実験が他の結果をもたらし得ることを理解するであろう。加熱段階42、冷却段階44、および定常状態段階46の環境条件を表1に要約する。
Figure 2022518005000009
人間の居住者の熱的快適性を推定するステップは、抽出された顔の皮膚温度を使用し、異なる実施形態において異なる方法で実行することができる。一実施形態では、熱的快適性嗜好の予測または推定は、居住者の嗜好が3つのカテゴリ値、すなわち、より暖かい、より冷たい、および中立である分類問題に変換することができる。ここで、快適性予測モデルは次TC=(Tfacialfacial)のように定式化することができ、式中、TCは目標とする可変熱的快適性であり、(Tfacialfacial)は各顔領域から抽出された顔の皮膚温度特徴および対応する勾配である。熱的快適性を分類する方法には、サポートベクターマシン、分類木、ランダムフォレストなどの機械学習方法が含まれる。本実施形態では、ランダムフォレスト法が採用されている。一般に、ランダムフォレスト法は、決定木の大きな集合を平均化することによってオブジェクトを分類するアンサンブル法である。本方法は、アグリゲーションを適用し、決定木から導入されるオーバーフィッティング問題を低減することができる。前述のように、例では、モデルトレーニング目的のために合計26個の特徴が考慮された。ランダムフォレスト法は、トレーニングデータの分散を低減するために、分割ごとに26個のトレーニング特徴をランダムにサンプリングする理想的な方法であることが分かっている。さらに、この実施形態では、個人向けモデルを開発するために、快適性予測モデルを各居住者の顔の皮膚温度データセットでトレーニングした。Pythonプログラミング言語のscikit-learnマシンラーニングライブラリを使用して、ランダムフォレストモデルをトレーニングした。性能最適化(すなわち、’n_estimators’:[300,500,700,1000]、’max_features’:[’auto’,’sqrt’,’log2’]、’max_depth’:[2,3,4,5])のための各構成の精度を評価するために、グリッド探索を通じてハイパーパラメータを調整した。推定器において許容される特徴の最大数および最大ツリー深度は、オーバーフィッティングの問題を低減するために、より小さいサイズで制御された。図9は、居住者の500個の分類木を有する例示的なランダムフォレスト構造を示す図である。この例では、各ツリーは、最大深度3および最大5個の特徴を有することができる。
各居住者の個人向け快適性予測モデルの最適なハイパーパラメータを表2に示す。
Figure 2022518005000010
Figure 2022518005000011
各居住者(すなわち、対象)について、3つの予測モデル、すなわち冷却段階で収集された温度データを用いて作成した冷却段階のモデル(表2に「冷却」と示す)、加熱段階で収集された温度データを用いて作成した加熱段階のモデル(表2に「加熱」と示す)、および3つすべての段階からの温度データを用いて作成した一般モデル(表2に「一般」と示す)を評価した。定常状態段階のモデルは、居住者の熱的嗜好がその段階全体にわたって概して変化しなかったため、作成しなかった。
ハイパーパラメータを調整した後、快適性予測モデルの予測精度を評価するために、10倍の交差検証を行った。各居住者の個人向け快適性予測モデルの予測精度を表3に示す。
Figure 2022518005000012
平均して、選択された顔の皮膚温度特徴を使用することにより、個人向け方法は、居住者の熱的快適性嗜好を予測する際に85.0%の精度を達成することができ、冷却段階で91.6%および加熱段階で92.7%のより高い精度を達成することができる。
この実施形態の例では、熱的快適性予測に最も適した特徴を特定するために、選択された顔の皮膚温度の特徴を、損失関数を最小化するための寄与に従ってランク付けした。各居住者に最も適した5つの特徴を表4に示す。
Figure 2022518005000013
Figure 2022518005000014
Figure 2022518005000015
適切な特徴は、居住者に依存することが観察され得る。さらに、特徴はデータ駆動型であり、経時的に異なる環境および空間でより多くの温度データが収集されるにつれて変化および発展し得る。
推定された熱的快適性に部分的またはそれ以上に基づいて構築空間18のHVACを制御するステップは、異なる実施形態において異なる方法で実行することができる。一実施形態では、熱的設定点は、構築空間18の設定点最適化アルゴリズムを使用して決定される。設定値最適化アルゴリズムには、マルコフ決定プロセス(MDP)として知られるものを用いることができる。MDPは、その決定プロセスにおいて顔の皮膚温度の時変特性を考慮に入れることができる。図10は、MDPを使用する設定点最適化プロセスの概略図である。一般に、MDPは、各決定時間ステップにおけるシステムの状態に基づいて確率的システムを制御するための逐次的な決定プロセスである。以前から知られている手法とは異なり、MDPは、現在の熱的設定点の調整が居住者の将来の熱的快適性にどのように影響を与えるかを組み込んでおり、MDPは、現在および予測される将来の快適性レベルの両方に基づいて最適な設定点を動的に決定する。
この実施形態における熱的設定点を決定するために、熱的快適性レベルを表すシステム状態が定義される。一例として、単一の居住者を有する構築空間の場合、居住者の予測された熱的快適性嗜好(すなわち、より温かい、より冷たい、または中立)がシステム状態として採用される。一方、複数の居住者を有する構築空間では、部分的に観測されたマルコフ決定プロセスを使用し、システム状態を、その成分が各熱的快適性嗜好カテゴリ内の居住者の部分であるベクトルとして定義することによって、問題を定式化することができる。さらに図10を参照すると、この例では、より温かい、より冷たい、および中立の3つの熱的快適性嗜好カテゴリでは、Sで示される時間tにおけるシステム状態は、より温かい、より冷たい、および中立状態の居住者の割合のベクトル、すなわちS=[%加温、%冷却、%中立]になる。さらに、単一居住者および複数居住者の構築空間の両方において、将来のシステム状態(St+1)は、上述した快適性予測モデルを使用して、現在の状態(S)および熱的設定点(a)に基づいて予測することができる。
さらに、システム状態を、その報酬関数rに関連付けることができる。報酬を定量化するための複数の選択肢が考えられ得る。例えば、複数居住者の構築空間では、報酬関数は、快適な居住者の部分、すなわち%中立であり得る。別の代替案は、熱的快適性嗜好の各部分に異なる重みを割り当て、重み付き和を使用することであり、例えば、より大きな重みを中立に与え、続いてより暖かくし、その後冬の間はより冷たくすることができる。エネルギーの過剰使用を最小限に抑えるために、エネルギー使用量も報酬関数に組み込むことができる。
この実施形態では、各決定時点において、残りの運転時間中に総報酬を最大化する目的で、熱的設定点aを決定することができる。ここで、設定点aは、総熱的不快時間を最小にするように、全時間間隔中の総熱的快適性レベルを最大にすることに基づいて決定することができる。具体的には、この例では、時間tにおいて、
Figure 2022518005000016
を最大化することができる最適な熱的設定点aを見つけることができ、式中、vt(Stat)は、最後の決定エポックまでの総報酬を表し、T(例えば、1日の営業時間の終わり)およびδt(<1)は、将来の予測不確実性を説明する割引係数である。最適な熱的設定点aを見つける際に、毎回行うことができる最小の変化であるために以前の設定からa±1℃の温度変化を考慮することができ、より急激な温度変化を回避することができる。しかし、いくつかの実施形態では、より大きな温度変化(例えば±2℃以上)が適切であり得る。
さらに、この実施形態では、後ろ向き動的計画法または方策反復手順を使用して、最適な熱的設定点を見つけることができる。時間tにおいて、現在の状態Sおよび将来の状態の予測される軌跡に基づいて、vt(Stat)を最小化する最適な熱的設定点aを決定することができる。次に、時間t+1において、更新された状態情報St+1を用いて、vt+1(St+1,at+1)を最小化するように熱的設定点at+1を調整することができる。プロセスは、最後の決定エポックTまで継続することができる。2つの連続する決定エポックT間の決定間隔、または時間の経過は、異なる実施形態において異なる場合があり、一実施形態では、例えば決定間隔は30分であり得、他の実施形態では、決定間隔は30分を超えるか、または30分より短い可能性がある。
前述の説明は、本発明の1つまたは複数の好ましい例示的な実施形態のものであることを理解されたい。本発明は、本明細書に開示された特定の実施形態に限定されず、むしろ、以下の特許請求の範囲によってのみ定義される。さらに、前述の説明に含まれる記述は、特定の実施形態に関連し、用語または句が上記で明確に定義されている場合を除いて、本発明の範囲または特許請求の範囲で使用される用語の定義に対する限定として解釈されるべきではない。開示された実施形態に対する様々な他の実施形態および様々な変更および修正が当業者には明らかになるであろう。そのような他の実施形態、変更、および修正はすべて、添付の特許請求の範囲内に入ることが意図されている。
本明細書および特許請求の範囲で使用される場合、用語「例えば(for example)」、「例えば(e.g.)」、「例えば(for instance)」、および「など(such as)」、ならびに動詞「備える(comprising)」、「有する(having)」、「含む(including)」、およびそれらの他の動詞形は、1つまたは複数の構成要素または他の項目の列挙と組み合わせて使用される場合、それぞれオープンエンドとして解釈されるべきであり、列挙が他の追加の構成要素または項目を除外するものと見なされるべきではないことを意味する。他の用語は、異なる解釈を必要とする文脈で使用されない限り、それらの最も広い合理的な意味を使用して解釈されるべきである。

Claims (20)

  1. 少なくとも1つのサーモグラフィカメラと少なくとも1つの赤、緑、および青の深度(RGB-D)センサを使用して、構築空間内の少なくとも1人の人間の居住者の熱的快適性推定をリアルタイムで行う方法であって、前記方法が、
    前記構築空間に前記少なくとも1つのサーモグラフィカメラを設け、前記構築空間に前記少なくとも1つのRGB-Dセンサを設けるステップと、
    前記少なくとも1つのサーモグラフィカメラを介して前記構築空間内の前記少なくとも1人の人間の居住者の熱画像を取り込み、前記少なくとも1つのRGB-Dセンサを介して前記構築空間内の前記少なくとも1人の人間の居住者のRGB-D画像を取り込むステップと、
    前記取り込まれた熱画像および前記取り込まれたRGB-D画像を使用して前記少なくとも1人の人間の居住者の顔の皮膚温度を抽出するステップであって、顔の皮膚温度を抽出するステップが、前記取り込まれた熱画像および取り込まれたRGB-D画像を登録することを含む、抽出するステップと、
    前記少なくとも1人の人間の居住者の前記抽出された顔の皮膚温度を使用して、前記構築空間における前記少なくとも1人の人間の居住者の熱的快適性を推定するステップと、
    を含む、方法。
  2. 前記少なくとも1人の人間の居住者の前記推定された熱的快適性に基づいて、前記構築空間の暖房、換気、および空調(HVAC)を制御するステップをさらに含む、請求項1に記載の方法。
  3. 前記構築空間の前記HVACを制御するステップが、前記少なくとも1人の人間の居住者の前記推定された熱的快適性に基づいて前記構築空間の熱的設定点を決定することを含む、請求項2に記載の方法。
  4. 前記少なくとも1つのサーモグラフィカメラを前記構築空間に設けるステップが、前記構築空間に複数のサーモグラフィカメラを設けることを含み、前記少なくとも1つのRGB-Dセンサを前記構築空間に設けるステップが、前記構築空間に複数のRGB-Dセンサを設けることを含み、前記構築空間内の前記少なくとも1人の人間の居住者の熱画像を取り込むステップが、前記複数のサーモグラフィカメラを介して前記構築空間内の複数の人間の居住者の熱画像を取り込むことを含み、前記構築空間内の前記少なくとも1人の人間の居住者のRGB-D画像を取り込むステップが、前記複数のRGB-Dセンサを介して前記構築空間内の複数の居住者のRGB-D画像を取り込むことを含む、請求項1に記載の方法。
  5. 前記構築空間に前記少なくとも1つのサーモグラフィカメラを設けるステップが、前記構築空間に複数のサーモグラフィカメラを設けることを含み、前記構築空間に前記少なくとも1つのRGB-Dセンサを設けるステップが、前記構築空間に複数のRGB-Dセンサを設けることを含み、前記少なくとも1人の人間の居住者の熱画像を取り込むステップが、前記複数のサーモグラフィカメラを介して複数の人間の居住者の熱画像を取り込むことを含み、前記少なくとも1人の人間の居住者のRGB-D画像を取り込むステップが、前記複数のRGB-Dセンサを介して前記複数の人間の居住者のRGB-D画像を取り込むことを含み、前記方法が、前記複数のサーモグラフィカメラ間および前記複数のRGB-Dセンサ間で前記複数の人間の居住者を登録するステップをさらに含む、請求項1に記載の方法。
  6. 前記構築空間内の前記少なくとも1人の人間の居住者の熱画像を取り込むステップが、前記少なくとも1つのサーモグラフィカメラに対する前記少なくとも1人の人間の居住者の様々な距離から前記熱画像を取り込むことを含み、前記構築空間内の前記少なくとも1人の人間の居住者のRGB-D画像を取り込むステップが、前記少なくとも1つのRGB-Dセンサに対する前記少なくとも1人の人間の居住者の様々な距離から前記RGB-D画像を取り込むことを含む、請求項1に記載の方法。
  7. 前記構築空間内の前記少なくとも1人の人間の居住者の熱画像を取り込むステップが、前記少なくとも1つのサーモグラフィカメラに対する前記少なくとも1人の人間の居住者の様々な角度から前記熱画像を取り込むことを含み、前記構築空間内の前記少なくとも1人の人間の居住者のRGB-D画像を取り込むステップが、前記少なくとも1つのRGB-Dセンサに対する前記少なくとも1人の人間の居住者の様々な角度から前記RGB-D画像を取り込むことを含む、請求項1に記載の方法。
  8. 顔の皮膚温度を抽出するステップが、前記少なくとも1つのRGB-Dセンサを介して前記構築空間内の前記少なくとも1人の人間の居住者の存在を検出することを含む、請求項1に記載の方法。
  9. 前記取り込まれた熱画像および取り込まれたRGB-D画像を登録するステップが、前記取り込まれたRGB-D画像内の座標を前記取り込まれた熱画像上に配置することを含む、請求項1に記載の方法。
  10. 前記構築空間内の前記少なくとも1人の人間の居住者の熱的快適性を推定するステップが、より暖かい熱的快適性嗜好、より冷たい熱的快適性嗜好、または中立の熱的快適性嗜好を推定することを含む、請求項1に記載の方法。
  11. 顔の皮膚温度を抽出するステップが、前記少なくとも1つのサーモグラフィカメラから提供された温度データを用いて前記少なくとも1つのRGB-Dセンサから提供された距離データを使用することを含む、請求項1に記載の方法。
  12. 前記構築空間が輸送車両内にある、請求項2に記載の方法。
  13. 少なくとも1つのサーモグラフィカメラと少なくとも1つの赤、緑、および青の深度(RGB-D)センサを使用して、構築空間内の少なくとも1人の人間の居住者の熱的快適性推定をリアルタイムで行う方法であって、前記方法が、
    前記少なくとも1つのサーモグラフィカメラに対する前記少なくとも1人の人間の居住者の様々な距離および様々な角度から前記少なくとも1つのサーモグラフィカメラを介して前記構築空間内の前記少なくとも1人の人間の居住者の熱画像を取り込み、前記少なくとも1つのRGB-Dセンサに対する前記少なくとも1人の人間の居住者の様々な距離および様々な角度から前記少なくとも1つのRGB-Dセンサを介して前記構築空間内の前記少なくとも1人の人間の居住者のRGB-D画像を取り込むステップと、
    前記取り込まれた熱画像および前記取り込まれたRGB-D画像を使用して前記少なくとも1人の人間の居住者の顔の皮膚温度を抽出し、前記少なくとも1つのRGB-Dセンサから提供された距離データを前記少なくとも1つのサーモグラフィカメラから提供された温度データと共に使用するステップと、
    前記少なくとも1人の人間の居住者の前記抽出された顔の皮膚温度を使用して、前記構築空間における前記少なくとも1人の人間の居住者の熱的快適性を推定するステップと、
    を含む、方法。
  14. 前記少なくとも1人の人間の居住者の前記推定された熱的快適性に基づいて、前記構築空間の暖房、換気、および空調(HVAC)を制御するステップをさらに含む、請求項13に記載の方法。
  15. 前記構築空間内の前記少なくとも1人の人間の居住者の熱画像を取り込むステップが、複数のサーモグラフィカメラを介して前記構築空間内の複数の人間の居住者の熱画像を取り込むことを含み、前記構築空間内の前記少なくとも1人の人間の居住者のRGB-D画像を取り込むステップが、複数のRGB-Dセンサを介して前記構築空間内の複数の居住者のRGB-D画像を取り込むことを含む、請求項13に記載の方法。
  16. 前記少なくとも1人の人間の居住者の熱画像を取り込むステップが、複数のサーモグラフィカメラを介して複数の人間の居住者の熱画像を取り込むことを含み、前記少なくとも1人の人間の居住者のRGB-D画像を取り込むステップが、複数のRGB-Dセンサを介して前記複数の人間の居住者のRGB-D画像を取り込むことを含み、前記方法が、前記複数のサーモグラフィカメラ間および前記複数のRGB-Dセンサ間で前記複数の人間の居住者を登録するステップをさらに含む、請求項13に記載の方法。
  17. 顔の皮膚温度を抽出するステップが、前記取り込まれた熱画像および取り込まれたRGB-D画像を登録することを含む、請求項13に記載の方法。
  18. 少なくとも1つのサーモグラフィカメラと少なくとも1つの赤、緑、および青の深度(RGB-D)センサを使用して、構築空間内の少なくとも1人の人間の居住者の熱的快適性推定をリアルタイムで行う方法であって、前記方法が、
    前記少なくとも1つのサーモグラフィカメラを介して前記構築空間内の前記少なくとも1人の人間の居住者の熱画像を取り込み、前記少なくとも1つのRGB-Dセンサを介して前記構築空間内の前記少なくとも1人の人間の居住者のRGB-D画像を取り込むステップと、
    前記取り込まれた熱画像および前記取り込まれたRGB-D画像を使用して前記少なくとも1人の人間の居住者の顔の皮膚温度を抽出するステップであって、顔の皮膚温度を抽出するステップが、前記取り込まれたRGB-D画像の座標を前記取り込まれた熱画像上に配置することを含む、抽出するステップと、
    前記少なくとも1人の人間の居住者の前記抽出された顔の皮膚温度を使用して、前記構築空間における前記少なくとも1人の人間の居住者の熱的快適性を推定するステップと、
    前記少なくとも1人の人間の居住者の前記推定された熱的快適性に基づいて、前記構築空間の暖房、換気、および空調(HVAC)を制御するステップと、
    を含む、方法。
  19. 前記取り込まれた熱画像を使用して、前記構築空間内の人間の居住者の総数を決定するステップをさらに含む、請求項18に記載の方法。
  20. 請求項13に記載の方法を実行する命令を格納した非一時的データ記憶装置を含む非一時的コンピュータ可読媒体。
JP2021540410A 2019-01-10 2020-01-09 1つまたは複数のサーモグラフィカメラおよび1つまたは複数のrgb-dセンサを使用して構築空間内の1人または複数の人間の居住者の存在をリアルタイムで検出し、熱的快適性を推定すること Active JP7217058B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962790526P 2019-01-10 2019-01-10
US62/790,526 2019-01-10
PCT/US2020/012882 WO2020146596A1 (en) 2019-01-10 2020-01-09 Detecting presence and estimating thermal comfort of one or more human occupants in a built space in real-time using one or more thermographic cameras and one or more rgb-d sensors

Publications (2)

Publication Number Publication Date
JP2022518005A true JP2022518005A (ja) 2022-03-11
JP7217058B2 JP7217058B2 (ja) 2023-02-02

Family

ID=71521821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021540410A Active JP7217058B2 (ja) 2019-01-10 2020-01-09 1つまたは複数のサーモグラフィカメラおよび1つまたは複数のrgb-dセンサを使用して構築空間内の1人または複数の人間の居住者の存在をリアルタイムで検出し、熱的快適性を推定すること

Country Status (4)

Country Link
US (1) US12000609B2 (ja)
EP (1) EP3908974A4 (ja)
JP (1) JP7217058B2 (ja)
WO (1) WO2020146596A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11715326B2 (en) * 2020-06-17 2023-08-01 Microsoft Technology Licensing, Llc Skin tone correction for body temperature estimation
US11467034B2 (en) * 2020-06-30 2022-10-11 Ilooda Co., Ltd. Temperature measuring device for tracked subject target region
US11669962B2 (en) 2020-10-26 2023-06-06 Covidien Lp Temperature monitoring with a thermal camera
US11897314B2 (en) * 2021-01-20 2024-02-13 Bayerische Motoren Werke Aktiengesellschaft Method, computer program and system for improving a user experience
CN113077452B (zh) * 2021-04-09 2022-07-15 电子科技大学成都学院 基于dnn网络和斑点检测算法的苹果树病虫害检测方法
KR20230015539A (ko) * 2021-07-23 2023-01-31 한온시스템 주식회사 맞춤형 차량 공조 제어 시스템 및 그 방법
CN116066974A (zh) * 2021-10-29 2023-05-05 青岛海尔空调器有限总公司 一种空调器控制方法、装置及空调器
CN117058131B (zh) * 2023-10-11 2024-03-19 深圳市鹰瞳智能技术有限公司 基于高分辨率热成像进行脸部动脉可视化定位的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0532117A (ja) * 1991-07-26 1993-02-09 Toyota Central Res & Dev Lab Inc 空調制御装置
JPH07243687A (ja) * 1994-03-09 1995-09-19 Sanyo Electric Co Ltd 空気調和装置
JP2006317075A (ja) * 2005-05-12 2006-11-24 Daikin Ind Ltd 空調制御システム
JP2010159887A (ja) * 2009-01-06 2010-07-22 Mitsubishi Electric Corp 空気調和装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5146819B2 (ja) * 2008-04-03 2013-02-20 株式会社デンソー 車両用シート空調装置
US20120023201A1 (en) * 2010-07-26 2012-01-26 Atlas Advisory Partners, Llc Unified Content Delivery Platform
TR201809175T4 (tr) * 2012-01-17 2018-07-23 Koninklijke Philips Nv Bir canlıyı ısıtmak için ısıtma sistemi.
WO2014185061A1 (ja) 2013-05-17 2014-11-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ センサー搭載装置
CN107000537B (zh) 2014-10-31 2021-03-12 金瑟姆股份有限公司 车辆小气候系统及其控制方法
US10486490B2 (en) 2015-04-16 2019-11-26 Panasonic intellectual property Management co., Ltd Air-conditioning control device
US9644857B1 (en) * 2015-12-01 2017-05-09 Nasser Ashgriz Virtual thermostat for a zonal temperature control
US9886640B1 (en) * 2016-08-08 2018-02-06 International Business Machines Corporation Method and apparatus to identify a live face image using a thermal radiation sensor and a visual radiation sensor
FI20175350A1 (fi) * 2017-04-18 2018-10-19 Caverion Suomi Oy Monianturiyksikkö, järjestely ja menetelmä huoneen tai vyöhykkeen sisäilmasto-olosuhteiden hallitsemista varten
US11015832B2 (en) * 2018-01-12 2021-05-25 Carrier Corporation Thermographic sensing of human thermal conditions to improve thermal comfort

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0532117A (ja) * 1991-07-26 1993-02-09 Toyota Central Res & Dev Lab Inc 空調制御装置
JPH07243687A (ja) * 1994-03-09 1995-09-19 Sanyo Electric Co Ltd 空気調和装置
JP2006317075A (ja) * 2005-05-12 2006-11-24 Daikin Ind Ltd 空調制御システム
JP2010159887A (ja) * 2009-01-06 2010-07-22 Mitsubishi Electric Corp 空気調和装置

Also Published As

Publication number Publication date
US12000609B2 (en) 2024-06-04
WO2020146596A1 (en) 2020-07-16
EP3908974A1 (en) 2021-11-17
EP3908974A4 (en) 2022-08-31
US20220090811A1 (en) 2022-03-24
JP7217058B2 (ja) 2023-02-02

Similar Documents

Publication Publication Date Title
JP7217058B2 (ja) 1つまたは複数のサーモグラフィカメラおよび1つまたは複数のrgb-dセンサを使用して構築空間内の1人または複数の人間の居住者の存在をリアルタイムで検出し、熱的快適性を推定すること
Metzmacher et al. Real-time human skin temperature analysis using thermal image recognition for thermal comfort assessment
Li et al. Robust non-intrusive interpretation of occupant thermal comfort in built environments with low-cost networked thermal cameras
WO2020215961A1 (zh) 面向室内环境控制的人员信息检测方法与系统
US10080513B2 (en) Activity analysis, fall detection and risk assessment systems and methods
US10909835B1 (en) Rapid thermal dynamic image capture devices
JP5238679B2 (ja) 空調制御装置、空調制御方法及び輻射温度計測装置
KR101203607B1 (ko) 공조 제어 시스템 및 공조 제어 방법
Aryal et al. Skin temperature extraction using facial landmark detection and thermal imaging for comfort assessment
Wu et al. Infrared face recognition by using blood perfusion data
US10398316B1 (en) Method and apparatus for determining physiological characteristics of experimental animals based upon infrared and visible light images
CN110726476A (zh) 基于人体红外温度监测的热环境调控系统及调控方法
JPH08178390A (ja) 人体活動量算出装置、人体活動量着衣量算出装置およびそれを備えた空気調和機、人体異常通報機
Liu et al. Automatic estimation of clothing insulation rate and metabolic rate for dynamic thermal comfort assessment
CN111797806A (zh) 一种基于2d骨架的三维图卷积行为识别方法
CN109923616B (zh) 用于改进生命体征采集的自动平移-倾斜-缩放调节
WO2015049664A1 (en) System and method for monitoring the thermal comfort
US11256910B2 (en) Method and system for locating an occupant
Wei et al. A low-cost and scalable personalized thermal comfort estimation system in indoor environments
Ashrafi et al. Machine learning-based automated thermal comfort prediction: integration of low-cost thermal and visual cameras for higher accuracy
Hou et al. A low-cost in-situ system for continuous multi-person fever screening
Choi et al. Impact of thermal control by real-time PMV using estimated occupants personal factors of metabolic rate and clothing insulation
Sumriddetchkajorn et al. Field test studies of our infrared-based human temperature screening system embedded with a parallel measurement approach
Wang et al. Registration of infrared and visible-spectrum imagery for face recognition
Zhou et al. InfraNet: Accurate forehead temperature measurement framework for people in the wild with monocular thermal infrared camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230116

R150 Certificate of patent or registration of utility model

Ref document number: 7217058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150