JP7311474B2 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP7311474B2
JP7311474B2 JP2020152308A JP2020152308A JP7311474B2 JP 7311474 B2 JP7311474 B2 JP 7311474B2 JP 2020152308 A JP2020152308 A JP 2020152308A JP 2020152308 A JP2020152308 A JP 2020152308A JP 7311474 B2 JP7311474 B2 JP 7311474B2
Authority
JP
Japan
Prior art keywords
person
information
space
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020152308A
Other languages
English (en)
Other versions
JP2022046326A (ja
Inventor
隆之 堀
容範 金
裕真 鈴木
麟太郎 金田
宏暢 小林
正雄 田口
肇 河野
崇行 山口
宏典 稲澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2020152308A priority Critical patent/JP7311474B2/ja
Publication of JP2022046326A publication Critical patent/JP2022046326A/ja
Application granted granted Critical
Publication of JP7311474B2 publication Critical patent/JP7311474B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
従来、利用者にとって快適な空間を提供するための技術が知られている。例えば、利用者が利用する空間を撮像した画像データから抽出された利用者の首部周辺の開放状態に基づいて利用者の着衣量を推定する。そして、空調設備が、推定した利用者の着衣量に応じて空間の環境を調整する技術が知られている。
特開2009-192171号公報
空間の快適さの推定精度を向上させる技術が求められている。
実施形態に係る情報処理装置は、画像のうち人物が撮像された領域である人物領域であって、前記人物の姿勢に基づいて特定された人物領域に関する情報に基づいて、前記人物が所在する空間の快適さを推定する推定部、を備える。
図1は、実施形態に係る情報処理の概要を説明するための図である。 図2は、実施形態に係る情報処理システムの構成例を示す図である。 図3は、実施形態に係る情報処理装置の構成例を示す図である。 図4は、実施形態に係る情報処理手順を示すフローチャートである。 図5は、第1の変形例に係る画像の前処理について説明するための図である。 図6は、第1の変形例に係る着衣量のクラスとclo値について説明するための図である。 図7は、第1の変形例に係る第1学習モデルの生成処理について説明するための図である。 図8は、第2の変形例に係るサーマル画像の前処理について説明するための図である。 図9は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
(実施形態)
〔1.はじめに〕
従来、人の暑さ寒さに関する温熱環境における快適さに基づいて空調制御する技術が知られている。例えば、空間の快適さを評価する指標として、人体の熱収支に影響する6つの要素からなるPMV(Predicted Mean Vote)が知られている。PMVは、温度[℃]、湿度[%]、(熱)放射[℃]、気流[m/s]の4つの環境要素と、着衣量[clo]、代謝量(活動量)[met]の2つの人的要素から算出される。ここで、温度、湿度、放射、気流の4つの環境要素は、空間に対するセンシングによって得ることができる。一方、着衣量、代謝量(活動量)の2つの人的要素は、外気温などから推定される推定値が用いられるのが一般的であった。そのため、従来の手法に基づいて算出されたPMV値は、必ずしも実際に人が感じている空間の快適さを反映しているとは限らなかった。すなわち、従来は、空間の快適さを精度よく推定できるとは限らなかった。
これに対し、一実施形態に係る情報処理装置100は、人物が所在する空間を撮像した画像のうち人物が撮像された領域である人物領域であって、人物の姿勢を推定する姿勢推定処理に基づいて特定された人物領域に関する情報に基づいて、人物が所在する空間の快適さを推定することができる。具体的には、情報処理装置100は、人物が所在する空間をRGBカメラで撮像したRGB画像のうち姿勢推定処理に基づいて特定された人物領域に関する情報に基づいて、人物の着衣量に関する情報を推定することができる。続いて、情報処理装置100は、推定された人物の着衣量に関する情報に基づいて、人物が所在する空間の快適さを推定することができる。なお、人物領域は、情報処理装置100が推定対象の人物を特定可能な領域であれば、任意の領域であってよい。例えば、人物領域は、人物を示す領域に加えて、その人物の周囲の空間を示す領域を含んでもよい。例えば、人物領域は、人物が撮像された領域に加えて、その人物の周囲の空間が撮像された領域を含んでもよい。例えば、人物領域は、人物の周囲に存在する家具等を示す領域を含んでもよい。
ここで、情報処理装置100は、人物の着衣量に関する情報として、人物の着衣量そのものを推定してもよい。例えば、情報処理装置100は、着衣量の値として着衣による人の快適さを示す公知の指標であるclo値を推定してもよい。また、情報処理装置100は、人物の着衣量に関する情報として、人物の着衣量に相当する着衣量以外の他の物理量を推定してもよい。例えば、情報処理装置100は、人物の着衣量に関する情報として、RGB画像のうち姿勢推定処理に基づいて特定された人物領域の特徴を示す特徴ベクトルを推定してもよい。なお、以下では、RGB画像のことを単に「画像」と記載する場合がある。また、画像は、動画の一部であってもよい。すなわち、情報処理装置100は、人物が所在する空間を撮像した動画に基づいて人物が所在する空間の快適さを推定してもよい。
ここで、姿勢推定処理は、動画や静止画から人物の姿勢を推定し、人物領域を特定する処理であってよい。姿勢推定処理は、任意の公知技術により実現されてよい。例えば、姿勢推定処理は、姿勢推定(Pose Estimation)の技術(以下、姿勢推定技術ともいう)を用いた画像の処理により実現されてよい。例えば、姿勢推定処理は、姿勢推定モデルと呼ばれる深層学習モデルを用いて、動画や静止画から人物や動物の姿勢(骨格)を推定する姿勢推定技術により実現されてよい。なお、1枚の画像に複数の人物が写っている場合には、姿勢推定処理により、複数の人物について特徴点を検出して、複数の人物の姿勢を推定してもよい。すなわち、情報処理装置100は、複数の人物について、それぞれの人物が所在する空間の快適さをそれぞれ推定してもよい。
例えば、姿勢推定モデルの一例として、画像に含まれる人物の身体の特徴を示す特徴点(キーポイントともいう)を推定し、特徴点を結んだ人物の姿勢を検出するものがある。例えば、姿勢推定モデルの一例として、画像に含まれる人物の身体の特徴点として、人物の身体の関節の位置を示す関節点を推定し、関節点を連結して生成される人物の身体の骨格を示す骨格モデルを人物の姿勢として検出するものがある。このように、姿勢推定技術を用いると、画像中の人物の身体の関節点や骨格モデルを推定することができるので、画像中の人物の身体の部位を精緻に推定することができる。例えば、特徴点を検出するタイプの姿勢推定モデルの中には、画像中の人物の身体の30種類の部位を推定可能なものがある。具体的には、特徴点を検出するタイプの姿勢推定モデルを用いると、画像中の人物の身体の部位として、頭、目(右、左)、耳(右、左)、鼻、首、肩(右、中央、左)、肘(右、左)、背骨、手首(右、左)、手(右、左)、親指(右、左)、手先(右、左)、腰(右、中央、左)、膝(右、左)、足首(右、左)、足(右、左)を特定することができる。
また、姿勢推定モデルの一例として、DensePose(参考URL:http://openaccess.thecvf.com/content_cvpr_2018/html/Guler_DensePose_Dense_Human_CVPR_2018_paper.html)が知られている。DensePoseは、2次元の画像中の人物の人物領域を検出し、検出した人物領域に対応する3次元身体表面モデルを生成する技術である。より具体的には、DensePoseは、RGB画像を入力として、RGB画像中の人物の3次元表面のUV座標を推定する技術である。DensePoseを用いると、2次元の画像に写る人物領域から3次元身体表面のUV座標を推定することができるので、2次元の画像に写る人物領域の各人体パーツ(人物の身体の部位)を精緻に推定することができる。DensePoseを用いると、画像中の人物の身体の24種類の部位を推定することができる。具体的には、DensePoseを用いると、RGB画像から、画像中の人物の身体の部位として、頭(左、右)、首、胴体、腕(左、右/上、前/前、後)、脚(左、右/太もも、ふくらはぎ/前、後)、手(左、右)、足(左、右)を特定することができる。
このように、情報処理装置100は、上述したような姿勢推定技術を用いることにより、画像の中から人物が撮像された領域である人物領域をより精緻に特定することができる。これにより、情報処理装置100は、画像の中から人物領域を精緻に特定したうえで、特定された人物領域の特徴に基づいて、推定対象となる人物の着衣量に関する情報を推定することができる。すなわち、情報処理装置100は、推定対象となる人物の着衣量に関する情報の推定精度を向上させることができる。また、情報処理装置100は、より精度の高い着衣量に関する情報に基づいて、人物が所在する空間の快適さを推定することができる。したがって、情報処理装置100は、空間の快適さの推定精度を向上させることができる。
また、一般的に、複数種の着衣が着用される場合が多く、着衣の種類や形状によって、風通しや保温力が異なる場合が多い。すなわち、着衣の種類や形状によっては、同じ空間に所在しているとしても、快適さが異なる場合がある。
これに対し、一実施形態に係る情報処理装置100は、画像のうち姿勢推定処理に基づいて特定された人物の身体の部位ごとの部位領域に関する情報に基づいて、人物の着衣量に関する情報を推定してもよい。これにより、情報処理装置100は、上半身、腕、下半身など人物の身体の部位ごとの画像の特徴に基づいて人物の着衣の種別を判定し、着衣の種別に応じた着衣量に関する情報を推定することができる。すなわち、情報処理装置100は、着衣量に関する情報の推定精度をさらに向上させることができる。また、情報処理装置100は、より精度の高い着衣量に関する情報に基づいて、人物が所在する空間の快適さを推定することができる。したがって、情報処理装置100は、空間の快適さの推定精度をさらに向上させることができる。
また、一般的に、代謝量は人それぞれ異なるため、同じ服装でも人によって保温量が異なる場合がある。すなわち、同じ服装の人物が同じ空間に所在しているとしても、代謝量の違いによっては、人によって快適さが異なる場合がある。
これに対し、一実施形態に係る情報処理装置100は、人物が所在する空間を赤外線カメラで撮像したサーマル画像のうち人物が撮像された領域である人物領域であって、人物の姿勢を推定する姿勢推定処理に基づいて特定された人物領域に関する情報に基づいて、人物が所在する空間の快適さを推定してよい。具体的には、情報処理装置100は、サーマル画像のうち姿勢推定処理に基づいて特定された人物領域に関する情報に基づいて、人物の代謝量(活動量)に関する情報を推定してよい。続いて、情報処理装置100は、推定された人物の代謝量(活動量)に関する情報に基づいて、人物が所在する空間の快適さを推定してよい。
ここで、情報処理装置100は、人物の代謝量(活動量)に関する情報として、人物の代謝量(活動量)そのものを推定してもよい。また、情報処理装置100は、人物の代謝量(活動量)に関する情報として、人物の代謝量(活動量)に相当する代謝量(活動量)以外の他の物理量を推定してもよい。例えば、情報処理装置100は、人物の代謝量(活動量)に関する情報として、サーマル画像のうち姿勢推定処理に基づいて特定された人物領域の特徴を示す特徴ベクトルを推定してもよい。
このように、情報処理装置100は、代謝量と関連のあるサーマル画像に基づいて、人物の着衣量に関する情報を推定する。これにより、情報処理装置100は、着衣の種別のみならず、人ごとに異なる代謝量を考慮することができるため、着衣量に関する情報の推定精度をより向上させることができる。また、情報処理装置100は、姿勢推定技術を用いることにより、サーマル画像の中から人物が撮像された領域である人物領域をより精緻に特定することができる。これにより、情報処理装置100は、サーマル画像の中から人物領域を精緻に特定したうえで、特定された人物領域の特徴に基づいて、推定対象となる人物の代謝量(活動量)に関する情報を推定することができる。すなわち、情報処理装置100は、推定対象となる人物の代謝量(活動量)に関する情報の推定精度を向上させることができる。また、情報処理装置100は、より精度の高い代謝量(活動量)に関する情報に基づいて、人物が所在する空間の快適さを推定することができる。したがって、情報処理装置100は、空間の快適さの推定精度を向上させることができる。
〔2.情報処理の概要〕
ここから、図1を用いて、実施形態に係る情報処理の概要について説明する。図1は、実施形態に係る情報処理の概要を説明するための図である。図1は、情報処理装置100が、空間の快適さを推定する機械学習モデル(以下、快適さ推定モデルM6と記載する)を用いて、利用者が所在するオフィスO1(空間の一例)を撮像したRGB画像G1、サーマル画像G2、RGB画像G1のうち姿勢推定処理に基づいて特定された人物領域G3、サーマル画像G2のうち姿勢推定処理に基づいて特定された人物領域G4、およびオフィスO1内の温度および湿度から、オフィスO1の快適さを推定する例を示している。
まず、情報処理装置100は、オフィスO1に設置されたRGBカメラから、利用者が所在するオフィスO1(空間の一例)を撮像したRGB画像G1を取得する。情報処理装置100は、RGB画像G1を取得すると、学習モデルM1を用いて、RGB画像G1から、RGB画像G1の特徴を示す特徴ベクトルV1を生成する。
ここで、学習モデルM1は、RGB画像が入力情報として入力された場合に、RGB画像の特徴を示す特徴ベクトルを出力情報として出力するよう学習された機械学習モデルであればどのような学習モデルであってもよい。例えば、学習モデルM1は、学習済みの畳み込みニューラルネットワークであってよい。例えば、学習モデルM1は、ImageNet等の画像データベースに登録されている多数の(例えば、1000万枚を超える)画像と画像に写っている物体名(クラス)とのセットデータを学習済みのResnet50であってよい。例えば、学習モデルM1は、RGB画像G1が入力情報として入力された場合に、RGB画像G1の特徴を示す2048次元の特徴ベクトルV1を出力情報として出力する機械学習モデルであってよい。
また、情報処理装置100は、オフィスO1に設置された赤外線カメラから、利用者が所在するオフィスO1を撮像したサーマル画像G2を取得する。例えば、赤外線カメラとRGBカメラは、オフィスO1の同じ位置に設置されてもよい。すなわち、サーマル画像G2はRGB画像G1と同じ場面を撮像した画像であるものとする。情報処理装置100は、サーマル画像G2を取得すると、学習モデルM2を用いて、サーマル画像G2から、サーマル画像G2の特徴を示す特徴ベクトルV2を生成する。
ここで、学習モデルM2は、サーマル画像が入力情報として入力された場合に、サーマル画像の特徴を示す特徴ベクトルを出力情報として出力するよう学習された機械学習モデルであればどのような学習モデルであってもよい。例えば、学習モデルM2は、学習済みの畳み込みニューラルネットワークであってよい。例えば、学習モデルM2は、ImageNet等の画像データベースに登録されている多数の(例えば、1000万枚を超える)サーマル画像とサーマル画像に写っている物体名(クラス)とのセットデータを学習済みのResnet50であってよい。例えば、学習モデルM2は、サーマル画像G2が入力情報として入力された場合に、サーマル画像G2の特徴を示す2048次元の特徴ベクトルV2を出力情報として出力する機械学習モデルであってよい。
また、情報処理装置100は、RGB画像G1を取得すると、姿勢推定処理に基づいてRGB画像G1のうち利用者が撮像された領域である人物領域G3を特定する。情報処理装置100は、人物領域G3を特定すると、学習モデルM3を用いて、人物領域G3から、人物領域G3の特徴を示す特徴ベクトルV3を生成する。また、情報処理装置100は、RGB画像G1に複数の利用者が写っている場合は、RGB画像G1のうち複数の利用者それぞれの人物領域を特定してよい。続いて、複数の人物領域それぞれについて、学習モデルM3を用いて、複数の人物領域それぞれの特徴を示す特徴ベクトルを生成してよい。
ここで、学習モデルM3は、RGB画像が入力情報として入力された場合に、RGB画像の特徴を示す特徴ベクトルを出力情報として出力するよう学習された機械学習モデルであればどのような学習モデルであってもよい。例えば、学習モデルM3は、上述した学習モデルM1と同様の機械学習モデルであってもよい。
また、情報処理装置100は、サーマル画像G2を取得すると、姿勢推定処理に基づいてサーマル画像G2のうち利用者が撮像された領域である人物領域G4を特定する。より具体的には、情報処理装置100は、RGB画像G1とサーマル画像G2とを重ね合わせて、RGB画像G1に対する姿勢推定処理に基づいて特定された人物領域G3と重複するサーマル画像G2の領域を人物領域G4として特定する。情報処理装置100は、人物領域G4を特定すると、学習モデルM4を用いて、人物領域G4から、人物領域G4の特徴を示す特徴ベクトルV4を生成する。また、情報処理装置100は、サーマル画像G2に複数の利用者が写っている場合は、人物領域G4を特定したのと同様にRGB画像G1とサーマル画像G2とを重ね合わせることにより、サーマル画像G2のうち複数の利用者それぞれが撮像された領域である人物領域それぞれを特定してよい。続いて、複数の人物領域それぞれについて、学習モデルM4を用いて、複数の人物領域それぞれの特徴を示す特徴ベクトルを生成してよい。
ここで、学習モデルM4は、サーマル画像が入力情報として入力された場合に、サーマル画像の特徴を示す特徴ベクトルを出力情報として出力するよう学習された機械学習モデルであればどのような学習モデルであってもよい。例えば、学習モデルM4は、上述した学習モデルM2と同様の機械学習モデルであってもよい。
また、情報処理装置100は、オフィスO1に設置された環境センサから、オフィスO1内の温度および湿度に関する情報を取得する。情報処理装置100は、オフィスO1内の温度および湿度に関する情報を取得すると、学習モデルM5を用いて、温度および湿度に関する情報から、温度および湿度に関する情報の特徴を示す特徴ベクトルV5を生成する。
ここで、学習モデルM5は、温度および湿度に関する情報が入力情報として入力された場合に、温度および湿度に関する情報の特徴を示す特徴ベクトルを出力情報として出力するよう学習された機械学習モデルであればどのような学習モデルであってもよい。例えば、学習モデルM5は、ニューラルネットワークであってよい。例えば、学習モデルM5は、温度および湿度に関する情報が入力情報として入力された場合に、温度および湿度に関する情報の特徴を示す2048次元の特徴ベクトルV5を出力情報として出力する機械学習モデルであってよい。
続いて、情報処理装置100は、5つの特徴ベクトルV1~V5を生成すると、5つの特徴ベクトルV1~V5に基づいて、5つの特徴ベクトルV1~V5の特徴を示す特徴マップMP1を生成する。続いて、情報処理装置100は、生成した特徴マップMP1に対する最大値プーリングにより、特徴マップMP1から特徴マップMP1の特徴を示す特徴ベクトルV6を生成する。例えば、情報処理装置100は、最大値プーリングにより、特徴マップMP1の特徴を示す2048次元の特徴ベクトルV6を生成してもよい。続いて、情報処理装置100は、特徴ベクトルV6を生成すると、快適さ推定モデルM6を用いて、特徴ベクトルV6から、オフィスO1の快適さC1を推定する。
ここで、快適さ推定モデルM6は、特徴ベクトルV6が入力情報として入力された場合に、空間の快適さを出力情報として出力するよう学習された機械学習モデルであればどのような学習モデルであってもよい。例えば、快適さ推定モデルM6は、例えば、快適さ推定モデルM6は、特徴ベクトルV6が入力情報として入力された場合に、「寒い」に分類される確率が80%、「暑い」に分類される確率が10%、「普通」に分類される確率が10%であるという出力情報を出力する学習モデルであってよい。また、例えば、快適さ推定モデルM6は、入力情報を各クラスに分類するよう学習されたニューラルネットワークであってよい。また、例えば、快適さ推定モデルM6は、特徴ベクトルV6が入力情報として入力された場合に、特徴ベクトルV6が分類される確率が最も高いクラスを示す情報を出力情報として出力する学習モデルであってよい。例えば、上記の例では、快適さ推定モデルM6は、特徴ベクトルV6が入力情報として入力された場合に、「寒い」に分類される確率が80%で最も高いので、「寒い」というラベルを出力情報として出力する学習モデルであってよい。なお、快適さの分類は、任意の分類であってよく、上記の例に限定されない。例えば、快適さの分類は、「涼しい」、「暖かい」など他の分類を含んでよい。
〔3.情報処理システムの構成〕
次に、図2を用いて、実施形態に係る情報処理システムの構成について説明する。図2は、実施形態に係る情報処理システムの構成例を示す図である。情報処理システム1には、空調装置10と、センサ装置20と、情報処理装置100とが含まれてよい。空調装置10と、センサ装置20と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続されてよい。なお、情報処理システム1には、任意の数の空調装置10と任意の数のセンサ装置20と任意の数の情報処理装置100とが含まれてもよい。
空調装置10は、空間の空気の温度や湿度などを調整する装置である。例えば、空調装置10は、情報処理装置100による空調制御の対象となる各空間に設置されたエアコンであってよい。また、空調装置10は、IoT(Internet of Things)技術により、他の装置と通信可能であってよい。空調装置10は、情報処理装置100の制御に従って制御対象となる空間の空調を調整することができる。具体的には、まず、空調装置10は、情報処理装置100から空調の制御に関する制御情報を受信してよい。例えば、空調装置10は、情報処理装置100から空調に設定する設定温度や設定湿度に関する情報を受信してよい。続いて、空調装置10は、情報処理装置100から受信した制御情報に従って、空間の空調を調整してよい。例えば、空調装置10は、設定温度や設定湿度に関する情報を受信すると、空間の温度や湿度が、設定温度や設定湿度に保たれるように空調を調整してよい。
なお、図2に示すように、空調装置10が設置された空間に応じて、空調装置10を空調装置10-1~10-2のように区別して説明する場合がある。例えば、空調装置10-1は、会議室R11に設置されている空調装置10である。また、例えば、空調装置10-2は、会議室R21に設置されている空調装置10である。また、以下では、空調装置10-1~10-2について、特に区別なく説明する場合には、空調装置10と記載する。
センサ装置20は、空間の物理的な状態や空間に存在する利用者の物理的な状態を検知する装置である。センサ装置20は、空間の物理的な状態や空間に存在する利用者の物理的な状態を示す情報をセンサ情報として取得してよい。例えば、センサ装置20は、画像センサであってよい。例えば、センサ装置20は、RGBカメラであってよい。すなわち、センサ装置20は、例えば、空間に存在する利用者を被写体として含むRGB画像をセンサ情報として取得してよい。また、例えば、センサ装置20は、赤外線カメラであってよい。すなわち、センサ装置20は、例えば、空間に存在する利用者を被写体として含むサーマル画像をセンサ情報として取得してよい。また、センサ装置20は、環境センサであってよい。例えば、センサ装置20は、USB型の環境センサであってよい。すなわち、センサ装置20は、例えば、空間の温度や湿度に関する情報をセンサ情報として取得してよい。また、センサ装置20は、取得したセンサ情報を情報処理装置100に送信する。
なお、図2に示すように、センサ装置20が設置された空間に応じて、センサ装置20をセンサ装置20-1~20-2のように区別して説明する場合がある。例えば、センサ装置20-1は、会議室R11に設置されている環境センサである。また、例えば、センサ装置20-2は、会議室R21に設置されている環境センサである。また、以下では、センサ装置20-1~20-2について、特に区別なく説明する場合には、センサ装置20と記載する。
情報処理装置100は、図1を用いて説明した情報処理を実行する情報処理装置である。すなわち、情報処理装置100は、快適さ推定モデルM6を用いて、利用者が所在する空間の快適さを推定することができる。具体的には、情報処理装置100は、例えば、快適さ推定モデルM6を用いて、利用者が所在する空間を撮像したRGB画像、サーマル画像、RGB画像のうち姿勢推定処理に基づいて特定された人物領域、サーマル画像のうち姿勢推定処理に基づいて特定された人物領域、および利用者が所在する空間の温度および湿度から、利用者が所在する空間の快適さを推定することができる。
また、情報処理装置100は、空調装置10を制御する制御装置である。具体的には、情報処理装置100は、推定した空間の快適さに基づいて、利用者が所在する空間を空調する空調装置10を制御してよい。例えば、情報処理装置100は、推定した空間の快適さが「寒い」である場合には、その空間の温度を高くするように空調装置10を制御してよい。また、情報処理装置100は、推定した空間の快適さが「普通」である場合には、その空間の温度を保つように空調装置10を制御してよい。また、情報処理装置100は、推定した空間の快適さが「暑い」である場合には、その空間の温度を低くするように空調装置10を制御してよい。
〔4.情報処理装置の構成〕
次に、図3を用いて、実施形態に係る情報処理装置100の構成について説明する。図3は、実施形態に係る情報処理装置100の構成例を示す図である。情報処理装置100は、通信部110と、記憶部120と、制御部130とを有してよい。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示させるための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、例えば、空調装置10やセンサ装置20との間で情報の送受信を行う。
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。
記憶部120は、センサ装置20によって検出されたセンサ情報を記憶してよい。例えば、記憶部120は、利用者が所在する空間を撮像したRGB画像およびサーマル画像と空間を識別する識別情報とを対応付けて記憶してよい。また、記憶部120は、利用者が所在する空間の温度および湿度に関する情報と空間を識別する識別情報とを対応付けて記憶してよい。
また、記憶部120は、各種の学習モデルに関する情報を記憶してよい。例えば、記憶部120は、学習モデルM1~M5に関する情報を記憶してよい。また、記憶部120は、快適さ推定モデルM6に関する情報を記憶してよい。例えば、記憶部120は、各種の学習モデルの接続係数に関する情報を記憶してよい。
(制御部130)
制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
制御部130は、取得部131と、生成部132と、推定部133と、空調制御部134とを機能部として有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、各機能部は、制御部130の機能を示したものであり、必ずしも物理的に区別されるものでなくともよい。
(取得部131)
取得部131は、利用者が所在する空間に設置されたRGBカメラから、利用者が所在する空間を撮像したRGB画像を取得する。取得部131は、RGB画像を取得すると、取得したRGB画像と空間を識別する識別情報とを対応付けて記憶部120に格納する。
また、取得部131は、利用者が所在する空間に設置された赤外線カメラから、利用者が所在する空間を撮像したサーマル画像を取得する。取得部131は、サーマル画像を取得すると、取得したサーマル画像と空間を識別する識別情報とを対応付けて記憶部120に格納する。
また、取得部131は、利用者が所在する空間に設置された環境センサ(センサ装置20の一例)から、利用者が所在する空間内の温度および湿度に関する情報を取得する。取得部131は、取得した温度および湿度に関する情報と空間を識別する識別情報とを対応付けて記憶部120に格納してよい。
(生成部132)
生成部132は、RGB画像が入力情報として入力された場合に、RGB画像の特徴を示す特徴ベクトルを出力情報として出力する学習モデルM1を生成する。例えば、生成部132は、ImageNet等の画像データベースに登録されている多数の(例えば、1000万枚を超える)画像から画像に写っている物体名(クラス)を推定するよう学習された学習モデルM1を生成する。例えば、生成部132は、畳み込みニューラルネットワークである学習モデルM1を生成する。例えば、生成部132は、Resnet50である学習モデルM1を生成する。例えば、生成部132は、RGB画像が入力情報として入力された場合に、RGB画像の特徴を示す2048次元の特徴ベクトルを出力情報として出力する機械学習モデルM1を生成する。
また、生成部132は、サーマル画像が入力情報として入力された場合に、サーマル画像の特徴を示す特徴ベクトルを出力情報として出力する学習モデルM2を生成する。例えば、生成部132は、ImageNet等の画像データベースに登録されている多数の(例えば、1000万枚を超える)サーマル画像からサーマル画像に写っている物体名(クラス)を推定するよう学習された学習モデルM2を生成する。例えば、生成部132は、畳み込みニューラルネットワークである学習モデルM2を生成する。例えば、生成部132は、Resnet50である学習モデルM2を生成する。例えば、生成部132は、サーマル画像が入力情報として入力された場合に、サーマル画像の特徴を示す2048次元の特徴ベクトルを出力情報として出力する機械学習モデルM2を生成する。
また、生成部132は、RGB画像が入力情報として入力された場合に、RGB画像の特徴を示す特徴ベクトルを出力情報として出力する学習モデルM3を生成する。例えば、生成部132は、上述した学習モデルM1と同様の学習モデルM3を生成する。
また、生成部132は、サーマル画像が入力情報として入力された場合に、サーマル画像の特徴を示す特徴ベクトルを出力情報として出力する学習モデルM6を生成する。例えば、生成部132は、上述した学習モデルM2と同様の学習モデルM4を生成する。
また、生成部132は、空間の温度および湿度に関する情報が入力情報として入力された場合に、空間の温度および湿度に関する情報の特徴を示す特徴ベクトルを出力情報として出力する学習モデルM5を生成する。例えば、生成部132は、空間の温度および湿度に関する情報から空間の温度および湿度に関する情報の特徴を示す特徴ベクトルを推定するよう学習された学習モデルM5を生成する。例えば、生成部132は、ニューラルネットワークである学習モデルM5を生成する。例えば、生成部132は、温度および湿度に関する情報が入力情報として入力された場合に、温度および湿度に関する情報の特徴を示す2048次元の特徴ベクトルを出力情報として出力する機械学習モデルM5を生成する。
また、生成部132は、利用者が所在する空間を撮像したRGB画像から、利用者が所在する空間を撮像したRGB画像の特徴を示す特徴ベクトルV1を生成する。具体的には、生成部132は、記憶部120を参照して、取得部131によって取得されたRGB画像を取得する。続いて、生成部132は、RGB画像を取得すると、学習モデルM1を用いて、利用者が所在する空間を撮像したRGB画像から利用者が所在する空間を撮像したRGB画像の特徴を示す特徴ベクトルV1を生成する。
また、生成部132は、利用者が所在する空間を撮像したサーマル画像から、利用者が所在する空間を撮像したサーマル画像の特徴を示す特徴ベクトルV2を生成する。具体的には、例えば、生成部132は、記憶部120を参照して、取得部131によって取得されたサーマル画像を取得してよい。続いて、生成部132は、サーマル画像を取得すると、学習モデルM2を用いて、利用者が所在する空間を撮像したサーマル画像から利用者が所在する空間を撮像したサーマル画像の特徴を示す特徴ベクトルV2を生成する。
また、生成部132は、画像のうち人物が撮像された領域である人物領域であって、人物の姿勢を推定する姿勢推定処理に基づいて特定された人物領域の特徴を示す特徴ベクトルV3を生成する。具体的には、例えば、生成部132は、記憶部120を参照して、利用者が所在する空間を撮像したRGB画像を取得してよい。続いて、生成部132は、RGB画像を取得すると、姿勢推定処理に基づいてRGB画像のうち利用者が撮像された領域である人物領域を特定する。続いて、生成部132は、人物領域を特定すると、学習モデルM3を用いて、人物領域から、人物領域の特徴を示す特徴ベクトルV3を生成する。また、生成部132は、RGB画像に複数の利用者が写っている場合は、RGB画像のうち複数の利用者それぞれが撮像された領域である人物領域それぞれを特定してよい。続いて、複数の人物領域それぞれについて、学習モデルM3を用いて、複数の人物領域それぞれの特徴を示す特徴ベクトルを生成してよい。
また、生成部132は、サーマル画像のうち人物が撮像された領域である人物領域であって、人物の姿勢を推定する姿勢推定処理に基づいて特定された人物領域の特徴を示す特徴ベクトルV4を生成する。具体的には、例えば、生成部132は、記憶部120を参照して、利用者が所在する空間を撮像したサーマル画像を取得してよい。続いて、生成部132は、サーマル画像を取得すると、姿勢推定処理に基づいてサーマル画像のうち利用者が撮像された領域である人物領域を特定する。より具体的には、生成部132は、同じ空間を撮影したRGB画像とサーマル画像とを重ね合わせて、RGB画像に対する姿勢推定処理に基づいて特定された人物領域と重複するサーマル画像の領域をサーマル画像の人物領域として特定する。続いて、生成部132は、サーマル画像の人物領域を特定すると、学習モデルM4を用いて、サーマル画像の人物領域から、サーマル画像の人物領域の特徴を示す特徴ベクトルV4を生成する。また、生成部132は、サーマル画像に複数の利用者が写っている場合は、RGB画像とサーマル画像とを重ね合わせることにより、サーマル画像のうち複数の利用者それぞれが撮像された領域である人物領域それぞれを特定してよい。続いて、複数の人物領域それぞれについて、学習モデルM4を用いて、複数の人物領域それぞれの特徴を示す特徴ベクトルを生成してよい。
また、生成部132は、温度および湿度に関する情報の特徴を示す特徴ベクトルV5を生成する。具体的には、例えば、生成部132は、記憶部120を参照して、利用者が所在する空間の温度および湿度に関する情報を取得してよい。続いて、生成部132は、温度および湿度に関する情報を取得すると、学習モデルM5を用いて、温度および湿度に関する情報から、温度および湿度に関する情報の特徴を示す特徴ベクトルV5を生成する。
また、生成部132は、利用者が所在する空間の快適さを推定する快適さ推定モデルM6を生成する。具体的には、例えば、生成部132は、利用者が所在する空間の特徴を示す5つの特徴ベクトルV1~V5を生成すると、5つの特徴ベクトルV1~V5に基づいて、5つの特徴ベクトルV1~V5の特徴を示す特徴マップMP1を生成してよい。続いて、生成部132は、生成した特徴マップMP1に対する最大値プーリングにより、特徴マップMP1から特徴マップMP1の特徴を示す特徴ベクトルV6を生成してよい。例えば、生成部132は、最大値プーリングにより、特徴マップMP1の特徴を示す2048次元の特徴ベクトルV6を生成してもよい。このようにして、生成部132は、利用者が所在する空間の特徴を示す特徴ベクトルV6を生成することができる。
同様にして、生成部132は、利用者が所在する多数の空間について、それぞれ空間の特徴を示す5つの特徴ベクトルV1~V5を生成し、生成した5つの特徴ベクトルV1~V5に基づいて、それぞれの空間の特徴を示す特徴ベクトルV6を多数生成してよい。続いて、生成部132は、利用者が所在する空間の特徴を示す特徴ベクトルV6を多数生成すると、生成した多数の特徴ベクトルV6に基づいて、それぞれの特徴ベクトルV6から利用者が所在するそれぞれの空間の快適さを推定するよう快適さ推定モデルM6を学習させてよい。このようにして、生成部132は、利用者が所在する空間の特徴を示す特徴ベクトルV6から利用者が所在する空間の快適さを推定するよう学習された快適さ推定モデルM6を生成することができる。例えば、生成部132は、特徴ベクトルV6が入力情報として入力された場合に、空間の快適さを出力情報として出力するよう学習された快適さ推定モデルM6を生成することができる。
例えば、生成部132は、特徴ベクトルV6が入力情報として入力された場合に、快適さを示す各カテゴリに特徴ベクトルV6が分類される確率を出力情報として出力するよう学習された快適さ推定モデルM6を生成する。例えば、生成部132は、特徴ベクトルV6が入力情報として入力された場合に、「寒い」カテゴリに分類される確率と「暑い」カテゴリに分類される確率と「普通」カテゴリに分類される確率を出力情報として出力する快適さ推定モデルM6を生成してよい。なお、快適さを示すカテゴリは、任意の分類であってよく、上記の例に限定されない。例えば、快適さの分類は、「涼しい」、「暖かい」など他の分類を含んでよい。また、生成部132は、特徴ベクトルV6が入力情報として入力された場合に、特徴ベクトルV6が分類される快適さのカテゴリのラベルを出力情報として出力するよう学習された快適さ推定モデルM6を生成してよい。例えば、生成部132は、特徴ベクトルV6が入力情報として入力された場合に、快適さを示す各カテゴリに特徴ベクトルV6が分類される確率が最も高いカテゴリのラベルを出力情報として出力するよう学習された快適さ推定モデルM6を生成してよい。
(推定部133)
推定部133は、RGBカメラで撮影された人物を含むRGB画像に関する情報に基づいて、人物が所在する空間の快適さを推定する。具体的には、例えば、推定部133は、生成部132によって生成された快適さ推定モデルM6を用いて、生成部132によって生成された特徴ベクトルV1に基づいて生成された特徴ベクトルV6から利用者が所在する空間の快適さを推定してよい。
また、推定部133は、赤外線カメラで撮影された人物を含むサーマル画像に関する情報に基づいて、人物が所在する空間の快適さを推定する。具体的には、例えば、推定部133は、生成部132によって生成された快適さ推定モデルM6を用いて、生成部132によって生成された特徴ベクトルV2に基づいて生成された特徴ベクトルV6から利用者が所在する空間の快適さを推定してよい。
また、推定部133は、画像のうち人物が撮像された領域である人物領域であって、人物の姿勢に基づいて特定された人物領域に関する情報に基づいて、人物が所在する空間の快適さを推定する。具体的には、例えば、推定部133は、画像のうち人物が撮像された領域である人物領域であって、人物の姿勢を推定する姿勢推定処理に基づいて特定された人物領域に関する情報に基づいて、人物が所在する空間の快適さを推定してよい。また、推定部133は、人物領域に関する情報として、人物領域の特徴を示す特徴ベクトルに基づいて、人物が所在する空間の快適さを推定してよい。例えば、推定部133は、生成部132によって生成された快適さ推定モデルM6を用いて、生成部132によって生成された特徴ベクトルV3に基づいて生成された特徴ベクトルV6から利用者が所在する空間の快適さを推定してよい。
例えば、推定部133は、人物領域に関する情報として、画像から検出された人物の身体の関節の位置を示す関節点に関する情報に基づいて、人物が所在する空間の快適さを推定する。また、例えば、推定部133は、人物領域に関する情報として、2以上の前記関節点を連結して生成される前記人物の身体の骨格を示す骨格モデルに関する情報に基づいて、前記人物が所在する空間の快適さを推定する。
また、推定部133は、赤外線カメラで撮影されたサーマル画像のうち人物領域に関する情報に基づいて、人物が所在する空間の快適さを推定する。例えば、推定部133は、生成部132によって生成された快適さ推定モデルM6を用いて、生成部132によって生成された特徴ベクトルV4に基づいて生成された特徴ベクトルV6から利用者が所在する空間の快適さを推定する。
また、推定部133は、人物が所在する空間の温度および湿度に関する情報に基づいて、人物が所在する空間の快適さを推定する。例えば、推定部133は、生成部132によって生成された快適さ推定モデルM6を用いて、生成部132によって生成された特徴ベクトルV5に基づいて生成された特徴ベクトルV6から利用者が所在する空間の快適さを推定する。
(空調制御部134)
空調制御部134は、推定部133によって推定された空間の快適さに基づいて、人物が所在する空間を空調する空調装置を制御する。例えば、空調制御部134は、推定部133によって推定された空間の快適さに基づいて、利用者が所在する空間を空調する空調装置を制御する。例えば、空調制御部134は、推定部133によって推定された空間の快適さが「寒い」カテゴリである場合には、利用者が所在する空間の温度を高くするように利用者が所在する空間に設置された空調装置10を制御する。また、空調制御部134は、推定部133によって推定された空間の快適さが「普通」カテゴリである場合には、利用者が所在する空間の温度を保つように利用者が所在する空間に設置された空調装置10を制御する。また、空調制御部134は、推定部133によって推定された空間の快適さが「暑い」カテゴリである場合には、利用者が所在する空間の温度を低くするように利用者が所在する空間に設置された空調装置10を制御する。
〔5.情報処理のフロー〕
次に、図4を用いて、実施形態に係る情報処理の手順について説明する。図4は、実施形態に係る情報処理手順を示すフローチャートである。センサ装置20は、センサ装置20が設置された空間の環境をモニタリングする。具体的には、例えば、センサ装置20は、オフィスの部屋や会議室など、利用者が所在する空間の環境をモニタリングしてよい。例えば、RGBカメラであるセンサ装置20は、利用者が所在する空間のRGB画像を取得してよい。また、赤外線カメラであるセンサ装置20は、利用者が所在する空間のサーマル画像を取得してよい。また、USB型の環境センサであるセンサ装置20は、空間の温度および湿度に関する情報(以下、環境センサ情報ともいう)を取得してよい。センサ装置20は、取得したRGB画像、サーマル画像、および環境センサ情報を情報処理装置100に送信する。
情報処理装置100は、RGB画像、サーマル画像、および環境センサ情報をセンサ装置20から取得する。続いて、情報処理装置100は、快適さ推定モデルM6の入力情報を生成する。具体的には、例えば、情報処理装置100は、学習モデルM1を用いて、RGB画像の特徴を示す特徴ベクトルV1を生成する。また、情報処理装置100は、学習モデルM2を用いて、サーマル画像の特徴を示す特徴ベクトルV2を生成する。また、情報処理装置100は、学習モデルM3を用いて、RGB画像のうち人物が撮像された領域である人物領域であって、姿勢推定処理に基づいて特定された人物領域の特徴を示す特徴ベクトルV3を生成する。また、情報処理装置100は、学習モデルM4を用いて、サーマル画像のうち人物が撮像された領域である人物領域であって、姿勢推定処理に基づいて特定された人物領域の特徴を示す特徴ベクトルV4を生成する。また、情報処理装置100は、学習済みのニューラルネットワークM5を用いて、環境センサ情報として取得した空間の温度および湿度の特徴を示す特徴ベクトルV5を生成する。
情報処理装置100は、5つの特徴ベクトルV1~V5を生成すると、5つの特徴ベクトルV1~V5に基づく特徴マップMP1を生成する。続いて、情報処理装置100は、特徴マップMP1に対して最大値プーリング処理を行って、快適さ推定モデルM6の入力情報として、特徴マップMP1の特徴を示す特徴ベクトルV6を生成する。情報処理装置100は、特徴ベクトルV6を生成すると、快適さ推定モデルM6に特徴ベクトルV6を入力する。続いて、情報処理装置100は、快適さ推定モデルM6の出力情報として、空間の快適さの状態を示すクラス情報を出力する。
例えば、情報処理装置100は、快適さ推定モデルM6から「寒い」状態であることを示すクラス情報が出力された場合には、空間の温度を上げるようその空間に設置された空調装置10を制御してよい。また、情報処理装置100は、快適さ推定モデルM6から、快適さが「普通」の状態であることを示すクラス情報が出力された場合には、空間の空調をそのままの状態に保つようその空間に設置された空調装置10を制御してよい。また、情報処理装置100は、快適さ推定モデルM6から「暑い」状態であることを示すクラス情報が出力された場合には、空間の温度を下げるようその空間に設置された空調装置10を制御してよい。
このように、情報処理システム1は、環境モニタリングと、快適さ推定モデルを用いた快適さの推定と、推定結果に基づく空調制御という処理のサイクルを繰り返すことで、空間に所在する利用者にとって快適な空調制御を自動的に実現することができる。すなわち、情報処理システム1は、利用者がリモコン等を用いて手動的に空調を制御する手間を省いて、空間に所在する利用者にとって快適な空調制御を自動的に実現することができる。
〔6.変形例〕
上述した実施形態に係る情報処理システム1は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理システム1の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
〔6-1.第1の変形例〕
まず、図5~図7を用いて、第1の変形例について説明する。第1の変形例では、推定部133は、画像のうち姿勢推定処理に基づいて特定された人物の身体の部位ごとの部位領域に関する情報に基づいて、人物の着衣量に関する情報を推定する。
まず、図5を用いて、第1の変形例に係る画像の前処理について説明する。図5は、第1の変形例に係る画像の前処理について説明するための図である。図5の左側は、3人の利用者U1~U3が所在するオフィス空間のRGB画像G1を示す。生成部132は、RGB画像G1を取得すると、姿勢推定処理に基づいて3人の利用者U1~U3それぞれの人物領域を特定する。続いて、生成部132は、特定したそれぞれの人物領域に基づいて画像の前処理を行う。
図5に示す例では、3人のうち利用者U1の人物領域に焦点をあてて説明する。図5の右側は、生成部132による前処理後の画像の組を示す。具体的には、例えば、生成部132は、RGB画像G1を取得すると、姿勢推定処理に基づいてRGB画像G1のうち利用者U1の人物領域G11を特定する。ここで、人物領域G11は、利用者U1の身体の各部位が組み合わされた利用者U1の身体全体の領域P11である。また、生成部132は、姿勢推定処理に基づいてRGB画像G1のうち利用者U1の身体の部位ごとの部位領域P12~P16をそれぞれ特定する。生成部132は、利用者U1の各部位領域P12~P16を特定すると、各部位領域P12~P16を切り抜くプログラムを用いて、利用者U1の部位領域P12~P16をパーツごとに切り抜いた部位領域画像を生成する。図5に示す例では、生成部132は、利用者U1の人物領域G11と利用者U1の5つの部位領域P12~P16をそれぞれ含む部位領域画像G12~G16の合計6つの画像を生成する。また、生成部132は、生成した6つの画像を1組の学習データDS11とする。
なお、図示しないが、生成部132は、RGB画像G1に含まれる他の利用者U2についても、利用者U2の人物領域と利用者U2の部位領域画像を生成して、生成した複数の画像を1組の学習データDS12とする。また、生成部132は、RGB画像G1に含まれる他の利用者U3についても、利用者U3の人物領域と利用者U3の部位領域画像を生成して、生成した複数の画像を1組の学習データDS13とする。
次に、図6を用いて、第1の変形例に係る着衣量のクラスとclo値について説明する。図6は、第1の変形例に係る着衣パターンのクラスとclo値について説明するための図である。図6は、既存の文献を基に、着衣のパターンを示すクラスとそのclo値を定義した表121を示す。ここで、clo値は、着衣量に相当する。生成部132は、前処理で生成した学習データDS11に対して、学習データDS11に対応する着衣パターンのclo値をラベル付けしたデータセットを生成する。例えば、学習データDS11に対応する着衣パターンが「半袖+長ズボン」である場合、生成部132は、学習データDS11に対して「半袖+長ズボン」クラスのclo値である「0.4」をラベル付けしたデータセットを生成する。
次に、図7を用いて、第1の変形例に係る第1学習モデルの生成処理について説明する。図7は、第1の変形例に係る第1学習モデルの生成処理について説明するための図である。図7に示す例では、生成部132は、学習データDS11にclo値をラベル付けしたデータセットを用いて、部位領域に関する情報から人物の着衣量に関する情報を推定するよう学習された第1学習モデルM7を生成する。例えば、生成部132は、学習データDS11の画像を結合させて、画像分類モデルである第1学習モデルM7に入力する。生成部132は、結合された学習データDS11の画像が各クラスに分類される確率を出力するよう第1学習モデルM7を学習させる。このようにして、生成部132は、学習用の画像と学習用の画像に含まれる人物の着衣量に関する情報との組み合わせに基づいて、任意の画像から任意の画像に含まれる人物の着衣量に関する情報を推定する第1学習モデルを生成する。
推定部133は、学習済みの第1学習モデルM7を用いて、部位領域に関する情報から人物の着衣量に関する情報を推定する。例えば、推定部133は、学習済みの第1学習モデルM7を用いて、人物領域と部位領域画像が結合された結合画像が入力情報として入力された場合に、結合画像が各クラスに分類される確率を出力する。続いて、推定部133は、出力された各クラスの確率値と各クラスのclo値とに基づいて、結合画像に含まれる人物の着衣量に関する情報を推定する。例えば、推定部133は、出力された各クラスの確率値と各クラスのclo値とをそれぞれ掛け合わせた値を加算した値を推定着衣量として算出する。
続いて、推定部133は、人物領域に関する情報として、人物の身体の部位ごとの部位領域に関する情報に基づいて、人物が所在する空間の快適さを推定する。例えば、推定部133は、部位領域に関する情報を用いて推定された人物の着衣量に関する情報に基づいて、人物が所在する空間の快適さを推定する。例えば、推定部133は、推定着衣量として算出した値を快適さ推定モデルM6の入力として用いて、人物が所在する空間の快適さを推定する。
〔6-2.第2の変形例〕
次に、第2の変形例について説明する。第2の変形例では、サーマル画像のうち姿勢推定処理に基づいて特定された人物領域に関する情報に基づいて、人物の着衣量に関する情報を推定する。
ここで、図8を用いて、第2の変形例に係るサーマル画像の前処理について説明する。図8は、第2の変形例に係るサーマル画像の前処理について説明するための図である。図8の左側は、図5の左側に示したRGB画像G1に対応するサーマル画像G2を示す。生成部132は、サーマル画像G2を取得すると、姿勢推定処理に基づいて3人の利用者U1~U3それぞれの人物領域を特定する。続いて、生成部132は、特定したそれぞれの人物領域に基づいてサーマル画像の前処理を行う。図8の右側は、3人のうち利用者U1の人物領域に焦点をあてた画像G21を示す。生成部132は、サーマル画像G2とRGB画像G1を重ね合わせて、RGB画像G1のうち姿勢推定処理に基づいて特定された利用者U1の人物領域G11に対応する領域をサーマル画像G2の利用者U1の人物領域G21として特定する。ここで、人物領域G21は、利用者U1の身体の各部位が組み合わされた利用者U1の身体全体の領域P21に相当する。
続いて、生成部132は、サーマル画像G2に基づいて、サーマル画像G2のうち人物領域G21の表面温度と人物領域G21以外の領域(空間)の温度である外気温を取得する。図8に示す例では、生成部132は、人物領域G21の表面温度として35℃を、外気温として28℃を取得する。続いて、生成部132は、次式に示す着衣量算出式「5.5(Ts-Ta)/Q(Ts:人体の表面温度、Ta: 空間の外気温、Q:空間の外気温より求められるGaggeらの代謝量(参考文献の図4のグラフ参照))」を用いて、取得した表面温度と外気温から、利用者U1の着衣量を算出する(参考文献URL:https://www.jstage.jst.go.jp/article/jhej1951/28/3/28_3_216/_pdf)。図8に示す例では、生成部132は、着衣量算出式から、利用者U1の着衣量を「0.42」と算出する。
続いて、生成部132は、着衣量算出式に基づいて算出した着衣量の値「0.42」を正解ラベルとして、前処理で生成した1組の学習データDS11と結び付ける。続いて、生成部132は、第1学習モデルM7を用いて、学習データDS11から推定された着衣量の値「0.38」と正解ラベルの値「0.42」とが近づくように、第1学習モデルM7を学習させる。
上述したように、生成部132は、学習用のサーマル画像と学習用のサーマル画像に含まれる人物の着衣量に関する情報との組み合わせに基づいて、任意のサーマル画像から任意のサーマル画像に含まれる人物の着衣量に関する情報を推定する第2学習モデルを生成する。推定部133は、第2学習モデルを用いて、赤外線カメラで撮影されたサーマル画像のうち人物領域に関する情報から人物の着衣量に関する情報を推定する。
〔7.効果〕
上述してきたように、実施形態に係る情報処理装置100は、推定部133を備える。推定部133は、画像のうち人物が撮像された領域である人物領域であって、人物の姿勢に基づいて特定された人物領域に関する情報に基づいて、人物が所在する空間の快適さを推定する。例えば、推定部133は、人物領域に関する情報として、画像から検出された人物の身体の関節の位置を示す関節点に関する情報に基づいて、人物が所在する空間の快適さを推定する。また、例えば、推定部133は、人物領域に関する情報として、2以上の前記関節点を連結して生成される前記人物の身体の骨格を示す骨格モデルに関する情報に基づいて、前記人物が所在する空間の快適さを推定する。
このように、情報処理装置100は、姿勢推定技術を用いることにより、画像の中から人物が撮像された領域である人物領域をより精緻に特定することができる。これにより、情報処理装置100は、画像の中から推定対象である人物の人物領域を精緻に特定したうえで、精緻に特定された人物領域の特徴に基づいて、推定対象となる人物の着衣量に関する情報を推定することができる。すなわち、情報処理装置100は、推定対象となる人物の着衣量に関する情報の推定精度を向上させることができる。また、情報処理装置100は、より精度の高い着衣量に関する情報に基づいて、人物が所在する空間の快適さを推定することができる。したがって、情報処理装置100は、空間の快適さの推定精度を向上させることができる。
また、推定部133は、人物領域に関する情報として、人物の身体の部位ごとの部位領域に関する情報に基づいて、人物が所在する空間の快適さを推定する。例えば、推定部133は、部位領域に関する情報を用いて推定された人物の着衣量に関する情報に基づいて、人物が所在する空間の快適さを推定する。また、推定部133は、第1学習モデルを用いて、部位領域に関する情報から人物の着衣量に関する情報を推定する。生成部132は、学習用の画像と学習用の画像に含まれる人物の着衣量に関する情報との組み合わせに基づいて、任意の画像から任意の画像に含まれる人物の着衣量に関する情報を推定する第1学習モデルを生成する。
これにより、情報処理装置100は、上半身、腕、下半身など人物の身体の部位ごとの画像の特徴に基づいて人物の着衣の種別を判定し、着衣の種別に応じた着衣量に関する情報を推定することができる。すなわち、情報処理装置100は、着衣量に関する情報の推定精度をより向上させることができる。また、情報処理装置100は、より精度の高い着衣量に関する情報に基づいて、人物が所在する空間の快適さを推定することができる。したがって、情報処理装置100は、空間の快適さの推定精度をより向上させることができる。
また、推定部133は、第2学習モデルを用いて、赤外線カメラで撮影されたサーマル画像のうち人物領域に関する情報から人物の着衣量に関する情報を推定する。生成部132は、学習用のサーマル画像と学習用のサーマル画像に含まれる人物の着衣量に関する情報との組み合わせに基づいて、任意のサーマル画像から任意のサーマル画像に含まれる人物の着衣量に関する情報を推定する第2学習モデルを生成する。
一般的に、代謝量は人それぞれ異なるため、同じ服装でも人によって保温量が異なる。そこで、着衣量に関する情報の推定には、人ごとに異なる代謝量を考慮することがより望ましい。そこで、情報処理装置100は、代謝量と関連のあるサーマル画像に基づいて、人物の着衣量に関する情報を推定する。これにより、情報処理装置100は、着衣の種別のみならず、人ごとに異なる代謝量を考慮することができるため、着衣量に関する情報の推定精度をより向上させることができる。また、情報処理装置100は、より精度の高い着衣量に関する情報に基づいて、人物が所在する空間の快適さを推定することができる。したがって、情報処理装置100は、空間の快適さの推定精度をより向上させることができる。
また、推定部133は、人物領域に関する情報として、人物領域の特徴を示す特徴ベクトルに基づいて、人物が所在する空間の快適さを推定する。
これにより、情報処理装置100は、画像の特徴が圧縮された特徴ベクトルを用いることができるので、画像をそのまま入力として用いる場合と比べて、空間の快適さの推定精度を向上させることができる。
また、推定部133は、赤外線カメラで撮影されたサーマル画像のうち人物領域に関する情報に基づいて、人物が所在する空間の快適さを推定する。
このように、情報処理装置100は、姿勢推定技術を用いることにより、サーマル画像の中から人物が撮像された領域である人物領域をより精緻に特定することができる。これにより、情報処理装置100は、サーマル画像の中から推定対象である人物の人物領域を精緻に特定したうえで、精緻に特定された人物領域の特徴に基づいて、推定対象となる人物の代謝量(活動量)に関する情報を推定することができる。すなわち、情報処理装置100は、推定対象となる人物の代謝量(活動量)に関する情報の推定精度を向上させることができる。
また、推定部133は、RGBカメラで撮影された人物を含むRGB画像に関する情報に基づいて、人物が所在する空間の快適さを推定する。また、推定部133は、赤外線カメラで撮影された人物を含むサーマル画像に関する情報に基づいて、人物が所在する空間の快適さを推定する。
これにより、情報処理装置100は、人物が所在する空間全体の状態に基づいて人物が所在する空間の快適さを推定することができるので、空間の快適さの推定精度を向上させることができる。
また、推定部133は、人物が所在する空間の温度および湿度に関する情報に基づいて、人物が所在する空間の快適さを推定する。
これにより、情報処理装置100は、環境モニタリングの結果に基づいて人物が所在する空間の快適さを推定することができるので、空間の快適さの推定精度をより向上させることができる。
また、情報処理装置100は、空調制御部134をさらに備える。空調制御部134は、推定部133によって推定された空間の快適さに基づいて、人物が所在する空間の空調を制御する。
これにより、情報処理装置100は、環境モニタリングと、快適さ推定モデルを用いた快適さの推定と、推定結果に基づく空調制御という処理のサイクルを繰り返すことで、空間に所在する利用者にとって快適な空調制御を自動的に実現することができる。すなわち、情報処理装置100は、利用者がリモコン等を用いて手動的に空調を制御する手間を省いて、空間に所在する利用者にとって快適な空調制御を自動的に実現することができる。
〔8.ハードウェア構成〕
また、上述してきた実施形態に係る情報処理装置100は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、情報処理装置100の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
〔9.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、推定部は、推定手段や推定回路に読み替えることができる。
1 情報処理システム
10 空調装置
20 センサ装置
100 情報処理装置
110 通信部
120 記憶部
130 制御部
131 取得部
132 生成部
133 推定部
134 空調制御部

Claims (17)

  1. RGB画像の中で人物が撮像された領域全体である人物領域であって、前記人物の姿勢に基づいて特定された前記RGB画像の人物領域に関する情報、および、前記RGB画像に対応するサーマル画像のうち、前記RGB画像の人物領域と重複する前記サーマル画像の領域を、前記サーマル画像の中で前記人物が撮像された領域全体である前記サーマル画像の人物領域として特定し、特定した前記サーマル画像の人物領域に関する情報を生成する生成部と、
    前記RGB画像の人物領域に関する情報および前記サーマル画像の人物領域に関する情報に基づいて、前記人物が所在する空間の快適さを推定する推定部と、
    を備え
    記推定部は、
    前記RGB画像の人物領域に関する情報として、前記人物の身体の部位ごとの部位領域に関する情報を用いて推定された前記人物の着衣量に関する情報に基づいて、前記人物が所在する空間の快適さを推定する、
    情報処理装置。
  2. 前記推定部は、
    前記RGB画像の人物領域に関する情報として、前記RGB画像から検出された前記人物の身体の関節の位置を示す関節点に関する情報に基づいて、前記人物が所在する空間の快適さを推定する、
    請求項1に記載の情報処理装置。
  3. 前記推定部は、
    前記RGB画像の人物領域に関する情報として、2以上の前記関節点を連結して生成される前記人物の身体の骨格を示す骨格モデルに関する情報に基づいて、前記人物が所在する空間の快適さを推定する、
    請求項2に記載の情報処理装置。
  4. 前記推定部は、
    第1学習モデルを用いて、前記部位領域に関する情報から前記人物の着衣量に関する情報を推定する、
    請求項に記載の情報処理装置。
  5. 学習用の画像と当該学習用の画像に含まれる人物の着衣量に関する情報との組み合わせに基づいて、任意の画像から当該任意の画像に含まれる人物の着衣量に関する情報を推定する前記第1学習モデルを生成する生成部をさらに備える、
    請求項に記載の情報処理装置。
  6. 前記推定部は、
    第2学習モデルを用いて、赤外線カメラで撮影されたサーマル画像のうち前記RGB画像の人物領域に関する情報から前記人物の着衣量に関する情報を推定する、
    請求項のいずれか1項に記載の情報処理装置。
  7. 学習用のサーマル画像と当該学習用のサーマル画像に含まれる人物の着衣量に関する情報との組み合わせに基づいて、任意のサーマル画像から当該任意のサーマル画像に含まれる人物の着衣量に関する情報を推定する前記第2学習モデルを生成する生成部をさらに備える、
    請求項に記載の情報処理装置。
  8. 前記推定部は、
    前記人物領域に関する情報として、前記人物領域の特徴を示す特徴ベクトルに基づいて、前記人物が所在する空間の快適さを推定する、
    請求項1~のいずれか1項に記載の情報処理装置。
  9. 前記推定部は、
    赤外線カメラで撮影されたサーマル画像のうち前記RGB画像の人物領域に関する情報に基づいて、前記人物が所在する空間の快適さを推定する、
    請求項1~のいずれか1項に記載の情報処理装置。
  10. 前記推定部は、
    RGBカメラで撮影された前記人物を含むRGB画像に関する情報に基づいて、前記人物が所在する空間の快適さを推定する、
    請求項1~のいずれか1項に記載の情報処理装置。
  11. 前記推定部は、
    赤外線カメラで撮影された前記人物を含むサーマル画像に関する情報に基づいて、前記人物が所在する空間の快適さを推定する、
    請求項1~10のいずれか1項に記載の情報処理装置。
  12. 前記推定部は、
    前記人物が所在する空間の温度および湿度に関する情報に基づいて、前記人物が所在する空間の快適さを推定する、
    請求項1~11のいずれか1項に記載の情報処理装置。
  13. 前記推定部によって推定された空間の快適さに基づいて、前記人物が所在する空間の空調を制御する空調制御部をさらに備える、
    請求項1~12のいずれか1項に記載の情報処理装置。
  14. 前記推定部は、
    前記サーマル画像の人物領域に関する情報に基づいて、前記人物の代謝量を推定し、前記人物の代謝量に基づいて、前記人物が所在する空間の快適さを推定する、
    請求項1~13のいずれか1項に記載の情報処理装置。
  15. 前記生成部は、
    前記人物が所在する空間を撮像した前記RGB画像の特徴を示す第1の特徴ベクトルと、前記RGB画像に対応する前記サーマル画像の特徴を示す第2の特徴ベクトルと、前記RGB画像の人物領域の特徴を示す第3の特徴ベクトルと、前記サーマル画像の人物領域の特徴を示す第4の特徴ベクトルと、前記人物が所在する空間の温度および湿度に関する情報の特徴を示す第5の特徴ベクトルを生成し、
    前記推定部は、
    前記第1の特徴ベクトル、前記第2の特徴ベクトル、前記第3の特徴ベクトル、前記第4の特徴ベクトル、および、前記第5の特徴ベクトルに基づいて、前記人物が所在する空間の快適さを推定する、
    請求項1~14のいずれか1項に記載の情報処理装置。
  16. 情報処理装置が実行するプログラムにより実現される情報処理方法であって、
    RGB画像の中で人物が撮像された領域全体である人物領域であって、前記人物の姿勢に基づいて特定された前記RGB画像の人物領域に関する情報、および、前記RGB画像に対応するサーマル画像のうち、前記RGB画像の人物領域と重複する前記サーマル画像の領域を、前記サーマル画像の中で前記人物が撮像された領域全体である前記サーマル画像の人物領域として特定し、特定した前記サーマル画像の人物領域に関する情報を生成する生成工程と、
    前記RGB画像の人物領域に関する情報および前記サーマル画像の人物領域に関する情報に基づいて、前記人物が所在する空間の快適さを推定する推定工程と、
    を含み
    記推定工程は、
    前記RGB画像の人物領域に関する情報として、前記人物の身体の部位ごとの部位領域に関する情報を用いて推定された前記人物の着衣量に関する情報に基づいて、前記人物が所在する空間の快適さを推定する、
    情報処理方法。
  17. RGB画像の中で人物が撮像された領域全体である人物領域であって、前記人物の姿勢に基づいて特定された前記RGB画像の人物領域に関する情報、および、前記RGB画像に対応するサーマル画像のうち、前記RGB画像の人物領域と重複する前記サーマル画像の領域を、前記サーマル画像の中で前記人物が撮像された領域全体である前記サーマル画像の人物領域として特定し、特定した前記サーマル画像の人物領域に関する情報を生成する生成手順と、
    前記RGB画像の人物領域に関する情報および前記サーマル画像の人物領域に関する情報に基づいて、前記人物が所在する空間の快適さを推定する推定手順と、
    を含み
    記推定手順は、
    前記RGB画像の人物領域に関する情報として、前記人物の身体の部位ごとの部位領域に関する情報を用いて推定された前記人物の着衣量に関する情報に基づいて、前記人物が所在する空間の快適さを推定する、
    情報処理プログラム。
JP2020152308A 2020-09-10 2020-09-10 情報処理装置、情報処理方法及び情報処理プログラム Active JP7311474B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020152308A JP7311474B2 (ja) 2020-09-10 2020-09-10 情報処理装置、情報処理方法及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020152308A JP7311474B2 (ja) 2020-09-10 2020-09-10 情報処理装置、情報処理方法及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2022046326A JP2022046326A (ja) 2022-03-23
JP7311474B2 true JP7311474B2 (ja) 2023-07-19

Family

ID=80779986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020152308A Active JP7311474B2 (ja) 2020-09-10 2020-09-10 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP7311474B2 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008087959A1 (ja) 2007-01-17 2008-07-24 Daikin Industries, Ltd. 空調制御システム
JP2016217583A (ja) 2015-05-18 2016-12-22 株式会社東芝 空調制御装置
WO2017209089A1 (ja) 2016-06-03 2017-12-07 三菱電機株式会社 機器制御装置及び機器制御方法
JP2020005181A (ja) 2018-06-29 2020-01-09 キヤノンマーケティングジャパン株式会社 情報処理システム、及びその制御方法、プログラム
JP2020052869A (ja) 2018-09-28 2020-04-02 パナソニックIpマネジメント株式会社 識別装置、識別方法および識別プログラム
WO2020084777A1 (ja) 2018-10-26 2020-04-30 三菱電機株式会社 推定装置、空調システム及び推定方法
JP2020134124A (ja) 2019-02-12 2020-08-31 大成建設株式会社 空調システムおよび空調装置の制御方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019220145A (ja) * 2018-06-13 2019-12-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 操作端末、音声入力方法、及びプログラム
CN111179281A (zh) * 2019-12-24 2020-05-19 广东省智能制造研究所 人体图像提取方法及人体动作视频提取方法
CN111327788B (zh) * 2020-02-28 2022-05-17 北京迈格威科技有限公司 相机组的同步方法、测温方法、装置及电子系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008087959A1 (ja) 2007-01-17 2008-07-24 Daikin Industries, Ltd. 空調制御システム
JP2016217583A (ja) 2015-05-18 2016-12-22 株式会社東芝 空調制御装置
WO2017209089A1 (ja) 2016-06-03 2017-12-07 三菱電機株式会社 機器制御装置及び機器制御方法
JP2020005181A (ja) 2018-06-29 2020-01-09 キヤノンマーケティングジャパン株式会社 情報処理システム、及びその制御方法、プログラム
JP2020052869A (ja) 2018-09-28 2020-04-02 パナソニックIpマネジメント株式会社 識別装置、識別方法および識別プログラム
WO2020084777A1 (ja) 2018-10-26 2020-04-30 三菱電機株式会社 推定装置、空調システム及び推定方法
JP2020134124A (ja) 2019-02-12 2020-08-31 大成建設株式会社 空調システムおよび空調装置の制御方法

Also Published As

Publication number Publication date
JP2022046326A (ja) 2022-03-23

Similar Documents

Publication Publication Date Title
Aryal et al. Thermal comfort modeling when personalized comfort systems are in use: Comparison of sensing and learning methods
Yang et al. Non-invasive (non-contact) measurements of human thermal physiology signals and thermal comfort/discomfort poses-a review
CN213501729U (zh) 用于机动车辆乘客舱的热管理系统
Ranjan et al. ThermalSense: determining dynamic thermal comfort preferences using thermographic imaging
Yang et al. Real-time and contactless measurements of thermal discomfort based on human poses for energy efficient control of buildings
US10043068B1 (en) Body modeling and garment fitting using an electronic device
Čulić et al. Smart monitoring technologies for personal thermal comfort: A review
US8655053B1 (en) Body modeling and garment fitting using an electronic device
Cosma et al. Using the contrast within a single face heat map to assess personal thermal comfort
Liu et al. Automatic estimation of clothing insulation rate and metabolic rate for dynamic thermal comfort assessment
He et al. Smart detection of indoor occupant thermal state via infrared thermography, computer vision, and machine learning
CN112303861A (zh) 一种基于人体热适应性行为的空调温度调节方法及系统
Meier et al. Using human gestures to control a building’s heating and cooling System
CN111401340B (zh) 目标对象的运动检测方法和装置
KR20190065636A (ko) 재실자의 인체발생열량을 고려한 실내환경 제어 시스템 및 이의 제어방법
JP6509108B2 (ja) 空調管理システム及びプログラム
Choi et al. Deep-vision-based metabolic rate and clothing insulation estimation for occupant-centric control
Nishi et al. Use of thermal point cloud for thermal comfort measurement and human pose estimation in robotic monitoring
JP7311474B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
KR102224596B1 (ko) 식별가능한 얼굴 편차를 처리하기 위한 얼굴 교정 디자인 및 애플리케이션 프로토콜을 자동으로 생성하는 시스템 및 방법
JP7311478B2 (ja) 情報処理装置、情報処理プログラム及び情報処理システム
Bucarelli et al. Deep learning approach for recognizing cold and warm thermal discomfort cues from videos
JP7080294B2 (ja) 情報処理装置、情報処理プログラム及び情報処理システム
Yoshikawa et al. Combining a thermal camera and a wristband sensor for thermal comfort estimation
CN116659047A (zh) 基于用户行为特征识别的办公环境空调送风参数调节方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230417

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230706

R150 Certificate of patent or registration of utility model

Ref document number: 7311474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150