JP2022081282A - Information processing device, information processing program, and information processing system - Google Patents

Information processing device, information processing program, and information processing system Download PDF

Info

Publication number
JP2022081282A
JP2022081282A JP2020192726A JP2020192726A JP2022081282A JP 2022081282 A JP2022081282 A JP 2022081282A JP 2020192726 A JP2020192726 A JP 2020192726A JP 2020192726 A JP2020192726 A JP 2020192726A JP 2022081282 A JP2022081282 A JP 2022081282A
Authority
JP
Japan
Prior art keywords
information
person
space
information processing
comfort
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020192726A
Other languages
Japanese (ja)
Other versions
JP7311478B2 (en
Inventor
隆之 堀
Takayuki Hori
容範 金
Yohan Kin
裕真 鈴木
Yuma Suzuki
麟太郎 金田
Rintaro Kaneda
宏暢 小林
Hironobu Kobayashi
正雄 田口
Masao Taguchi
肇 河野
Hajime Kono
崇行 山口
Takayuki Yamaguchi
宏典 稲澤
Hironori Inazawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2020192726A priority Critical patent/JP7311478B2/en
Publication of JP2022081282A publication Critical patent/JP2022081282A/en
Application granted granted Critical
Publication of JP7311478B2 publication Critical patent/JP7311478B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an information processing device capable of improving estimation accuracy in comfort of a space, an information processing program, and an information processing system.SOLUTION: In an information processing system in which a plurality of air conditioners, a plurality of sensor devices, a plurality of terminal devices, and an information processing device are communicably connected by wire or radio via a prescribed network N, an information processing device 100 comprises an estimation unit 132 which estimates comfort of a space in which shooting by a photographing device is impossible for a person in the space on the basis of information on a person region in which a person was imaged among the images shot in a space in which shooting is possible by the photographing device and which was identified on the basis of a posture of the person.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置、情報処理プログラム及び情報処理システムに関する。 The present invention relates to an information processing apparatus, an information processing program and an information processing system.

従来、利用者にとって快適な空間を提供するための技術が知られている。例えば、全館空調装置により空調される部屋の温度を空調目標温度に制御する。また、温度センサにより個別空調装置が設置されている部屋の室温を検出して、検出した室温に応じて個別空調装置が設置されている部屋の室温を全館空調装置により空調される部屋と同じ空調目標温度に制御する技術が知られている。 Conventionally, techniques for providing a comfortable space for users have been known. For example, the temperature of the room air-conditioned by the air-conditioning system in the entire building is controlled to the air-conditioning target temperature. In addition, the room temperature of the room where the individual air conditioner is installed is detected by the temperature sensor, and the room temperature of the room where the individual air conditioner is installed is adjusted to the same room temperature as the room where the individual air conditioner is installed according to the detected room temperature. The technique of controlling to the target temperature is known.

特開2013-64537号公報Japanese Unexamined Patent Publication No. 2013-64537

空間の快適さの推定精度を向上させる技術が求められている。 There is a demand for a technique for improving the estimation accuracy of space comfort.

実施形態に係る情報処理装置は、撮影装置によって撮影可能な空間で撮影された画像のうち人物が撮像された領域である人物領域に関する情報であって、前記人物の姿勢に基づいて特定された人物領域に関する情報に基づいて、前記撮影装置によって撮影不可能な空間における前記人物にとっての空間の快適さを推定する推定部、を備える。 The information processing apparatus according to the embodiment is information about a person area, which is an area in which a person is captured in an image taken in a space that can be photographed by the photographing device, and is a person specified based on the posture of the person. It includes an estimation unit that estimates the comfort of the space for the person in a space that cannot be photographed by the photographing apparatus based on the information about the area.

図1は、第1の実施形態に係る情報処理システムの構成例を示す図である。FIG. 1 is a diagram showing a configuration example of an information processing system according to the first embodiment. 図2は、第1の実施形態に係る情報処理の概要を説明するための図である。FIG. 2 is a diagram for explaining an outline of information processing according to the first embodiment. 図3は、第1の実施形態に係る情報処理装置の構成例を示す図である。FIG. 3 is a diagram showing a configuration example of the information processing apparatus according to the first embodiment. 図4は、第1の実施形態に係る利用者情報記憶部の一例を示す図である。FIG. 4 is a diagram showing an example of a user information storage unit according to the first embodiment. 図5は、第1の実施形態に係る環境情報記憶部の一例を示す図である。FIG. 5 is a diagram showing an example of the environmental information storage unit according to the first embodiment. 図6は、第2の実施形態に係る情報処理装置の構成例を示す図である。FIG. 6 is a diagram showing a configuration example of the information processing apparatus according to the second embodiment. 図7は、第2の実施形態に係る情報処理の概要を説明するための図である。FIG. 7 is a diagram for explaining an outline of information processing according to the second embodiment. 図8は、第2の実施形態に係る情報処理の概要を説明するための図である。FIG. 8 is a diagram for explaining an outline of information processing according to the second embodiment. 図9は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 9 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device.

以下に、本願に係る情報処理装置、情報処理プログラム及び情報処理システムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理プログラム及び情報処理システムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, an embodiment for implementing the information processing apparatus, the information processing program, and the information processing system according to the present application (hereinafter referred to as “the embodiment”) will be described in detail with reference to the drawings. The information processing apparatus, information processing program, and information processing system according to the present application are not limited to this embodiment. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate explanations are omitted.

〔1.第1の実施形態〕
〔1-1.はじめに〕
従来、人の暑さ寒さに関する温熱環境における快適さに基づいて空調制御する技術が知られている。例えば、空間の快適さを評価する指標として、人体の熱収支に影響する6つの要素からなるPMV(Predicted Mean Vote)が知られている。PMVは、温度[℃]、湿度[%]、(熱)放射[℃]、気流[m/s]の4つの環境要素と、着衣量[clo]、代謝量(活動量)[met]の2つの人的要素から算出される。ここで、温度、湿度、放射、気流の4つの環境要素は、空間に対するセンシングによって得ることができる。一方、着衣量、代謝量(活動量)の2つの人的要素は、外気温などから推定される推定値が用いられるのが一般的であった。そのため、従来の手法に基づいて算出されたPMV値は、必ずしも実際に人が感じている空間の快適さを反映しているとは限らなかった。すなわち、従来は、空間の快適さを精度よく推定できるとは限らなかった。
[1. First Embodiment]
[1-1. Introduction]
Conventionally, a technique for controlling air conditioning based on comfort in a thermal environment relating to the heat and cold of a person has been known. For example, PMV (Predicted Mean Vote), which consists of six factors that affect the heat balance of the human body, is known as an index for evaluating the comfort of a space. PMV consists of four environmental elements: temperature [° C], humidity [%], (heat) radiation [° C], and airflow [m / s], as well as the amount of clothing [clo] and the amount of metabolism (activity) [met]. It is calculated from two human factors. Here, the four environmental elements of temperature, humidity, radiation, and airflow can be obtained by sensing the space. On the other hand, as the two human factors of the amount of clothing and the amount of metabolism (activity amount), an estimated value estimated from the outside air temperature or the like was generally used. Therefore, the PMV value calculated based on the conventional method does not always reflect the comfort of the space actually felt by a person. That is, in the past, it was not always possible to accurately estimate the comfort of a space.

そこで、本願発明に係る発明者らは、機械学習モデルを用いて、RGBカメラ、赤外線カメラ等の撮影装置により撮影された画像、および環境センサによって検出された空間の温度や湿度などの環境に関する情報(以下、環境情報ともいう)から空間の快適さを推定する技術(以下、提案技術ともいう)を提案している。具体的には、提案技術は、空間を撮像した画像に含まれる人物が撮像された領域(以下、人物領域ともいう)に関する情報に基づいて空間の快適さを推定する。例えば、提案技術は、個々の人物の姿勢を推定する姿勢推定処理に基づいて特定された人物領域に関する情報に基づいて空間の快適さを推定する。このように、提案技術は、姿勢推定処理を用いることにより、画像の中から人物領域を精緻に特定することができるので、推定対象となる人物の着衣量や代謝量(活動量)に関する情報を精度よく推定することができる。また、提案技術は、着衣量や代謝量(活動量)といった2つの人的要素を精度よく推定することができるため、空間の快適さの推定精度を向上させることができる。 Therefore, the inventors according to the present invention use a machine learning model to obtain information on the environment such as the temperature and humidity of the space detected by an image taken by an imaging device such as an RGB camera or an infrared camera and an environment sensor. We are proposing a technology (hereinafter, also referred to as a proposed technology) that estimates the comfort of a space from (hereinafter, also referred to as environmental information). Specifically, the proposed technique estimates the comfort of a space based on information about a region in which a person is captured (hereinafter, also referred to as a person region) included in an image of the space. For example, the proposed technique estimates the comfort of a space based on information about a person area identified based on a posture estimation process that estimates the posture of an individual person. In this way, the proposed technique can precisely identify the human area from the image by using the posture estimation process, so that information on the amount of clothing and the amount of metabolism (activity) of the person to be estimated can be obtained. It can be estimated accurately. Further, since the proposed technique can accurately estimate two human factors such as the amount of clothing and the amount of metabolism (activity amount), it is possible to improve the estimation accuracy of the comfort of the space.

ここで、姿勢推定処理は、動画や静止画から人物の姿勢を推定し、人物領域を特定する処理であってよい。姿勢推定処理は、任意の公知技術により実現されてよい。例えば、姿勢推定処理は、姿勢推定(Pose Estimation)の技術(以下、姿勢推定技術ともいう)を用いた画像の処理により実現されてよい。例えば、姿勢推定処理は、姿勢推定モデルと呼ばれる深層学習モデルを用いて、動画や静止画から人物や動物の姿勢(骨格)を推定する姿勢推定技術により実現されてよい。なお、1枚の画像に複数の人物が写っている場合には、姿勢推定処理により、複数の人物について特徴点を検出して、複数の人物の姿勢を推定してもよい。すなわち、情報処理装置100は、複数の人物について、それぞれの人物が所在する空間の快適さをそれぞれ推定してもよい。 Here, the posture estimation process may be a process of estimating the posture of a person from a moving image or a still image and specifying a person area. The posture estimation process may be realized by any known technique. For example, the posture estimation process may be realized by image processing using a posture estimation technique (hereinafter, also referred to as a posture estimation technique). For example, the posture estimation process may be realized by a posture estimation technique that estimates the posture (skeleton) of a person or an animal from a moving image or a still image by using a deep learning model called a posture estimation model. When a plurality of people are shown in one image, the posture estimation process may detect feature points for the plurality of people to estimate the postures of the plurality of people. That is, the information processing apparatus 100 may estimate the comfort of the space in which each person is located for each of the plurality of persons.

例えば、姿勢推定モデルの一例として、画像に含まれる人物の身体の特徴を示す特徴点(キーポイントともいう)を推定し、特徴点を結んだ人物の姿勢を検出するものがある。例えば、姿勢推定モデルの一例として、画像に含まれる人物の身体の特徴点として、人物の身体の関節の位置を示す関節点を推定し、関節点を連結して生成される人物の身体の骨格を示す骨格モデルを人物の姿勢として検出するものがある。このように、姿勢推定技術を用いると、画像中の人物の身体の関節点や骨格モデルを推定することができるので、画像中の人物の身体の部位を精緻に推定することができる。例えば、特徴点を検出するタイプの姿勢推定モデルの中には、画像中の人物の身体の30種類の部位を推定可能なものがある。具体的には、特徴点を検出するタイプの姿勢推定モデルを用いると、画像中の人物の身体の部位として、頭、目(右、左)、耳(右、左)、鼻、首、肩(右、中央、左)、肘(右、左)、背骨、手首(右、左)、手(右、左)、親指(右、左)、手先(右、左)、腰(右、中央、左)、膝(右、左)、足首(右、左)、足(右、左)を特定することができる。 For example, as an example of a posture estimation model, there is a method in which a feature point (also referred to as a key point) indicating a feature of a person's body included in an image is estimated and the posture of the person connecting the feature points is detected. For example, as an example of a posture estimation model, as a feature point of a person's body included in an image, a joint point indicating the position of a joint of the person's body is estimated, and the skeleton of the person's body generated by connecting the joint points. There is a skeleton model that detects the posture of a person. As described above, by using the posture estimation technique, it is possible to estimate the joint points and the skeleton model of the body of the person in the image, so that the part of the body of the person in the image can be estimated precisely. For example, among the types of posture estimation models that detect feature points, there is one that can estimate 30 types of parts of a person's body in an image. Specifically, using a posture estimation model that detects feature points, the head, eyes (right, left), ears (right, left), nose, neck, and shoulders are the body parts of the person in the image. (Right, center, left), elbow (right, left), spine, wrist (right, left), hand (right, left), thumb (right, left), hand (right, left), waist (right, center) , Left), knee (right, left), ankle (right, left), foot (right, left) can be identified.

また、姿勢推定モデルの一例として、DensePose(参考URL:http://openaccess.thecvf.com/content_cvpr_2018/html/Guler_DensePose_Dense_Human_CVPR_2018_paper.html)が知られている。DensePoseは、2次元の画像中の人物の人物領域を検出し、検出した人物領域に対応する3次元身体表面モデルを生成する技術である。より具体的には、DensePoseは、RGB画像を入力として、RGB画像中の人物の3次元表面のUV座標を推定する技術である。DensePoseを用いると、2次元の画像に写る人物領域から3次元身体表面のUV座標を推定することができるので、2次元の画像に写る人物領域の各人体パーツ(人物の身体の部位)を精緻に推定することができる。DensePoseを用いると、画像中の人物の身体の24種類の部位を推定することができる。具体的には、DensePoseを用いると、RGB画像から、画像中の人物の身体の部位として、頭(左、右)、首、胴体、腕(左、右/上、前/前、後)、脚(左、右/太もも、ふくらはぎ/前、後)、手(左、右)、足(左、右)を特定することができる。 Further, as an example of the posture estimation model, DensePose (reference URL: http://openaccess.thecvf.com/content_cvpr_2018/html/Guler_DensePose_Dense_Human_CVPR_2018_paper.html) is known. DensePose is a technique for detecting a person area of a person in a two-dimensional image and generating a three-dimensional body surface model corresponding to the detected person area. More specifically, DensePose is a technique for estimating the UV coordinates of a three-dimensional surface of a person in an RGB image by inputting an RGB image. By using DensePose, the UV coordinates of the 3D body surface can be estimated from the person area shown in the 2D image, so each human body part (part of the person's body) in the person area shown in the 2D image is delicate. Can be estimated to. With DensePose, it is possible to estimate 24 different parts of a person's body in an image. Specifically, when DensePose is used, the head (left, right), neck, torso, arms (left, right / upper, front / front, back), as the body parts of the person in the image from the RGB image, Legs (left, right / thighs, calves / front, back), hands (left, right), feet (left, right) can be identified.

しかしながら、一般的に、プライバシーに配慮する必要がある場所(トイレや脱衣所など)には、RGBカメラや赤外線カメラといった撮影装置を設置することが困難な場合がある。そのため、上記の提案技術では、プライバシーに配慮する必要がある場所(以下、プライバシーな空間ともいう)を撮影した画像の入手が難しいため、プライバシーな空間の快適さを推定するのが困難な場合があった。また、上記の提案技術では、RGBカメラ、赤外線カメラ等の撮影装置および環境センサを同じ場所に設置する必要があった。そのため、上記の提案技術では、快適さを推定する対象となる各空間にRGBカメラや赤外線カメラといった高額な機材をそれぞれ設置するのに高額な機材費用を要し、コストが増加するという課題があった。 However, in general, it may be difficult to install an imaging device such as an RGB camera or an infrared camera in a place where privacy needs to be considered (toilet, dressing room, etc.). Therefore, with the above-mentioned proposed technology, it may be difficult to estimate the comfort of a privacy space because it is difficult to obtain an image of a place where privacy needs to be considered (hereinafter, also referred to as a privacy space). there were. Further, in the above-mentioned proposed technique, it is necessary to install an imaging device such as an RGB camera and an infrared camera and an environment sensor in the same place. Therefore, the above-mentioned proposed technique has a problem that it requires a high equipment cost to install expensive equipment such as an RGB camera and an infrared camera in each space for which comfort is estimated, and the cost increases. rice field.

これに対し、実施形態に係る情報処理装置100は、撮影装置によって撮影可能な空間で撮影された画像のうち人物が撮像された領域である人物領域に関する情報に基づいて、撮影装置によって撮影不可能な空間における人物にとっての空間の快適さを推定する。このように、情報処理装置100は、例えば、撮影装置が設置されない場所における空間の快適さを推定するために、撮影装置が設置されない場所の近くの撮影装置が設置されている場所で撮影された画像に関する画像情報を利用する。例えば、施設内の人物は自由に移動することができることから、情報処理装置100は、施設の出入口などに設置された撮影装置の画像情報をその後の施設内での快適さを推定するための情報として利用する。 On the other hand, the information processing apparatus 100 according to the embodiment cannot be photographed by the photographing device based on the information regarding the person area, which is the area in which the person is captured, among the images captured in the space that can be photographed by the photographing device. Estimate the comfort of space for a person in a different space. As described above, in order to estimate the comfort of the space in a place where the photographing device is not installed, for example, the information processing apparatus 100 is photographed in a place where the photographing device is installed near the place where the photographing device is not installed. Use image information about images. For example, since a person in the facility can move freely, the information processing apparatus 100 uses the image information of the photographing device installed at the entrance / exit of the facility as information for estimating the comfort in the facility thereafter. Use as.

これにより、情報処理装置100は、撮影装置が設置されない場所における空間の快適さを精度よく推定することができる。また、情報処理装置100は、利用者のプライバシーを保護するため撮影装置を設置することができない場所(トイレや脱衣所など)における空間の快適さを精度よく推定することができる。すなわち、情報処理装置100は、撮影装置によって撮影不可能な場所における空間の快適さの推定精度を向上させることができる。また、情報処理装置100は、RGBカメラや赤外線カメラといった撮影装置の設置台数を減らすことができる。したがって、情報処理装置100は、空間の快適さを精度よく推定するためのコストを抑えることができる。 As a result, the information processing device 100 can accurately estimate the comfort of the space in a place where the photographing device is not installed. Further, the information processing device 100 can accurately estimate the comfort of the space in a place (toilet, dressing room, etc.) where the photographing device cannot be installed in order to protect the privacy of the user. That is, the information processing device 100 can improve the estimation accuracy of the comfort of the space in a place where the image pickup device cannot take an image. Further, the information processing apparatus 100 can reduce the number of imaging devices such as an RGB camera and an infrared camera installed. Therefore, the information processing apparatus 100 can reduce the cost for accurately estimating the comfort of the space.

ここで、撮影装置によって撮影可能な空間とは、例えば、撮影装置が設置されている空間のうち、撮影装置によって撮影可能な空間であってよい。一方、撮影装置によって撮影不可能な空間とは、例えば、撮影装置の死角となるため撮影装置による撮影が不可能な空間や、撮影装置が設置されないため撮影装置による撮影が不可能な空間のことであってよい。つまり、撮影措置によって撮影不可能な空間とは、必ずしも撮影ができないわけではない(撮影装置があれば撮影は可能な)空間であってよい。例えば、撮影装置によって撮影不可能な空間の一例として、利用者のプライバシーを保護するため、撮影装置が設置されない空間(トイレや脱衣所、更衣室など)がある。なお、本開示において撮影装置は画像を取得することができる装置であれば特に限定されない。例えば、撮影装置は、静止画を取得するカメラであってもよいし、動画を取得し、フレームの一部を静止画として取得するビデオカメラであってもよい。また、例えば、撮影装置は、静止画と動画の両方を取得可能な機能を有し、適宜これらの機能を切換えつつ、静止画を取得するような撮影モジュールであってもよい。 Here, the space that can be photographed by the photographing device may be, for example, a space that can be photographed by the photographing device among the spaces in which the photographing device is installed. On the other hand, the space that cannot be photographed by the photographing device is, for example, a space that cannot be photographed by the photographing device because it is a blind spot of the photographing device, or a space that cannot be photographed by the photographing device because the photographing device is not installed. May be. That is, the space that cannot be photographed due to the photographing measures may be a space that cannot necessarily be photographed (captured if there is a photographing device). For example, as an example of a space that cannot be photographed by a photographing device, there is a space (toilet, dressing room, changing room, etc.) in which a photographing device is not installed in order to protect the privacy of the user. In the present disclosure, the photographing device is not particularly limited as long as it can acquire an image. For example, the photographing device may be a camera that acquires a still image, or may be a video camera that acquires a moving image and acquires a part of a frame as a still image. Further, for example, the photographing device may be a photographing module having a function capable of acquiring both a still image and a moving image, and acquiring a still image while appropriately switching these functions.

また、人物領域は、情報処理装置100が推定対象の人物を特定可能な領域であれば、任意の領域であってよい。例えば、人物領域は、人物を示す領域に加えて、その人物の周囲の空間を示す領域を含んでもよい。例えば、人物領域は、人物が撮像された領域に加えて、その人物の周囲の空間が撮像された領域を含んでもよい。例えば、人物領域は、人物の周囲に存在する家具等を示す領域を含んでもよい。なお、以下では、空間に所在する人物のことを「利用者」と記載する場合がある。 Further, the person area may be any area as long as the information processing apparatus 100 can identify the person to be estimated. For example, the person area may include an area indicating the space around the person in addition to the area indicating the person. For example, the person area may include an area in which the space around the person is imaged in addition to the area in which the person is imaged. For example, the person area may include an area indicating furniture or the like existing around the person. In the following, a person located in a space may be referred to as a "user".

〔1-2.情報処理システムの構成〕
まず、図1を用いて、第1の実施形態に係る情報処理システム1の構成について説明する。図1は、第1の実施形態に係る情報処理システム1の構成例を示す図である。情報処理システム1には、空調装置10と、RGBカメラ20と、赤外線カメラ30と、環境センサ40と、認証装置50と、情報処理装置100とが含まれてよい。空調装置10と、RGBカメラ20と、赤外線カメラ30と、環境センサ40と、認証装置50と、情報処理装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続されてよい。なお、情報処理システム1には、任意の数の空調装置10と、任意の数のRGBカメラ20と、任意の数の赤外線カメラ30と、任意の数の環境センサ40と、任意の数の認証装置50と、任意の数の情報処理装置100とが含まれてもよい。RGBカメラ20および赤外線カメラ30は、撮影装置の一例であってよい。
[1-2. Information processing system configuration]
First, the configuration of the information processing system 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram showing a configuration example of the information processing system 1 according to the first embodiment. The information processing system 1 may include an air conditioner 10, an RGB camera 20, an infrared camera 30, an environment sensor 40, an authentication device 50, and an information processing device 100. The air conditioner 10, the RGB camera 20, the infrared camera 30, the environment sensor 40, the authentication device 50, and the information processing device 100 may be communicably connected via a predetermined network N via a predetermined network N. .. The information processing system 1 includes an arbitrary number of air conditioning devices 10, an arbitrary number of RGB cameras 20, an arbitrary number of infrared cameras 30, an arbitrary number of environment sensors 40, and an arbitrary number of authentications. The device 50 and an arbitrary number of information processing devices 100 may be included. The RGB camera 20 and the infrared camera 30 may be an example of a photographing device.

空調装置10は、空間の空気の温度や湿度などを調整する装置である。例えば、空調装置10は、情報処理装置100による空調制御の対象となる各空間に設置されたエアコンであってよい。例えば、空調装置10は、情報処理装置100による空調制御の対象となる空間における場所(例えば、部屋)ごとに設置されたエアコンであってよい。また、空調装置10は、IoT(Internet of Things)技術により、他の装置と通信可能であってよい。空調装置10は、情報処理装置100の制御に従って制御対象となる空間の空調を調整することができる。具体的には、まず、空調装置10は、情報処理装置100から空調の制御に関する制御情報を受信してよい。例えば、空調装置10は、情報処理装置100から空調に設定する設定温度や設定湿度に関する情報を受信してよい。続いて、空調装置10は、情報処理装置100から受信した制御情報に従って、空間の空調を調整してよい。例えば、空調装置10は、設定温度や設定湿度に関する情報を受信すると、空間の温度や湿度が、設定温度や設定湿度に保たれるように空調を調整してよい。 The air conditioner 10 is a device that adjusts the temperature, humidity, and the like of the air in the space. For example, the air conditioner 10 may be an air conditioner installed in each space subject to air conditioning control by the information processing device 100. For example, the air conditioner 10 may be an air conditioner installed for each place (for example, a room) in a space subject to air conditioning control by the information processing device 100. Further, the air conditioner 10 may be able to communicate with other devices by the IoT (Internet of Things) technology. The air conditioner 10 can adjust the air conditioning of the space to be controlled according to the control of the information processing device 100. Specifically, first, the air conditioner 10 may receive control information regarding air conditioning control from the information processing device 100. For example, the air conditioner 10 may receive information on a set temperature and a set humidity set for air conditioning from the information processing device 100. Subsequently, the air conditioner 10 may adjust the air conditioning of the space according to the control information received from the information processing device 100. For example, when the air conditioner 10 receives information on the set temperature and the set humidity, the air conditioner 10 may adjust the air conditioning so that the temperature and humidity of the space are maintained at the set temperature and the set humidity.

RGBカメラ20は、空間のRGB画像を取得する装置である。具体的には、RGBカメラ20は、RGBカメラ20によって撮影可能な空間のRGB画像を取得してよい。例えば、RGBカメラ20は、撮影可能な空間において新たな人物を検出する度にRGB画像を取得してよい。例えば、RGBカメラ20は、常時RGB画像を取得してもよい。また、RGBカメラ20は、情報処理装置100による空調制御の対象となる空間に設置されてよい。例えば、RGBカメラ20は、情報処理装置100による空調制御の対象となる施設(例えば、多数のオフィスが入居しているビルや商業施設など)の入口や出口に設置されてよい。また、RGBカメラ20は、赤外線カメラ30と同じ空間を撮影してよい。また、RGBカメラ20は、IoT技術により、他の装置と通信可能であってよい。例えば、RGBカメラ20は、RGB画像を取得すると、取得したRGB画像を情報処理装置100に送信してよい。 The RGB camera 20 is a device that acquires an RGB image of space. Specifically, the RGB camera 20 may acquire an RGB image of a space that can be photographed by the RGB camera 20. For example, the RGB camera 20 may acquire an RGB image each time a new person is detected in a space where the image can be taken. For example, the RGB camera 20 may always acquire an RGB image. Further, the RGB camera 20 may be installed in a space subject to air conditioning control by the information processing device 100. For example, the RGB camera 20 may be installed at the entrance or exit of a facility (for example, a building or a commercial facility in which a large number of offices are located) subject to air conditioning control by the information processing device 100. Further, the RGB camera 20 may capture the same space as the infrared camera 30. Further, the RGB camera 20 may be able to communicate with other devices by the IoT technique. For example, when the RGB camera 20 acquires an RGB image, the acquired RGB image may be transmitted to the information processing apparatus 100.

赤外線カメラ30は、空間のサーマル画像を取得する装置である。具体的には、赤外線カメラ30は、赤外線カメラ30によって撮影可能な空間のサーマル画像を取得してよい。例えば、赤外線カメラ30は、撮影可能な空間において新たな人物を検出する度にサーマル画像を取得してよい。例えば、赤外線カメラ30は、常時サーマル画像を取得してもよい。また、赤外線カメラ30は、情報処理装置100による空調制御の対象となる空間に設置されてよい。例えば、赤外線カメラ30は、情報処理装置100による空調制御の対象となる施設の入口や出口に設置されてよい。また、赤外線カメラ30は、RGBカメラ20と同じ空間を撮影してよい。また、赤外線カメラ30は、IoT技術により、他の装置と通信可能であってよい。例えば、赤外線カメラ30は、サーマル画像を取得すると、取得したサーマル画像を情報処理装置100に送信してよい。 The infrared camera 30 is a device that acquires a thermal image of space. Specifically, the infrared camera 30 may acquire a thermal image of a space that can be photographed by the infrared camera 30. For example, the infrared camera 30 may acquire a thermal image every time a new person is detected in a space where the image can be taken. For example, the infrared camera 30 may constantly acquire a thermal image. Further, the infrared camera 30 may be installed in a space subject to air conditioning control by the information processing device 100. For example, the infrared camera 30 may be installed at an entrance or an exit of a facility subject to air conditioning control by the information processing device 100. Further, the infrared camera 30 may capture the same space as the RGB camera 20. Further, the infrared camera 30 may be able to communicate with other devices by the IoT technique. For example, when the infrared camera 30 acquires a thermal image, the acquired thermal image may be transmitted to the information processing apparatus 100.

環境センサ40は、空間の温度や湿度などの環境に関する環境情報を取得するセンサ装置である。具体的には、環境センサ40は、環境センサ40が設置された空間の温度や湿度を検出してよい。環境センサ40は、USB型の環境センサであってよい。また、環境センサ40は、情報処理装置100による空調制御の対象となる空間に少なくとも1以上設置されてよい。例えば、環境センサ40は、情報処理装置100による空調制御の対象となる施設に数メートルおきに設置されてよい。また、環境センサ40は、IoT技術により、他の装置と通信可能であってよい。例えば、環境センサ40は、空間の温度や湿度を検出すると、検出した空間の温度や湿度に関する情報を情報処理装置100に送信してよい。なお、環境センサ40が取得する環境情報は、後述する快適さの判定において利用可能な情報であればよく、上記の例に限定されない。例えば、環境センサ40は、環境情報として気圧や照度などの任意の情報を取得してよい。 The environment sensor 40 is a sensor device that acquires environmental information related to the environment such as the temperature and humidity of the space. Specifically, the environment sensor 40 may detect the temperature and humidity of the space in which the environment sensor 40 is installed. The environment sensor 40 may be a USB type environment sensor. Further, at least one environment sensor 40 may be installed in a space subject to air conditioning control by the information processing apparatus 100. For example, the environment sensor 40 may be installed every few meters in a facility subject to air conditioning control by the information processing device 100. Further, the environment sensor 40 may be able to communicate with other devices by the IoT technique. For example, when the environment sensor 40 detects the temperature and humidity of the space, the environment sensor 40 may transmit information on the detected temperature and humidity of the space to the information processing apparatus 100. The environmental information acquired by the environment sensor 40 may be any information that can be used in the determination of comfort described later, and is not limited to the above example. For example, the environment sensor 40 may acquire arbitrary information such as atmospheric pressure and illuminance as environmental information.

認証装置50は、利用者の個人認証を行う装置である。認証装置50は、情報処理装置100による空調制御の対象となる空間の入口や出口に設置されてよい。認証装置50は、センサを用いて利用者の個人認証情報を取得してよい。続いて、認証装置50は、個人認証情報を取得すると、あらかじめ記憶された個人認証情報と取得した個人認証情報とを照合して、個人認証を行う。また、認証装置50は、IoT技術により、他の装置と通信可能であってよい。例えば、認証装置50は、情報処理装置100にあらかじめ記憶された個人認証情報を情報処理装置100から取得してよい。また、認証装置50は、個人認証を行った場合、個人認証の認証結果を情報処理装置100に送信してよい。例えば、認証装置50は、個人認証に成功した場合、個人認証に成功したことを示す情報とともに、個人認証に成功した利用者を識別可能な情報(例えば、利用者ID)を情報処理装置100に送信してよい。 The authentication device 50 is a device for personally authenticating a user. The authentication device 50 may be installed at an entrance or an exit of a space subject to air conditioning control by the information processing device 100. The authentication device 50 may acquire the user's personal authentication information by using a sensor. Subsequently, when the authentication device 50 acquires the personal authentication information, the authentication device 50 collates the personal authentication information stored in advance with the acquired personal authentication information and performs personal authentication. Further, the authentication device 50 may be able to communicate with other devices by the IoT technique. For example, the authentication device 50 may acquire personal authentication information stored in advance in the information processing device 100 from the information processing device 100. Further, when the personal authentication is performed, the authentication device 50 may transmit the authentication result of the personal authentication to the information processing device 100. For example, when the personal authentication is successful, the authentication device 50 provides the information processing device 100 with information indicating that the personal authentication is successful and information that can identify a user who has succeeded in the personal authentication (for example, a user ID). You may send it.

第1の実施形態に係る認証装置50は、顔認証装置である。顔認証装置である認証装置50は、個人認証情報の一例として、RGBカメラを用いて利用者の顔画像情報を取得してよい。続いて、認証装置50は、利用者の顔画像情報を取得すると、あらかじめ記憶された顔画像情報と取得した顔画像情報とを照合して、顔認証を行う。例えば、顔認証装置は、RGBカメラ20から取得した画像に基づいて、利用者の顔画像情報を取得してよい。また、認証装置50は、顔認証に成功した場合、顔認証に成功したことを示す認証情報とともに、顔認証に成功した利用者を識別可能な利用者の顔画像情報を情報処理装置100に送信してよい。 The authentication device 50 according to the first embodiment is a face recognition device. The authentication device 50, which is a face authentication device, may acquire user's face image information by using an RGB camera as an example of personal authentication information. Subsequently, when the user's face image information is acquired, the authentication device 50 collates the face image information stored in advance with the acquired face image information to perform face authentication. For example, the face recognition device may acquire the user's face image information based on the image acquired from the RGB camera 20. Further, when the face recognition is successful, the authentication device 50 transmits the face image information of the user who can identify the user who has succeeded in the face recognition to the information processing device 100 together with the authentication information indicating that the face recognition is successful. You can do it.

情報処理装置100は、第1の実施形態に係る情報処理を実行する情報処理装置である。具体的には、情報処理装置100は、人物領域に関する情報が入力情報として入力された場合に、利用者にとっての空間の快適さを出力情報として出力するよう学習された機械学習モデル(以下、快適さ推定モデルともいう)を用いて、撮影装置によって撮影不可能な空間における人物にとっての空間の快適さを推定してよい。例えば、情報処理装置100は、撮影装置によって撮影可能な空間で撮影された人物領域に関する情報を快適さ推定モデルに入力して、撮影装置によって撮影不可能な空間における人物にとっての空間の快適さを快適さ推定モデルの出力情報として出力してよい。 The information processing device 100 is an information processing device that executes information processing according to the first embodiment. Specifically, the information processing apparatus 100 is a machine learning model learned to output the comfort of the space for the user as the output information when the information about the person area is input as the input information (hereinafter, comfort). An estimation model) may be used to estimate the comfort of a person in a space that cannot be photographed by an imaging device. For example, the information processing device 100 inputs information about a person area photographed in a space that can be photographed by the photographing device into a comfort estimation model, and obtains the comfort of the space for the person in a space that cannot be photographed by the photographing device. It may be output as output information of the comfort estimation model.

また、情報処理装置100は、空調装置10を制御する制御装置である。具体的には、情報処理装置100は、推定した空間の快適さに基づいて、利用者が所在する場所に設置された空調装置10を制御してよい。例えば、情報処理装置100は、推定した空間の快適さが「寒い」である場合には、その場所における温度を高くするように空調装置10を制御してよい。また、情報処理装置100は、推定した空間の快適さが「普通」である場合には、その場所における温度を保つように空調装置10を制御してよい。また、情報処理装置100は、推定した空間の快適さが「暑い」である場合には、その場所における温度を低くするように空調装置10を制御してよい。 Further, the information processing device 100 is a control device that controls the air conditioning device 10. Specifically, the information processing device 100 may control the air conditioner 10 installed at the place where the user is located, based on the estimated comfort of the space. For example, when the estimated comfort of the space is "cold", the information processing apparatus 100 may control the air conditioner 10 so as to raise the temperature at the place. Further, when the estimated comfort of the space is "normal", the information processing device 100 may control the air conditioner 10 so as to maintain the temperature at the place. Further, when the estimated comfort of the space is "hot", the information processing device 100 may control the air conditioner 10 so as to lower the temperature at the place.

〔1-3.情報処理の概要〕
次に、図2を用いて、第1の実施形態に係る情報処理の概要について説明する。図2は、第1の実施形態に係る情報処理の概要を説明するための図である。図2に示す符号P11~P16は、情報処理装置100による空調制御の対象となる建物における6つの場所をそれぞれ示している。以下では、「P1*」(*=1~6)で示す場所を、「場所P1*」(*=1~6)と記載する場合がある。
[1-3. Information processing overview]
Next, the outline of the information processing according to the first embodiment will be described with reference to FIG. FIG. 2 is a diagram for explaining an outline of information processing according to the first embodiment. Reference numerals P11 to P16 shown in FIG. 2 indicate six locations in the building subject to air conditioning control by the information processing apparatus 100, respectively. In the following, the place indicated by "P1 *" (* = 1 to 6) may be described as "place P1 *" (* = 1 to 6).

図2には、利用者U1が、情報処理装置100による空調制御の対象となる建物(空間の一例)の中の場所P11~場所P16を順番に移動する場合が例示されている。例えば、利用者U1は、建物の入口付近のエントランスである場所P11から場所P11に続く廊下である場所P12へ移動する。その後、利用者U1は、廊下である場所P12から場所P12の奥に位置する共有スペースである場所P13に移動する。その後、利用者U1は、共有スペースである場所P13から場所P13に隣接する第1会議室である場所P14へ移動する。その後、利用者U1は、第1会議室である場所P14から場所P14に隣接する執務室である場所P15へ移動する。その後、利用者U1は、執務室である場所P15から場所P15に隣接する第2会議室である場所P16へ移動する。 FIG. 2 illustrates a case where the user U1 sequentially moves from place P11 to place P16 in a building (an example of space) subject to air conditioning control by the information processing apparatus 100. For example, the user U1 moves from the place P11, which is the entrance near the entrance of the building, to the place P12, which is the corridor leading to the place P11. After that, the user U1 moves from the place P12 which is a corridor to the place P13 which is a shared space located in the back of the place P12. After that, the user U1 moves from the shared space P13 to the first conference room P14 adjacent to the place P13. After that, the user U1 moves from the place P14, which is the first conference room, to the place P15, which is the office room adjacent to the place P14. After that, the user U1 moves from the office P15 to the second conference room P16 adjacent to the office P15.

また、図2に示すチェックの印は、RGBカメラ20、赤外線カメラ30、または環境センサ40が設置されている場所を示す。例えば、場所P11と場所P14と場所P16は、RGBカメラ20、赤外線カメラ30、および環境センサ40が設置されている場所であることを示す。一方、場所P12と場所P13と場所P15は、RGBカメラ20および赤外線カメラ30が設置されておらず、環境センサ40のみが設置されている場所であることを示す。なお、図示は省略するが、場所P11には、顔認証装置である認証装置50が設置されているものとする。また、以下の説明において、RGBカメラ20および赤外線カメラ30等の撮影装置を単に「カメラ」と呼称する場合がある。 Further, the check mark shown in FIG. 2 indicates a place where the RGB camera 20, the infrared camera 30, or the environment sensor 40 is installed. For example, the place P11, the place P14, and the place P16 indicate that the place where the RGB camera 20, the infrared camera 30, and the environment sensor 40 are installed. On the other hand, the place P12, the place P13, and the place P15 indicate that the RGB camera 20 and the infrared camera 30 are not installed, but only the environment sensor 40 is installed. Although not shown, it is assumed that the authentication device 50, which is a face authentication device, is installed at the place P11. Further, in the following description, a photographing device such as an RGB camera 20 and an infrared camera 30 may be simply referred to as a “camera”.

また、以下では、RGBカメラ20が設置された空間に応じて、RGBカメラ20をRGBカメラ20-*(*=1、4、6)のように区別して説明する場合がある。例えば、RGBカメラ20-1は、場所P11に設置されているRGBカメラ20である。また、例えば、RGBカメラ20-4は、場所P14に設置されているRGBカメラ20である。また、以下では、RGBカメラ20-*(*=1、4、6)について、特に区別なく説明する場合には、RGBカメラ20と記載する。 Further, in the following, the RGB camera 20 may be described separately as the RGB camera 20- * (* = 1, 4, 6) depending on the space in which the RGB camera 20 is installed. For example, the RGB camera 20-1 is an RGB camera 20 installed at the location P11. Further, for example, the RGB camera 20-4 is an RGB camera 20 installed at the place P14. Further, in the following, when the RGB camera 20- * (* = 1, 4, 6) is described without particular distinction, it is described as the RGB camera 20.

また、以下では、赤外線カメラ30が設置された空間に応じて、赤外線カメラ30を赤外線カメラ30-*(*=1、4、6)のように区別して説明する場合がある。例えば、赤外線カメラ30-1は、場所P11に設置されている赤外線カメラ30である。また、例えば、赤外線カメラ30-4は、場所P14に設置されている赤外線カメラ30である。また、以下では、赤外線カメラ30-*(*=1、4、6)について、特に区別なく説明する場合には、赤外線カメラ30と記載する。 Further, in the following, the infrared camera 30 may be described separately as the infrared camera 30- * (* = 1, 4, 6) depending on the space in which the infrared camera 30 is installed. For example, the infrared camera 30-1 is an infrared camera 30 installed at the place P11. Further, for example, the infrared camera 30-4 is an infrared camera 30 installed at the place P14. Further, in the following, when the infrared camera 30- * (* = 1, 4, 6) is described without particular distinction, it is described as the infrared camera 30.

また、以下では、環境センサ40が設置された空間に応じて、環境センサ40を環境センサ40-*(*=1~6)のように区別して説明する場合がある。例えば、環境センサ40-1は、場所P11に設置されている環境センサ40である。また、例えば、環境センサ40-2は、場所P12に設置されている環境センサ40である。また、以下では、環境センサ40-*(*=1~6)について、特に区別なく説明する場合には、環境センサ40と記載する。 Further, in the following, the environment sensor 40 may be described separately as the environment sensor 40- * (* = 1 to 6) depending on the space in which the environment sensor 40 is installed. For example, the environment sensor 40-1 is an environment sensor 40 installed at the place P11. Further, for example, the environment sensor 40-2 is an environment sensor 40 installed at the place P12. Further, in the following, when the environment sensor 40- * (* = 1 to 6) is described without particular distinction, it is described as the environment sensor 40.

また、以下では、認証装置50が設置された空間に応じて、認証装置50を認証装置50-*(*=1)のように区別して説明する場合がある。例えば、認証装置50-1は、場所P11に設置されている認証装置50である。また、以下では、認証装置50-*(*=1)について、特に区別なく説明する場合には、認証装置50と記載する。 Further, in the following, the authentication device 50 may be described separately as the authentication device 50- * (* = 1) depending on the space in which the authentication device 50 is installed. For example, the authentication device 50-1 is an authentication device 50 installed at the place P11. Further, in the following, when the authentication device 50- * (* = 1) is described without particular distinction, it is described as the authentication device 50.

まず、図2では、利用者U1が、カメラが設置されている場所P11を訪れる。このとき、情報処理装置100は、利用者U1の顔認証が成功したという認証情報とともに利用者U1を識別する利用者ID「U1」および利用者U1の顔画像情報#11を場所P11に設置された認証装置50-1から取得してよい。 First, in FIG. 2, the user U1 visits the place P11 where the camera is installed. At this time, the information processing apparatus 100 installs the user ID "U1" that identifies the user U1 and the face image information # 11 of the user U1 at the place P11 together with the authentication information that the face authentication of the user U1 is successful. It may be obtained from the authentication device 50-1.

続いて、情報処理装置100は、認証装置50-1から認証情報を取得すると、場所P11に設置されたRGBカメラ20-1によって撮影されたRGB画像#11をRGBカメラ20-1から取得してよい。続いて、情報処理装置100は、RGB画像#11に新たに写り込んだ人物(の領域)を利用者ID「U1」で識別される利用者U1であると特定してよい。 Subsequently, when the information processing device 100 acquires the authentication information from the authentication device 50-1, the RGB image # 11 taken by the RGB camera 20-1 installed at the location P11 is acquired from the RGB camera 20-1. good. Subsequently, the information processing apparatus 100 may specify the person (area) newly reflected in the RGB image # 11 as the user U1 identified by the user ID “U1”.

また、情報処理装置100は、RGB画像#11を取得すると、RGB画像#11に関する画像情報(以下、RGB画像情報#11ともいう)を生成してよい。例えば、情報処理装置100は、RGB画像#11を取得すると、姿勢推定処理によってRGB画像#11のうち利用者U1の人物領域R11を特定してよい。続いて、情報処理装置100は、人物領域R11を特定すると、RGB画像情報#11の一例として、学習モデルM1を用いて、人物領域R11の特徴を示す特徴ベクトルV11を生成してよい。 Further, when the information processing apparatus 100 acquires the RGB image # 11, it may generate image information related to the RGB image # 11 (hereinafter, also referred to as RGB image information # 11). For example, when the information processing apparatus 100 acquires the RGB image # 11, the person area R11 of the user U1 in the RGB image # 11 may be specified by the posture estimation process. Subsequently, when the information processing apparatus 100 identifies the person region R11, the learning model M1 may be used as an example of the RGB image information # 11 to generate a feature vector V11 showing the characteristics of the person region R11.

また、情報処理装置100は、場所P11に設置された赤外線カメラ30-1によって撮影されたサーマル画像#11を赤外線カメラ30-1から取得してよい。情報処理装置100は、サーマル画像#11を取得すると、サーマル画像#11に関する画像情報(以下、サーマル画像情報#11ともいう)を生成してよい。例えば、情報処理装置100は、サーマル画像#11を取得すると、姿勢推定処理に基づいてサーマル画像#11のうち利用者U1の人物領域R12を特定してよい。続いて、情報処理装置100は、人物領域R12を特定すると、サーマル画像情報#11の一例として、学習モデルM2を用いて、人物領域R12の特徴を示す特徴ベクトルV12を生成してよい。 Further, the information processing apparatus 100 may acquire the thermal image # 11 taken by the infrared camera 30-1 installed at the place P11 from the infrared camera 30-1. When the information processing apparatus 100 acquires the thermal image # 11, it may generate image information related to the thermal image # 11 (hereinafter, also referred to as thermal image information # 11). For example, when the information processing apparatus 100 acquires the thermal image # 11, the information processing apparatus 100 may specify the person area R12 of the user U1 in the thermal image # 11 based on the posture estimation process. Subsequently, when the information processing apparatus 100 identifies the person region R12, the learning model M2 may be used as an example of the thermal image information # 11 to generate a feature vector V12 showing the characteristics of the person region R12.

また、情報処理装置100は、RGB画像情報#11(特徴ベクトルV11)およびサーマル画像情報#11(特徴ベクトルV12)を生成すると、RGB画像情報#11(特徴ベクトルV11)とサーマル画像情報#11(特徴ベクトルV12)と認証装置50-1から取得した利用者U1の顔画像情報#11とを対応付けて記憶してよい。 Further, when the information processing apparatus 100 generates RGB image information # 11 (feature vector V11) and thermal image information # 11 (feature vector V12), RGB image information # 11 (feature vector V11) and thermal image information # 11 (feature vector V11) are generated. The feature vector V12) and the face image information # 11 of the user U1 acquired from the authentication device 50-1 may be stored in association with each other.

また、情報処理装置100は、場所P11に設置された環境センサ40-1によって検出されたその時の温度および湿度に関する環境情報(以下、環境情報#11ともいう)を環境センサ40-1から取得してよい。情報処理装置100は、環境情報#11を取得すると、学習モデルM3を用いて、環境情報#11の特徴を示す特徴ベクトルV13を生成してよい。 Further, the information processing apparatus 100 acquires environmental information (hereinafter, also referred to as environmental information # 11) regarding the temperature and humidity at that time detected by the environment sensor 40-1 installed at the place P11 from the environment sensor 40-1. It's okay. When the information processing apparatus 100 acquires the environment information # 11, the information processing apparatus 100 may generate a feature vector V13 indicating the characteristics of the environment information # 11 by using the learning model M3.

また、情報処理装置100は、環境情報#11を取得すると、環境センサ40-1を識別するセンサID「40-1」と環境情報#11と環境情報#11の取得時刻とを対応付けて記憶してよい。 Further, when the information processing apparatus 100 acquires the environment information # 11, the sensor ID "40-1" that identifies the environment sensor 40-1 is stored in association with the acquisition time of the environment information # 11 and the environment information # 11. You can do it.

続いて、情報処理装置100は、快適さ推定モデルM4を用いて、カメラが設置されている場所P11における利用者U1にとっての空間の快適さを推定してよい。例えば、情報処理装置100は、特徴ベクトルV11と特徴ベクトルV12と特徴ベクトルV13を快適さ推定モデルM4に入力して、カメラが設置されている場所P11における利用者U1にとっての空間の快適さを快適さ推定モデルM4の出力情報として出力してよい。 Subsequently, the information processing apparatus 100 may estimate the comfort of the space for the user U1 at the place P11 where the camera is installed by using the comfort estimation model M4. For example, the information processing apparatus 100 inputs the feature vector V11, the feature vector V12, and the feature vector V13 into the comfort estimation model M4 to comfort the space comfort for the user U1 at the place P11 where the camera is installed. It may be output as output information of the estimation model M4.

次に、図2では、利用者U1が、カメラが設置されている場所P11からカメラが設置されていない場所P12へ移動してよい。このとき、情報処理装置100は、場所P12に設置された環境センサ40-2によって検出されたその時の温度および湿度に関する環境情報(以下、環境情報#12ともいう)を環境センサ40-2から取得してよい。情報処理装置100は、環境情報#12を取得すると、学習モデルM3を用いて、環境情報#12の特徴を示す特徴ベクトルV23を生成してよい。また、情報処理装置100は、環境情報#12を取得すると、環境センサ40-2を識別するセンサID「40-2」と環境情報#12と環境情報#12の取得時刻とを対応付けて記憶してよい。 Next, in FIG. 2, the user U1 may move from the place P11 where the camera is installed to the place P12 where the camera is not installed. At this time, the information processing apparatus 100 acquires environmental information (hereinafter, also referred to as environmental information # 12) regarding the temperature and humidity at that time detected by the environment sensor 40-2 installed at the place P12 from the environment sensor 40-2. You can do it. When the information processing apparatus 100 acquires the environment information # 12, the information processing apparatus 100 may generate a feature vector V23 indicating the characteristics of the environment information # 12 by using the learning model M3. Further, when the information processing apparatus 100 acquires the environment information # 12, the sensor ID “40-2” that identifies the environment sensor 40-2, the environment information # 12, and the acquisition time of the environment information # 12 are stored in association with each other. You can do it.

続いて、情報処理装置100は、快適さ推定モデルM4を用いて、カメラが設置されていない場所P12における利用者U1にとっての空間の快適さを推定してよい。具体的には、情報処理装置100は、カメラが設置されている場所P11における人物領域R11の特徴を示す特徴ベクトルV11および人物領域R12の特徴を示す特徴ベクトルV12を用いて、カメラが設置されていない場所P12における利用者U1にとっての空間の快適さを推定してよい。例えば、情報処理装置100は、特徴ベクトルV11と特徴ベクトルV12と特徴ベクトルV23を快適さ推定モデルM4に入力して、カメラが設置されていない場所P12における利用者U1にとっての空間の快適さを快適さ推定モデルM4の出力情報として出力してよい。 Subsequently, the information processing apparatus 100 may estimate the comfort of the space for the user U1 at the place P12 where the camera is not installed by using the comfort estimation model M4. Specifically, in the information processing apparatus 100, a camera is installed using a feature vector V11 showing the characteristics of the person area R11 in the place P11 where the camera is installed and a feature vector V12 showing the features of the person area R12. The comfort of the space for the user U1 in the absence P12 may be estimated. For example, the information processing apparatus 100 inputs the feature vector V11, the feature vector V12, and the feature vector V23 into the comfort estimation model M4 to comfort the space comfort for the user U1 in the place P12 where the camera is not installed. It may be output as output information of the estimation model M4.

このように、情報処理装置100は、カメラが設置されていない場所P12の近くのカメラが設置されている場所P11における利用者U1のRGB画像情報やサーマル画像情報に基づいて、カメラが設置されていない場所P12における利用者U1にとっての空間の快適さを推定する。ここで、カメラが設置されていない場所P12とカメラが設置されている場所P11は距離が近いので、場所P11と場所P12における利用者U1の着衣量や代謝量(活動量)に関する情報はほとんど同じとみなすことができる。したがって、情報処理装置100は、カメラが設置されない場所P12における利用者U1にとっての空間の快適さを精度よく推定することができる。 As described above, in the information processing apparatus 100, the camera is installed based on the RGB image information and the thermal image information of the user U1 in the place P11 where the camera is installed near the place P12 where the camera is not installed. Estimate the comfort of the space for the user U1 in the absence P12. Here, since the place P12 where the camera is not installed and the place P11 where the camera is installed are close to each other, the information on the amount of clothing and the amount of metabolism (activity amount) of the user U1 at the place P11 and the place P12 is almost the same. Can be regarded as. Therefore, the information processing apparatus 100 can accurately estimate the comfort of the space for the user U1 in the place P12 where the camera is not installed.

次に、図2では、利用者U1が、カメラが設置されていない場所P12からカメラが設置されていない場所P13へ移動する。このとき、情報処理装置100は、場所P13に設置された環境センサ40-3によって検出されたその時の温度および湿度に関する環境情報(以下、環境情報#13ともいう)を環境センサ40-3から取得してよい。情報処理装置100は、環境情報#13を取得すると、学習モデルM3を用いて、環境情報#13の特徴を示す特徴ベクトルV33を生成してよい。また、情報処理装置100は、環境情報#13を取得すると、環境センサ40-3を識別するセンサID「40-3」と環境情報#13と環境情報#13の取得時刻とを対応付けて記憶してよい。 Next, in FIG. 2, the user U1 moves from the place P12 where the camera is not installed to the place P13 where the camera is not installed. At this time, the information processing apparatus 100 acquires environmental information (hereinafter, also referred to as environmental information # 13) regarding the temperature and humidity at that time detected by the environment sensor 40-3 installed at the place P13 from the environment sensor 40-3. You can do it. When the information processing apparatus 100 acquires the environment information # 13, the information processing apparatus 100 may generate a feature vector V33 indicating the characteristics of the environment information # 13 by using the learning model M3. Further, when the information processing apparatus 100 acquires the environment information # 13, the sensor ID "40-3" that identifies the environment sensor 40-3, the environment information # 13, and the acquisition time of the environment information # 13 are stored in association with each other. You can do it.

続いて、情報処理装置100は、快適さ推定モデルM4を用いて、カメラが設置されていない場所P13における利用者U1にとっての空間の快適さを推定してよい。具体的には、情報処理装置100は、カメラが設置されている場所P11における人物領域R11の特徴を示す特徴ベクトルV11および人物領域R12の特徴を示す特徴ベクトルV12を用いて、カメラが設置されていない場所P13における利用者U1にとっての空間の快適さを推定してよい。例えば、情報処理装置100は、特徴ベクトルV11と特徴ベクトルV12と特徴ベクトルV33を快適さ推定モデルM4に入力して、カメラが設置されていない場所P13における利用者U1にとっての空間の快適さを快適さ推定モデルM4の出力情報として出力してよい。 Subsequently, the information processing apparatus 100 may estimate the comfort of the space for the user U1 at the place P13 where the camera is not installed by using the comfort estimation model M4. Specifically, in the information processing apparatus 100, a camera is installed using a feature vector V11 showing the characteristics of the person area R11 in the place P11 where the camera is installed and a feature vector V12 showing the features of the person area R12. The comfort of the space for the user U1 in the absence P13 may be estimated. For example, the information processing apparatus 100 inputs the feature vector V11, the feature vector V12, and the feature vector V33 into the comfort estimation model M4 to comfort the space comfort for the user U1 in the place P13 where the camera is not installed. It may be output as output information of the estimation model M4.

このように、情報処理装置100は、カメラが設置されていない場所P13の近くのカメラが設置されている場所P11における利用者U1のRGB画像情報やサーマル画像情報に基づいて、カメラが設置されていない場所P13における利用者U1にとっての空間の快適さを推定する。ここで、カメラが設置されていない場所P13とカメラが設置されている場所P11は距離が近いので、場所P11と場所P13における利用者U1の着衣量や代謝量(活動量)に関する情報はほとんど同じとみなすことができる。したがって、情報処理装置100は、カメラが設置されない場所P13における利用者U1にとっての空間の快適さを精度よく推定することができる。 As described above, in the information processing apparatus 100, the camera is installed based on the RGB image information and the thermal image information of the user U1 in the place P11 where the camera is installed near the place P13 where the camera is not installed. Estimate the comfort of the space for the user U1 in the absence P13. Here, since the place P13 where the camera is not installed and the place P11 where the camera is installed are close to each other, the information on the amount of clothing and the amount of metabolism (activity amount) of the user U1 at the place P11 and the place P13 is almost the same. Can be regarded as. Therefore, the information processing apparatus 100 can accurately estimate the comfort of the space for the user U1 in the place P13 where the camera is not installed.

次に、図2では、利用者U1が、カメラが設置されていない場所P13からカメラが設置されている場所P14へ移動する。このとき、情報処理装置100は、場所P14に設置されたRGBカメラ20-4によって撮影されたRGB画像#14をRGBカメラ20-4から取得してよい。続いて、情報処理装置100は、RGB画像#14を取得すると、RGB画像#14に含まれる利用者U1の顔画像情報と認証装置50-1から取得した利用者U1の顔画像情報#11とを照合して、RGB画像#14に含まれる利用者U1を特定してよい。 Next, in FIG. 2, the user U1 moves from the place P13 where the camera is not installed to the place P14 where the camera is installed. At this time, the information processing apparatus 100 may acquire the RGB image # 14 taken by the RGB camera 20-4 installed at the place P14 from the RGB camera 20-4. Subsequently, when the information processing apparatus 100 acquires the RGB image # 14, the face image information of the user U1 included in the RGB image # 14 and the face image information # 11 of the user U1 acquired from the authentication device 50-1 are obtained. May be collated to identify the user U1 included in the RGB image # 14.

また、情報処理装置100は、RGB画像#14を取得すると、RGB画像#14に関する画像情報(以下、RGB画像情報#14ともいう)を生成してよい。例えば、情報処理装置100は、RGB画像#14を取得すると、姿勢推定処理によってRGB画像#14のうち利用者U1の人物領域R14を特定してよい。続いて、情報処理装置100は、人物領域R14を特定すると、RGB画像情報#14の一例として、学習モデルM1を用いて、人物領域R14の特徴を示す特徴ベクトルV41を生成してよい。 Further, when the information processing apparatus 100 acquires the RGB image # 14, it may generate image information related to the RGB image # 14 (hereinafter, also referred to as RGB image information # 14). For example, when the information processing apparatus 100 acquires the RGB image # 14, the information processing apparatus 100 may specify the person area R14 of the user U1 in the RGB image # 14 by the posture estimation process. Subsequently, when the information processing apparatus 100 identifies the person region R14, the learning model M1 may be used as an example of the RGB image information # 14 to generate a feature vector V41 showing the characteristics of the person region R14.

また、情報処理装置100は、場所P14に設置された赤外線カメラ30-4によって撮影されたサーマル画像#14を赤外線カメラ30-4から取得してよい。情報処理装置100は、サーマル画像#14を取得すると、サーマル画像#14に関する画像情報(以下、サーマル画像情報#14ともいう)を生成してよい。例えば、情報処理装置100は、サーマル画像#14を取得すると、姿勢推定処理に基づいてサーマル画像#14のうち利用者U1の人物領域R15を特定してよい。続いて、情報処理装置100は、人物領域R15を特定すると、サーマル画像情報#14の一例として、学習モデルM2を用いて、人物領域R15の特徴を示す特徴ベクトルV42を生成してよい。 Further, the information processing apparatus 100 may acquire the thermal image # 14 taken by the infrared camera 30-4 installed at the place P14 from the infrared camera 30-4. When the information processing apparatus 100 acquires the thermal image # 14, it may generate image information related to the thermal image # 14 (hereinafter, also referred to as thermal image information # 14). For example, when the information processing apparatus 100 acquires the thermal image # 14, the information processing apparatus 100 may specify the person area R15 of the user U1 in the thermal image # 14 based on the posture estimation process. Subsequently, when the information processing apparatus 100 identifies the person region R15, the learning model M2 may be used as an example of the thermal image information # 14 to generate a feature vector V42 showing the characteristics of the person region R15.

また、情報処理装置100は、RGB画像情報#14(特徴ベクトルV41)およびサーマル画像情報#14(特徴ベクトルV42)を生成すると、利用者U1の画像情報#1と対応付けて記憶したRGB画像情報#11(特徴ベクトルV11)とサーマル画像情報#11(特徴ベクトルV12)を削除してよい。続いて、情報処理装置100は、RGB画像情報#14(特徴ベクトルV41)とサーマル画像情報#14(特徴ベクトルV42)と認証装置50-1から取得した利用者U1の顔画像情報#11とを対応付けて記憶してよい。 Further, when the information processing apparatus 100 generates the RGB image information # 14 (feature vector V41) and the thermal image information # 14 (feature vector V42), the RGB image information stored in association with the image information # 1 of the user U1 is stored. # 11 (feature vector V11) and thermal image information # 11 (feature vector V12) may be deleted. Subsequently, the information processing apparatus 100 obtains RGB image information # 14 (feature vector V41), thermal image information # 14 (feature vector V42), and user U1 face image information # 11 acquired from the authentication device 50-1. It may be associated and stored.

このように、情報処理装置100は、RGB画像情報やサーマル画像情報を取得する度に、利用者の顔画像情報と対応付けて記憶するRGB画像情報やサーマル画像情報を更新してよい。 As described above, each time the information processing apparatus 100 acquires RGB image information or thermal image information, the information processing apparatus 100 may update the RGB image information or thermal image information stored in association with the user's face image information.

また、情報処理装置100は、場所P14に設置された環境センサ40-4によって検出されたその時の温度および湿度に関する環境情報(以下、環境情報#14ともいう)を環境センサ40-4から取得してよい。情報処理装置100は、環境情報#14を取得すると、学習モデルM3を用いて、環境情報#14の特徴を示す特徴ベクトルV43を生成してよい。 Further, the information processing apparatus 100 acquires environmental information (hereinafter, also referred to as environmental information # 14) regarding the temperature and humidity at that time detected by the environment sensor 40-4 installed at the place P14 from the environment sensor 40-4. It's okay. When the information processing apparatus 100 acquires the environment information # 14, the information processing apparatus 100 may generate a feature vector V43 indicating the characteristics of the environment information # 14 by using the learning model M3.

また、情報処理装置100は、環境情報#14を取得すると、環境センサ40-4を識別するセンサID「40-4」と環境情報#14と環境情報#14の取得時刻とを対応付けて記憶してよい。 Further, when the information processing apparatus 100 acquires the environment information # 14, the sensor ID “40-4” that identifies the environment sensor 40-4, the environment information # 14, and the acquisition time of the environment information # 14 are stored in association with each other. You can do it.

続いて、情報処理装置100は、快適さ推定モデルM4を用いて、カメラが設置されている場所P14における利用者U1にとっての空間の快適さを推定してよい。例えば、情報処理装置100は、特徴ベクトルV41と特徴ベクトルV42と特徴ベクトルV43を快適さ推定モデルM4に入力して、カメラが設置されている場所P14における利用者U1にとっての空間の快適さを快適さ推定モデルM4の出力情報として出力してよい。 Subsequently, the information processing apparatus 100 may estimate the comfort of the space for the user U1 at the place P14 where the camera is installed by using the comfort estimation model M4. For example, the information processing apparatus 100 inputs the feature vector V41, the feature vector V42, and the feature vector V43 into the comfort estimation model M4 to comfort the space comfort for the user U1 at the place P14 where the camera is installed. It may be output as output information of the estimation model M4.

次に、図2では、利用者U1が、カメラが設置されている場所P14からカメラが設置されていない場所P15へ移動する。このとき、情報処理装置100は、場所P15に設置された環境センサ40-5によって検出されたその時の温度および湿度に関する環境情報(以下、環境情報#15ともいう)を環境センサ40-5から取得してよい。情報処理装置100は、環境情報#15を取得すると、学習モデルM3を用いて、環境情報#15の特徴を示す特徴ベクトルV53を生成してよい。また、情報処理装置100は、環境情報#15を取得すると、環境センサ40-5を識別するセンサID「40-5」と環境情報#15と環境情報#15の取得時刻とを対応付けて記憶してよい。 Next, in FIG. 2, the user U1 moves from the place P14 where the camera is installed to the place P15 where the camera is not installed. At this time, the information processing apparatus 100 acquires environmental information (hereinafter, also referred to as environmental information # 15) regarding the temperature and humidity at that time detected by the environment sensor 40-5 installed at the place P15 from the environment sensor 40-5. You can do it. When the information processing apparatus 100 acquires the environment information # 15, the information processing apparatus 100 may generate a feature vector V53 indicating the characteristics of the environment information # 15 by using the learning model M3. Further, when the information processing apparatus 100 acquires the environment information # 15, the sensor ID "40-5" that identifies the environment sensor 40-5, the environment information # 15, and the acquisition time of the environment information # 15 are stored in association with each other. You can do it.

続いて、情報処理装置100は、快適さ推定モデルM4を用いて、カメラが設置されていない場所P15における利用者U1にとっての空間の快適さを推定してよい。具体的には、情報処理装置100は、カメラが設置されている場所P14における人物領域R14の特徴を示す特徴ベクトルV41および人物領域R15の特徴を示す特徴ベクトルV42を用いて、カメラが設置されていない場所P15における利用者U1にとっての空間の快適さを推定してよい。例えば、情報処理装置100は、特徴ベクトルV41と特徴ベクトルV42と特徴ベクトルV53を快適さ推定モデルM4に入力して、カメラが設置されていない場所P15における利用者U1にとっての空間の快適さを快適さ推定モデルM4の出力情報として出力してよい。 Subsequently, the information processing apparatus 100 may estimate the comfort of the space for the user U1 at the place P15 where the camera is not installed by using the comfort estimation model M4. Specifically, in the information processing apparatus 100, a camera is installed using a feature vector V41 showing the characteristics of the person area R14 and a feature vector V42 showing the features of the person area R15 in the place P14 where the camera is installed. The comfort of the space for the user U1 in the absence P15 may be estimated. For example, the information processing apparatus 100 inputs the feature vector V41, the feature vector V42, and the feature vector V53 into the comfort estimation model M4 to comfort the space comfort for the user U1 in the place P15 where the camera is not installed. It may be output as output information of the estimation model M4.

このように、情報処理装置100は、カメラが設置されていない場所P15の近くのカメラが設置されている場所P14における利用者U1のRGB画像情報やサーマル画像情報に基づいて、カメラが設置されていない場所P15における利用者U1にとっての空間の快適さを推定する。ここで、カメラが設置されていない場所P15とカメラが設置されている場所P14は距離が近いので、場所P14と場所P15における利用者U1の着衣量や代謝量(活動量)に関する情報はほとんど同じとみなすことができる。したがって、情報処理装置100は、カメラが設置されない場所P15における利用者U1にとっての空間の快適さを精度よく推定することができる。 As described above, in the information processing apparatus 100, the camera is installed based on the RGB image information and the thermal image information of the user U1 in the place P14 where the camera is installed near the place P15 where the camera is not installed. Estimate the comfort of the space for the user U1 in the absence P15. Here, since the place P15 where the camera is not installed and the place P14 where the camera is installed are close to each other, the information on the amount of clothing and the amount of metabolism (activity amount) of the user U1 at the place P14 and the place P15 is almost the same. Can be regarded as. Therefore, the information processing apparatus 100 can accurately estimate the comfort of the space for the user U1 in the place P15 where the camera is not installed.

また、情報処理装置100は、利用者U1の最新のRGB画像情報やサーマル画像情報に基づいて、利用者U1にとっての空間の快適さを推定することができる。そのため、情報処理装置100は、利用者U1の着衣量や代謝量(活動量)に関する情報が時間経過とともに変化する場合であっても、利用者U1の最新の着衣量や代謝量(活動量)に関する情報に基づいて、利用者U1にとっての空間の快適さを推定することができる。したがって、情報処理装置100は、カメラが設置されない場所P15における利用者U1にとっての空間の快適さを精度よく推定することができる。 Further, the information processing apparatus 100 can estimate the comfort of the space for the user U1 based on the latest RGB image information and the thermal image information of the user U1. Therefore, the information processing apparatus 100 has the latest clothing amount and metabolic amount (activity amount) of the user U1 even when the information regarding the clothing amount and the metabolic amount (activity amount) of the user U1 changes with the passage of time. Based on the information about, the comfort of the space for the user U1 can be estimated. Therefore, the information processing apparatus 100 can accurately estimate the comfort of the space for the user U1 in the place P15 where the camera is not installed.

次に、図2では、利用者U1が、カメラが設置されていない場所P15からカメラが設置されている場所P16へ移動する。このとき、情報処理装置100は、場所P16に設置されたRGBカメラ20-6によって撮影されたRGB画像#16をRGBカメラ20-6から取得してよい。続いて、情報処理装置100は、RGB画像#16を取得すると、RGB画像#16に含まれる利用者U1の顔画像情報と認証装置50-1から取得した利用者U1の顔画像情報#11とを照合して、RGB画像#16に含まれる利用者U1を特定してよい。 Next, in FIG. 2, the user U1 moves from the place P15 where the camera is not installed to the place P16 where the camera is installed. At this time, the information processing apparatus 100 may acquire the RGB image # 16 taken by the RGB cameras 20-6 installed at the place P16 from the RGB cameras 20-6. Subsequently, when the information processing apparatus 100 acquires the RGB image # 16, the face image information of the user U1 included in the RGB image # 16 and the face image information # 11 of the user U1 acquired from the authentication device 50-1 are obtained. May be collated to identify the user U1 included in the RGB image # 16.

また、情報処理装置100は、RGB画像#16を取得すると、RGB画像#16に関する画像情報(以下、RGB画像情報#16ともいう)を生成してよい。例えば、情報処理装置100は、RGB画像#16を取得すると、姿勢推定処理によってRGB画像#16のうち利用者U1の人物領域R16を特定してよい。続いて、情報処理装置100は、人物領域R16を特定すると、RGB画像情報#16の一例として、学習モデルM1を用いて、人物領域R16の特徴を示す特徴ベクトルV61を生成してよい。 Further, when the information processing apparatus 100 acquires the RGB image # 16, it may generate image information related to the RGB image # 16 (hereinafter, also referred to as RGB image information # 16). For example, when the information processing apparatus 100 acquires the RGB image # 16, the information processing apparatus 100 may specify the person area R16 of the user U1 in the RGB image # 16 by the posture estimation process. Subsequently, when the information processing apparatus 100 specifies the person region R16, the learning model M1 may be used as an example of the RGB image information # 16 to generate a feature vector V61 showing the characteristics of the person region R16.

また、情報処理装置100は、場所P16に設置された赤外線カメラ30-6によって撮影されたサーマル画像#16を赤外線カメラ30-6から取得してよい。情報処理装置100は、サーマル画像#16を取得すると、サーマル画像#16に関する画像情報(以下、サーマル画像情報#16ともいう)を生成してよい。例えば、情報処理装置100は、サーマル画像#16を取得すると、姿勢推定処理に基づいてサーマル画像#16のうち利用者U1の人物領域R17を特定してよい。続いて、情報処理装置100は、人物領域R17を特定すると、サーマル画像情報#16の一例として、学習モデルM2を用いて、人物領域R17の特徴を示す特徴ベクトルV62を生成してよい。 Further, the information processing apparatus 100 may acquire the thermal image # 16 taken by the infrared camera 30-6 installed at the place P16 from the infrared camera 30-6. When the information processing apparatus 100 acquires the thermal image # 16, it may generate image information related to the thermal image # 16 (hereinafter, also referred to as thermal image information # 16). For example, when the information processing apparatus 100 acquires the thermal image # 16, the information processing apparatus 100 may specify the person area R17 of the user U1 in the thermal image # 16 based on the posture estimation process. Subsequently, when the information processing apparatus 100 identifies the person region R17, the learning model M2 may be used as an example of the thermal image information # 16 to generate a feature vector V62 showing the characteristics of the person region R17.

また、情報処理装置100は、RGB画像情報#16(特徴ベクトルV61)およびサーマル画像情報#16(特徴ベクトルV62)を生成すると、利用者U1の画像情報#1と対応付けて記憶したRGB画像情報#14(特徴ベクトルV41)およびサーマル画像情報#14(特徴ベクトルV42)を削除してよい。続いて、情報処理装置100は、RGB画像情報#16(特徴ベクトルV61)とサーマル画像情報#16(特徴ベクトルV62)と認証装置50-1から取得した利用者U1の顔画像情報#11とを対応付けて記憶してよい。 Further, when the information processing apparatus 100 generates the RGB image information # 16 (feature vector V61) and the thermal image information # 16 (feature vector V62), the RGB image information stored in association with the image information # 1 of the user U1 is stored. # 14 (feature vector V41) and thermal image information # 14 (feature vector V42) may be deleted. Subsequently, the information processing apparatus 100 obtains RGB image information # 16 (feature vector V61), thermal image information # 16 (feature vector V62), and user U1 face image information # 11 acquired from the authentication device 50-1. It may be associated and stored.

このように、情報処理装置100は、RGB画像情報やサーマル画像情報を取得する度に、利用者の顔画像情報と対応付けて記憶するRGB画像情報やサーマル画像情報を更新する。 In this way, each time the information processing apparatus 100 acquires RGB image information or thermal image information, the information processing apparatus 100 updates the RGB image information or thermal image information stored in association with the user's face image information.

また、情報処理装置100は、場所P16に設置された環境センサ40-6によって検出されたその時の温度および湿度に関する環境情報(以下、環境情報#16ともいう)を環境センサ40-6から取得してよい。情報処理装置100は、環境情報#16を取得すると、学習モデルM3を用いて、環境情報#16の特徴を示す特徴ベクトルV63を生成してよい。 Further, the information processing apparatus 100 acquires environmental information (hereinafter, also referred to as environmental information # 16) regarding the temperature and humidity at that time detected by the environment sensor 40-6 installed at the place P16 from the environment sensor 40-6. It's okay. When the information processing apparatus 100 acquires the environment information # 16, the information processing apparatus 100 may generate a feature vector V63 indicating the features of the environment information # 16 by using the learning model M3.

また、情報処理装置100は、環境情報#16を取得すると、環境センサ40-6を識別するセンサID「40-6」と環境情報#16と環境情報#16の取得時刻とを対応付けて記憶してよい。 Further, when the information processing apparatus 100 acquires the environment information # 16, the sensor ID "40-6" that identifies the environment sensor 40-6, the environment information # 16, and the acquisition time of the environment information # 16 are stored in association with each other. You can do it.

続いて、情報処理装置100は、快適さ推定モデルM4を用いて、カメラが設置された場所P16における利用者U1にとっての空間の快適さを推定してよい。例えば、情報処理装置100は、特徴ベクトルV61と特徴ベクトルV62と特徴ベクトルV63を快適さ推定モデルM4に入力して、カメラが設置された場所P16における利用者U1にとっての空間の快適さを快適さ推定モデルM4の出力情報として出力してよい。 Subsequently, the information processing apparatus 100 may estimate the comfort of the space for the user U1 at the place P16 where the camera is installed by using the comfort estimation model M4. For example, the information processing apparatus 100 inputs the feature vector V61, the feature vector V62, and the feature vector V63 into the comfort estimation model M4 to make the space comfort for the user U1 at the place P16 where the camera is installed comfortable. It may be output as output information of the estimation model M4.

〔1-4.情報処理装置の構成〕
次に、図3を用いて、第1の実施形態に係る情報処理装置100の構成について説明する。図3は、第1の実施形態に係る情報処理装置100の構成例を示す図である。情報処理装置100は、通信部110と、記憶部120と、制御部130とを有してよい。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示させるための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[1-4. Information processing device configuration]
Next, the configuration of the information processing apparatus 100 according to the first embodiment will be described with reference to FIG. FIG. 3 is a diagram showing a configuration example of the information processing apparatus 100 according to the first embodiment. The information processing device 100 may include a communication unit 110, a storage unit 120, and a control unit 130. The information processing device 100 includes an input unit (for example, a keyboard, a mouse, etc.) that receives various operations from the administrator of the information processing device 100, and a display unit (for example, a liquid crystal display, etc.) for displaying various information. You may have.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、例えば、空調装置10やRGBカメラ20や赤外線カメラ30や環境センサ40との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 is connected to the network by wire or wirelessly, and transmits / receives information to / from, for example, the air conditioner 10, the RGB camera 20, the infrared camera 30, and the environment sensor 40.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。例えば、記憶部120は、各種の学習モデルに関する情報を記憶してよい。例えば、記憶部120は、各種の学習モデルとして、学習モデルM1~M3および快適さ推定モデルM4に関する情報を記憶してよい。例えば、記憶部120は、各種の学習モデルの接続係数に関する情報を記憶してよい。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. For example, the storage unit 120 may store information about various learning models. For example, the storage unit 120 may store information about the learning models M1 to M3 and the comfort estimation model M4 as various learning models. For example, the storage unit 120 may store information regarding the connection coefficients of various learning models.

(利用者情報記憶部121)
利用者情報記憶部121は、利用者に関する各種の情報を記憶してよい。ここで、図4を用いて、第1の実施形態に係る利用者情報記憶部121の一例について説明する。図4は、第1の実施形態に係る利用者情報記憶部121の一例を示す図である。
(User information storage unit 121)
The user information storage unit 121 may store various types of information about the user. Here, an example of the user information storage unit 121 according to the first embodiment will be described with reference to FIG. FIG. 4 is a diagram showing an example of the user information storage unit 121 according to the first embodiment.

図4に示す例では、利用者情報記憶部121は、RGBカメラ20によって撮影可能な空間で撮影されたRGB画像に関するRGB画像情報と、顔認証装置である認証装置50から取得した利用者の顔画像情報とを対応付けて記憶してよい。例えば、利用者情報記憶部121は、RGB画像情報の一例として、RGB画像に含まれる利用者の人物領域R1の特徴を示す特徴ベクトルV1と利用者の顔画像情報とを対応付けて記憶してよい。 In the example shown in FIG. 4, the user information storage unit 121 has RGB image information about an RGB image taken in a space that can be photographed by the RGB camera 20, and a user's face acquired from an authentication device 50 that is a face recognition device. It may be stored in association with the image information. For example, the user information storage unit 121 stores, as an example of RGB image information, a feature vector V1 indicating the characteristics of the user's person area R1 included in the RGB image and the user's face image information in association with each other. good.

また、利用者情報記憶部121は、赤外線カメラ30によって撮影可能な空間で撮影されたサーマル画像に関するサーマル画像情報と、顔認証装置である認証装置50から取得した利用者の顔画像情報とを対応付けて記憶してよい。例えば、利用者情報記憶部121は、サーマル画像情報の一例として、サーマル画像に含まれる利用者の人物領域R2の特徴を示す特徴ベクトルV2と利用者の顔画像情報とを対応付けて記憶してよい。 Further, the user information storage unit 121 corresponds between the thermal image information regarding the thermal image taken in the space that can be photographed by the infrared camera 30 and the user's face image information acquired from the authentication device 50 which is a face authentication device. You may attach it and memorize it. For example, the user information storage unit 121 stores, as an example of the thermal image information, the feature vector V2 showing the characteristics of the user's person area R2 included in the thermal image and the user's face image information in association with each other. good.

また、利用者情報記憶部121は、撮影時刻が異なる2以上の画像のうち、撮影時刻が最も新しい画像に関する画像情報と利用者を識別可能な情報とを対応付けて記憶してよい。 Further, the user information storage unit 121 may store the image information related to the image having the latest shooting time among the two or more images having different shooting times in association with the information that can identify the user.

なお、図4では、利用者を識別可能な情報の一例として、顔認証装置である認証装置50から取得した利用者の顔認証用の顔画像情報と画像情報を対応付けて記憶する例について説明したが、利用者を識別可能な情報は利用者の顔画像情報に限られない。例えば、利用者情報記憶部121は、利用者を識別可能な情報の一例として、指紋認証や虹彩認証などの利用者の生体認証処理に用いられる生体認証用情報(指紋認証用情報や虹彩認証用情報など)と画像情報とを対応付けて記憶してよい。また、利用者情報記憶部121は、利用者を識別可能な情報の一例として、ICカード認証などの利用者のアイテム認証処理に用いられるアイテム認証用情報(ICカード認証用情報など)と画像情報とを対応付けて記憶してよい。 Note that FIG. 4 describes, as an example of information that can identify the user, an example in which the face image information for user face authentication acquired from the authentication device 50, which is a face authentication device, and the image information are stored in association with each other. However, the information that can identify the user is not limited to the user's facial image information. For example, the user information storage unit 121 is an example of information that can identify a user, and is used for biometric authentication information (for fingerprint authentication information or iris authentication) used for a user's biometric authentication process such as fingerprint authentication or iris authentication. Information etc.) and image information may be associated and stored. Further, as an example of information that can identify the user, the user information storage unit 121 includes item authentication information (IC card authentication information, etc.) and image information used for the user's item authentication process such as IC card authentication. May be stored in association with.

(環境情報記憶部122)
環境情報記憶部122は、環境センサによって検出された環境情報を記憶してよい。ここで、図5を用いて、第1の実施形態に係る環境情報記憶部122の一例について説明する。図5は、第1の実施形態に係る環境情報記憶部122の一例を示す図である。図5に示す例では、環境情報記憶部122は、環境センサを識別可能なセンサIDと、環境情報が検出された時刻と、環境情報とを対応づけて記憶してよい。また、環境情報記憶部122は、所定時間ごとに環境センサによって検出された環境情報のログを記憶してよい。
(Environmental information storage unit 122)
The environmental information storage unit 122 may store the environmental information detected by the environmental sensor. Here, an example of the environmental information storage unit 122 according to the first embodiment will be described with reference to FIG. FIG. 5 is a diagram showing an example of the environmental information storage unit 122 according to the first embodiment. In the example shown in FIG. 5, the environment information storage unit 122 may store the sensor ID that can identify the environment sensor, the time when the environment information is detected, and the environment information in association with each other. Further, the environmental information storage unit 122 may store a log of environmental information detected by the environmental sensor at predetermined time intervals.

(制御部130)
制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
The control unit 130 is a controller, and for example, various programs (information processing programs) stored in a storage device inside the information processing device 100 by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. (Corresponding to one example) is realized by executing the RAM as a work area. Further, the control unit 130 is a controller, and is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部130は、取得部131と、推定部132と、空調制御部133とを機能部として有し、以下に説明する情報処理の作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、各機能部は、制御部130の機能を示したものであり、必ずしも物理的に区別されるものでなくともよい。 The control unit 130 has an acquisition unit 131, an estimation unit 132, and an air conditioning control unit 133 as functional units, and realizes or executes the operation of information processing described below. The internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 3, and may be any other configuration as long as it is configured to perform information processing described later. Further, each functional unit indicates the function of the control unit 130, and does not necessarily have to be physically distinguished.

(取得部131)
取得部131は、利用者を識別する利用者IDと顔認証に用いられる利用者の顔画像情報を取得してよい。例えば、取得部131は、利用者IDと利用者の顔画像情報を顔認証装置である認証装置50から取得してよい。取得部131は、利用者IDと利用者の顔画像情報を取得すると、利用者IDと利用者の顔画像情報とを対応付けて利用者情報記憶部121に記憶してよい。
(Acquisition unit 131)
The acquisition unit 131 may acquire the user ID that identifies the user and the face image information of the user used for face authentication. For example, the acquisition unit 131 may acquire the user ID and the user's face image information from the authentication device 50, which is a face authentication device. When the acquisition unit 131 acquires the user ID and the user's face image information, the user ID and the user's face image information may be associated and stored in the user information storage unit 121.

また、取得部131は、利用者の顔認証が成功したという認証情報とともに利用者を識別する利用者IDおよび利用者の顔画像情報を認証装置50から取得してよい。 Further, the acquisition unit 131 may acquire the user ID for identifying the user and the user's face image information from the authentication device 50 together with the authentication information that the user's face authentication is successful.

また、取得部131は、RGBカメラ20によって撮影可能な空間で撮影されたRGB画像をRGBカメラ20から取得してよい。例えば、取得部131は、RGBカメラ20によって撮影可能な空間の一例として、RGBカメラ20が設置された場所で撮影されたRGB画像をRGBカメラ20から取得してよい。 Further, the acquisition unit 131 may acquire an RGB image taken in a space that can be photographed by the RGB camera 20 from the RGB camera 20. For example, the acquisition unit 131 may acquire an RGB image taken at a place where the RGB camera 20 is installed from the RGB camera 20 as an example of a space that can be photographed by the RGB camera 20.

また、取得部131は、2以上の異なるRGBカメラ20それぞれから撮影時刻の異なる2以上の画像をそれぞれ取得してよい。例えば、取得部131は、異なる場所に設置された2以上の異なるRGBカメラ20それぞれから移動中の利用者を撮像したRGB画像を取得してよい。 Further, the acquisition unit 131 may acquire two or more images having different shooting times from each of the two or more different RGB cameras 20. For example, the acquisition unit 131 may acquire RGB images of moving users from two or more different RGB cameras 20 installed at different places.

また、取得部131は、赤外線カメラ30によって撮影可能な空間で撮影されたサーマル画像を赤外線カメラ30から取得してよい。例えば、取得部131は、赤外線カメラ30によって撮影可能な空間の一例として、赤外線カメラ30が設置された場所で撮影されたサーマル画像を赤外線カメラ30から取得してよい。 Further, the acquisition unit 131 may acquire a thermal image taken in a space that can be photographed by the infrared camera 30 from the infrared camera 30. For example, the acquisition unit 131 may acquire a thermal image taken at a place where the infrared camera 30 is installed from the infrared camera 30 as an example of a space that can be photographed by the infrared camera 30.

また、取得部131は、2以上の異なる赤外線カメラ30それぞれから撮影時刻の異なる2以上のサーマル画像をそれぞれ取得してよい。例えば、取得部131は、異なる場所に設置された2以上の異なる赤外線カメラ30それぞれから移動中の利用者を撮像したサーマル画像を取得してよい。 Further, the acquisition unit 131 may acquire two or more thermal images having different shooting times from each of the two or more different infrared cameras 30. For example, the acquisition unit 131 may acquire thermal images of moving users from two or more different infrared cameras 30 installed at different locations.

また、取得部131は、撮影装置によって撮影不可能な空間に設置された環境センサ40によって検出された温度および湿度に関する環境情報を環境センサ40から取得してよい。例えば、取得部131は、撮影不可能な空間の一例として、撮影装置が設置されていない場所に設置された環境センサ40によって検出された温度および湿度に関する環境情報を環境センサ40から取得してよい。取得部131は、環境情報を取得すると、環境センサ40を識別するセンサIDと、取得した環境情報と、環境情報の取得時刻とを対応付けて環境情報記憶部122に記憶してよい。 Further, the acquisition unit 131 may acquire environmental information regarding the temperature and humidity detected by the environment sensor 40 installed in a space that cannot be photographed by the photographing device from the environment sensor 40. For example, the acquisition unit 131 may acquire environmental information regarding temperature and humidity detected by the environment sensor 40 installed in a place where the imaging device is not installed, as an example of a space in which imaging is not possible, from the environment sensor 40. .. When the acquisition unit 131 acquires the environment information, the sensor ID that identifies the environment sensor 40, the acquired environment information, and the acquisition time of the environment information may be associated and stored in the environment information storage unit 122.

また、取得部131は、撮影装置によって撮影可能な空間に設置された環境センサ40によって検出された温度および湿度に関する環境情報を環境センサ40から取得してよい。例えば、取得部131は、撮影可能な空間の一例として、撮影装置が設置されている場所に設置された環境センサ40によって検出された温度および湿度に関する環境情報を環境センサ40から取得してよい。取得部131は、環境情報を取得すると、環境センサ40を識別するセンサIDと、取得した環境情報と、環境情報の取得時刻とを対応付けて環境情報記憶部122に記憶してよい。 In addition, the acquisition unit 131 may acquire environmental information regarding temperature and humidity detected by the environment sensor 40 installed in a space that can be photographed by the photographing device from the environment sensor 40. For example, the acquisition unit 131 may acquire environmental information regarding the temperature and humidity detected by the environment sensor 40 installed at the place where the photographing apparatus is installed from the environment sensor 40 as an example of the space in which the photographing apparatus can be photographed. When the acquisition unit 131 acquires the environment information, the sensor ID that identifies the environment sensor 40, the acquired environment information, and the acquisition time of the environment information may be associated and stored in the environment information storage unit 122.

また、取得部131は、各種の機械学習モデル(以下、「学習モデル」と記載する場合がある)に関する情報を外部の情報処理装置から取得してよい。具体的には、取得部131は、学習モデルの一例として、RGB画像が入力情報として入力された場合に、RGB画像の特徴を示す特徴ベクトルV1を出力情報として出力する学習モデルM1を取得してよい。例えば、取得部131は、ImageNet等の画像データベースに登録されている多数の(例えば、1000万枚を超える)画像から画像に写っている物体名(クラス)を推定するよう学習された学習モデルM1を取得してよい。例えば、取得部131は、畳み込みニューラルネットワークである学習モデルM1を取得してよい。例えば、取得部131は、Resnet50である学習モデルM1を取得してよい。例えば、取得部131は、RGB画像が入力情報として入力された場合に、RGB画像の特徴を示す2048次元の特徴ベクトルV1を出力情報として出力する機械学習モデルM1を取得してよい。続いて、取得部131は、学習モデルM1を取得すると、学習モデルM1に関する情報と学習モデルM1を識別する識別情報「M1」とを対応付けて記憶部120に格納してよい。 Further, the acquisition unit 131 may acquire information about various machine learning models (hereinafter, may be referred to as "learning model") from an external information processing device. Specifically, as an example of the learning model, the acquisition unit 131 acquires a learning model M1 that outputs a feature vector V1 indicating the characteristics of the RGB image as output information when the RGB image is input as input information. good. For example, the acquisition unit 131 is a learning model M1 learned to estimate an object name (class) appearing in an image from a large number of images (for example, exceeding 10 million images) registered in an image database such as ImageNet. May be obtained. For example, the acquisition unit 131 may acquire the learning model M1 which is a convolutional neural network. For example, the acquisition unit 131 may acquire the learning model M1 which is Renet50. For example, the acquisition unit 131 may acquire a machine learning model M1 that outputs a 2048-dimensional feature vector V1 indicating the characteristics of an RGB image as output information when an RGB image is input as input information. Subsequently, when the learning model M1 is acquired, the acquisition unit 131 may store the information about the learning model M1 and the identification information “M1” that identifies the learning model M1 in association with each other in the storage unit 120.

また、取得部131は、学習モデルの一例として、サーマル画像が入力情報として入力された場合に、サーマル画像の特徴を示す特徴ベクトルV2を出力情報として出力する学習モデルM2を取得してよい。例えば、取得部131は、ImageNet等の画像データベースに登録されている多数の(例えば、1000万枚を超える)サーマル画像からサーマル画像に写っている物体名(クラス)を推定するよう学習された学習モデルM2を取得してよい。例えば、取得部131は、畳み込みニューラルネットワークである学習モデルM2を取得してよい。例えば、取得部131は、Resnet50である学習モデルM2を取得してよい。例えば、取得部131は、サーマル画像が入力情報として入力された場合に、サーマル画像の特徴を示す2048次元の特徴ベクトルV2を出力情報として出力する機械学習モデルM2を取得してよい。続いて、取得部131は、学習モデルM2を取得すると、学習モデルM2に関する情報と学習モデルM2を識別する識別情報「M2」とを対応付けて記憶部120に格納してよい。 Further, as an example of the learning model, the acquisition unit 131 may acquire a learning model M2 that outputs a feature vector V2 indicating the characteristics of the thermal image as output information when the thermal image is input as input information. For example, the acquisition unit 131 is learned to estimate the object name (class) reflected in the thermal image from a large number of thermal images (for example, exceeding 10 million images) registered in an image database such as ImageNet. The model M2 may be acquired. For example, the acquisition unit 131 may acquire the learning model M2 which is a convolutional neural network. For example, the acquisition unit 131 may acquire the learning model M2 which is Renet50. For example, the acquisition unit 131 may acquire a machine learning model M2 that outputs a 2048-dimensional feature vector V2 indicating the characteristics of the thermal image as output information when the thermal image is input as input information. Subsequently, when the learning model M2 is acquired, the acquisition unit 131 may store the information about the learning model M2 and the identification information “M2” that identifies the learning model M2 in association with each other in the storage unit 120.

また、取得部131は、学習モデルの一例として、環境情報が入力情報として入力された場合に、環境情報の特徴を示す特徴ベクトルV3を出力情報として出力する学習モデルM3を取得してよい。具体的には、例えば、取得部131は、環境情報として空間の温度および湿度に関する情報が入力情報として入力された場合に、空間の温度および湿度に関する情報の特徴を示す特徴ベクトルV3を出力情報として出力する学習モデルM3を取得してよい。例えば、取得部131は、環境情報から環境情報の特徴を示す特徴ベクトルを推定するよう学習された学習モデルM3を取得してよい。例えば、取得部131は、ニューラルネットワークである学習モデルM3を取得してよい。例えば、取得部131は、環境情報が入力情報として入力された場合に、環境情報の特徴を示す2048次元の特徴ベクトルV3を出力情報として出力する機械学習モデルM3を取得してよい。続いて、取得部131は、学習モデルM3を取得すると、学習モデルM3に関する情報と学習モデルM3を識別する識別情報「M3」とを対応付けて記憶部120に格納してよい。 Further, as an example of the learning model, the acquisition unit 131 may acquire the learning model M3 that outputs the feature vector V3 indicating the characteristics of the environmental information as the output information when the environmental information is input as the input information. Specifically, for example, when the information on the temperature and humidity of the space is input as the input information, the acquisition unit 131 uses the feature vector V3 showing the characteristics of the information on the temperature and humidity of the space as the output information. The learning model M3 to be output may be acquired. For example, the acquisition unit 131 may acquire the learning model M3 trained to estimate the feature vector indicating the feature of the environmental information from the environmental information. For example, the acquisition unit 131 may acquire the learning model M3 which is a neural network. For example, the acquisition unit 131 may acquire a machine learning model M3 that outputs a 2048-dimensional feature vector V3 indicating the characteristics of the environmental information as output information when the environmental information is input as input information. Subsequently, when the learning model M3 is acquired, the acquisition unit 131 may store the information about the learning model M3 and the identification information “M3” that identifies the learning model M3 in association with each other in the storage unit 120.

また、取得部131は、学習モデルの一例として、空間に所在する人物の特徴を示す特徴ベクトルV4が入力情報として入力された場合に、人物にとっての空間の快適さを出力情報として出力する快適さ推定モデルM4を取得してよい。例えば、取得部131は、特徴ベクトルV4が入力情報として入力された場合に、快適さを示す各カテゴリに特徴ベクトルV4が分類される確率を出力情報として出力するよう学習された快適さ推定モデルM4を取得してよい。例えば、取得部131は、特徴ベクトルV4が入力情報として入力された場合に、「寒い」カテゴリに分類される確率と「暑い」カテゴリに分類される確率と「普通」カテゴリに分類される確率を出力情報として出力する快適さ推定モデルM4を取得してよい。 Further, as an example of the learning model, the acquisition unit 131 outputs the comfort of the space for the person as the output information when the feature vector V4 indicating the characteristics of the person located in the space is input as the input information. The estimation model M4 may be acquired. For example, the comfort estimation model M4 learned by the acquisition unit 131 to output the probability that the feature vector V4 is classified into each category indicating comfort when the feature vector V4 is input as input information is output as output information. May be obtained. For example, the acquisition unit 131 determines the probability of being classified in the "cold" category, the probability of being classified in the "hot" category, and the probability of being classified in the "normal" category when the feature vector V4 is input as input information. The comfort estimation model M4 to be output as output information may be acquired.

なお、快適さを示すカテゴリは、任意の分類であってよく、上記の例に限定されない。例えば、快適さの分類は、「涼しい」、「暖かい」など他の分類を含んでよい。また、取得部131は、特徴ベクトルV4が入力情報として入力された場合に、特徴ベクトルV4が分類される快適さのカテゴリのラベルを出力情報として出力するよう学習された快適さ推定モデルM4を取得してよい。例えば、取得部131は、特徴ベクトルV4が入力情報として入力された場合に、快適さを示す各カテゴリに特徴ベクトルV4が分類される確率が最も高いカテゴリのラベルを出力情報として出力するよう学習された快適さ推定モデルM4を取得してよい。続いて、取得部131は、快適さ推定モデルM4を取得すると、快適さ推定モデルM4に関する情報と快適さ推定モデルM4を識別する識別情報「M4」とを対応付けて記憶部120に格納してよい。 The category indicating comfort may be any classification and is not limited to the above example. For example, the comfort classification may include other classifications such as "cool" and "warm". Further, the acquisition unit 131 acquires the comfort estimation model M4 learned to output the label of the comfort category in which the feature vector V4 is classified as output information when the feature vector V4 is input as input information. You can do it. For example, when the feature vector V4 is input as input information, the acquisition unit 131 is learned to output the label of the category having the highest probability that the feature vector V4 is classified into each category indicating comfort as output information. The comfort estimation model M4 may be acquired. Subsequently, when the comfort estimation model M4 is acquired, the acquisition unit 131 stores the information about the comfort estimation model M4 and the identification information "M4" that identifies the comfort estimation model M4 in the storage unit 120 in association with each other. good.

(推定部132)
推定部132は、空間に所在する利用者を特定してよい。具体的には、推定部132は、撮影装置によって撮影可能な空間に所在する利用者を特定してよい。推定部132は、撮影装置によって撮影可能な空間の一例として、撮影装置が設置されている場所に所在する利用者を特定してよい。例えば、推定部132は、認証装置50から認証情報を取得すると、RGBカメラ20によって撮影されたRGB画像とRGBカメラ20によって所定時間前(例えば、5分前)に撮影されたRGB画像´をRGBカメラ20から取得してよい。続いて、推定部132は、RGB画像とRGB画像´を取得すると、取得したRGB画像とRGB画像´を比較して、RGB画像´に写っていない人物であってRGB画像に写っている人物(つまり、RGB画像に新たに写り込んだ人物)を認証装置50によって認証された利用者であると特定してよい。
(Estimation unit 132)
The estimation unit 132 may specify a user located in the space. Specifically, the estimation unit 132 may specify a user located in a space that can be photographed by the photographing device. The estimation unit 132 may specify a user located at a place where the photographing device is installed as an example of a space that can be photographed by the photographing device. For example, when the estimation unit 132 acquires the authentication information from the authentication device 50, the RGB image taken by the RGB camera 20 and the RGB image taken by the RGB camera 20 before a predetermined time (for example, 5 minutes ago) are RGB. It may be obtained from the camera 20. Subsequently, when the estimation unit 132 acquires the RGB image and the RGB image', the acquired RGB image and the RGB image' are compared, and the person who is not shown in the RGB image'and is shown in the RGB image ( That is, the person newly reflected in the RGB image) may be identified as the user authenticated by the authentication device 50.

あるいは、推定部132は、RGBカメラ20によって撮影されたRGB画像をRGBカメラ20から取得してよい。続いて、推定部132は、RGB画像を取得すると、利用者情報記憶部121に記憶された顔画像情報とRGB画像を照合して、利用者情報記憶部121に記憶された顔画像情報によって識別される利用者がRGB画像に含まれるか否かを判定してよい。 Alternatively, the estimation unit 132 may acquire an RGB image taken by the RGB camera 20 from the RGB camera 20. Subsequently, when the estimation unit 132 acquires the RGB image, the face image information stored in the user information storage unit 121 is collated with the RGB image, and the face image information stored in the user information storage unit 121 is used for identification. It may be determined whether or not the user to be used is included in the RGB image.

また、推定部132は、撮影装置によって撮影不可能な空間に所在する利用者を特定してよい。推定部132は、撮影装置によって撮影不可能な空間の一例として、撮影装置が設置されていない場所に所在する利用者を特定してよい。より具体的には、推定部132は、撮影装置によって撮影不可能な空間の入口に設置された認証装置50から取得した認証用情報と、利用者情報記憶部121に記憶された利用者を識別可能な認証用情報とを照合することによって、撮影装置によって撮影不可能な空間に存在する利用者を特定してよい。例えば、推定部132は、撮影装置によって撮影不可能な空間の入口に設置された顔認証装置である認証装置50から取得した顔画像情報と、利用者情報記憶部121に記憶された利用者の顔画像情報とを照合することによって、撮影装置によって撮影不可能な空間に存在する利用者を特定してよい。 Further, the estimation unit 132 may specify a user located in a space where photography is not possible by the photographing device. As an example of a space that cannot be photographed by the photographing device, the estimation unit 132 may specify a user located in a place where the photographing device is not installed. More specifically, the estimation unit 132 identifies the authentication information acquired from the authentication device 50 installed at the entrance of the space that cannot be photographed by the photographing device and the user stored in the user information storage unit 121. By collating with possible authentication information, a user who exists in a space that cannot be photographed by the photographing device may be identified. For example, the estimation unit 132 includes face image information acquired from the face recognition device 50, which is a face recognition device installed at the entrance of a space that cannot be photographed by the photographing device, and the user stored in the user information storage unit 121. By collating with the face image information, a user existing in a space that cannot be photographed by the photographing device may be identified.

また、推定部132は、RGB画像に関するRGB画像情報を生成してよい。例えば、推定部132は、取得部131によってRGB画像が取得されると、姿勢推定処理によって取得部131によって取得されたRGB画像のうち利用者の人物領域R1を特定してよい。続いて、推定部132は、人物領域R1を特定すると、RGB画像情報の一例として、人物領域R1に関する情報を生成してよい。例えば、推定部132は、人物領域R1を特定すると、記憶部120から学習モデルM1に関する情報を取得してよい。続いて、推定部132は、学習モデルM1に関する情報を取得すると、人物領域R1に関する情報の一例として、学習モデルM1を用いて、人物領域R1の特徴を示す特徴ベクトルV1を生成してよい。 Further, the estimation unit 132 may generate RGB image information regarding the RGB image. For example, when the RGB image is acquired by the acquisition unit 131, the estimation unit 132 may specify the user's person area R1 among the RGB images acquired by the acquisition unit 131 by the posture estimation process. Subsequently, the estimation unit 132 may generate information about the person area R1 as an example of RGB image information when the person area R1 is specified. For example, the estimation unit 132 may acquire information about the learning model M1 from the storage unit 120 when the person region R1 is specified. Subsequently, when the estimation unit 132 acquires the information regarding the learning model M1, the learning model M1 may be used as an example of the information regarding the person region R1 to generate a feature vector V1 showing the characteristics of the person region R1.

また、推定部132は、サーマル画像に関するサーマル画像情報を生成してよい。具体的には、推定部132は、取得部131によってサーマル画像が取得されると、姿勢推定処理によって取得部131によって取得されたサーマル画像のうち利用者の人物領域R2を特定してよい。例えば、推定部132は、同じ空間を撮影したRGB画像とサーマル画像とを重ね合わせて、RGB画像に対する姿勢推定処理に基づいて特定された人物領域R1と重複するサーマル画像の領域をサーマル画像の人物領域R2として特定してよい。続いて、推定部132は、人物領域R2を特定すると、サーマル画像情報の一例として、人物領域R2に関する情報を生成してよい。例えば、推定部132は、人物領域R2を特定すると、記憶部120から学習モデルM2に関する情報を取得してよい。続いて、推定部132は、学習モデルM2に関する情報を取得すると、人物領域R2に関する情報の一例として、学習モデルM2を用いて、人物領域R2の特徴を示す特徴ベクトルV2を生成してよい。 Further, the estimation unit 132 may generate thermal image information regarding the thermal image. Specifically, when the thermal image is acquired by the acquisition unit 131, the estimation unit 132 may specify the user's person area R2 in the thermal image acquired by the acquisition unit 131 by the posture estimation process. For example, the estimation unit 132 superimposes the RGB image captured in the same space and the thermal image, and sets the area of the thermal image overlapping with the person area R1 specified based on the posture estimation process for the RGB image as the person of the thermal image. It may be specified as region R2. Subsequently, when the estimation unit 132 specifies the person area R2, the estimation unit 132 may generate information about the person area R2 as an example of the thermal image information. For example, when the estimation unit 132 specifies the person area R2, the estimation unit 132 may acquire information about the learning model M2 from the storage unit 120. Subsequently, when the estimation unit 132 acquires the information regarding the learning model M2, the learning model M2 may be used as an example of the information regarding the person region R2 to generate a feature vector V2 showing the characteristics of the person region R2.

また、推定部132は、RGB画像情報およびサーマル画像情報を生成すると、生成したRGB画像情報およびサーマル画像情報と利用者の顔画像情報を対応付けて利用者情報記憶部121に記憶してよい。例えば、推定部132は、人物領域R1の特徴を示す特徴ベクトルV1と人物領域R2の特徴を示す特徴ベクトルV2を生成すると、生成した特徴ベクトルV1および特徴ベクトルV2と利用者の顔画像情報を対応付けて利用者情報記憶部121に記憶してよい。 Further, when the estimation unit 132 generates the RGB image information and the thermal image information, the generated RGB image information and the thermal image information may be associated with the user's face image information and stored in the user information storage unit 121. For example, when the estimation unit 132 generates the feature vector V1 showing the features of the person area R1 and the feature vector V2 showing the features of the person area R2, the generated feature vectors V1 and the feature vector V2 correspond to the face image information of the user. It may be attached and stored in the user information storage unit 121.

また、推定部132は、環境情報の特徴を示す特徴ベクトルV3を生成してよい。具体的には、推定部132は、取得部131によって環境情報が取得されると記憶部120から学習モデルM3に関する情報を取得してよい。続いて、推定部132は、学習モデルM3に関する情報を取得すると、学習モデルM3を用いて、取得部131によって取得された環境情報の特徴を示す特徴ベクトルV3を生成してよい。例えば、推定部132は、撮影装置が設置されている場所における環境情報の特徴を示す特徴ベクトルV3を生成してよい。また、推定部132は、撮影装置が設置されていない場所における環境情報の特徴を示す特徴ベクトルV3´を生成してよい。 Further, the estimation unit 132 may generate a feature vector V3 indicating the features of the environmental information. Specifically, the estimation unit 132 may acquire information about the learning model M3 from the storage unit 120 when the environmental information is acquired by the acquisition unit 131. Subsequently, when the estimation unit 132 acquires the information regarding the learning model M3, the learning model M3 may be used to generate a feature vector V3 indicating the characteristics of the environmental information acquired by the acquisition unit 131. For example, the estimation unit 132 may generate a feature vector V3 indicating the characteristics of the environmental information at the place where the photographing apparatus is installed. Further, the estimation unit 132 may generate a feature vector V3'indicating a feature of environmental information in a place where a photographing device is not installed.

また、推定部132は、快適さ推定モデルM4を用いて、利用者にとっての空間の快適さを推定してよい。具体的には、推定部132は、快適さ推定モデルM4を用いて、撮影装置によって撮影不可能な空間における利用者にとっての空間の快適さを推定してよい。推定部132は、撮影装置によって撮影不可能な空間の一例として、撮影装置が設置されていない場所における利用者にとっての空間の快適さを推定してよい。より具体的には、推定部132は、RGBカメラ20が設置された場所における人物領域R1の特徴を示す特徴ベクトルV1および赤外線カメラ30が設置された場所における人物領域R2の特徴を示す特徴ベクトルV2を用いて、撮影装置が設置されていない場所における利用者にとっての空間の快適さを推定してよい。例えば、推定部132は、RGBカメラ20が設置された場所における特徴ベクトルV1と、赤外線カメラ30が設置された場所における特徴ベクトルV2と、撮影装置が設置されていない場所における環境情報の特徴を示す特徴ベクトルV3´を快適さ推定モデルM4に入力して、撮影装置が設置されていない場所における利用者にとっての空間の快適さを快適さ推定モデルM4の出力情報として出力してよい。 Further, the estimation unit 132 may estimate the comfort of the space for the user by using the comfort estimation model M4. Specifically, the estimation unit 132 may estimate the comfort of the space for the user in a space that cannot be photographed by the photographing device by using the comfort estimation model M4. The estimation unit 132 may estimate the comfort of the space for the user in a place where the photographing device is not installed, as an example of the space that cannot be photographed by the photographing device. More specifically, the estimation unit 132 has a feature vector V1 showing the characteristics of the person area R1 in the place where the RGB camera 20 is installed and a feature vector V2 showing the features of the person area R2 in the place where the infrared camera 30 is installed. May be used to estimate the comfort of the space for the user in a place where the imaging device is not installed. For example, the estimation unit 132 shows the feature vector V1 at the place where the RGB camera 20 is installed, the feature vector V2 at the place where the infrared camera 30 is installed, and the features of the environmental information at the place where the photographing device is not installed. The feature vector V3'may be input to the comfort estimation model M4, and the comfort of the space for the user in the place where the photographing device is not installed may be output as the output information of the comfort estimation model M4.

より具体的には、推定部132は、特徴ベクトルV1、特徴ベクトルV2、および特徴ベクトルV3´を生成すると、生成した特徴ベクトルV1、特徴ベクトルV2、および特徴ベクトルV3´に基づいて、特徴ベクトルV1、特徴ベクトルV2、および特徴ベクトルV3´の特徴を示す特徴マップMP1´を生成してよい。続いて、推定部132は、特徴マップMP1´を生成すると、特徴マップMP1´に対する最大値プーリングにより、特徴マップMP1´から特徴マップMP1´の特徴を示す特徴ベクトルV4´を生成してよい。例えば、推定部132は、最大値プーリングにより、特徴マップMP1´の特徴を示す2048次元の特徴ベクトルV4´を生成してよい。続いて、推定部132は、特徴ベクトルV4´を生成すると、快適さ推定モデルM4を用いて、特徴ベクトルV4´から撮影装置が設置されていない場所における利用者にとっての空間の快適さを推定してよい。 More specifically, when the estimation unit 132 generates the feature vector V1, the feature vector V2, and the feature vector V3', the feature vector V1 is based on the generated feature vector V1, feature vector V2, and feature vector V3'. , Feature vector V2, and feature map MP1'showing features of feature vector V3'may be generated. Subsequently, when the estimation unit 132 generates the feature map MP1', the estimation unit 132 may generate the feature vector V4'showing the features of the feature map MP1'from the feature map MP1'by the maximum value pooling with respect to the feature map MP1'. For example, the estimation unit 132 may generate a 2048-dimensional feature vector V4'showing the features of the feature map MP1'by maximum value pooling. Subsequently, when the estimation unit 132 generates the feature vector V4', the comfort estimation model M4 is used to estimate the comfort of the space for the user in the place where the photographing device is not installed from the feature vector V4'. You can do it.

例えば、推定部132は、特徴ベクトルV4´を快適さ推定モデルM4の入力情報として入力してよい。続いて、推定部132は、撮影装置が設置されていない場所における利用者にとっての空間の快適さを快適さ推定モデルM4の出力情報として出力してよい。例えば、推定部132は、特徴ベクトルV4´が快適さ推定モデルM4の入力情報として入力された場合に、快適さを示す3つのカテゴリのうち特徴ベクトルV4´が分類される確率が最も高いカテゴリのラベルを出力情報として出力してよい。例えば、推定部132は、特徴ベクトルV4´が入力情報として入力された場合に、空間の温度が低いことを示す「寒い」カテゴリと、空間の温度が高いことを示す「暑い」カテゴリと、空間の温度がちょうどよいことを示す「普通」カテゴリのうち、特徴ベクトルV4´が分類される確率が最も高いカテゴリのラベルを出力情報として出力してよい。 For example, the estimation unit 132 may input the feature vector V4'as input information of the comfort estimation model M4. Subsequently, the estimation unit 132 may output the comfort of the space for the user in the place where the photographing device is not installed as the output information of the comfort estimation model M4. For example, when the feature vector V4'is input as input information of the comfort estimation model M4, the estimation unit 132 has the highest probability that the feature vector V4'is classified among the three categories indicating comfort. The label may be output as output information. For example, the estimation unit 132 has a "cold" category indicating that the temperature of the space is low, a "hot" category indicating that the temperature of the space is high, and a space when the feature vector V4'is input as input information. Among the "normal" categories indicating that the temperature of the above is just right, the label of the category with the highest probability that the feature vector V4'is classified may be output as output information.

また、推定部132は、快適さ推定モデルM4を用いて、撮影装置によって撮影可能な空間における利用者にとっての空間の快適さを推定してよい。推定部132は、撮影装置によって撮影可能な空間の一例として、撮影装置が設置されている場所における利用者にとっての空間の快適さを推定してよい。例えば、推定部132は、RGBカメラ20が設置された場所における特徴ベクトルV1と、赤外線カメラ30が設置された場所における特徴ベクトルV2と、撮影装置が設置されている場所における環境情報の特徴を示す特徴ベクトルV3を快適さ推定モデルM4に入力して、撮影装置が設置されている場所における利用者にとっての空間の快適さを快適さ推定モデルM4の出力情報として出力してよい。 Further, the estimation unit 132 may estimate the comfort of the space for the user in the space that can be photographed by the photographing apparatus by using the comfort estimation model M4. As an example of the space that can be photographed by the photographing device, the estimation unit 132 may estimate the comfort of the space for the user in the place where the photographing device is installed. For example, the estimation unit 132 shows the feature vector V1 at the place where the RGB camera 20 is installed, the feature vector V2 at the place where the infrared camera 30 is installed, and the features of the environmental information at the place where the photographing device is installed. The feature vector V3 may be input to the comfort estimation model M4, and the comfort of the space for the user in the place where the photographing device is installed may be output as the output information of the comfort estimation model M4.

より具体的には、推定部132は、特徴ベクトルV1~特徴ベクトルV3を生成すると、生成した特徴ベクトルV1~特徴ベクトルV3に基づいて、特徴ベクトルV1~特徴ベクトルV3の特徴を示す特徴マップMP1を生成してよい。続いて、推定部132は、特徴マップMP1を生成すると、特徴マップMP1に対する最大値プーリングにより、特徴マップMP1から特徴マップMP1の特徴を示す特徴ベクトルV4を生成してよい。例えば、推定部132は、最大値プーリングにより、特徴マップMP1の特徴を示す2048次元の特徴ベクトルV4を生成してよい。続いて、推定部132は、特徴ベクトルV4を生成すると、快適さ推定モデルM4を用いて、特徴ベクトルV4から撮影装置が設置されている場所における利用者にとっての空間の快適さを推定してよい。 More specifically, when the estimation unit 132 generates the feature vectors V1 to the feature vector V3, the estimation unit 132 generates the feature map MP1 showing the features of the feature vectors V1 to the feature vector V3 based on the generated feature vectors V1 to the feature vector V3. May be generated. Subsequently, when the feature map MP1 is generated, the estimation unit 132 may generate a feature vector V4 indicating the features of the feature map MP1 from the feature map MP1 by the maximum value pooling with respect to the feature map MP1. For example, the estimation unit 132 may generate a 2048-dimensional feature vector V4 showing the features of the feature map MP1 by maximum value pooling. Subsequently, when the estimation unit 132 generates the feature vector V4, the comfort estimation model M4 may be used to estimate the comfort of the space for the user in the place where the photographing device is installed from the feature vector V4. ..

例えば、推定部132は、特徴ベクトルV4を快適さ推定モデルM4の入力情報として入力してよい。続いて、推定部132は、撮影装置が設置されている場所における利用者にとっての空間の快適さを快適さ推定モデルM4の出力情報として出力してよい。例えば、推定部132は、特徴ベクトルV4が快適さ推定モデルM4の入力情報として入力された場合に、快適さを示す3つのカテゴリのうち特徴ベクトルV4が分類される確率が最も高いカテゴリのラベルを出力情報として出力してよい。例えば、推定部132は、特徴ベクトルV4が入力情報として入力された場合に、空間の温度が低いことを示す「寒い」カテゴリと、空間の温度が高いことを示す「暑い」カテゴリと、空間の温度がちょうどよいことを示す「普通」カテゴリのうち、特徴ベクトルV4が分類される確率が最も高いカテゴリのラベルを出力情報として出力してよい。 For example, the estimation unit 132 may input the feature vector V4 as input information of the comfort estimation model M4. Subsequently, the estimation unit 132 may output the comfort of the space for the user in the place where the photographing device is installed as the output information of the comfort estimation model M4. For example, when the feature vector V4 is input as input information of the comfort estimation model M4, the estimation unit 132 displays the label of the category having the highest probability that the feature vector V4 is classified among the three categories indicating comfort. It may be output as output information. For example, the estimation unit 132 includes a "cold" category indicating that the temperature of the space is low, a "hot" category indicating that the temperature of the space is high, and a space, when the feature vector V4 is input as input information. Among the "normal" categories indicating that the temperature is just right, the label of the category with the highest probability that the feature vector V4 is classified may be output as output information.

(空調制御部133)
空調制御部133は、推定部132によって推定された空間の快適さに基づいて、空間の空調を制御してよい。具体的には、空調制御部133は、推定部132によって推定された空間の快適さに基づいて、撮影装置によって撮影不可能な空間の空調を制御してよい。例えば、空調制御部133は、推定部132によって推定された空間の快適さに基づいて、利用者が所在する空間を空調する空調装置10を制御してよい。例えば、空調制御部133は、推定部132によって推定された空間の快適さが「寒い」カテゴリである場合には、利用者が所在する空間の温度を高くするように利用者が所在する空間に設置された空調装置10を制御してよい。また、空調制御部133は、推定部132によって推定された空間の快適さが「普通」カテゴリである場合には、利用者が所在する空間の温度を保つように利用者が所在する空間に設置された空調装置10を制御してよい。また、空調制御部133は、推定部132によって推定された空間の快適さが「暑い」カテゴリである場合には、利用者が所在する空間の温度を低くするように利用者が所在する空間に設置された空調装置10を制御してよい。
(Air conditioning control unit 133)
The air conditioning control unit 133 may control the air conditioning of the space based on the comfort of the space estimated by the estimation unit 132. Specifically, the air conditioning control unit 133 may control the air conditioning of the space that cannot be photographed by the photographing device based on the comfort of the space estimated by the estimation unit 132. For example, the air-conditioning control unit 133 may control the air-conditioning device 10 that air-conditions the space where the user is located, based on the comfort of the space estimated by the estimation unit 132. For example, when the comfort of the space estimated by the estimation unit 132 is in the "cold" category, the air conditioning control unit 133 sets the space where the user is located so as to raise the temperature of the space where the user is located. The installed air conditioner 10 may be controlled. Further, when the comfort of the space estimated by the estimation unit 132 is in the "normal" category, the air conditioning control unit 133 is installed in the space where the user is located so as to maintain the temperature of the space where the user is located. The air conditioner 10 may be controlled. Further, when the comfort of the space estimated by the estimation unit 132 is in the "hot" category, the air conditioning control unit 133 sets the space where the user is located so as to lower the temperature of the space where the user is located. The installed air conditioner 10 may be controlled.

また、空調制御部133は、撮影装置によって撮影不可能な空間と同様に、推定部132によって推定された空間の快適さに基づいて、撮影装置によって撮影可能な空間の空調を制御してよい。 Further, the air conditioning control unit 133 may control the air conditioning of the space that can be photographed by the photographing device based on the comfort of the space estimated by the estimation unit 132, as in the space that cannot be photographed by the photographing device.

〔1-5.変形例〕
上述した第1の実施形態に係る情報処理システム1は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理システム1の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
[1-5. Modification example]
The information processing system 1 according to the first embodiment described above may be implemented in various different forms other than the above embodiment. Therefore, another embodiment of the information processing system 1 will be described below. The same parts as those in the embodiment are designated by the same reference numerals, and the description thereof will be omitted.

〔1-5-1.快適さ推定モデル〕
第1の実施形態では、推定部132が画像のうち人物領域に関する情報のみに基づいて、撮影装置によって撮影不可能な空間における利用者にとっての空間の快適さを推定する例について説明した。しかしながら、推定部132は、姿勢推定処理を施す前の画像(人物領域以外の領域を含む画像)に関する情報に基づいて、撮影装置によって撮影不可能な空間における利用者にとっての空間の快適さを推定してよい。例えば、推定部132は、人物が撮像された領域に加えて、その人物の周囲の空間が撮像された領域を含む画像に基づいて、撮影装置によって撮影不可能な空間における利用者にとっての空間の快適さを推定してよい。
[1-5-1. Comfort estimation model]
In the first embodiment, an example has been described in which the estimation unit 132 estimates the comfort of a space for a user in a space that cannot be photographed by an imaging device based only on information about a person area in the image. However, the estimation unit 132 estimates the comfort of the space for the user in a space that cannot be photographed by the photographing device, based on the information about the image (the image including the area other than the person area) before the posture estimation process is performed. You can do it. For example, the estimation unit 132 is a space for a user in a space that cannot be photographed by an imaging device based on an image including an area in which a person is imaged and a space around the person in which the person is imaged. You may estimate the comfort.

より具体的には、推定部132は、取得部131によって利用者が撮像されたRGB画像が取得されると、撮影装置によって撮影不可能な空間で取得された環境情報に基づいてRGB画像を補正してよい。例えば、推定部132は、撮影装置によって撮影不可能な空間に設置された環境センサ40によって取得された温度および湿度に関する情報に基づいて、RGB画像を補正してよい。すなわち、推定部132は、撮影装置によって撮影不可能な空間における温度および湿度に関する情報に基づいて補正されたRGB画像を生成してよい。 More specifically, when the RGB image captured by the user is acquired by the acquisition unit 131, the estimation unit 132 corrects the RGB image based on the environmental information acquired in the space that cannot be captured by the photographing device. You can do it. For example, the estimation unit 132 may correct the RGB image based on the temperature and humidity information acquired by the environment sensor 40 installed in a space that cannot be photographed by the photographing apparatus. That is, the estimation unit 132 may generate an RGB image corrected based on information on temperature and humidity in a space that cannot be photographed by the photographing apparatus.

続いて、推定部132は、補正されたRGB画像を生成すると、姿勢推定処理によって補正されたRGB画像のうち利用者の人物領域R1´を特定してよい。続いて、推定部132は、人物領域R1´を特定すると、補正されたRGB画像情報の一例として、人物領域R1´に関する情報を生成してよい。例えば、推定部132は、人物領域R1´を特定すると、記憶部120から学習モデルM1に関する情報を取得してよい。続いて、推定部132は、学習モデルM1に関する情報を取得すると、人物領域R1´に関する情報の一例として、学習モデルM1を用いて、人物領域R1´の特徴を示す特徴ベクトルV1´を生成してよい。 Subsequently, when the estimation unit 132 generates the corrected RGB image, the user's person area R1'may be specified from the RGB images corrected by the posture estimation process. Subsequently, the estimation unit 132 may generate information about the person area R1'as an example of the corrected RGB image information when the person area R1'is specified. For example, when the estimation unit 132 specifies the person area R1', the estimation unit 132 may acquire information about the learning model M1 from the storage unit 120. Subsequently, when the estimation unit 132 acquires the information regarding the learning model M1, the learning model M1 is used as an example of the information regarding the person region R1 ′ to generate a feature vector V1 ′ indicating the characteristics of the person region R1 ′. good.

また、推定部132は、補正されたRGB画像を生成すると、記憶部120から学習モデルM1に関する情報を取得してよい。続いて、推定部132は、学習モデルM1に関する情報を取得すると、補正されたRGB画像情報の一例として、補正されたRGB画像の特徴を示す特徴ベクトルV5を生成してよい。例えば、推定部132は、学習モデルM1を用いて、補正されたRGB画像から、補正されたRGB画像の特徴を示す特徴ベクトルV5を生成してよい。 Further, when the estimation unit 132 generates the corrected RGB image, the estimation unit 132 may acquire information about the learning model M1 from the storage unit 120. Subsequently, when the estimation unit 132 acquires the information regarding the learning model M1, the estimation unit 132 may generate a feature vector V5 showing the characteristics of the corrected RGB image as an example of the corrected RGB image information. For example, the estimation unit 132 may generate a feature vector V5 showing the characteristics of the corrected RGB image from the corrected RGB image by using the learning model M1.

また、推定部132は、取得部131によって利用者が撮像されたサーマル画像が取得されると、撮影装置によって撮影不可能な空間で取得された環境情報に基づいてサーマル画像を補正してよい。例えば、推定部132は、撮影装置によって撮影不可能な空間に設置された環境センサ40によって取得された温度および湿度に関する情報に基づいて、サーマル画像を補正してよい。すなわち、推定部132は、撮影装置によって撮影不可能な空間における温度および湿度に関する情報に基づいて補正されたサーマル画像を生成してよい。 Further, when the thermal image captured by the user is acquired by the acquisition unit 131, the estimation unit 132 may correct the thermal image based on the environmental information acquired in a space that cannot be photographed by the photographing apparatus. For example, the estimation unit 132 may correct the thermal image based on the temperature and humidity information acquired by the environment sensor 40 installed in a space that cannot be photographed by the photographing apparatus. That is, the estimation unit 132 may generate a thermal image corrected based on information on temperature and humidity in a space that cannot be photographed by the photographing apparatus.

続いて、推定部132は、補正されたサーマル画像を生成すると、補正されたサーマル画像のうち利用者の人物領域R2´を特定してよい。続いて、推定部132は、人物領域R2´を特定すると、補正されたサーマル画像情報の一例として、人物領域R2´に関する情報を生成してよい。例えば、推定部132は、人物領域R2´を特定すると、記憶部120から学習モデルM2に関する情報を取得してよい。続いて、推定部132は、学習モデルM2に関する情報を取得すると、人物領域R2´に関する情報の一例として、学習モデルM2を用いて、人物領域R2´の特徴を示す特徴ベクトルV2´を生成してよい。 Subsequently, when the estimation unit 132 generates the corrected thermal image, the user's person area R2'may be specified from the corrected thermal image. Subsequently, the estimation unit 132 may generate information about the person area R2'as an example of the corrected thermal image information when the person area R2'is specified. For example, when the estimation unit 132 specifies the person area R2', the estimation unit 132 may acquire information about the learning model M2 from the storage unit 120. Subsequently, when the estimation unit 132 acquires the information regarding the learning model M2, the learning model M2 is used as an example of the information regarding the person region R2'to generate a feature vector V2'indicating the characteristics of the person region R2'. good.

また、推定部132は、補正されたサーマル画像を生成すると、記憶部120から学習モデルM2に関する情報を取得してよい。続いて、推定部132は、学習モデルM2に関する情報を取得すると、補正されたサーマル画像情報の一例として、補正されたサーマル画像の特徴を示す特徴ベクトルV6を生成してよい。例えば、推定部132は、学習モデルM2を用いて、補正されたサーマル画像から、補正されたサーマル画像の特徴を示す特徴ベクトルV6を生成してよい。 Further, the estimation unit 132 may acquire information about the learning model M2 from the storage unit 120 when the corrected thermal image is generated. Subsequently, when the estimation unit 132 acquires the information regarding the learning model M2, the estimation unit 132 may generate a feature vector V6 indicating the characteristics of the corrected thermal image as an example of the corrected thermal image information. For example, the estimation unit 132 may generate a feature vector V6 indicating the characteristics of the corrected thermal image from the corrected thermal image by using the learning model M2.

また、推定部132は、学習モデルM3を用いて、撮影装置によって撮影不可能な空間における温度および湿度に関する情報の特徴を示す特徴ベクトルV3´を生成してよい。 Further, the estimation unit 132 may use the learning model M3 to generate a feature vector V3'indicating the characteristics of information regarding temperature and humidity in a space that cannot be photographed by the photographing apparatus.

また、推定部132は、特徴ベクトルV1´~特徴ベクトルV3´および特徴ベクトルV5~特徴ベクトルV6を生成すると、特徴ベクトルV1´~特徴ベクトルV3´および特徴ベクトルV5~特徴ベクトルV6に基づく特徴マップMP2を生成してよい。続いて、推定部132は、特徴マップMP2に対して最大値プーリング処理を行って、快適さ推定モデルM5の入力情報として、特徴マップMP2の特徴を示す特徴ベクトルV7を生成してよい。 Further, when the estimation unit 132 generates the feature vector V1'to the feature vector V3'and the feature vector V5 to the feature vector V6, the feature map MP2 based on the feature vector V1'to the feature vector V3'and the feature vector V5 to the feature vector V6. May be generated. Subsequently, the estimation unit 132 may perform a maximum value pooling process on the feature map MP2 to generate a feature vector V7 indicating the features of the feature map MP2 as input information of the comfort estimation model M5.

また、取得部131は、空間に所在する利用者の特徴を示す特徴ベクトルV7が入力情報として入力された場合に、利用者にとっての空間の快適さを出力情報として出力する快適さ推定モデルM5を取得してよい。例えば、取得部131は、特徴ベクトルV7が入力情報として入力された場合に、快適さを示す各カテゴリに特徴ベクトルV7が分類される確率を出力情報として出力するよう学習された快適さ推定モデルM5を取得してよい。例えば、取得部131は、特徴ベクトルV7が入力情報として入力された場合に、「寒い」カテゴリに分類される確率と「暑い」カテゴリに分類される確率と「普通」カテゴリに分類される確率を出力情報として出力する快適さ推定モデルM5を取得してよい。 Further, the acquisition unit 131 obtains a comfort estimation model M5 that outputs the comfort of the space for the user as output information when the feature vector V7 indicating the characteristics of the user located in the space is input as input information. You may get it. For example, the comfort estimation model M5 learned by the acquisition unit 131 to output the probability that the feature vector V7 is classified into each category indicating comfort when the feature vector V7 is input as input information is output as output information. May be obtained. For example, the acquisition unit 131 determines the probability of being classified in the "cold" category, the probability of being classified in the "hot" category, and the probability of being classified in the "normal" category when the feature vector V7 is input as input information. The comfort estimation model M5 to be output as output information may be acquired.

推定部132は、特徴ベクトルV7を生成すると、取得部131によって取得された快適さ推定モデルM5に特徴ベクトルV7を入力してよい。続いて、推定部132は、快適さ推定モデルM5の出力情報として、空間の快適さの状態を示すクラス情報を出力してよい。 When the estimation unit 132 generates the feature vector V7, the estimation unit 132 may input the feature vector V7 into the comfort estimation model M5 acquired by the acquisition unit 131. Subsequently, the estimation unit 132 may output class information indicating the state of comfort in the space as output information of the comfort estimation model M5.

〔1-5-2.着衣量に関する情報〕
また、第1の実施形態では、利用者情報記憶部121が、人物領域に関する情報の一例として、RGB画像に含まれる利用者の人物領域R1の特徴を示す特徴ベクトルV1と利用者の顔画像情報とを対応付けて記憶する例について説明したが、これに限られない。
具体的には、利用者情報記憶部121は、人物領域に関する情報の一例として、利用者の着衣量に関する情報と利用者の顔画像情報とを対応付けて記憶してよい。
[1-5-2. Information on the amount of clothes]
Further, in the first embodiment, the user information storage unit 121 has a feature vector V1 showing the characteristics of the user's person area R1 included in the RGB image and the user's face image information as an example of the information regarding the person area. The example of storing in association with and has been described, but the present invention is not limited to this.
Specifically, the user information storage unit 121 may store the information regarding the amount of clothing of the user and the facial image information of the user in association with each other as an example of the information regarding the person area.

より具体的には、取得部131は、RGB画像のうち姿勢推定処理に基づいて特定された利用者の身体の部位ごとの部位領域に関する情報から利用者の着衣量に関する情報を推定するよう学習された学習モデルM6を取得してよい。例えば、取得部131は、学習用の画像と学習用の画像に含まれる利用者の着衣量に関する情報との組み合わせに基づいて、任意の画像から任意の画像に含まれる利用者の着衣量に関する情報を推定する学習モデルM6を取得してよい。 More specifically, the acquisition unit 131 is learned to estimate the information on the amount of clothing of the user from the information on the part area of each part of the body of the user specified based on the posture estimation process in the RGB image. The learning model M6 may be acquired. For example, the acquisition unit 131 provides information on the amount of clothing of the user included in any image from any image based on the combination of the image for learning and the information on the amount of clothing of the user included in the image for learning. The learning model M6 for estimating the above may be acquired.

また、推定部132は、人物領域に関する情報の一例として、利用者の身体の部位ごとの部位領域に関する情報に基づいて、利用者の着衣量に関する情報を推定してよい。より具体的には、推定部132は、RGB画像のうち姿勢推定処理に基づいて利用者の身体の部位ごとの部位領域をそれぞれ特定してよい。続いて、推定部132は、利用者の各部位領域を特定すると、各部位領域を切り抜くプログラムを用いて、利用者の部位領域をパーツごとに切り抜いた部位領域画像を生成してよい。続いて、推定部132は、部位領域画像を生成すると、取得部131によって取得された学習モデルM6を用いて、部位領域に関する情報から利用者の着衣量に関する情報を推定してよい。 Further, as an example of the information regarding the person area, the estimation unit 132 may estimate the information regarding the amount of clothing of the user based on the information regarding the part area of each part of the body of the user. More specifically, the estimation unit 132 may specify a region of each part of the user's body based on the posture estimation process in the RGB image. Subsequently, the estimation unit 132 may generate a site area image in which the user's site area is cut out for each part by using a program for cutting out each site area when the user's site area is specified. Subsequently, when the estimation unit 132 generates the site region image, the estimation unit 132 may estimate the information regarding the amount of clothing of the user from the information regarding the region region by using the learning model M6 acquired by the acquisition unit 131.

例えば、推定部132は、学習モデルM6を用いて、人物領域と部位領域画像が結合された結合画像が入力情報として入力された場合に、結合画像が各クラスに分類される確率を出力してよい。続いて、推定部132は、出力された各クラスの確率値と各クラスの着衣量を示すclo値とに基づいて、結合画像に含まれる人物の着衣量に関する情報を推定してよい。例えば、推定部132は、出力された各クラスの確率値と各クラスのclo値とをそれぞれ掛け合わせた値を加算した値を推定着衣量として算出してよい。推定部132は、利用者の着衣量に関する情報として、推定着衣量を算出してよい。推定部132は、推定着衣量を算出すると、利用者の推定着衣量と利用者の顔画像情報とを対応付けて利用者情報記憶部121に記憶してよい。 For example, the estimation unit 132 outputs the probability that the combined image is classified into each class when the combined image in which the person region and the site region image are combined is input as input information by using the learning model M6. good. Subsequently, the estimation unit 132 may estimate information on the clothing amount of the person included in the combined image based on the output probability value of each class and the clo value indicating the clothing amount of each class. For example, the estimation unit 132 may calculate a value obtained by adding a value obtained by multiplying the output probability value of each class and the clo value of each class as the estimated clothing amount. The estimation unit 132 may calculate the estimated clothing amount as information regarding the clothing amount of the user. When the estimation unit 132 calculates the estimated clothing amount, the estimated clothing amount of the user and the face image information of the user may be associated and stored in the user information storage unit 121.

〔1-5-3.端末装置の位置情報〕
また、第1の実施形態では、利用者情報記憶部121が、利用者を識別可能な情報の一例として、利用者の顔画像情報と画像情報を対応付けて記憶する例について説明したが、これに限られない。具体的には、利用者情報記憶部121は、利用者を識別可能な情報の一例として、利用者によって利用される端末装置(スマートフォンなど)の位置情報と画像情報を対応付けて記憶してよい。
[1-5-3. Location information of terminal device]
Further, in the first embodiment, an example in which the user information storage unit 121 stores the user's face image information and the image information in association with each other as an example of the information that can identify the user has been described. Not limited to. Specifically, the user information storage unit 121 may store the position information of the terminal device (smartphone or the like) used by the user in association with the image information as an example of the information that can identify the user. ..

より具体的には、取得部131は、利用者を識別可能な情報の一例として、利用者の位置情報を取得してよい。例えば、取得部131は、利用者によって利用される端末装置(スマートフォンなど)の位置情報を取得してよい。例えば、取得部131は、GPS(Global Positioning System)に代表されるGNSS(Global Navigation Satellite System)、WiFi(登録商標)測位、磁気測位、BLE(Bluetooth(登録商標) Low Energy)測位、ビーコン測位等を用いて、利用者の位置情報を取得してよい。取得部131は、利用者の位置情報を取得すると、利用者の位置情報と画像情報とを対応付けて記憶部120に記憶してよい。 More specifically, the acquisition unit 131 may acquire the user's location information as an example of the information that can identify the user. For example, the acquisition unit 131 may acquire the position information of the terminal device (smartphone or the like) used by the user. For example, the acquisition unit 131 includes GNSS (Global Navigation Satellite System) represented by GPS (Global Positioning System), WiFi (registered trademark) positioning, magnetic positioning, BLE (Bluetooth (registered trademark) Low Energy) positioning, beacon positioning, and the like. May be used to acquire the user's location information. When the acquisition unit 131 acquires the user's position information, the acquisition unit 131 may store the user's position information and the image information in the storage unit 120 in association with each other.

また、推定部132は、利用者の位置から所定範囲内に位置する環境センサによって検出された温度および湿度に関する環境情報に基づいて、撮影装置によって撮影不可能な空間における利用者にとっての空間の快適さを推定してよい。例えば、推定部132は、取得部131によって取得された位置情報に基づいて利用者の位置から所定範囲内に位置する環境センサを特定し、特定した環境センサによって検出された温度および湿度に関する環境情報に基づいて、撮影不可能な空間における利用者にとっての空間の快適さを推定してよい。 Further, the estimation unit 132 is a space comfort for the user in a space that cannot be photographed by the photographing device based on the environmental information regarding the temperature and humidity detected by the environment sensor located within a predetermined range from the position of the user. You may estimate the temperature. For example, the estimation unit 132 identifies an environment sensor located within a predetermined range from the user's position based on the position information acquired by the acquisition unit 131, and the environment information regarding the temperature and humidity detected by the specified environment sensor. Based on this, the comfort of the space for the user in a space where photography is not possible may be estimated.

これにより、情報処理装置100は、例えば、利用者の現在位置から最寄りの環境センサによって検出された温度および湿度に関する環境情報に基づいて、撮影不可能な空間における利用者にとっての空間の快適さを推定することができる。したがって、情報処理装置100は、撮影不可能な空間における利用者にとっての空間の快適さを精度よく推定することができる。 As a result, the information processing apparatus 100 provides the comfort of the space for the user in a space where photography is not possible, for example, based on the environmental information regarding the temperature and humidity detected by the nearest environment sensor from the user's current position. Can be estimated. Therefore, the information processing apparatus 100 can accurately estimate the comfort of the space for the user in the space where the image cannot be taken.

〔2.第2の実施形態〕
〔2-1.はじめに〕
第1の実施形態に係る情報処理装置100と同様に、第2の実施形態に係る情報処理装置100Aは、施設の出入口などに設置された撮影装置の画像情報に基づいて推定された着衣量や代謝量(活動量)に関する情報をその後の施設内での快適さを推定する情報として利用する。また、情報処理装置100Aは、施設内に設置された撮影装置によって人物が撮影される度に、その人物の着衣量や代謝量(活動量)に関する情報を更新する。
[2. Second embodiment]
[2-1. Introduction]
Similar to the information processing device 100 according to the first embodiment, the information processing device 100A according to the second embodiment has an estimated amount of clothing based on image information of a photographing device installed at an entrance / exit of a facility or the like. Information on the amount of metabolism (activity) is used as information for estimating comfort in the facility thereafter. Further, the information processing apparatus 100A updates information on the amount of clothing and the amount of metabolism (activity amount) of the person each time the person is photographed by the photographing device installed in the facility.

これにより、情報処理装置100Aは、利用者がこれから移動する場所における空間の快適さをあらかじめ推定することができる。例えば、情報処理装置100Aは、利用者がこれから移動する可能性のある複数の場所それぞれの空間の快適さをあらかじめ推定することができる。そして、情報処理装置100Aは、推定した空間の快適さに基づいて、利用者が最も快適に過ごせる場所に関する情報を利用者に対して提供することができる。また、情報処理装置100Aは、推定した空間の快適さに基づいて、利用者が特定の場所に移動する前に、事前に特定の場所の空調の状態を最適に制御することができる。 Thereby, the information processing apparatus 100A can estimate in advance the comfort of the space in the place where the user is going to move. For example, the information processing apparatus 100A can estimate in advance the comfort of the space of each of the plurality of places where the user may move from now on. Then, the information processing apparatus 100A can provide the user with information on the place where the user can spend the most comfortably based on the estimated comfort of the space. Further, the information processing apparatus 100A can optimally control the state of air conditioning in a specific place in advance before the user moves to the specific place based on the estimated comfort of the space.

〔2-2.情報処理装置の構成〕
次に、図6を用いて、第2の実施形態に係る情報処理装置100Aの構成について説明する。図6は、第2の実施形態に係る情報処理装置100Aの構成例を示す図である。図6に示すように、情報処理装置100Aは、提供部134Aをさらに備える点が情報処理装置100と異なる。
[2-2. Information processing device configuration]
Next, the configuration of the information processing apparatus 100A according to the second embodiment will be described with reference to FIG. FIG. 6 is a diagram showing a configuration example of the information processing apparatus 100A according to the second embodiment. As shown in FIG. 6, the information processing apparatus 100A is different from the information processing apparatus 100 in that the providing unit 134A is further provided.

(提供部134A)
提供部134Aは、推定部132によって推定された空間の快適さに基づいて、利用者が快適に過ごせる場所に関する情報を利用者に対して提供してよい。具体的には、提供部134Aは、推定部132によって推定された空間の快適さに基づいて、利用者が快適に過ごせる場所に関する情報を生成してよい。続いて、提供部134Aは、利用者が快適に過ごせる場所に関する情報を生成すると、生成した情報を利用者に対して提供してよい。
(Providing unit 134A)
The providing unit 134A may provide the user with information on a place where the user can spend comfortably based on the comfort of the space estimated by the estimation unit 132. Specifically, the providing unit 134A may generate information about a place where the user can spend comfortably based on the comfort of the space estimated by the estimation unit 132. Subsequently, when the providing unit 134A generates information about a place where the user can spend comfortably, the providing unit 134A may provide the generated information to the user.

〔2-3.情報処理の概要〕
次に、図7-図8を用いて、第2の実施形態に係る情報処理の概要について説明する。まず、図7を用いて説明する。図7は、第2の実施形態に係る情報処理の概要を説明するための図である。図7に示す符号P21~P25は、情報処理装置100Aによる空調制御の対象となるフロアF2における5つの場所をそれぞれ示している。以下では、「P2*」(*=1~5)で示す場所を、「場所P2*」(*=1~5)と記載する場合がある。
[2-3. Information processing overview]
Next, the outline of the information processing according to the second embodiment will be described with reference to FIGS. 7-8. First, it will be described with reference to FIG. FIG. 7 is a diagram for explaining an outline of information processing according to the second embodiment. Reference numerals P21 to P25 shown in FIG. 7 indicate five locations on the floor F2 to be controlled by the information processing apparatus 100A. In the following, the place indicated by "P2 *" (* = 1 to 5) may be described as "place P2 *" (* = 1 to 5).

図7では、情報処理装置100Aが、撮影装置が設置されている場所P11にいる利用者U1に対して、利用者U1がこれから移動する場所の候補である4つの場所P22~場所P25の中から、利用者U1が最も快適に過ごせる場所に関する情報を提供する。 In FIG. 7, the information processing device 100A is selected from four locations P22 to P25, which are candidates for the location where the user U1 will move to the user U1 at the location P11 where the photographing device is installed. , Provides information about where the user U1 can spend the most comfortably.

具体的には、推定部132は、撮影装置が設置されている場所P11におけるRGB画像情報およびサーマル画像情報に基づいて、撮影装置が設置されていない場所P22~場所P25それぞれにおける利用者U1にとっての空間の快適さを推定してよい。提供部134Aは、推定部132によって推定された場所P22~場所P25の快適さを比較して、場所P22~場所P25の中から利用者U1が最も快適に過ごせる場所を選択してよい。例えば、提供部134Aは、利用者U1が最も快適に過ごせる場所として、推定部132によって推定された場所P22~場所P25の中から、空間の温度がちょうどよいことを示す「普通」カテゴリのラベルが出力された場所を選択してよい。提供部134Aは、利用者U1が最も快適に過ごせる場所を選択すると、利用者U1に対して、選択した場所に関する情報を提供してよい。 Specifically, the estimation unit 132 is for the user U1 at each of the locations P22 to P25 where the imaging device is not installed, based on the RGB image information and the thermal image information at the location P11 where the imaging device is installed. You may estimate the comfort of the space. The providing unit 134A may compare the comforts of the places P22 to the place P25 estimated by the estimation unit 132, and select the place where the user U1 can spend the most comfortably from the places P22 to the place P25. For example, the provision unit 134A has a label in the "normal" category indicating that the temperature of the space is just right from the locations P22 to P25 estimated by the estimation unit 132 as the place where the user U1 can spend the most comfortably. You may select the output location. When the providing unit 134A selects a place where the user U1 can spend the most comfortably, the providing unit 134A may provide the user U1 with information about the selected place.

次に、図8を用いて説明する。図8は、第2の実施形態に係る情報処理の概要を説明するための図である。図8に示すように、提供部134Aは、人物が快適に過ごせる場所を視認可能に表示した地図情報を人物によって視認可能な端末装置の画面に表示してよい。 Next, it will be described with reference to FIG. FIG. 8 is a diagram for explaining an outline of information processing according to the second embodiment. As shown in FIG. 8, the providing unit 134A may display map information that visually displays a place where a person can spend comfortably on the screen of a terminal device that can be visually recognized by the person.

〔3.効果〕
上述してきたように、実施形態に係る情報処理装置100は、推定部132を備える。推定部132は、撮影装置によって撮影可能な空間で撮影された画像のうち人物が撮像された領域である人物領域に関する情報であって、人物の姿勢に基づいて特定された人物領域に関する情報に基づいて、撮影装置によって撮影不可能な空間における人物にとっての空間の快適さを推定する。また、推定部132は、撮影装置として、赤外線カメラによって撮影可能な空間で撮影されたサーマル画像のうち人物領域に関する情報に基づいて、赤外線カメラによって撮影不可能な空間における人物にとっての空間の快適さを推定する。
[3. effect〕
As described above, the information processing apparatus 100 according to the embodiment includes an estimation unit 132. The estimation unit 132 is information about a person area, which is an area where a person is captured, among images taken in a space that can be photographed by a photographing device, and is based on information about a person area specified based on the posture of the person. Therefore, the comfort of the space for a person in a space where photography is impossible is estimated by the photographing device. Further, the estimation unit 132 is a space comfort for a person in a space that cannot be photographed by the infrared camera, based on information about a person area in the thermal image photographed in the space that can be photographed by the infrared camera as a photographing device. To estimate.

このように、情報処理装置100は、例えば、撮影装置が設置されない場所における空間の快適さを推定するために、撮影装置が設置されている近くの場所で撮影された画像に関する画像情報を代替して利用する。これにより、情報処理装置100は、撮影装置が設置されない場所における空間の快適さを精度よく推定することができる。また、情報処理装置100は、利用者のプライバシーを保護するため撮影装置を設置することができない場所(トイレや脱衣所など)における空間の快適さを精度よく推定することができる。すなわち、情報処理装置100は、撮影装置によって撮影不可能な場所における空間の快適さの推定精度を向上させることができる。また、情報処理装置100は、RGBカメラや赤外線カメラといった撮影装置の設置台数を減らすことができる。したがって、情報処理装置100は、空間の快適さを精度よく推定するためのコストを抑えることができる。 In this way, the information processing device 100 substitutes for image information about an image taken in a place near the place where the image pickup device is installed, for example, in order to estimate the comfort of the space in the place where the image pickup device is not installed. To use. As a result, the information processing device 100 can accurately estimate the comfort of the space in a place where the photographing device is not installed. Further, the information processing device 100 can accurately estimate the comfort of the space in a place (toilet, dressing room, etc.) where the photographing device cannot be installed in order to protect the privacy of the user. That is, the information processing device 100 can improve the estimation accuracy of the comfort of the space in a place where the image pickup device cannot take an image. Further, the information processing apparatus 100 can reduce the number of imaging devices such as an RGB camera and an infrared camera installed. Therefore, the information processing apparatus 100 can reduce the cost for accurately estimating the comfort of the space.

また、情報処理装置100は、取得部131をさらに備える。取得部131は、撮影不可能な空間に設置された環境センサによって検出された温度および湿度に関する環境情報を取得する。推定部132は、取得部131によって取得された温度および湿度に関する環境情報に基づいて、撮影不可能な空間における人物にとっての空間の快適さを推定する。 Further, the information processing apparatus 100 further includes an acquisition unit 131. The acquisition unit 131 acquires environmental information regarding temperature and humidity detected by an environmental sensor installed in a space where photography is not possible. The estimation unit 132 estimates the comfort of the space for a person in a space where photography is not possible, based on the environmental information regarding temperature and humidity acquired by the acquisition unit 131.

これにより、情報処理装置100は、撮影装置によって撮影不可能な空間における環境要素を精度よく推定することができる。したがって、情報処理装置100は、撮影装置によって撮影不可能な空間における利用者にとっての空間の快適さを精度よく推定することができる。 As a result, the information processing apparatus 100 can accurately estimate the environmental elements in the space that cannot be photographed by the photographing device. Therefore, the information processing device 100 can accurately estimate the comfort of the space for the user in a space that cannot be photographed by the photographing device.

また、推定部132は、人物の位置から所定範囲内に位置する環境センサによって検出された温度および湿度に関する環境情報に基づいて、撮影不可能な空間における人物にとっての空間の快適さを推定する。具体的には、取得部131は、人物の位置情報を取得する。推定部132は、取得部131によって取得された位置情報に基づいて人物の位置から所定範囲内に位置する環境センサを特定し、特定した環境センサによって検出された温度および湿度に関する環境情報に基づいて、撮影不可能な空間における人物にとっての空間の快適さを推定する。 Further, the estimation unit 132 estimates the comfort of the space for the person in a space where photography is impossible, based on the environmental information regarding the temperature and humidity detected by the environment sensor located within a predetermined range from the position of the person. Specifically, the acquisition unit 131 acquires the position information of the person. The estimation unit 132 identifies an environment sensor located within a predetermined range from the position of the person based on the position information acquired by the acquisition unit 131, and is based on the environment information regarding the temperature and humidity detected by the specified environment sensor. , Estimate the comfort of the space for a person in a space that cannot be photographed.

これにより、情報処理装置100は、例えば、利用者の現在位置から最寄りの環境センサによって検出された温度および湿度に関する環境情報に基づいて、撮影不可能な空間における利用者にとっての空間の快適さを推定することができる。したがって、情報処理装置100は、撮影装置によって撮影不可能な空間における利用者にとっての空間の快適さを精度よく推定することができる。 As a result, the information processing apparatus 100 provides the comfort of the space for the user in a space where photography is not possible, for example, based on the environmental information regarding the temperature and humidity detected by the nearest environment sensor from the user's current position. Can be estimated. Therefore, the information processing device 100 can accurately estimate the comfort of the space for the user in a space that cannot be photographed by the photographing device.

また、情報処理装置100は、記憶部120をさらに備える。取得部131は、画像を撮影装置から取得する。記憶部120は、画像に関する画像情報と人物を識別可能な情報とを対応付けて記憶する。 Further, the information processing apparatus 100 further includes a storage unit 120. The acquisition unit 131 acquires an image from the photographing device. The storage unit 120 stores image information related to an image and information that can identify a person in association with each other.

これにより、情報処理装置100は、撮影装置によって撮影不可能な空間の快適さを推定するために、撮影装置によって撮影可能な空間で撮影された画像をいつでも利用することができる。 Thereby, the information processing apparatus 100 can always use the image taken in the space that can be photographed by the photographing device in order to estimate the comfort of the space that cannot be photographed by the photographing device.

また、取得部131は、2以上の異なる撮影装置それぞれから撮影時刻の異なる2以上の画像をそれぞれ取得する。記憶部120は、2以上の画像のうち、撮影時刻が最も新しい画像に関する画像情報と人物を識別可能な情報とを対応付けて記憶する。 Further, the acquisition unit 131 acquires two or more images having different shooting times from each of the two or more different shooting devices. The storage unit 120 stores the image information related to the image having the latest shooting time among the two or more images and the information that can identify a person in association with each other.

これにより、情報処理装置100は、利用者の最新のRGB画像情報やサーマル画像情報に基づいて、利用者にとっての空間の快適さを推定することができる。そのため、情報処理装置100は、利用者の着衣量や代謝量(活動量)に関する情報が時間経過とともに変化する場合であっても、利用者の最新の着衣量や代謝量(活動量)に関する情報に基づいて、利用者にとっての空間の快適さを推定することができる。したがって、情報処理装置100は、撮影装置によって撮影不可能な空間における利用者にとっての空間の快適さをより精度よく推定することができる。 Thereby, the information processing apparatus 100 can estimate the comfort of the space for the user based on the latest RGB image information and the thermal image information of the user. Therefore, the information processing apparatus 100 provides information on the user's latest clothing amount and metabolism amount (activity amount) even when the information on the user's clothing amount and metabolism amount (activity amount) changes with the passage of time. Based on this, it is possible to estimate the comfort of the space for the user. Therefore, the information processing device 100 can more accurately estimate the comfort of the space for the user in a space that cannot be photographed by the photographing device.

また、記憶部120は、画像情報として、人物領域に関する情報と人物を識別可能な情報とを対応付けて記憶する。また、推定部132は、人物領域に関する情報として、人物の身体の部位ごとの部位領域に関する情報に基づいて、人物の着衣量に関する情報を推定する。記憶部120は、人物の着衣量に関する情報と人物を識別可能な情報とを対応付けて記憶する。 Further, the storage unit 120 stores information about the person area and information that can identify the person in association with each other as image information. Further, the estimation unit 132 estimates the information regarding the amount of clothing of the person as the information regarding the person area, based on the information regarding the part area of each part of the body of the person. The storage unit 120 stores information about the amount of clothing of a person and information that can identify the person in association with each other.

これにより、情報処理装置100は、個々の利用者の快適さを推定するための快適環境情報に関するデータベースを構築することができる。 Thereby, the information processing apparatus 100 can construct a database regarding comfortable environment information for estimating the comfort of each user.

また、記憶部120は、人物を識別可能な情報として、人物のアイテム認証処理に用いられるアイテム認証用情報または人物の生体認証処理に用いられる生体認証用情報と画像情報とを対応付けて記憶する。また、推定部132は、認証装置から取得したアイテム認証用情報または生体認証用情報と、記憶部120に記憶された人物を識別可能な情報とを照合することによって、撮影装置によって撮影不可能な空間に存在する人物を特定し、特定した人物にとっての空間の快適さを推定する。 Further, the storage unit 120 stores the item authentication information used in the item authentication process of the person or the biometric authentication information used in the biometric authentication process of the person in association with the image information as the information that can identify the person. .. Further, the estimation unit 132 cannot take a picture by the photographing device by collating the item authentication information or the biometric authentication information acquired from the authentication device with the information that can identify the person stored in the storage unit 120. Identify the person present in the space and estimate the comfort of the space for the identified person.

これにより、情報処理装置100は、撮影装置によって撮影不可能な空間に所在する利用者を特定することができる。 Thereby, the information processing apparatus 100 can identify the user who is located in the space where the photographing apparatus cannot take a picture.

また、情報処理装置100は、空調制御部133をさらに備える。空調制御部133は、推定部132によって推定された空間の快適さに基づいて、撮影装置によって撮影不可能な空間の空調を制御する。 Further, the information processing device 100 further includes an air conditioning control unit 133. The air conditioning control unit 133 controls the air conditioning of the space that cannot be photographed by the photographing device based on the comfort of the space estimated by the estimation unit 132.

これにより、情報処理装置100は、撮影装置によって撮影不可能な空間の空調を快適に制御することができる。 As a result, the information processing device 100 can comfortably control the air conditioning of the space that cannot be photographed by the photographing device.

また、情報処理装置100Aは、提供部134Aをさらに備える。提供部134Aは、推定部132によって推定された空間の快適さに基づいて、人物が快適に過ごせる場所に関する情報を人物に対して提供する。 Further, the information processing apparatus 100A further includes a providing unit 134A. The providing unit 134A provides the person with information about a place where the person can spend comfortably based on the comfort of the space estimated by the estimation unit 132.

これにより、情報処理装置100Aは、推定した空間の快適さに基づいて、利用者が最も快適に過ごせる場所に関する情報を利用者に対して提供することができる。また、情報処理装置100Aは、推定した空間の快適さに基づいて、利用者が特定の場所に移動する前に、事前に特定の場所の空調の状態を最適に制御することができる。 Thereby, the information processing apparatus 100A can provide the user with information on the place where the user can spend the most comfortably based on the estimated comfort of the space. Further, the information processing apparatus 100A can optimally control the state of air conditioning in a specific place in advance before the user moves to the specific place based on the estimated comfort of the space.

また、提供部134Aは、人物が快適に過ごせる場所を視認可能に表示した地図情報を人物によって視認可能な端末装置の画面に表示する。 Further, the providing unit 134A displays the map information that visually displays the place where the person can spend comfortably on the screen of the terminal device that can be visually recognized by the person.

これにより、情報処理装置100は、利用者が最も快適に過ごせる場所に関する情報の提供を受ける利用者のユーザビリティを向上させることができる。 Thereby, the information processing apparatus 100 can improve the usability of the user who receives the information about the place where the user can spend the most comfortably.

〔4.ハードウェア構成〕
また、上述してきた第1の実施形態に係る情報処理装置100または第2の実施形態に係る情報処理装置100Aは、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、情報処理装置100または情報処理装置100Aの機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
[4. Hardware configuration]
Further, the information processing apparatus 100 according to the first embodiment or the information processing apparatus 100A according to the second embodiment described above is realized by, for example, a computer 1000 having a configuration as shown in FIG. FIG. 9 is a hardware configuration diagram showing an example of a computer that realizes the functions of the information processing device 100 or the information processing device 100A. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400, and controls each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。 The HDD 1400 stores a program executed by the CPU 1100, data used by such a program, and the like. The communication interface 1500 receives data from another device via a predetermined communication network and sends the data to the CPU 1100, and transmits the data generated by the CPU 1100 to the other device via the predetermined communication network.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls an output device such as a display or a printer, and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.

例えば、コンピュータ1000が第1の実施形態に係る情報処理装置100または第2の実施形態に係る情報処理装置100Aとして機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130または制御部130Aの機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the information processing device 100 according to the first embodiment or the information processing device 100A according to the second embodiment, the CPU 1100 of the computer 1000 executes a program loaded on the RAM 1200. Thereby, the function of the control unit 130 or the control unit 130A is realized. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via a predetermined communication network.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other modified forms.

〔5.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[5. others〕
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or are described as being manually performed. It is also possible to automatically perform all or part of the processed processing by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically distributed in any unit according to various loads and usage conditions. Can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、推定部は、推定手段や推定回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the estimation unit can be read as an estimation means or an estimation circuit.

1 情報処理システム
10 空調装置
20 RGBカメラ
30 赤外線カメラ
40 環境センサ
50 認証装置
100 情報処理装置
110 通信部
120 記憶部
121 利用者情報記憶部
122 環境情報記憶部
130 制御部
131 取得部
132 推定部
133 空調制御部
1A 情報処理システム
100A 情報処理装置
130A 制御部
134A 提供部
1 Information processing system 10 Air conditioning device 20 RGB camera 30 Infrared camera 40 Environment sensor 50 Authentication device 100 Information processing device 110 Communication unit 120 Storage unit 121 User information storage unit 122 Environmental information storage unit 130 Control unit 131 Acquisition unit 132 Estimating unit 133 Air conditioning control unit 1A Information processing system 100A Information processing device 130A Control unit 134A Providing unit

Claims (17)

撮影装置によって撮影可能な空間で撮影された画像のうち人物が撮像された領域である人物領域に関する情報であって、前記人物の姿勢に基づいて特定された人物領域に関する情報に基づいて、前記撮影装置によって撮影不可能な空間における前記人物にとっての空間の快適さを推定する推定部、
を備える情報処理装置。
The shooting is based on the information about the person area, which is the area where the person is captured in the image taken in the space that can be taken by the shooting device, and is based on the information about the person area specified based on the posture of the person. An estimation unit that estimates the comfort of the space for the person in a space that cannot be photographed by the device.
Information processing device equipped with.
前記推定部は、
前記撮影装置として、赤外線カメラによって撮影可能な空間で撮影されたサーマル画像のうち前記人物領域に関する情報に基づいて、前記赤外線カメラによって撮影不可能な空間における前記人物にとっての空間の快適さを推定する、
請求項1に記載の情報処理装置。
The estimation unit
As the photographing device, the comfort of the space for the person in the space that cannot be photographed by the infrared camera is estimated based on the information about the person area in the thermal image photographed in the space that can be photographed by the infrared camera. ,
The information processing apparatus according to claim 1.
前記撮影不可能な空間に設置された環境センサによって検出された温度および湿度に関する環境情報を取得する取得部をさらに備え、
前記推定部は、
前記取得部によって取得された温度および湿度に関する環境情報に基づいて、前記撮影不可能な空間における前記人物にとっての空間の快適さを推定する、
請求項1または2に記載の情報処理装置。
Further equipped with an acquisition unit for acquiring environmental information regarding temperature and humidity detected by an environmental sensor installed in the space where photography is not possible.
The estimation unit
Based on the temperature and humidity environmental information acquired by the acquisition unit, the comfort of the space for the person in the non-photographable space is estimated.
The information processing apparatus according to claim 1 or 2.
前記推定部は、
前記人物の位置から所定範囲内に位置する環境センサによって検出された温度および湿度に関する環境情報に基づいて、前記撮影不可能な空間における前記人物にとっての空間の快適さを推定する、
請求項3に記載の情報処理装置。
The estimation unit
Based on the temperature and humidity environmental information detected by the environment sensor located within a predetermined range from the position of the person, the comfort of the space for the person in the non-photographable space is estimated.
The information processing apparatus according to claim 3.
前記取得部は、
前記人物の位置情報を取得し、
前記推定部は、
前記取得部によって取得された位置情報に基づいて前記人物の位置から所定範囲内に位置する環境センサを特定し、特定した環境センサによって検出された温度および湿度に関する環境情報に基づいて、前記撮影不可能な空間における前記人物にとっての空間の快適さを推定する、
請求項4に記載の情報処理装置。
The acquisition unit
Acquire the location information of the person and
The estimation unit
The environment sensor located within a predetermined range from the position of the person is specified based on the position information acquired by the acquisition unit, and the shooting is not performed based on the environment information regarding the temperature and humidity detected by the specified environment sensor. Estimating the comfort of the space for the person in a possible space,
The information processing apparatus according to claim 4.
前記画像を前記撮影装置から取得する取得部と、
前記画像に関する画像情報と前記人物を識別可能な情報とを対応付けて記憶する記憶部と、
をさらに備える請求項1~5のいずれか1項に記載の情報処理装置。
An acquisition unit that acquires the image from the photographing device, and
A storage unit that stores image information related to the image and information that can identify the person in association with each other.
The information processing apparatus according to any one of claims 1 to 5.
前記取得部は、
2以上の異なる前記撮影装置それぞれから撮影時刻の異なる2以上の前記画像をそれぞれ取得し、
前記記憶部は、
前記2以上の前記画像のうち、撮影時刻が最も新しい前記画像に関する画像情報と前記人物を識別可能な情報とを対応付けて記憶する、
請求項6に記載の情報処理装置。
The acquisition unit
Two or more images having different shooting times are acquired from each of the two or more different photographing devices, and the images are obtained from each of the two or more different photographing devices.
The storage unit is
Among the two or more images, the image information about the image having the latest shooting time and the information that can identify the person are stored in association with each other.
The information processing apparatus according to claim 6.
前記記憶部は、
前記画像情報として、前記人物領域に関する情報と前記人物を識別可能な情報とを対応付けて記憶する、
請求項6または7に記載の情報処理装置。
The storage unit is
As the image information, information about the person area and information that can identify the person are stored in association with each other.
The information processing apparatus according to claim 6 or 7.
前記推定部は、
前記人物領域に関する情報として、前記人物の身体の部位ごとの部位領域に関する情報に基づいて、前記人物の着衣量に関する情報を推定し、
前記記憶部は、
前記人物の着衣量に関する情報と前記人物を識別可能な情報とを対応付けて記憶する、
請求項6~8のいずれか1項に記載の情報処理装置。
The estimation unit
As the information about the person area, the information about the clothing amount of the person is estimated based on the information about the part area of each part of the body of the person.
The storage unit is
Information about the amount of clothing of the person and information that can identify the person are stored in association with each other.
The information processing apparatus according to any one of claims 6 to 8.
前記記憶部は、
前記人物を識別可能な情報として、前記人物のアイテム認証処理に用いられるアイテム認証用情報または前記人物の生体認証処理に用いられる生体認証用情報と前記画像情報とを対応付けて記憶する、
請求項6~9のいずれか1項に記載の情報処理装置。
The storage unit is
As the information that can identify the person, the item authentication information used for the item authentication process of the person or the biometric authentication information used for the biometric authentication process of the person is stored in association with the image information.
The information processing apparatus according to any one of claims 6 to 9.
前記推定部は、
認証装置から取得したアイテム認証用情報または生体認証用情報と、前記記憶部に記憶された前記人物を識別可能な情報とを照合することによって、前記撮影装置によって撮影不可能な空間に存在する人物を特定し、特定した前記人物にとっての空間の快適さを推定する、
請求項6~10のいずれか1項に記載の情報処理装置。
The estimation unit
By collating the item authentication information or biometric authentication information acquired from the authentication device with the information stored in the storage unit that can identify the person, a person existing in a space that cannot be photographed by the photographing device. And estimate the comfort of the space for the identified person,
The information processing apparatus according to any one of claims 6 to 10.
前記推定部によって推定された空間の快適さに基づいて、前記撮影装置によって撮影不可能な空間の空調を制御する空調制御部、
をさらに備える請求項1~11のいずれか1項に記載の情報処理装置。
An air conditioning control unit that controls air conditioning in a space that cannot be photographed by the imaging device based on the comfort of the space estimated by the estimation unit.
The information processing apparatus according to any one of claims 1 to 11.
前記推定部によって推定された空間の快適さに基づいて、前記人物が快適に過ごせる場所に関する情報を前記人物に対して提供する提供部、
をさらに備える請求項1~12のいずれか1項に記載の情報処理装置。
A provider that provides the person with information about where the person can spend comfortably, based on the comfort of the space estimated by the estimate.
The information processing apparatus according to any one of claims 1 to 12, further comprising.
前記提供部は、
前記人物が快適に過ごせる場所を視認可能に表示した地図情報を前記人物によって視認可能な端末装置の画面に表示する、
請求項13に記載の情報処理装置。
The providing part
The map information that visually displays the place where the person can spend comfortably is displayed on the screen of the terminal device that can be visually recognized by the person.
The information processing apparatus according to claim 13.
撮影装置によって撮影可能な空間で撮影された画像のうち人物が撮像された領域である人物領域に関する情報であって、前記人物の姿勢に基づいて特定された人物領域に関する情報に基づいて、前記撮影装置によって撮影不可能な空間における前記人物にとっての空間の快適さを推定する推定手順、
をコンピュータに実行させることを特徴とする情報処理プログラム。
The shooting is based on the information about the person area, which is the area where the person is captured in the image taken in the space that can be taken by the shooting device, and is based on the information about the person area specified based on the posture of the person. An estimation procedure that estimates the comfort of the space for the person in a space that cannot be photographed by the device,
An information processing program characterized by having a computer execute.
撮影装置と、情報処理装置とを含む情報処理システムであって、
前記撮影装置は、前記撮影装置によって撮影可能な空間で人物を含む画像を撮影し、
前記情報処理装置は、
前記画像のうち人物が撮像された領域である人物領域に関する情報であって、前記人物の姿勢に基づいて特定された人物領域に関する情報に基づいて、前記撮影装置によって撮影不可能な空間における前記人物にとっての空間の快適さを推定する、
情報処理システム。
An information processing system that includes a photographing device and an information processing device.
The photographing device captures an image including a person in a space that can be captured by the photographing device.
The information processing device is
Information about a person area, which is an area in which a person is captured in the image, and based on information about a person area specified based on the posture of the person, the person in a space that cannot be photographed by the photographing apparatus. Estimate the comfort of the space for
Information processing system.
前記情報処理システムは、環境センサをさらに備え、
前記環境センサは、前記撮影装置によって撮影不可能な空間の温度および湿度を検出し、
前記情報処理装置は、
前記撮影不可能な空間の温度および湿度に関する環境情報に基づいて、前記人物にとっての空間の快適さを推定する、
請求項16に記載の情報処理システム。
The information processing system further includes an environment sensor.
The environment sensor detects the temperature and humidity of a space that cannot be photographed by the photographing device, and detects the temperature and humidity of the space.
The information processing device is
Estimating the comfort of the space for the person based on the environmental information regarding the temperature and humidity of the space that cannot be photographed.
The information processing system according to claim 16.
JP2020192726A 2020-11-19 2020-11-19 Information processing device, information processing program and information processing system Active JP7311478B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020192726A JP7311478B2 (en) 2020-11-19 2020-11-19 Information processing device, information processing program and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020192726A JP7311478B2 (en) 2020-11-19 2020-11-19 Information processing device, information processing program and information processing system

Publications (2)

Publication Number Publication Date
JP2022081282A true JP2022081282A (en) 2022-05-31
JP7311478B2 JP7311478B2 (en) 2023-07-19

Family

ID=81799490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020192726A Active JP7311478B2 (en) 2020-11-19 2020-11-19 Information processing device, information processing program and information processing system

Country Status (1)

Country Link
JP (1) JP7311478B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023223820A1 (en) 2022-05-18 2023-11-23 Sony Semiconductor Solutions Corporation Imaging devices, host devices, and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015056031A (en) * 2013-09-12 2015-03-23 株式会社 ハローシステム Safety monitoring system, safety monitoring server, safety monitoring program, and safety monitoring method
WO2017209089A1 (en) * 2016-06-03 2017-12-07 三菱電機株式会社 Apparatus control device and apparatus control method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015056031A (en) * 2013-09-12 2015-03-23 株式会社 ハローシステム Safety monitoring system, safety monitoring server, safety monitoring program, and safety monitoring method
WO2017209089A1 (en) * 2016-06-03 2017-12-07 三菱電機株式会社 Apparatus control device and apparatus control method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023223820A1 (en) 2022-05-18 2023-11-23 Sony Semiconductor Solutions Corporation Imaging devices, host devices, and method

Also Published As

Publication number Publication date
JP7311478B2 (en) 2023-07-19

Similar Documents

Publication Publication Date Title
US10373244B2 (en) System and method for virtual clothes fitting based on video augmented reality in mobile phone
TWI438719B (en) Detection information registration device, electronic device, method for controlling detection information registration device, method for controlling electronic device, program for controlling detection information device, and program for controlling el
WO2019120252A1 (en) Systems and methods for controlling an air-conditioning system based on gait recognition
US20140100700A1 (en) Air conditioning control system, air conditioning control method and recording medium
US9443307B2 (en) Processing of images of a subject individual
JP2005172288A (en) Controlling system for air conditioner
JP2015095164A (en) Gesture recognition device and control method for gesture recognition device
WO2010016175A1 (en) Target detection device and target detection method
JP6509108B2 (en) Air conditioning management system and program
JP7484985B2 (en) Authentication system, authentication method, and program
CN112639365A (en) Ventilation control device and ventilation system
US20160127634A1 (en) Remote-camera control method, remote photography system, and server
JP7311478B2 (en) Information processing device, information processing program and information processing system
JP6914279B2 (en) Control device, air conditioner, air conditioning system and air conditioning control method
JP6922768B2 (en) Information processing device
WO2019189179A1 (en) Information management system
CN113272864A (en) Information processing apparatus, information processing method, and program
WO2020115910A1 (en) Information processing system, information processing device, information processing method, and program
US20190325674A1 (en) Managing seamless access to locks with person/head detection
KR102300500B1 (en) Method, device and system for processing three-dimensional cut image of product
WO2021241293A1 (en) Action-subject specifying system
JP7080294B2 (en) Information processing equipment, information processing programs and information processing systems
JP2022058833A (en) Information processing system, information processing apparatus, information processing method, and program
JP2015132443A (en) Apparatus control system, control device, apparatus control method, and program
JP7311474B2 (en) Information processing device, information processing method and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230706

R150 Certificate of patent or registration of utility model

Ref document number: 7311478

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150