JP2021189573A - Information processing system and information processing method - Google Patents

Information processing system and information processing method Download PDF

Info

Publication number
JP2021189573A
JP2021189573A JP2020091889A JP2020091889A JP2021189573A JP 2021189573 A JP2021189573 A JP 2021189573A JP 2020091889 A JP2020091889 A JP 2020091889A JP 2020091889 A JP2020091889 A JP 2020091889A JP 2021189573 A JP2021189573 A JP 2021189573A
Authority
JP
Japan
Prior art keywords
information
user
sensor
facility
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020091889A
Other languages
Japanese (ja)
Inventor
真行 前嶋
Masayuki Maejima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020091889A priority Critical patent/JP2021189573A/en
Publication of JP2021189573A publication Critical patent/JP2021189573A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing system in which a user can be prevented from feeling uncomfortable with sensing.SOLUTION: An information processing system 10 includes: an acquisition unit 32a that acquires environmental information about a facility 80 and trigger information; a control unit 32b that, when the trigger information is acquired, starts sensing of a user by means of an image sensor 37 set in the facility 80; and an output unit 32c that outputs recommend information for giving a recommendation to the user on the basis of the acquired environmental information and sensing information acquired by the sensing.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システム、及び、情報処理方法に関する。 The present invention relates to an information processing system and an information processing method.

ユーザに情報を提示するための様々な技術が提案されている。特許文献1には、ユーザの行動予定の変更に応じて当該ユーザに推薦情報を提示することができる推薦情報提示システムが開示されている。 Various techniques for presenting information to users have been proposed. Patent Document 1 discloses a recommendation information presentation system capable of presenting recommendation information to the user in response to a change in the action schedule of the user.

特開2017−134635号公報Japanese Unexamined Patent Publication No. 2017-134635

施設内でユーザのセンシングを行ってユーザに情報のリコメンドを行う構成が考えられる。このような構成では、ユーザは、施設内で常時センシングが行われることに抵抗を感じてしまう場合がある。 A configuration is conceivable in which the user is sensed in the facility and information is recommended to the user. In such a configuration, the user may be reluctant to constantly perform sensing in the facility.

本発明は、ユーザがセンシングに対して抵抗を感じてしまうことを抑制することができる情報処理システム等を提供する。 The present invention provides an information processing system or the like that can suppress a user from feeling resistance to sensing.

本発明の一態様に係る情報処理システムは、施設内の環境情報、及び、前記施設に設置された設備の状態を示す設備情報の少なくとも一方の情報、並びに、トリガ情報を取得する取得部と、前記トリガ情報が取得された場合に、前記施設内に設置されたセンサにユーザのセンシングを開始させる制御部と、取得された前記少なくとも一方の情報、及び、前記センシングによって取得されたセンシング情報に基づいて、前記ユーザへリコメンドを行うためのリコメンド情報を出力する出力部とを備える。 The information processing system according to one aspect of the present invention includes an acquisition unit for acquiring at least one of environmental information in the facility and equipment information indicating the state of the equipment installed in the facility, and trigger information. Based on the control unit that causes the sensor installed in the facility to start sensing by the user when the trigger information is acquired, at least one of the acquired information, and the sensing information acquired by the sensing. Further, it is provided with an output unit that outputs recommendation information for making recommendations to the user.

本発明の一態様に係る情報処理方法は、コンピュータによって実行される情報処理方法であって、施設内の環境情報、及び、前記施設に設置された設備の状態を示す設備情報の少なくとも一方の情報を取得し、トリガ情報を取得し、前記トリガ情報が取得された場合に、前記施設内に設置されたセンサにユーザのセンシングを開始させ、取得された前記少なくとも一方の情報、及び、前記センシングによって取得されたセンシング情報に基づいて、前記ユーザへリコメンドを行うためのリコメンド情報を出力する。 The information processing method according to one aspect of the present invention is an information processing method executed by a computer, and is information on at least one of environmental information in the facility and equipment information indicating the state of the equipment installed in the facility. When the trigger information is acquired, the sensor installed in the facility is started to sense the user, and at least one of the acquired information and the sensing are used. Based on the acquired sensing information, the recommendation information for making a recommendation to the user is output.

本発明の一態様に係るプログラムは、前記情報処理方法をコンピュータに実行させるためのプログラムである。 The program according to one aspect of the present invention is a program for causing a computer to execute the information processing method.

本発明の情報処理システム等は、ユーザがセンシングに対して抵抗を感じてしまうことを抑制することができる。 The information processing system and the like of the present invention can suppress the user from feeling resistance to sensing.

図1は、実施の形態に係る情報処理システムの機能構成を示すブロック図である。FIG. 1 is a block diagram showing a functional configuration of an information processing system according to an embodiment. 図2は、登録情報の一例を示す図である。FIG. 2 is a diagram showing an example of registration information. 図3は、実施の形態に係る情報処理システムの動作例1のフローチャートである。FIG. 3 is a flowchart of an operation example 1 of the information processing system according to the embodiment. 図4は、通知画面の一例を示す図である。FIG. 4 is a diagram showing an example of a notification screen. 図5は、リコメンド画像の第一の例を示す図である。FIG. 5 is a diagram showing a first example of a recommended image. 図6は、リコメンド画像の第二の例を示す図である。FIG. 6 is a diagram showing a second example of the recommended image. 図7は、温冷感申告とリコメンド情報との対応関係を示す情報の一例を示す図である。FIG. 7 is a diagram showing an example of information showing the correspondence relationship between the hot / cold feeling report and the recommendation information. 図8は、リコメンド画像の第三の例を示す図である。FIG. 8 is a diagram showing a third example of the recommended image. 図9は、実施の形態に係る情報処理システムの動作例2のフローチャートである。FIG. 9 is a flowchart of operation example 2 of the information processing system according to the embodiment. 図10は、リコメンド画像の第四の例を示す図である。FIG. 10 is a diagram showing a fourth example of the recommended image. 図11は、実施の形態に係る情報処理システムの動作例3のフローチャートである。FIG. 11 is a flowchart of an operation example 3 of the information processing system according to the embodiment. 図12は、実施の形態に係る情報処理システムの動作例4のフローチャートである。FIG. 12 is a flowchart of an operation example 4 of the information processing system according to the embodiment. 図13は、リコメンド画像の第五の例を示す図である。FIG. 13 is a diagram showing a fifth example of the recommended image.

以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 Hereinafter, embodiments will be specifically described with reference to the drawings. It should be noted that all of the embodiments described below are comprehensive or specific examples. The numerical values, shapes, materials, components, arrangement positions and connection forms of the components, steps, the order of steps, etc. shown in the following embodiments are examples, and are not intended to limit the present invention. Further, among the components in the following embodiments, the components not described in the independent claims are described as arbitrary components.

なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付し、重複する説明は省略または簡略化される場合がある。 It should be noted that each figure is a schematic view and is not necessarily exactly shown. Further, in each figure, the same reference numerals may be given to substantially the same configurations, and duplicate explanations may be omitted or simplified.

(実施の形態)
[構成]
まず、実施の形態に係る情報処理システムの構成について説明する。図1は、実施の形態に係る情報処理システムの機能構成を示すブロック図である。
(Embodiment)
[composition]
First, the configuration of the information processing system according to the embodiment will be described. FIG. 1 is a block diagram showing a functional configuration of an information processing system according to an embodiment.

図1に示されるように、情報処理システム10は、複数のセンサ20と、制御装置30と、複数の機器40と、サーバ装置50とを備える。情報処理システム10は、複数のセンサ20のセンシング結果に基づいて、施設80内のユーザへのリコメンド(リコメンド情報の出力)を行うことができるシステムである。リコメンドは、例えば、機器40の制御に関するレコメンド、及び、ユーザが取るべき行動に関するリコメンドなどである。施設80は、例えば、集合住宅または戸建住宅などの住宅である。施設80内には、複数のセンサ20、制御装置30、及び、複数の機器40が設置されている。サーバ装置50は、クラウド(言い換えれば、クラウドサーバ)である。 As shown in FIG. 1, the information processing system 10 includes a plurality of sensors 20, a control device 30, a plurality of devices 40, and a server device 50. The information processing system 10 is a system that can make recommendations (output of recommendation information) to users in the facility 80 based on the sensing results of a plurality of sensors 20. The recommendation is, for example, a recommendation regarding the control of the device 40, a recommendation regarding an action to be taken by the user, and the like. The facility 80 is, for example, a house such as an apartment house or a detached house. A plurality of sensors 20, a control device 30, and a plurality of devices 40 are installed in the facility 80. The server device 50 is a cloud (in other words, a cloud server).

まず、複数のセンサ20について説明する。複数のセンサ20には、温度センサ21、湿度センサ22、微粒子濃度センサ23、開閉センサ24、及び、熱画像センサ25が含まれる。複数のセンサ20は、制御装置30とは別の装置であるが、複数のセンサ20の少なくとも一部は、制御装置30に内蔵されていてもよい。また、複数のセンサ20の少なくとも一部は、制御装置30以外の他の装置に内蔵されていてもよい。例えば、温度センサ21、湿度センサ22、及び、熱画像センサ25などは、空気調和機41に内蔵されていてもよい。 First, a plurality of sensors 20 will be described. The plurality of sensors 20 include a temperature sensor 21, a humidity sensor 22, a fine particle concentration sensor 23, an open / close sensor 24, and a thermal image sensor 25. Although the plurality of sensors 20 are devices different from the control device 30, at least a part of the plurality of sensors 20 may be built in the control device 30. Further, at least a part of the plurality of sensors 20 may be built in a device other than the control device 30. For example, the temperature sensor 21, the humidity sensor 22, the thermal image sensor 25, and the like may be built in the air conditioner 41.

温度センサ21は、施設80内の温度をセンシングし、センシングした温度を示す温度情報を出力する。温度センサ21は、例えば、サーミスタまたは熱電対などの温度計測素子によって実現される。 The temperature sensor 21 senses the temperature inside the facility 80 and outputs temperature information indicating the sensed temperature. The temperature sensor 21 is realized by, for example, a temperature measuring element such as a thermistor or a thermocouple.

湿度センサ22は、施設80内の湿度をセンシングし、センシングした湿度を示す湿度情報を出力する。湿度センサ22は、例えば、静電容量型の感湿素子または抵抗変化型の感湿素子などの湿度計測素子によって実現される。 The humidity sensor 22 senses the humidity in the facility 80 and outputs humidity information indicating the sensed humidity. The humidity sensor 22 is realized by, for example, a humidity measuring element such as a capacitance type humidity sensitive element or a resistance change type humidity sensitive element.

微粒子濃度センサ23は、施設80内の微粒子(例えば、花粉またはPM2.5など)の濃度をセンシングし、センシングした微粒子濃度を示す微粒子濃度情報を出力する。微粒子濃度センサ23は、例えば、LED等の光源が発する光の散乱に基づいて微粒子濃度をセンシングする光学式のセンサである。なお、以下の実施の形態では、微粒子濃度センサ23は、花粉の濃度をセンシングするセンサであるとして説明が行われる。 The fine particle concentration sensor 23 senses the concentration of fine particles (for example, pollen or PM2.5) in the facility 80, and outputs fine particle concentration information indicating the sensed fine particle concentration. The fine particle concentration sensor 23 is, for example, an optical sensor that senses the fine particle concentration based on the scattering of light emitted by a light source such as an LED. In the following embodiment, the fine particle concentration sensor 23 is described as a sensor that senses the concentration of pollen.

このような温度センサ21、湿度センサ22、及び、微粒子濃度センサ23のそれぞれは、施設80内の環境をセンシングし、センシングした環境を示す環境情報を出力する環境センサの一例である。なお、その他の環境センサとしては、施設80内の照度をセンシングする照度センサなどが例示され、情報処理システム10は、これらのセンサを備えてもよい。 Each of the temperature sensor 21, the humidity sensor 22, and the fine particle concentration sensor 23 is an example of an environment sensor that senses the environment in the facility 80 and outputs environmental information indicating the sensed environment. Examples of other environmental sensors include an illuminance sensor that senses the illuminance in the facility 80, and the information processing system 10 may include these sensors.

開閉センサ24は、施設80に設けられた窓または扉の開閉をセンシングし、センシングした窓または扉の開閉状態を示す情報を出力する。開閉センサ24は、施設80に設置された設備(例えば、窓または扉などの建具)の状態をセンシングするセンサの一例である。開閉センサ24は、例えば、窓及び窓枠の一方(または、扉及び扉枠の一方)に取り付けられた磁石と、窓及び窓枠の他方(または、扉及び扉枠の他方)に取り付けられたマグネットセンサによって実現される、磁力式のセンサである。 The open / close sensor 24 senses the opening / closing of a window or door provided in the facility 80, and outputs information indicating the opened / closed state of the sensed window or door. The open / close sensor 24 is an example of a sensor that senses the state of equipment (for example, fittings such as windows or doors) installed in the facility 80. The open / close sensor 24 is attached to, for example, a magnet attached to one of the window and the window frame (or one of the door and the door frame) and the other of the window and the window frame (or the other of the door and the door frame). It is a magnetic sensor realized by a magnet sensor.

熱画像センサ25は、施設80内の熱(赤外線)の分布をセンシングし、熱画像情報として出力する。熱画像センサ25は、施設80内のユーザの行動(例えば、ユーザが施設80内のどこに位置しているか)をセンシングするためのセンサの一例である。熱画像センサ25は、例えば、アレイ状に配置された赤外線検出素子によって実現されるが、赤外線を検出できるイメージセンサによって実現されてもよい。 The thermal image sensor 25 senses the distribution of heat (infrared rays) in the facility 80 and outputs it as thermal image information. The thermal image sensor 25 is an example of a sensor for sensing the behavior of the user in the facility 80 (for example, where the user is located in the facility 80). The thermal image sensor 25 is realized by, for example, an infrared detection element arranged in an array, but may be realized by an image sensor capable of detecting infrared rays.

なお、施設80内のユーザの行動をセンシングするセンサとしては、熱画像センサ25の他に、電波センサなどが例示され、情報処理システム10は、これらのセンサを備えてもよい。 As the sensor that senses the behavior of the user in the facility 80, a radio wave sensor or the like is exemplified in addition to the thermal image sensor 25, and the information processing system 10 may include these sensors.

次に、制御装置30について説明する。制御装置30は、例えば、エネルギーマネジメント機能を有するHEMS(Home Energy Management System)コントローラであり、施設80内に設置され、施設80内に設置された機器40の消費電力を管理する。制御装置30は、施設80内に、機器40とは別の装置として設置される(つまり、機器40に内蔵されていない)ローカルコントローラである。また、制御装置30は、機器40の状態の取得及び表示、並びに、施設80内(あるいは、施設80の敷地内)に設置された機器40の制御などを行う。制御装置30は、HEMSコントローラに限定されず、エネルギーマネジメント機能を有しない他のホームコントローラ、または、ゲートウェイ装置であってもよい。制御装置30は、具体的には、表示部31と、情報処理部32と、記憶部33と、第一通信部34と、第二通信部35とを備える。 Next, the control device 30 will be described. The control device 30 is, for example, a HEMS (Home Energy Management System) controller having an energy management function, and is installed in the facility 80 to manage the power consumption of the device 40 installed in the facility 80. The control device 30 is a local controller installed in the facility 80 as a device separate from the device 40 (that is, not built in the device 40). Further, the control device 30 acquires and displays the state of the device 40, and controls the device 40 installed in the facility 80 (or in the premises of the facility 80). The control device 30 is not limited to the HEMS controller, and may be another home controller or a gateway device that does not have an energy management function. Specifically, the control device 30 includes a display unit 31, an information processing unit 32, a storage unit 33, a first communication unit 34, and a second communication unit 35.

表示部31は、画像の表示機能、及び、ユーザの手動入力を受け付ける機能を有する表示デバイスである。表示部31は、タッチパネル、及び、液晶パネルまたは有機ELパネルなどの表示パネルによって実現される。タッチパネルは、例えば、静電容量方式のタッチパネルであるが、抵抗膜方式のタッチパネルであってもよい。 The display unit 31 is a display device having an image display function and a function of accepting manual input by the user. The display unit 31 is realized by a touch panel and a display panel such as a liquid crystal panel or an organic EL panel. The touch panel is, for example, a capacitance type touch panel, but may be a resistance film type touch panel.

情報処理部32は、表示部31への画像の表示制御、及び、機器40の制御などを行う。情報処理部32は、例えば、マイクロコンピュータによって実現されるが、プロセッサによって実現されてもよい。情報処理部32は、具体的には、取得部32a、制御部32b、及び、出力部32cを有する。取得部32a、制御部32b、及び、出力部32cの具体的な機能については後述する。 The information processing unit 32 controls the display of an image on the display unit 31, controls the device 40, and the like. The information processing unit 32 is realized by, for example, a microcomputer, but may be realized by a processor. Specifically, the information processing unit 32 has an acquisition unit 32a, a control unit 32b, and an output unit 32c. Specific functions of the acquisition unit 32a, the control unit 32b, and the output unit 32c will be described later.

記憶部33は、情報処理部32によって実行されるコンピュータプログラムなどが記憶される記憶装置である。記憶部33は、例えば、半導体メモリによって実現される。また、記憶部33には、あらかじめ登録情報が記憶される。図2は、登録情報の一例を示す図である。 The storage unit 33 is a storage device that stores a computer program or the like executed by the information processing unit 32. The storage unit 33 is realized by, for example, a semiconductor memory. Further, the registration information is stored in advance in the storage unit 33. FIG. 2 is a diagram showing an example of registration information.

登録情報は、制御装置30を使用する複数のユーザが、表示部31への操作などにより、あらかじめ自身の情報を入力することによって記憶部33に記憶される。図2に示されるように、登録情報は、例えば、ユーザIDに、顔画像、発話音声特徴量、足音音声特徴量、温冷感申告、及び、花粉症の有無などが紐づけられた情報である。なお、顔画像は、例えば、画像センサ37によって撮影された画像に基づいて生成され、発話音声特徴量、及び、足音音声特徴量は、音声センサ38によって取得された音声信号に基づいて生成される。 The registration information is stored in the storage unit 33 by a plurality of users using the control device 30 inputting their own information in advance by operating the display unit 31 or the like. As shown in FIG. 2, the registration information is, for example, information in which a face image, an utterance voice feature amount, a footstep voice feature amount, a warm / cold feeling report, and the presence / absence of pollinosis are associated with a user ID. be. The face image is generated based on the image taken by the image sensor 37, for example, and the utterance voice feature amount and the footstep voice feature amount are generated based on the voice signal acquired by the voice sensor 38. ..

第一通信部34は、制御装置30が、複数のセンサ20及び複数の機器40と局所通信ネットワークを介して通信を行うための通信モジュール(通信回路)である。第一通信部34によって行われる通信は、例えば、無線通信であるが、有線通信であってもよい。通信に用いられる通信規格についても、特に限定されない。なお、第一通信部34と機器40との間の通信は、例えば、ECHONET Lite(登録商標)に準拠する。 The first communication unit 34 is a communication module (communication circuit) for the control device 30 to communicate with a plurality of sensors 20 and a plurality of devices 40 via a local communication network. The communication performed by the first communication unit 34 is, for example, wireless communication, but may be wired communication. The communication standard used for communication is also not particularly limited. The communication between the first communication unit 34 and the device 40 conforms to, for example, ECHONET Lite (registered trademark).

第二通信部35は、制御装置30がサーバ装置50とインターネットなどの広域通信ネットワーク70を介して通信を行うための通信モジュール(通信回路)である。第二通信部35によって行われる通信は、例えば、無線通信であるが、有線通信であってもよい。通信に用いられる通信規格についても特に限定されない。 The second communication unit 35 is a communication module (communication circuit) for the control device 30 to communicate with the server device 50 via a wide area communication network 70 such as the Internet. The communication performed by the second communication unit 35 is, for example, wireless communication, but may be wired communication. The communication standard used for communication is also not particularly limited.

人感センサ36は、制御装置30の周囲(つまり、施設80内)の人の存否をセンシングし、人の存否を示す情報を情報処理部32に出力する。人感センサ36は、例えば、人の体から発せられる赤外線をセンシングする焦電センサである。なお、人感センサ36は、制御装置30とは別体であってもよい。つまり、人感センサ36は、複数のセンサ20に含まれてもよい。 The motion sensor 36 senses the presence or absence of a person around the control device 30 (that is, in the facility 80), and outputs information indicating the presence or absence of the person to the information processing unit 32. The motion sensor 36 is, for example, a pyroelectric sensor that senses infrared rays emitted from a human body. The motion sensor 36 may be separate from the control device 30. That is, the motion sensor 36 may be included in the plurality of sensors 20.

画像センサ37は、制御装置30の周囲(つまり、施設80内)の画像を撮影するセンサであり、言い換えれば、カメラである。画像センサ37は、例えば、CMOSイメージセンサなどによって実現される。なお、画像センサ37は、制御装置30とは別体であってもよい。つまり、画像センサ37は、複数のセンサ20に含まれてもよい。 The image sensor 37 is a sensor that captures an image of the surroundings of the control device 30 (that is, in the facility 80), in other words, a camera. The image sensor 37 is realized by, for example, a CMOS image sensor. The image sensor 37 may be separate from the control device 30. That is, the image sensor 37 may be included in the plurality of sensors 20.

音声センサ38は、制御装置30の周囲(つまり、施設80内)の音声をセンシング(取得)するセンサであり、言い換えれば、マイクロフォンである。なお、音声センサ38は、制御装置30とは別体であってもよい。つまり、音声センサ38は、複数のセンサ20に含まれてもよい。 The voice sensor 38 is a sensor that senses (acquires) the voice around the control device 30 (that is, in the facility 80), in other words, it is a microphone. The voice sensor 38 may be separate from the control device 30. That is, the voice sensor 38 may be included in the plurality of sensors 20.

次に、機器40について説明する。機器40は、制御装置30の制御対象の機器である。機器40は、例えば、制御装置30と通信を行うための通信モジュール(通信回路)を備え、制御装置30から受信した制御信号にしたがって動作する。機器40には、例えば、空気調和機41、換気装置42、及び、空気清浄機43などが含まれる。 Next, the device 40 will be described. The device 40 is a device to be controlled by the control device 30. The device 40 includes, for example, a communication module (communication circuit) for communicating with the control device 30, and operates according to a control signal received from the control device 30. The device 40 includes, for example, an air conditioner 41, a ventilation device 42, an air purifier 43, and the like.

空気調和機41は、施設80内の空間の空気を取り込み、温度及び湿度の少なくとも一方を調整して当該空間に放出する機器である。温度の調整には、熱交換器などが用いられる。空気調和機41は、例えば、一般家庭用の空気調和機であるが、産業用の空気調和機であってもよい。 The air conditioner 41 is a device that takes in the air in the space inside the facility 80, adjusts at least one of the temperature and humidity, and discharges the air into the space. A heat exchanger or the like is used to adjust the temperature. The air conditioner 41 is, for example, an air conditioner for general household use, but may be an industrial air conditioner.

換気装置42は、施設80内の空間の換気を行う機器である。換気装置42は、例えば、全熱交換器(ERV:Energy Recovery Ventilator)であるが、換気扇などの熱交換をともなわない換気装置であってもよい。また、換気装置42は、施設80に設けられた窓の開閉装置であってもよい。以下の実施の形態では、換気装置42は、施設80内から施設80外への排気を行う換気装置であるとして説明されるが、施設80外から施設80内へ給気を行う換気装置であってもよい。 The ventilation device 42 is a device for ventilating the space in the facility 80. The ventilation device 42 is, for example, an energy recovery ventilator (ERV), but may be a ventilation device such as a ventilation fan that does not involve heat exchange. Further, the ventilation device 42 may be a window opening / closing device provided in the facility 80. In the following embodiment, the ventilation device 42 is described as a ventilation device that exhausts air from the inside of the facility 80 to the outside of the facility 80, but is a ventilation device that supplies air from the outside of the facility 80 to the inside of the facility 80. You may.

空気清浄機43は、施設80内の空間の空気を回収し、回収した空気を、HEPA(High Efficiency Particulate Air)フィルタなどのエアフィルタによって濾過して当該空間に放出する機器である。空気清浄機43は、施設80内の空間の空気を回収し、回収した空気を次亜塩素酸によって除菌して当該空間に放出する機器であってもよい。 The air purifier 43 is a device that collects the air in the space inside the facility 80, filters the collected air with an air filter such as a HEPA (High Effective Particulate Air) filter, and discharges the collected air into the space. The air purifier 43 may be a device that collects the air in the space inside the facility 80, sterilizes the collected air with hypochlorous acid, and discharges the collected air into the space.

次に、サーバ装置50について説明する。サーバ装置50は、施設80外の環境情報(温度情報、湿度情報、微粒子濃度情報、及び、天候情報(天気情報)など)を管理し、制御装置30に提供するクラウドサーバである。 Next, the server device 50 will be described. The server device 50 is a cloud server that manages environmental information (temperature information, humidity information, fine particle concentration information, weather information (weather information), etc.) outside the facility 80 and provides it to the control device 30.

[動作例1]
次に、情報処理システム10の動作例1について説明する。図3は、情報処理システム10の動作例1のフローチャートである。
[Operation example 1]
Next, operation example 1 of the information processing system 10 will be described. FIG. 3 is a flowchart of an operation example 1 of the information processing system 10.

制御装置30の人感センサ36は、制御装置30の周囲に人を検出すると(S11)、検出結果を示す情報(つまり、施設80内の制御装置30の周囲に人が存在することを示す情報)を情報処理部32(取得部32a)に出力する。 When the human sensor 36 of the control device 30 detects a person around the control device 30 (S11), information indicating the detection result (that is, information indicating that a person exists around the control device 30 in the facility 80). ) Is output to the information processing unit 32 (acquisition unit 32a).

取得部32aは、この情報をトリガ情報として取得する(S12)。出力部32cは、トリガ情報が取得されたことを契機に表示部31に通知情報を出力する。この結果、表示部31には、ユーザの識別処理(後述の画像センサ37によるユーザの撮影など)を開始することを通知する通知画面が表示される(S13)。図4は、通知画面の一例を示す図である。 The acquisition unit 32a acquires this information as trigger information (S12). The output unit 32c outputs the notification information to the display unit 31 when the trigger information is acquired. As a result, the display unit 31 displays a notification screen notifying that the user identification process (such as shooting of the user by the image sensor 37 described later) is started (S13). FIG. 4 is a diagram showing an example of a notification screen.

図4に示されるように、通知画面においては、アバターからユーザ識別処理を開始することが会話形式で通知される。このような通知画面によれば、ユーザが、ユーザ識別処理が開始されることについての抵抗を感じてしまうことを抑制することができる。なお、図4に示されるように、通知画面には、ユーザがユーザ識別処理の開始を承認するための操作オブジェクトが含まれてもよく、ステップS13以降の処理は、ユーザの承認が得られたときのみ行われてもよい。 As shown in FIG. 4, on the notification screen, the avatar notifies in a conversational manner that the user identification process is started. With such a notification screen, it is possible to prevent the user from feeling resistance to the start of the user identification process. As shown in FIG. 4, the notification screen may include an operation object for the user to approve the start of the user identification process, and the process after step S13 is approved by the user. It may be done only when.

次に、制御部32bは、画像センサ37を起動し、画像センサ37にユーザの撮影を開始させる(S14)。つまり、トリガ情報が取得される前は、画像センサ37は、オフ状態(またはスリープ状態)であり、制御装置30の周囲の画像を撮影していない。このように、トリガ情報を契機に画像センサ37が起動される構成によれば、画像センサ37によって制御装置30の周囲の画像が常時撮影されている構成に比べて、ユーザが撮影に対して抵抗を感じてしまうことを抑制することができる。 Next, the control unit 32b activates the image sensor 37 and causes the image sensor 37 to start shooting by the user (S14). That is, before the trigger information is acquired, the image sensor 37 is in the off state (or sleep state) and does not capture an image around the control device 30. As described above, according to the configuration in which the image sensor 37 is activated by the trigger information, the user resists shooting as compared with the configuration in which the image around the control device 30 is constantly captured by the image sensor 37. It is possible to suppress the feeling of.

次に、取得部32aは、画像センサ37によって撮影されたユーザの画像からユーザの顔画像情報を取得する(S15)。出力部32cは、取得された顔画像情報と、記憶部33に記憶された登録情報(図2)に含まれる複数の顔画像情報とを照合することにより、ユーザを識別する(S16)。 Next, the acquisition unit 32a acquires the user's face image information from the user's image taken by the image sensor 37 (S15). The output unit 32c identifies the user by collating the acquired face image information with a plurality of face image information included in the registration information (FIG. 2) stored in the storage unit 33 (S16).

次に、取得部32aは、複数のセンサ20のうちの環境センサから第一通信部34を介して施設80内の環境情報を取得し(S17)、出力部32cは、取得された環境情報に基づいて、ユーザへのリコメンドが必要であるか否かを判定する(S18)。 Next, the acquisition unit 32a acquires the environmental information in the facility 80 from the environmental sensor among the plurality of sensors 20 via the first communication unit 34 (S17), and the output unit 32c uses the acquired environmental information. Based on this, it is determined whether or not a recommendation to the user is necessary (S18).

例えば、出力部32cは、温度センサ21から取得した温度情報が示す温度が所定の範囲内であるか否かを判定する。出力部32cは、温度センサ21から取得した温度情報が示す温度が所定の範囲内であるときには、温度調整に関するリコメンドは不要であると判定し(S18でNo)、ステップS19の処理を行わない。 For example, the output unit 32c determines whether or not the temperature indicated by the temperature information acquired from the temperature sensor 21 is within a predetermined range. When the temperature indicated by the temperature information acquired from the temperature sensor 21 is within a predetermined range, the output unit 32c determines that the recommendation regarding the temperature adjustment is unnecessary (No in S18), and does not perform the process of step S19.

一方、出力部32cは、温度センサ21から取得した温度情報が示す温度が所定の範囲外であるときには、温度調整に関するリコメンドが必要であると判定し(S18でYes)、ステップS16のユーザの識別結果に基づき、表示部31にリコメンド情報を出力する。この結果、表示部31にリコメンド画像が表示される(S19)。例えば、ステップS16においてユーザがユーザAであると識別された場合、登録情報においてユーザAの温冷感申告は「普通」であるため、表示部31には、設定温度を規定値にして空気調和機41を動作させることをリコメンドするリコメンド画像が表示される。図5は、リコメンド画像の第一の例を示す図である。一方、ステップS16においてユーザがユーザBであると識別された場合、登録情報においてユーザBの温冷感申告は「暑がり」であるため、表示部31には、設定温度を規定値よりも低くして空気調和機41を動作させることをリコメンドするリコメンド画像が表示される。図6は、リコメンド画像の第二の例を示す図である。このように、出力部32cは、リコメンド画像の内容を、ユーザの識別結果に応じて異ならせる。 On the other hand, when the temperature indicated by the temperature information acquired from the temperature sensor 21 is out of the predetermined range, the output unit 32c determines that a recommendation regarding temperature adjustment is necessary (Yes in S18), and identifies the user in step S16. Based on the result, the recommendation information is output to the display unit 31. As a result, the recommended image is displayed on the display unit 31 (S19). For example, when the user is identified as the user A in step S16, the warm / cold feeling report of the user A is "normal" in the registration information, so that the display unit 31 is air-conditioned with the set temperature as a specified value. A recommendation image that recommends operating the machine 41 is displayed. FIG. 5 is a diagram showing a first example of a recommended image. On the other hand, when the user is identified as the user B in step S16, since the hot / cold feeling report of the user B is "hot" in the registration information, the set temperature is set lower than the specified value on the display unit 31. A recommendation image that recommends operating the air conditioner 41 is displayed. FIG. 6 is a diagram showing a second example of the recommended image. In this way, the output unit 32c makes the content of the recommended image different according to the identification result of the user.

なお、記憶部33には、温冷感申告と当該温冷感申告を有するユーザへのリコメンド情報(リコメンド画像)とが対応付けられて記憶されている。図7は、このような対応関係を示す情報(以下、対応情報とも記載される)の一例を示す図である。出力部32cは、ユーザの識別結果、登録情報、及び、対応関係を示す情報に基づいて、上述のようなリコメンド情報の出力を行うことができる。 In the storage unit 33, the hot / cold feeling report and the recommendation information (recommended image) to the user having the hot / cold feeling report are stored in association with each other. FIG. 7 is a diagram showing an example of information indicating such a correspondence relationship (hereinafter, also referred to as correspondence information). The output unit 32c can output the recommendation information as described above based on the user identification result, the registration information, and the information indicating the correspondence relationship.

また、図5及び図6に示されるように、リコメンド画像には、ユーザがリコメンド画像によって提案された機器40の制御を実行するための操作オブジェクトが含まれてもよい。このような操作オブジェクトへ操作が行われると、制御部32bは、第一通信部34に機器40へ制御信号を送信させることにより、機器40(動作例1では、空気調和機41)を制御する。 Further, as shown in FIGS. 5 and 6, the recommended image may include an operation object for the user to execute the control of the device 40 proposed by the recommended image. When an operation is performed on such an operation object, the control unit 32b controls the device 40 (air conditioner 41 in the operation example 1) by causing the first communication unit 34 to transmit a control signal to the device 40. ..

以上説明したように、情報処理システム10は、トリガ情報が取得されたことを契機に、施設80内に設置された画像センサ37にユーザのセンシング(撮影)を開始させる。また、情報処理システム10は、施設80内の環境情報、及び、上記センシングによって取得されたユーザの識別情報(具体的には、顔画像情報)に基づいて、ユーザへリコメンドを行うためのリコメンド情報を出力する。このような情報処理システム10は、ユーザがセンシング(撮影)に対して抵抗を感じてしまうことを抑制することができる。 As described above, the information processing system 10 causes the image sensor 37 installed in the facility 80 to start sensing (shooting) by the user when the trigger information is acquired. Further, the information processing system 10 recommends information to the user based on the environmental information in the facility 80 and the user's identification information (specifically, face image information) acquired by the sensing. Is output. Such an information processing system 10 can suppress the user from feeling resistance to sensing (shooting).

なお、上記動作例1では、ユーザの識別結果に応じてリコメンド情報(リコメンド画像)の内容が変更されたが、ユーザの識別結果に応じてリコメンドが必要であるか否かの判定基準が変更されてもよい。以下、このような動作の具体例について説明する。 In the above operation example 1, the content of the recommendation information (recommendation image) is changed according to the identification result of the user, but the criterion for determining whether or not the recommendation is necessary is changed according to the identification result of the user. You may. Hereinafter, a specific example of such an operation will be described.

例えば、ステップS16において、ユーザがユーザAであると識別された場合、登録情報においてユーザAは花粉症ではないと規定されている。そこで、ステップS17において、出力部32cは、微粒子濃度センサ23から取得した微粒子濃度(=花粉の濃度とみなす)が第一所定値以上であるか否かを判定する。出力部32cは、微粒子濃度センサ23から取得した微粒子濃度情報が示す微粒子濃度が第一所定値未満であるときには、施設80内の空気質に関するリコメンドは不要であると判定し(S18でNo)、ステップS19の処理を行わない。 For example, in step S16, when the user is identified as the user A, the registration information stipulates that the user A is not pollinosis. Therefore, in step S17, the output unit 32c determines whether or not the fine particle concentration (= regarded as the pollen concentration) acquired from the fine particle concentration sensor 23 is equal to or higher than the first predetermined value. When the fine particle concentration indicated by the fine particle concentration information acquired from the fine particle concentration sensor 23 is less than the first predetermined value, the output unit 32c determines that the recommendation regarding the air quality in the facility 80 is unnecessary (No in S18). The process of step S19 is not performed.

出力部32cは、微粒子濃度センサ23から取得した微粒子濃度情報が示す微粒子濃度が第一所定値以上であるときには、施設80内の空気質に関するリコメンドが必要であると判定し(S18でYes)、表示部31にリコメンド情報を出力する。この結果、表示部31にリコメンド画像が表示される(S19)。図8は、リコメンド画像の第三の例を示す図であり、リコメンド画像においては換気装置42及び空気清浄機43をオンすることがリコメンドされている。 When the fine particle concentration indicated by the fine particle concentration information acquired from the fine particle concentration sensor 23 is equal to or higher than the first predetermined value, the output unit 32c determines that a recommendation regarding the air quality in the facility 80 is necessary (Yes in S18). The recommendation information is output to the display unit 31. As a result, the recommended image is displayed on the display unit 31 (S19). FIG. 8 is a diagram showing a third example of the recommended image, and in the recommended image, it is recommended to turn on the ventilation device 42 and the air purifier 43.

一方、ステップS16において、ユーザがユーザBであると識別された場合、登録情報においてユーザBは花粉症であると規定されている。そこで、ステップS17において、出力部32cは、微粒子濃度センサ23から取得した微粒子濃度が第一所定値よりも小さい第二所定値以上であるか否かを判定する。つまり、ステップS16においてユーザが花粉症でないユーザAであると識別された場合よりも、ユーザが花粉症であるユーザBであると識別された場合のほうが、図8のリコメンド画像が表示されやすくなる。 On the other hand, in step S16, when the user is identified as the user B, the registration information stipulates that the user B has hay fever. Therefore, in step S17, the output unit 32c determines whether or not the fine particle concentration acquired from the fine particle concentration sensor 23 is equal to or higher than the second predetermined value smaller than the first predetermined value. That is, the recommended image of FIG. 8 is more likely to be displayed when the user is identified as the user B who has hay fever than when the user is identified as the user A who does not have hay fever in step S16. ..

[動作例2]
動作例1においては、施設80内の環境情報が取得されたが、施設80内の環境情報に代えて、施設80に設置された設備の状態を示す設備情報が取得されてもよい。また、施設80内の環境情報に加えて、施設80外の環境情報がさらに取得されてもよい。以下、このような情報処理システム10の動作例2について説明する。図9は、情報処理システム10の動作例2のフローチャートである。
[Operation example 2]
In the operation example 1, the environmental information in the facility 80 is acquired, but instead of the environmental information in the facility 80, the equipment information indicating the state of the equipment installed in the facility 80 may be acquired. Further, in addition to the environmental information inside the facility 80, the environmental information outside the facility 80 may be further acquired. Hereinafter, operation example 2 of such an information processing system 10 will be described. FIG. 9 is a flowchart of the operation example 2 of the information processing system 10.

ステップS11〜ステップS16の処理は、動作例1と同様である。ステップS16の後、取得部32aは、複数のセンサ20のうちの設備センサから第一通信部34を介して施設80に設置された設備状態を示す設備状態情報を取得する(S21)また、取得部32aは、サーバ装置から第二通信部35を介して施設80外の環境情報を取得する(S22)。 The processing of steps S11 to S16 is the same as that of the operation example 1. After step S16, the acquisition unit 32a acquires equipment status information indicating the equipment status installed in the facility 80 from the equipment sensor among the plurality of sensors 20 via the first communication unit 34 (S21). The unit 32a acquires environmental information outside the facility 80 from the server device via the second communication unit 35 (S22).

そして、出力部32cは、取得された設備状態情報、及び、取得された施設80外の環境情報に基づいて、ユーザへのリコメンドが必要であるか否かを判定する(S23)。 Then, the output unit 32c determines whether or not a recommendation to the user is necessary based on the acquired equipment state information and the acquired environmental information outside the facility 80 (S23).

例えば、出力部32cは、サーバ装置50から取得された施設80外の微粒子濃度が所定値よりも高く(つまり、施設880の外の空気質が悪く)、かつ、ステップS16で識別されたユーザの部屋の窓の開閉センサ24から取得された情報が、窓が開いていることを示している、という要件を満たすか否かを判定する。なお、窓の開閉センサ24は、施設80内の各ユーザの部屋のそれぞれに設置されており、制御装置30は、どのユーザの部屋にどの開閉センサ24が設置されているかを把握しているものとする。 For example, in the output unit 32c, the concentration of fine particles outside the facility 80 acquired from the server device 50 is higher than a predetermined value (that is, the air quality outside the facility 880 is poor), and the user identified in step S16. It is determined whether or not the information acquired from the opening / closing sensor 24 of the window of the room satisfies the requirement that the window is open. The window open / close sensor 24 is installed in each user's room in the facility 80, and the control device 30 grasps which open / close sensor 24 is installed in which user's room. And.

出力部32cは、上記要件が満たされないときには、窓の開閉に関するリコメンドは不要であると判定し(S23でNo)、ステップS19の処理を行わない。 When the above requirement is not satisfied, the output unit 32c determines that the recommendation regarding opening / closing of the window is unnecessary (No in S23), and does not perform the process of step S19.

一方、出力部32cは、上記要件が満たされるときには、窓の開閉に関するリコメンドが必要であると判定し(S23でYes)、表示部31にリコメンド情報を出力する。この結果、表示部31にリコメンド画像が表示される(S24)。図10は、リコメンド画像の第四の例を示す図である。 On the other hand, when the above requirement is satisfied, the output unit 32c determines that a recommendation regarding opening / closing of the window is necessary (Yes in S23), and outputs the recommendation information to the display unit 31. As a result, the recommended image is displayed on the display unit 31 (S24). FIG. 10 is a diagram showing a fourth example of the recommended image.

以上説明したように、情報処理システム10は、施設80の設備状態情報、施設80外の環境情報、及び、ユーザの識別情報(具体的には、顔画像情報)に基づいて、ユーザへリコメンドを行うことができる。 As described above, the information processing system 10 makes recommendations to the user based on the equipment status information of the facility 80, the environmental information outside the facility 80, and the user's identification information (specifically, facial image information). It can be carried out.

なお、動作例2において、施設80内の環境情報がさらに取得されてもよい。例えば、ステップS23の判定においては、サーバ装置50から取得された施設80外の微粒子濃度が所定値よりも高いことが要件とされたが、施設80外の微粒子濃度が施設80内の微粒子濃度よりも高い(つまり、施設80内に比べて施設80外の空気質が悪い)ことが要件とされてもよい。 In the operation example 2, the environmental information in the facility 80 may be further acquired. For example, in the determination in step S23, it is required that the concentration of fine particles outside the facility 80 acquired from the server device 50 is higher than a predetermined value, but the concentration of fine particles outside the facility 80 is higher than the concentration of fine particles inside the facility 80. (That is, the air quality outside the facility 80 is worse than that inside the facility 80) may be a requirement.

[動作例3]
動作例1及び動作例2においては、ユーザを識別するための識別情報として顔画像情報が取得されたが、ユーザを識別することは必須ではない。例えば、情報処理システム10は、ユーザが誰であるかを問わずに顔画像情報から任意のユーザの感情を推定し、推定結果に基づいてリコメンド画像を表示してもよい。図11は、情報処理システム10の動作例3のフローチャートである。
[Operation example 3]
In the operation example 1 and the operation example 2, the face image information is acquired as the identification information for identifying the user, but it is not essential to identify the user. For example, the information processing system 10 may estimate the emotion of an arbitrary user from the face image information regardless of who the user is, and display the recommended image based on the estimation result. FIG. 11 is a flowchart of an operation example 3 of the information processing system 10.

ステップS11〜ステップS15の処理は、動作例1と同様である。ステップS15の後、出力部32cは、取得された顔画像情報に基づいてユーザの感情を推定する(S31)。この場合の顔画像情報は、ユーザの感情を示す感情情報の一例である。顔画像情報に基づいてユーザの感情を推定する具体的な方法としては、既存のどのような方法が用いられてもよい。 The processing of steps S11 to S15 is the same as that of the operation example 1. After step S15, the output unit 32c estimates the user's emotion based on the acquired facial image information (S31). The face image information in this case is an example of emotional information indicating the user's emotions. As a specific method for estimating the user's emotion based on the face image information, any existing method may be used.

出力部32cは、ユーザの感情がリコメンドに適した感情であるか否かを判定する(S32)。例えば、ステップS31において、ユーザが怒っていると推定された場合、及び、ユーザが悲しんでいると推定された場合などには、出力部32cは、ユーザの感情がリコメンドに適した感情ではないと判定し(S32でNo)、ステップS33以降の処理は行われない。一方、ステップS31において、ユーザがリラックスしていると推定された場合などには、出力部32cは、ユーザの感情がリコメンドに適した感情であると判定し(S32でYes)、ステップS33以降の処理が行われる。取得部32aは、複数のセンサ20のうちの環境センサから第一通信部34を介して施設80内の環境情報を取得し(S33)、出力部32cは、取得された環境情報に基づいて、ユーザへのリコメンドが必要であるか否かを判定する(S34)。 The output unit 32c determines whether or not the user's emotion is an emotion suitable for recommendation (S32). For example, in step S31, when the user is presumed to be angry or the user is presumed to be sad, the output unit 32c does not indicate that the user's emotion is suitable for the recommendation. The determination is made (No in S32), and the processing after step S33 is not performed. On the other hand, in step S31, when the user is presumed to be relaxed, the output unit 32c determines that the user's emotion is suitable for the recommendation (Yes in S32), and steps S33 and subsequent steps are performed. Processing is done. The acquisition unit 32a acquires the environmental information in the facility 80 from the environmental sensor among the plurality of sensors 20 via the first communication unit 34 (S33), and the output unit 32c obtains the environmental information in the facility 80 based on the acquired environmental information. It is determined whether or not a recommendation to the user is necessary (S34).

例えば、出力部32cは、温度センサ21から取得した温度情報が示す温度が所定の範囲内であるか否かを判定する。出力部32cは、温度センサ21から取得した温度情報が示す温度が所定の範囲内であるときには、温度調整に関するリコメンドは不要であると判定し(S34でNo)、ステップS35の処理を行わない。 For example, the output unit 32c determines whether or not the temperature indicated by the temperature information acquired from the temperature sensor 21 is within a predetermined range. When the temperature indicated by the temperature information acquired from the temperature sensor 21 is within a predetermined range, the output unit 32c determines that the recommendation regarding the temperature adjustment is unnecessary (No in S34), and does not perform the process of step S35.

一方、出力部32cは、温度センサ21から取得した温度情報が示す温度が所定の範囲外であるときには、温度調整に関するリコメンドが必要であると判定し(S34でYes)、表示部31にリコメンド情報を出力する。この結果、表示部31にリコメンド画像(例えば、図5のリコメンド画像)が表示される(S35)。 On the other hand, when the temperature indicated by the temperature information acquired from the temperature sensor 21 is out of the predetermined range, the output unit 32c determines that a recommendation regarding temperature adjustment is necessary (Yes in S34), and the recommendation information is displayed on the display unit 31. Is output. As a result, the recommended image (for example, the recommended image of FIG. 5) is displayed on the display unit 31 (S35).

以上説明したように、情報処理システム10は、施設80内の環境情報、及び、上記センシングによって取得されたユーザの感情情報(具体的には、顔画像情報)に基づいて、ユーザへリコメンドを行うことができる。 As described above, the information processing system 10 makes recommendations to the user based on the environmental information in the facility 80 and the user's emotional information (specifically, facial image information) acquired by the sensing. be able to.

なお、動作例3では、ユーザの感情の推定結果に基づいてリコメンドを行うか否かを判定したが、ユーザの感情の推定結果に基づいてリコメンド画像の内容が変更されてもよい。例えば、ユーザの感情の推定結果に基づいてリコメンド画像内のメッセージ内容(例えば、アバターの口調など)が変更されてもよいし、ユーザの感情の推定結果に基づいてリコメンド画像内のアバターが変更されてもよい。 In Operation Example 3, it is determined whether or not to perform the recommendation based on the estimation result of the user's emotion, but the content of the recommendation image may be changed based on the estimation result of the user's emotion. For example, the message content in the recommendation image (for example, the tone of the avatar) may be changed based on the estimation result of the user's emotion, or the avatar in the recommendation image may be changed based on the estimation result of the user's emotion. You may.

また、動作例3では、ユーザの識別に代えてユーザの感情を推定したが、ユーザの識別に加えてユーザの感情を推定してもよい。 Further, in the operation example 3, the user's emotion is estimated instead of the user's identification, but the user's emotion may be estimated in addition to the user's identification.

[動作例4]
動作例1及び動作例2においては、ユーザを識別するための識別情報として顔画像情報が取得されたが、ユーザを識別することは必須ではない。例えば、情報処理システム10は、ユーザの行動をセンシングするための熱画像センサによって出力される熱画像情報を取得し、取得した熱画像情報に基づいてリコメンド画像を表示してもよい。図12は、情報処理システム10の動作例4のフローチャートである。
[Operation example 4]
In the operation example 1 and the operation example 2, the face image information is acquired as the identification information for identifying the user, but it is not essential to identify the user. For example, the information processing system 10 may acquire thermal image information output by a thermal image sensor for sensing the user's behavior and display a recommended image based on the acquired thermal image information. FIG. 12 is a flowchart of an operation example 4 of the information processing system 10.

ステップS11〜ステップS13の処理は、動作例1と同様である。ステップS13の後、制御部32bは、第一通信部34に熱画像センサ25へ制御信号を送信させることにより熱画像センサ25を起動し、熱画像センサ25にユーザのセンシングを開始させる(S41)。つまり、トリガ情報が取得される前は、熱画像センサ25は、オフ状態(またはスリープ状態)であり、ユーザのセンシングをしていない。このように、トリガ情報を契機に熱画像センサ25が起動される構成によれば、熱画像センサ25によって施設80内が常時センシングされている構成に比べて、ユーザがセンシングに対して抵抗を感じてしまうことを抑制することができる。 The processing of steps S11 to S13 is the same as that of the operation example 1. After step S13, the control unit 32b activates the thermal image sensor 25 by causing the first communication unit 34 to transmit a control signal to the thermal image sensor 25, and causes the thermal image sensor 25 to start sensing by the user (S41). .. That is, before the trigger information is acquired, the thermal image sensor 25 is in the off state (or sleep state) and does not sense the user. In this way, according to the configuration in which the thermal image sensor 25 is activated by the trigger information, the user feels resistance to sensing as compared with the configuration in which the inside of the facility 80 is constantly sensed by the thermal image sensor 25. It is possible to prevent the image from being lost.

次に、取得部32aは、熱画像センサ25によって出力された熱画像情報を取得する(S42)。出力部32cは、取得された熱画像情報に基づいてユーザの体温を推定する(S43)。出力部32cは、例えば、熱画像情報に対してパターンマッチング処理を行うことで熱画像におけるユーザの頭部が映っている領域を推定し、この領域の温度をユーザの体温であると推定する。 Next, the acquisition unit 32a acquires the thermal image information output by the thermal image sensor 25 (S42). The output unit 32c estimates the user's body temperature based on the acquired thermal image information (S43). The output unit 32c estimates, for example, a region in which the user's head is reflected in the thermal image by performing pattern matching processing on the thermal image information, and estimates that the temperature in this region is the user's body temperature.

また、取得部32aは、複数のセンサ20のうちの環境センサから第一通信部34を介して施設80内の環境情報を取得する(S44)。出力部32cは、推定されたユーザの体温、及び、取得された環境情報に基づいて、ユーザへのリコメンドが必要であるか否かを判定する(S45)。 Further, the acquisition unit 32a acquires the environmental information in the facility 80 from the environment sensor among the plurality of sensors 20 via the first communication unit 34 (S44). The output unit 32c determines whether or not a recommendation to the user is necessary based on the estimated body temperature of the user and the acquired environmental information (S45).

出力部32cは、例えば、ユーザの体温が所定値以上であり(つまり、ユーザが発熱しており)、かつ、取得された環境情報によって定まる施設80内の温度及び湿度が、ウイルス生存率が高まる所定範囲に属する(低温度かつ低湿度の状態である)という要件を満たすか否かを判定する。 In the output unit 32c, for example, the temperature and humidity in the facility 80 determined by the acquired environmental information when the user's body temperature is equal to or higher than a predetermined value (that is, the user is feverish) increases the virus survival rate. It is determined whether or not the requirement of belonging to a predetermined range (low temperature and low humidity) is satisfied.

出力部32cは、上記要件が満たされないときには、リコメンドは不要であると判定し(S45でNo)、ステップS19の処理を行わない。 When the above requirement is not satisfied, the output unit 32c determines that the recommendation is unnecessary (No in S45), and does not perform the process of step S19.

一方、出力部32cは、上記要件が満たされるときには、ユーザが風邪またはインフルエンザなどを患っていると推定されるので、リコメンドが必要であると判定し(S45でYes)、表示部31にリコメンド情報を出力する。この結果、表示部31にリコメンド画像が表示される(S46)。図13は、リコメンド画像の第五の例を示す図である。 On the other hand, when the above requirements are satisfied, the output unit 32c determines that the user needs a recommendation because it is estimated that the user has a cold or influenza (Yes in S45), and the display unit 31 displays the recommendation information. Is output. As a result, the recommended image is displayed on the display unit 31 (S46). FIG. 13 is a diagram showing a fifth example of the recommended image.

以上説明したように、情報処理システム10は、施設80内の環境情報、及び、上記センシングによって取得されたユーザの行動情報(具体的には、熱画像情報)に基づいて、ユーザへリコメンドを行うことができる。 As described above, the information processing system 10 makes recommendations to the user based on the environmental information in the facility 80 and the user's behavior information (specifically, thermal image information) acquired by the above sensing. be able to.

[トリガ情報の変形例]
上記動作例1〜4では、人感センサ36によって出力される施設80内に人が存在することを示す情報がトリガ情報として使用された。しかしながら、トリガ情報はこのような情報に限定されない。
[Transformation example of trigger information]
In the above operation examples 1 to 4, the information indicating that a person exists in the facility 80 output by the motion sensor 36 was used as the trigger information. However, the trigger information is not limited to such information.

例えば、制御装置30が音声認識に対応しており、ユーザがトリガワード(言い換えれば、起動ワードまたはウェイクアップワード)を発話することで制御装置30の音声認識機能がオンされるような場合が考えられる。このような場合、音声センサ38がトリガワードをセンシングすることによって出力する、トリガワードを示す音声情報がトリガ情報として使用されてもよい。 For example, the control device 30 may support voice recognition, and the voice recognition function of the control device 30 may be turned on by the user speaking a trigger word (in other words, an activation word or a wakeup word). Be done. In such a case, the voice information indicating the trigger word, which is output by the voice sensor 38 by sensing the trigger word, may be used as the trigger information.

また、例えば、ユーザにより表示部31へ所定の操作が行われたことで表示部31から情報処理部32へ送信される情報がトリガ情報として用いられてもよい。 Further, for example, the information transmitted from the display unit 31 to the information processing unit 32 when a predetermined operation is performed on the display unit 31 by the user may be used as the trigger information.

[ユーザ識別の変形例]
上記動作例1、2では、ユーザを識別するための識別情報として顔画像情報が用いられた。しかしながら、ユーザの識別方法は、顔画像情報に基づく方法に限定されない。例えば、ユーザの識別は、音声センサ38によって取得されるユーザの発話音の音声情報に基づいて行われてもよい。つまり、音声情報が識別情報として使用されてもよい。図2に示されるように、登録情報に複数のユーザのそれぞれの発話音の音声特徴量があらかじめ登録されていれば、出力部32cは、音声センサ38によって出力される発話音の音声情報から得られる発話音の音声特徴量と、登録情報に含まれる発話音の音声特徴量とを照合することでユーザを識別することができる。
[Variation example of user identification]
In the above operation examples 1 and 2, face image information was used as the identification information for identifying the user. However, the user identification method is not limited to the method based on the face image information. For example, the user identification may be performed based on the voice information of the user's utterance sound acquired by the voice sensor 38. That is, voice information may be used as identification information. As shown in FIG. 2, if the voice feature amount of each utterance sound of a plurality of users is registered in advance in the registration information, the output unit 32c is obtained from the voice information of the utterance sound output by the voice sensor 38. The user can be identified by collating the voice feature amount of the utterance sound to be produced with the voice feature amount of the utterance sound included in the registration information.

また、ユーザの識別は、音声センサ38によって取得されるユーザの足音の音声情報に基づいて行われてもよい。図2に示されるように、登録情報に複数のユーザのそれぞれの足音の音声特徴量があらかじめ登録されていれば、出力部32cは、音声センサ38によって出力される足音の音声情報から得られる発話音の音声特徴量と、登録情報に含まれる足音の音声特徴量とを照合することでユーザを識別することができる。 Further, the user identification may be performed based on the voice information of the user's footsteps acquired by the voice sensor 38. As shown in FIG. 2, if the voice features of the footsteps of the plurality of users are registered in advance in the registration information, the output unit 32c is an utterance obtained from the voice information of the footsteps output by the voice sensor 38. The user can be identified by collating the voice feature amount of the sound with the voice feature amount of the footstep included in the registration information.

このように、ユーザの識別が音声センサ38を用いて行われる場合、制御部32bは、トリガ情報が取得されたことを契機に、音声センサ38を起動し、音声センサ38にユーザの音声の取得を開始させる。つまり、トリガ情報が取得される前は、音声センサ38は、オフ状態(またはスリープ状態)であり、音声を取得していない。このように、トリガ情報を契機に音声センサ38が起動される構成によれば、音声センサ38によって音声が常時取得されている構成に比べて、ユーザが音声の取得に対して抵抗を感じてしまうことを抑制することができる。 In this way, when the user is identified by using the voice sensor 38, the control unit 32b activates the voice sensor 38 when the trigger information is acquired, and the voice sensor 38 acquires the user's voice. To start. That is, before the trigger information is acquired, the voice sensor 38 is in the off state (or sleep state) and does not acquire the voice. In this way, according to the configuration in which the voice sensor 38 is activated by the trigger information, the user feels resistance to the acquisition of the voice as compared with the configuration in which the voice is constantly acquired by the voice sensor 38. It can be suppressed.

[ユーザの感情の推定の変形例]
上記動作例3では、顔画像情報に基づいてユーザの感情の推定が行われた。しかしながら、ユーザの感情の推定方法は、顔画像情報に基づく方法に限定されない。例えば、ユーザの感情の推定は、音声センサ38によって取得されるユーザの発話音に基づいて行われてもよい。例えば、音声認識により特定されるユーザの発話内容に基づいてユーザの感情が推定されてもよいし、発話音の音声特徴量に基づいてユーザの感情が推定されてもよい。
[Modified example of user's emotion estimation]
In the above operation example 3, the user's emotion is estimated based on the facial image information. However, the method of estimating the user's emotion is not limited to the method based on the facial image information. For example, the estimation of the user's emotion may be performed based on the user's utterance sound acquired by the voice sensor 38. For example, the user's emotion may be estimated based on the user's utterance content specified by voice recognition, or the user's emotion may be estimated based on the voice feature amount of the utterance sound.

[リコメンド情報の出力方法の変形例]
上記動作例1などでは、出力部32cは、登録情報(図2)、及び、対応情報(図7)を組み合わせた情報(つまり、複数のユーザの識別情報とリコメンド情報とが紐づけられた参照用情報)に基づいて、リコメンド情報を出力した。しかしながら、リコメンド情報を出力するために参照用情報が使用されることは必須ではない。
[Modification example of output method of recommendation information]
In the operation example 1 or the like, the output unit 32c is a reference in which registration information (FIG. 2) and correspondence information (FIG. 7) are combined (that is, identification information of a plurality of users and recommendation information are associated with each other). The recommendation information was output based on the information). However, it is not essential that the reference information be used to output the recommendation information.

例えば、出力部32cは、機械学習モデルを用いてリコメンド情報を出力してもよい。機械学習モデルは、ユーザの識別情報、当該ユーザに対して提示したリコメンド画像(リコメンド情報)、リコメンド画像が提示されたときの複数のセンサ20が出力する情報(環境情報、設備状態情報など)、及び、リコメンド画像が提示された結果(例えば、リコメンドした機器40の制御をユーザが承認したか否か)などを紐づけたデータをあらかじめ学習することによって構築される。出力部32cは、このような機械学習モデルを用いてリコメンド情報を出力することもできる。なお、機械学習モデルは、適宜更新(再学習)されてもよい。 For example, the output unit 32c may output the recommendation information using a machine learning model. The machine learning model includes user identification information, recommended images presented to the user (recommended information), information output by a plurality of sensors 20 when the recommended images are presented (environmental information, equipment status information, etc.), It is constructed by learning in advance data associated with the result of presenting the recommended image (for example, whether or not the user approves the control of the recommended device 40). The output unit 32c can also output the recommendation information using such a machine learning model. The machine learning model may be updated (re-learned) as appropriate.

[効果等]
以上説明したように、情報処理システム10は、施設80内の環境情報、及び、施設80に設置された設備の状態を示す設備情報の少なくとも一方の情報、並びに、トリガ情報を取得する取得部32aと、トリガ情報が取得された場合に、施設80内に設置されたセンサにユーザのセンシングを開始させる制御部32bと、取得された上記少なくとも一方の情報、及び、センシングによって取得されたセンシング情報に基づいて、ユーザへリコメンドを行うためのリコメンド情報を出力する出力部32cとを備える。
[Effects, etc.]
As described above, the information processing system 10 acquires at least one of the environmental information in the facility 80 and the equipment information indicating the state of the equipment installed in the facility 80, and the trigger information 32a. And, when the trigger information is acquired, the control unit 32b that causes the sensor installed in the facility 80 to start sensing by the user, at least one of the acquired information, and the sensing information acquired by sensing. Based on this, it is provided with an output unit 32c that outputs recommendation information for making recommendations to the user.

このような情報処理システム10は、時間を制限してセンシングを行うことで、ユーザがセンシングに対して抵抗を感じてしまうことを抑制することができる。また、このように時間を制限してセンシングを行う構成により、常時センシングが行われる構成に比べて、消費電力、及び、情報処理量が抑制される。 In such an information processing system 10, by limiting the time and performing sensing, it is possible to suppress the user from feeling resistance to sensing. Further, the configuration in which the sensing is performed with the time limited in this way suppresses the power consumption and the amount of information processing as compared with the configuration in which the sensing is constantly performed.

また、例えば、上記トリガ情報は、人感センサ36によって出力される施設80内に人が存在することを示す情報、または、音声センサ38によって出力される所定のトリガワードを示す音声情報である。 Further, for example, the trigger information is information indicating that a person exists in the facility 80 output by the motion sensor 36, or voice information indicating a predetermined trigger word output by the voice sensor 38.

このような情報処理システム10は、人感センサ36が反応した(人を検出した)こと、または、ユーザがトリガワードを発話したことをトリガに、ユーザのセンシングを開始することができる。 Such an information processing system 10 can start sensing by the user when the motion sensor 36 reacts (detects a person) or when the user utters a trigger word.

また、例えば、上記センシング情報は、ユーザを他のユーザと区別するための識別情報である。 Further, for example, the sensing information is identification information for distinguishing a user from other users.

このような情報処理システム10は、ユーザが誰であるかに応じたリコメンドを行うことができる。 Such an information processing system 10 can make recommendations according to who the user is.

また、例えば、上記センサは、画像センサ37であり、上記識別情報は、画像センサ37によってセンシングされた顔画像情報である。 Further, for example, the sensor is an image sensor 37, and the identification information is face image information sensed by the image sensor 37.

このような情報処理システムは、顔画像情報を用いてユーザを識別することができる。 Such an information processing system can identify a user by using facial image information.

また、例えば、上記センサは、音声センサ38であり、上記識別情報は、音声センサ38によってセンシングされた音声情報である。 Further, for example, the sensor is a voice sensor 38, and the identification information is voice information sensed by the voice sensor 38.

このような情報処理システムは、音声情報を用いてユーザを識別することができる。 Such an information processing system can identify a user using voice information.

また、例えば、情報処理システム10は、さらに、複数のユーザの識別情報とリコメンド情報とが紐づけられた参照用情報が記憶された記憶部33を備える。出力部32cは、取得部32aにより取得された上記少なくとも一方の情報、上記センシング情報、及び、上記参照用情報に基づいて、上記リコメンド情報を出力する。 Further, for example, the information processing system 10 further includes a storage unit 33 in which reference information in which identification information and recommendation information of a plurality of users are linked is stored. The output unit 32c outputs the recommendation information based on the at least one of the information acquired by the acquisition unit 32a, the sensing information, and the reference information.

このような情報処理システム10は、記憶部33に記憶された参照用情報を用いてリコメンド情報を出力することができる。 Such an information processing system 10 can output recommendation information using reference information stored in the storage unit 33.

また、例えば、上記センシング情報は、ユーザの感情を示す感情情報である。 Further, for example, the sensing information is emotional information indicating the emotion of the user.

このような情報処理システム10は、ユーザの感情に応じたリコメンドを行うことができる。 Such an information processing system 10 can make recommendations according to the emotions of the user.

また、例えば、上記センサは、画像センサであり、上記感情情報は、画像センサ37によってセンシングされた顔画像情報である。 Further, for example, the sensor is an image sensor, and the emotion information is face image information sensed by the image sensor 37.

このような情報処理システム10は、顔画像情報を用いてユーザの感情を推定することができる。 Such an information processing system 10 can estimate a user's emotion using facial image information.

また、例えば、上記センサは、ユーザの行動をセンシングするセンサである
このような情報処理システム10は、ユーザの行動に応じたリコメンドを行うことができる。
Further, for example, the sensor is a sensor that senses the user's behavior. Such an information processing system 10 can make recommendations according to the user's behavior.

また、例えば、上記センサは、熱画像センサであり、熱画像情報を上記センシング情報として出力する。 Further, for example, the sensor is a thermal image sensor and outputs thermal image information as the sensing information.

このような情報処理システム10は、熱画像情報に応じたリコメンドを行うことができる。 Such an information processing system 10 can make recommendations according to thermal image information.

また、例えば、取得部32aは、さらに、施設80外の環境情報を取得し、制御部32bは、取得された施設80外の環境情報をさらに用いて、リコメンド情報を出力する。 Further, for example, the acquisition unit 32a further acquires the environmental information outside the facility 80, and the control unit 32b further uses the acquired environmental information outside the facility 80 to output the recommendation information.

このような情報処理システム10は、施設80外の環境情報に応じたリコメンドを行うことができる。 Such an information processing system 10 can make recommendations according to environmental information outside the facility 80.

また、例えば、情報処理システム10は、さらに、トリガ情報が取得された場合に、ユーザのセンシングが開始されることを通知するための通知画面を表示する表示部31を備える。通知画面においては、通知画面に表示されたアバターとの会話形式で通知が行われる。 Further, for example, the information processing system 10 further includes a display unit 31 that displays a notification screen for notifying that the user's sensing is started when the trigger information is acquired. On the notification screen, the notification is performed in a conversation format with the avatar displayed on the notification screen.

このような情報処理システム10は、通知画面に表示されたアバターとの会話形式で通知を行うことで、ユーザがセンシングに対して抵抗を感じてしまうことを抑制することができる。 Such an information processing system 10 can prevent the user from feeling resistance to sensing by performing notification in a conversational format with the avatar displayed on the notification screen.

また、情報処理システム10などのコンピュータによって実行される情報処理方法は、施設80内の環境情報、及び、施設80に設置された設備の状態を示す設備情報の少なくとも一方の情報を取得し、トリガ情報を取得し、トリガ情報が取得された場合に、施設80内に設置されたセンサにユーザのセンシングを開始させ、取得された上記少なくとも一方の情報、及び、上記センシングによって取得されたセンシング情報に基づいて、ユーザへリコメンドを行うためのリコメンド情報を出力する。 Further, the information processing method executed by a computer such as the information processing system 10 acquires at least one of the environmental information in the facility 80 and the equipment information indicating the state of the equipment installed in the facility 80, and triggers the information. When the information is acquired and the trigger information is acquired, the sensor installed in the facility 80 is started to sense the user, and the acquired at least one of the information and the sensing information acquired by the sensing are used. Based on this, the recommendation information for making a recommendation to the user is output.

このような情報処理方法は、時間を制限してセンシングが行うことで、ユーザがセンシングに対して抵抗を感じてしまうことを抑制することができる。また、このように時間を制限してセンシングを行う構成により、常時センシングが行われる構成に比べて、消費電力、及び、情報処理量が抑制される。 In such an information processing method, it is possible to suppress the user from feeling resistance to the sensing by performing the sensing for a limited time. Further, the configuration in which the sensing is performed with the time limited in this way suppresses the power consumption and the amount of information processing as compared with the configuration in which the sensing is constantly performed.

(その他の実施の形態)
以上、実施の形態について説明したが、本発明は、上記実施の形態に限定されるものではない。
(Other embodiments)
Although the embodiments have been described above, the present invention is not limited to the above embodiments.

例えば、上記実施の形態で説明された動作例1〜4は任意に組み合わされてよい。例えば、動作例3におけるユーザの感情の推定、及び、リコメンドの適否の判定は、動作例1、動作例2、及び、動作例4のいずれかと組み合わされてもよい。 For example, the operation examples 1 to 4 described in the above embodiment may be arbitrarily combined. For example, the estimation of the user's emotion in the operation example 3 and the determination of the suitability of the recommendation may be combined with any one of the operation example 1, the operation example 2, and the operation example 4.

例えば、上記実施の形態では、施設は、集合住宅または戸建住宅などの住宅であると説明されたが、介護施設またはオフィスなどであってもよく、施設が具体的にどのような施設であるかは特に限定されない。 For example, in the above embodiment, the facility is described as a house such as an apartment house or a detached house, but it may be a nursing care facility or an office, and the facility is specifically any kind of facility. Is not particularly limited.

また、上記実施の形態では、情報処理システムは、複数の装置によって実現されたが、単一の装置として実現されてもよい。例えば、情報処理システムは、制御装置に相当する単一の装置として実現されてもよい。情報処理システムが複数の装置によって実現される場合、情報処理システムが備える構成要素は、複数の装置にどのように振り分けられてもよい。 Further, in the above embodiment, the information processing system is realized by a plurality of devices, but may be realized as a single device. For example, the information processing system may be realized as a single device corresponding to a control device. When the information processing system is realized by a plurality of devices, the components included in the information processing system may be distributed to the plurality of devices in any way.

例えば、上記実施の形態における装置間の通信方法については特に限定されるものではない。また、装置間の通信においては、図示されない中継装置(ブロードバンドルータなど含む)が介在してもよい。 For example, the communication method between the devices in the above embodiment is not particularly limited. Further, in the communication between the devices, a relay device (including a broadband router) (not shown) may intervene.

また、上記実施の形態において、特定の処理部が実行する処理を別の処理部が実行してもよい。また、複数の処理の順序が変更されてもよいし、複数の処理が並行して実行されてもよい。また、上記実施の形態において、各動作例は、任意に組み合わされてよい。 Further, in the above embodiment, another processing unit may execute the processing executed by the specific processing unit. Further, the order of the plurality of processes may be changed, or the plurality of processes may be executed in parallel. Further, in the above embodiment, the operation examples may be arbitrarily combined.

また、上記実施の形態において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 Further, in the above embodiment, each component may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.

また、各構成要素は、ハードウェアによって実現されてもよい。例えば、各構成要素は、回路(または集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。 In addition, each component may be realized by hardware. For example, each component may be a circuit (or integrated circuit). These circuits may form one circuit as a whole, or may be separate circuits from each other. Further, each of these circuits may be a general-purpose circuit or a dedicated circuit.

また、本発明の全般的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 In addition, general or specific embodiments of the present invention may be realized in a recording medium such as a system, an apparatus, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM. Further, it may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program and a recording medium.

例えば、本発明は、情報処理システムなどのコンピュータが実行する情報処理方法として実現されてもよいし、このような情報処理方法をコンピュータに実行させるためのプログラムとして実現されてもよい。また、本発明は、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。 For example, the present invention may be realized as an information processing method executed by a computer such as an information processing system, or may be realized as a program for causing a computer to execute such an information processing method. Further, the present invention may be realized as a computer-readable non-temporary recording medium in which such a program is recorded.

その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、または、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。 In addition, it is realized by a form obtained by applying various modifications to each embodiment that a person skilled in the art can think of, or by arbitrarily combining the components and functions in each embodiment within the range not deviating from the gist of the present invention. Also included in the present invention.

10 情報処理システム
25 熱画像センサ(センサ)
31 表示部
32a 取得部
32b 制御部
32c 出力部
33 記憶部
36 人感センサ
37 画像センサ(センサ)
38 音声センサ(センサ)
10 Information processing system 25 Thermal image sensor (sensor)
31 Display unit 32a Acquisition unit 32b Control unit 32c Output unit 33 Storage unit 36 Motion sensor 37 Image sensor (sensor)
38 Voice sensor (sensor)

Claims (14)

施設内の環境情報、及び、前記施設に設置された設備の状態を示す設備情報の少なくとも一方の情報、並びに、トリガ情報を取得する取得部と、
前記トリガ情報が取得された場合に、前記施設内に設置されたセンサにユーザのセンシングを開始させる制御部と、
取得された前記少なくとも一方の情報、及び、前記センシングによって取得されたセンシング情報に基づいて、前記ユーザへリコメンドを行うためのリコメンド情報を出力する出力部とを備える
情報処理システム。
An acquisition unit that acquires at least one of the environmental information in the facility and the equipment information indicating the state of the equipment installed in the facility, and the trigger information.
A control unit that causes a sensor installed in the facility to start sensing by the user when the trigger information is acquired.
An information processing system including at least one of the acquired information and an output unit that outputs recommendation information for making recommendations to the user based on the sensing information acquired by the sensing.
前記トリガ情報は、人感センサによって出力される前記施設内に人が存在することを示す情報、または、音声センサによって出力される所定のトリガワードを示す音声情報である
請求項1に記載の情報処理システム。
The information according to claim 1, wherein the trigger information is information output by a motion sensor indicating the presence of a person in the facility, or information indicating a predetermined trigger word output by a voice sensor. Processing system.
前記センシング情報は、前記ユーザを他のユーザと区別するための識別情報である
請求項1または2に記載の情報処理システム。
The information processing system according to claim 1 or 2, wherein the sensing information is identification information for distinguishing the user from other users.
前記センサは、画像センサであり、
前記識別情報は、前記画像センサによってセンシングされた顔画像情報である
請求項3に記載の情報処理システム。
The sensor is an image sensor and
The information processing system according to claim 3, wherein the identification information is face image information sensed by the image sensor.
前記センサは、音声センサであり、
前記識別情報は、前記音声センサによってセンシングされた音声情報である
請求項3に記載の情報処理システム。
The sensor is a voice sensor and
The information processing system according to claim 3, wherein the identification information is voice information sensed by the voice sensor.
さらに、複数のユーザの識別情報とリコメンド情報とが紐づけられた参照用情報が記憶された記憶部を備え、
前記出力部は、前記取得部により取得された前記少なくとも一方の情報、前記センシング情報、及び、前記参照用情報に基づいて、前記リコメンド情報を出力する
請求項3〜5のいずれか1項に記載の情報処理システム。
Further, it is provided with a storage unit that stores reference information in which identification information and recommendation information of a plurality of users are linked.
The output unit is described in any one of claims 3 to 5, which outputs the recommendation information based on the at least one information acquired by the acquisition unit, the sensing information, and the reference information. Information processing system.
前記センシング情報は、前記ユーザの感情を示す感情情報である
請求項1または2に記載の情報処理システム。
The information processing system according to claim 1 or 2, wherein the sensing information is emotion information indicating the emotion of the user.
前記センサは、画像センサであり、
前記感情情報は、前記画像センサによってセンシングされた顔画像情報である
請求項7に記載の情報処理システム。
The sensor is an image sensor and
The information processing system according to claim 7, wherein the emotion information is face image information sensed by the image sensor.
前記センサは、前記ユーザの行動をセンシングするセンサである
請求項1または2に記載の情報処理システム。
The information processing system according to claim 1 or 2, wherein the sensor is a sensor that senses the behavior of the user.
前記センサは、熱画像センサであり、熱画像情報を前記センシング情報として出力する
請求項9に記載の情報処理システム。
The information processing system according to claim 9, wherein the sensor is a thermal image sensor and outputs thermal image information as the sensing information.
前記取得部は、さらに、前記施設外の環境情報を取得し、
前記制御部は、取得された前記施設外の環境情報をさらに用いて、前記リコメンド情報を出力する
請求項1〜10のいずれか1項に記載の情報処理システム。
The acquisition unit further acquires environmental information outside the facility.
The information processing system according to any one of claims 1 to 10, wherein the control unit further uses the acquired environmental information outside the facility to output the recommendation information.
さらに、前記トリガ情報が取得された場合に、前記ユーザのセンシングが開始されることを通知するための通知画面を表示する表示部を備え、
前記通知画面においては、前記通知画面に表示されたアバターとの会話形式で前記通知が行われる
請求項1〜11のいずれか1項に記載の情報処理システム。
Further, it is provided with a display unit for displaying a notification screen for notifying that the sensing of the user is started when the trigger information is acquired.
The information processing system according to any one of claims 1 to 11, wherein the notification is performed in the form of conversation with the avatar displayed on the notification screen.
コンピュータによって実行される情報処理方法であって、
施設内の環境情報、及び、前記施設に設置された設備の状態を示す設備情報の少なくとも一方の情報を取得し、
トリガ情報を取得し、
前記トリガ情報が取得された場合に、前記施設内に設置されたセンサにユーザのセンシングを開始させ、
取得された前記少なくとも一方の情報、及び、前記センシングによって取得されたセンシング情報に基づいて、前記ユーザへリコメンドを行うためのリコメンド情報を出力する
情報処理方法。
An information processing method executed by a computer
Acquire at least one of the environmental information in the facility and the equipment information indicating the state of the equipment installed in the facility.
Get the trigger information,
When the trigger information is acquired, the sensor installed in the facility is started to sense the user.
An information processing method that outputs recommendation information for making recommendations to the user based on the acquired at least one of the information and the sensing information acquired by the sensing.
請求項13に記載の情報処理方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the information processing method according to claim 13.
JP2020091889A 2020-05-27 2020-05-27 Information processing system and information processing method Pending JP2021189573A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020091889A JP2021189573A (en) 2020-05-27 2020-05-27 Information processing system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020091889A JP2021189573A (en) 2020-05-27 2020-05-27 Information processing system and information processing method

Publications (1)

Publication Number Publication Date
JP2021189573A true JP2021189573A (en) 2021-12-13

Family

ID=78849719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020091889A Pending JP2021189573A (en) 2020-05-27 2020-05-27 Information processing system and information processing method

Country Status (1)

Country Link
JP (1) JP2021189573A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7253860B1 (en) * 2022-12-27 2023-04-07 Olive株式会社 Emotion information management device and emotion information management application

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7253860B1 (en) * 2022-12-27 2023-04-07 Olive株式会社 Emotion information management device and emotion information management application

Similar Documents

Publication Publication Date Title
US11874007B2 (en) HVAC service performance
US7839275B2 (en) Methods, systems and computer program products for controlling a climate in a building
US10270609B2 (en) Automatically learning and controlling connected devices
CA3148692C (en) Smart-home hazard detector providing context specific features and/or pre-alarm configurations
JP6410187B2 (en) Air environment adjustment system, control device
JP5318172B2 (en) Electronic equipment and programs
JP2014074560A (en) Air-conditioning control system, air-conditioning control method and program
US9836069B1 (en) Devices and methods for protecting unattended children in the home
US11243002B2 (en) Smart air vent
JP6241708B2 (en) Air conditioning management device, air conditioning system and program
CN111919070B (en) Fragrance delivery system
KR101940452B1 (en) A ventilation system with independently controlling the space
US10416143B2 (en) Devices and methods for determining and acting upon cumulative exposure of a building occupant to a hazardous substance
CN110546627B (en) Video integration with home assistant
JP2012251731A (en) Air conditioning system
US9761099B1 (en) Configurable sensor
WO2023035678A1 (en) Method and apparatus for controlling air conditioner, and air conditioner and storage medium
CN111561764A (en) Control method and device for fresh air system and storage medium
US11530836B2 (en) Air conditioner and control method thereof
JP2021189573A (en) Information processing system and information processing method
US20210251568A1 (en) Infrared sleep monitoring
US20220189004A1 (en) Building management system using video analytics
KR20210122966A (en) Integrated interior environment managing system and method
US20240142127A1 (en) Hvac service performance
CN107300896A (en) Household electric appliance control method and equipment