JP7084962B2 - Estimator program, estimator, estimation method, generation program, generation device and generation method - Google Patents

Estimator program, estimator, estimation method, generation program, generation device and generation method Download PDF

Info

Publication number
JP7084962B2
JP7084962B2 JP2020117873A JP2020117873A JP7084962B2 JP 7084962 B2 JP7084962 B2 JP 7084962B2 JP 2020117873 A JP2020117873 A JP 2020117873A JP 2020117873 A JP2020117873 A JP 2020117873A JP 7084962 B2 JP7084962 B2 JP 7084962B2
Authority
JP
Japan
Prior art keywords
terminal device
information
environment
predetermined
procedure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020117873A
Other languages
Japanese (ja)
Other versions
JP2022015191A (en
Inventor
進 米田
佑太 三輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2020117873A priority Critical patent/JP7084962B2/en
Publication of JP2022015191A publication Critical patent/JP2022015191A/en
Application granted granted Critical
Publication of JP7084962B2 publication Critical patent/JP7084962B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、推定プログラム、推定装置、推定方法、生成プログラム、生成装置及び生成方法に関する。 The present invention relates to an estimation program, an estimation device, an estimation method, a generation program, a generation device, and a generation method.

従来、感染症のパンデミックに対応するための様々な技術が知られている。例えば、音情報に、感染症に起因した咳音が含まれるか判定し、感染症に起因した咳音から感染者数を推定し、感染者数と位置情報と時間情報からパンデミックを予測する技術が知られている。 Conventionally, various techniques for dealing with an infectious disease pandemic have been known. For example, a technology that determines whether the sound information includes a cough sound caused by an infectious disease, estimates the number of infected persons from the cough sound caused by an infectious disease, and predicts a pandemic from the number of infected persons, location information, and time information. It has been known.

特開2019-28687号公報Japanese Unexamined Patent Publication No. 2019-28687

しかしながら、上記の従来技術では、感染症に感染するリスクを推定することができるとは限らない。例えば、上記の従来技術では、音情報に、感染症に起因した咳音が含まれるか判定し、感染症に起因した咳音から感染者数を推定し、感染者数と位置情報と時間情報からパンデミックを予測するにすぎない。このため、上記の従来技術では、感染症に感染するリスクを推定することができるとはいえない。 However, the above-mentioned prior art cannot always estimate the risk of being infected with an infectious disease. For example, in the above-mentioned conventional technique, it is determined whether the sound information includes a cough sound caused by an infectious disease, the number of infected persons is estimated from the cough sound caused by the infectious disease, and the number of infected persons, location information, and time information are obtained. It only predicts the pandemic from. Therefore, it cannot be said that the risk of being infected with an infectious disease can be estimated by the above-mentioned prior art.

本願は、上記に鑑みてなされたものであって、感染症に感染するリスクを推定することができる推定プログラム、推定装置、推定方法、生成プログラム、生成装置及び生成方法を提案する。 The present application is made in view of the above, and proposes an estimation program, an estimation device, an estimation method, a generation program, a generation device, and a generation method capable of estimating the risk of being infected with an infectious disease.

本願に係る推定プログラムは、所定の環境に関する情報を取得可能なセンサから前記所定の環境に関する情報を取得する取得手順と、前記所定の環境に関する情報に基づいて前記所定の環境における感染リスクを推定可能な機械学習モデルを用いて、前記端末装置の周辺環境における感染リスクを推定する推定手順と、をコンピュータに実行させることを特徴とする。 The estimation program according to the present application can estimate the infection risk in the predetermined environment based on the acquisition procedure for acquiring the information on the predetermined environment from the sensor capable of acquiring the information on the predetermined environment and the information on the predetermined environment. It is characterized in that a computer is made to execute an estimation procedure for estimating an infection risk in the surrounding environment of the terminal device by using a machine learning model.

実施形態の一態様によれば、感染症に感染するリスクを推定することができるといった効果を奏する。 According to one aspect of the embodiment, there is an effect that the risk of being infected with an infectious disease can be estimated.

図1は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 1 is a diagram showing a configuration example of an information processing system according to an embodiment. 図2は、実施形態に係る生成装置の構成例を示す図である。FIG. 2 is a diagram showing a configuration example of a generator according to an embodiment. 図3は、実施形態に係るセンサ情報の一例を示す図である。FIG. 3 is a diagram showing an example of sensor information according to the embodiment. 図4は、実施形態に係るセンサ情報の一例を示す図である。FIG. 4 is a diagram showing an example of sensor information according to the embodiment. 図5は、実施形態に係るセンサ情報の一例を示す図である。FIG. 5 is a diagram showing an example of sensor information according to the embodiment. 図6は、実施形態に係るセンサ情報の解析方法の一例について説明するための図である。FIG. 6 is a diagram for explaining an example of a method for analyzing sensor information according to an embodiment. 図7は、実施形態に係るセンサ情報の一例を示す図である。FIG. 7 is a diagram showing an example of sensor information according to the embodiment. 図8は、実施形態に係るセンサ情報の一例を示す図である。FIG. 8 is a diagram showing an example of sensor information according to the embodiment. 図9は、実施形態に係る学習データセットの一例を示す図である。FIG. 9 is a diagram showing an example of a learning data set according to an embodiment. 図10は、実施形態に係る生成処理の概要について説明するための図である。FIG. 10 is a diagram for explaining an outline of the generation process according to the embodiment. 図11は、実施形態の変形例に係る生成処理の概要について説明するための図である。FIG. 11 is a diagram for explaining an outline of the generation process according to the modified example of the embodiment. 図12は、実施形態の変形例に係る学習データセットの一例を示す図である。FIG. 12 is a diagram showing an example of a learning data set according to a modified example of the embodiment. 図13は、実施形態の変形例に係る学習データセットの一例を示す図である。FIG. 13 is a diagram showing an example of a learning data set according to a modified example of the embodiment. 図14は、実施形態に係る生成装置の情報処理手順を示す図である。FIG. 14 is a diagram showing an information processing procedure of the generator according to the embodiment. 図15は、実施形態に係る端末装置の構成例を示す図である。FIG. 15 is a diagram showing a configuration example of the terminal device according to the embodiment. 図16は、実施形態に係る端末装置の情報処理の一例について説明するための図である。FIG. 16 is a diagram for explaining an example of information processing of the terminal device according to the embodiment. 図17は、実施形態に係る端末装置の情報処理の一例について説明するための図である。FIG. 17 is a diagram for explaining an example of information processing of the terminal device according to the embodiment. 図18は、実施形態に係る端末装置の情報処理の一例について説明するための図である。FIG. 18 is a diagram for explaining an example of information processing of the terminal device according to the embodiment. 図19は、実施形態に係る端末装置の情報処理手順を示す図である。FIG. 19 is a diagram showing an information processing procedure of the terminal device according to the embodiment. 図20は、生成装置および端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 20 is a hardware configuration diagram showing an example of a computer that realizes the functions of the generation device and the terminal device.

以下に、本願に係る推定プログラム、推定装置、推定方法、生成プログラム、生成装置及び生成方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る推定プログラム、推定装置、推定方法、生成プログラム、生成装置及び生成方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, embodiments (hereinafter, referred to as “embodiments”) for implementing the estimation program, estimation device, estimation method, generation program, generation device, and generation method according to the present application will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the estimation program, estimation device, estimation method, generation program, generation device and generation method according to the present application. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate explanations are omitted.

〔1.はじめに〕
近年、新型コロナウイルス感染症(COVID-19)等の感染症の拡大が社会問題となっている。また、感染症に感染するリスク(以下、感染リスクともいう)は、密閉空間(換気の悪い密閉空間である)、密集場所(多くの人が密集している場所である)、密接場面(互いに手を伸ばしたら届く距離での会話や発声が行われる場面である)という3つの条件(いわゆる「3密」)が重なると高くなると言われている。そこで、感染症の拡大を防ぐには、各人が感染リスクの高い環境(いわゆる「3密」)を避けることが望ましい。ところが、いわゆる「3密」は定性的な指標であるため、客観性に欠ける部分がある。そこで、感染リスクの高い環境(例えば、いわゆる「3密」)を定量的に把握することのできる技術が望まれている。
[1. Introduction]
In recent years, the spread of infectious diseases such as the new coronavirus infection (COVID-19) has become a social problem. In addition, the risk of being infected with an infectious disease (hereinafter, also referred to as infection risk) is a closed space (a closed space with poor ventilation), a dense place (a place where many people are crowded), and a close scene (each other). It is said that it becomes higher when the three conditions (so-called "three dense") of (a scene where conversation and vocalization are performed within reach when reaching out) are overlapped. Therefore, in order to prevent the spread of infectious diseases, it is desirable for each person to avoid an environment with a high risk of infection (so-called "three dense"). However, since the so-called "three dense" is a qualitative index, there is a part that lacks objectivity. Therefore, there is a demand for a technique capable of quantitatively grasping an environment with a high risk of infection (for example, so-called "three dense").

例えば、サーモグラフィーカメラを通じて温度データを常時収集し、高体温検知時にアラート通知する技術が知られている(参考URL:https://prtimes.jp/main/html/rd/p/000000003.000054903.html)。しかしながら、温度データのみでは、いわゆる「3密」であるかどうかを正確に判断することができない場合がある。そこで、例えば、温度データに加えて、音データなど各種センサ情報を組み合わせていわゆる「3密」であるかどうかを判断する指標を導き出すことが考えられる。しかしながら、各種センサ情報の間には何らかの相関性があるとは考えられるものの、各種センサ情報の相関性を人手によって定量的に導き出すのは困難である。そのため、いわゆる「3密」であるかどうかを判断する指標を人手によって導き出すのは困難であることが予想される。 For example, a technique is known in which temperature data is constantly collected through a thermography camera and an alert is notified when hyperthermia is detected (reference URL: https://prtimes.jp/main/html/rd/p/000000003.000054903.html). However, it may not be possible to accurately determine whether or not the temperature data is so-called "three dense". Therefore, for example, it is conceivable to combine various sensor information such as sound data in addition to temperature data to derive an index for determining whether or not it is so-called “three dense”. However, although it is considered that there is some correlation between various sensor information, it is difficult to manually derive the correlation between various sensor information. Therefore, it is expected that it will be difficult to manually derive an index for determining whether or not it is the so-called “three dense”.

そこで、本願の一実施形態に係る生成装置50は、機械学習により、所定の環境に関する情報に基づいて、所定の環境における感染リスクを推定可能な機械学習モデルを生成する。これにより、生成装置50は、各種センサ情報の相関性が高い機械学習モデルを生成することができる。また、生成装置50は、感染症に感染するリスクを推定可能とすることができる。 Therefore, the generation device 50 according to the embodiment of the present application generates a machine learning model capable of estimating the infection risk in a predetermined environment based on the information about the predetermined environment by machine learning. As a result, the generation device 50 can generate a machine learning model having a high correlation with various sensor information. In addition, the generator 50 can estimate the risk of being infected with an infectious disease.

また、本願の一実施形態に係る端末装置100は、生成装置50によって生成された機械学習モデルを用いて、利用者の端末装置100の周辺環境における各種センサ情報から端末装置100の周辺環境における感染リスクを推定する。これにより、端末装置100は、感染症に感染するリスクを推定することができる。 Further, the terminal device 100 according to the embodiment of the present application uses the machine learning model generated by the generation device 50 to infect the terminal device 100 in the surrounding environment from various sensor information in the peripheral environment of the user. Estimate the risk. Thereby, the terminal device 100 can estimate the risk of being infected with an infectious disease.

(実施形態)
〔2‐1.情報処理システムの構成例〕
まず、図1を用いて、実施形態に係る情報処理システム1の構成について説明する。図1は、実施形態に係る情報処理システム1の構成例を示す図である。情報処理システム1は、生成装置50と端末装置100とを備えてよい。生成装置50は、所定のネットワークNを介して、端末装置100と通信可能に接続されてよい。生成装置50は、端末装置100と有線または無線により通信可能に接続されてよい。なお、情報処理システム1には、任意の数の生成装置50と任意の数の端末装置100とが含まれてもよい。
(Embodiment)
[2-1. Information processing system configuration example]
First, the configuration of the information processing system 1 according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing a configuration example of the information processing system 1 according to the embodiment. The information processing system 1 may include a generation device 50 and a terminal device 100. The generation device 50 may be communicably connected to the terminal device 100 via a predetermined network N. The generation device 50 may be communicably connected to the terminal device 100 by wire or wirelessly. The information processing system 1 may include an arbitrary number of generation devices 50 and an arbitrary number of terminal devices 100.

以下では、利用者ID「U1」により特定される利用者を「利用者U1」として説明する場合がある。以下では、「利用者U*(*は任意の数値)」と記載した場合、その利用者は利用者ID「U*」により特定される利用者であることを示す場合がある。例えば、「利用者U2」と記載した場合、その利用者は利用者ID「U2」により特定される利用者であってよい。 Hereinafter, the user specified by the user ID "U1" may be described as "user U1". In the following, when "user U * (* is an arbitrary numerical value)" is described, it may indicate that the user is a user specified by the user ID "U *". For example, when the description is "user U2", the user may be a user specified by the user ID "U2".

また、以下では、端末装置100を利用する利用者に応じて、端末装置100を端末装置100、100として説明する場合がある。例えば、端末装置100は、利用者U1により使用される端末装置100であってよい。また、例えば、端末装置100は、利用者U2により使用される端末装置100であってよい。また、以下では、端末装置100、100について、特に区別なく説明する場合には、端末装置100と記載する場合がある。 Further, in the following, the terminal device 100 may be described as the terminal devices 100 1 and 100 2 depending on the user who uses the terminal device 100. For example, the terminal device 100 1 may be the terminal device 100 used by the user U1. Further, for example, the terminal device 100 2 may be the terminal device 100 used by the user U2. Further, in the following, when the terminal devices 100 1 and 100 2 are described without particular distinction, they may be described as the terminal device 100.

生成装置50は、所定の環境に関する情報(例えば、各種センサによって所定の環境において取得された各種センサ情報)に基づいて、所定の環境における感染リスクを推定可能な機械学習モデルを生成することができる情報処理装置であってよい。まず、生成装置50は、例えば、端末装置100によって取得された各種センサ情報を端末装置100から取得してよい。例えば、生成装置50は、端末装置100の周辺環境に関するセンサ情報を取得してよい。続いて、生成装置50は、取得したセンサ情報に基づいて端末装置100の周辺環境における感染リスクを推定可能な機械学習モデルを生成してよい。また、生成装置50は、生成した機械学習モデルに関する情報を端末装置100に配信してよい。 The generation device 50 can generate a machine learning model capable of estimating the infection risk in a predetermined environment based on information about a predetermined environment (for example, various sensor information acquired in the predetermined environment by various sensors). It may be an information processing device. First, the generation device 50 may acquire, for example, various sensor information acquired by the terminal device 100 from the terminal device 100. For example, the generation device 50 may acquire sensor information regarding the surrounding environment of the terminal device 100. Subsequently, the generation device 50 may generate a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device 100 based on the acquired sensor information. Further, the generation device 50 may distribute information about the generated machine learning model to the terminal device 100.

端末装置100は、利用者によって利用される情報処理装置であってよい。端末装置100は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現されてよい。 The terminal device 100 may be an information processing device used by the user. The terminal device 100 may be realized by, for example, a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like.

また、端末装置100は、生成装置50によって生成された機械学習モデルに関する情報を生成装置50から取得することができる。例えば、端末装置100は、所定の環境に関する情報に基づいて所定の環境における感染リスクを推定可能な機械学習モデルを取得することができる。 Further, the terminal device 100 can acquire information about the machine learning model generated by the generation device 50 from the generation device 50. For example, the terminal device 100 can acquire a machine learning model capable of estimating the infection risk in a predetermined environment based on the information about the predetermined environment.

また、端末装置100は、各種センサを備えてよい。例えば、端末装置100は、温度センサ(人感センサともいう)、画像センサ(カメラ)、音センサ、風速センサを備えてよい。また、端末装置100は、各種センサによって、所定の環境における各種センサ情報を取得することができる。例えば、端末装置100は、各種センサによって、端末装置100の周辺環境に関する各種センサ情報を取得することができる。なお、各種センサは従来周知の手法により構成されてよい。 Further, the terminal device 100 may include various sensors. For example, the terminal device 100 may include a temperature sensor (also referred to as a motion sensor), an image sensor (camera), a sound sensor, and a wind speed sensor. Further, the terminal device 100 can acquire various sensor information in a predetermined environment by various sensors. For example, the terminal device 100 can acquire various sensor information regarding the surrounding environment of the terminal device 100 by various sensors. The various sensors may be configured by a conventionally known method.

また、端末装置100は、端末装置100の周辺環境における感染リスクを推定することができる。例えば、端末装置100は、生成装置50から取得した機械学習モデルを用いて、端末装置100の周辺環境に関するセンサ情報に基づいて端末装置100の周辺環境における感染リスクを推定することができる。これにより、端末装置100は、利用者の現在位置における感染リスクを推定することができることができる。 In addition, the terminal device 100 can estimate the risk of infection in the surrounding environment of the terminal device 100. For example, the terminal device 100 can estimate the infection risk in the surrounding environment of the terminal device 100 based on the sensor information regarding the surrounding environment of the terminal device 100 by using the machine learning model acquired from the generation device 50. Thereby, the terminal device 100 can estimate the infection risk at the user's current position.

また、端末装置100は、端末装置100の周辺環境における感染リスクの推定結果を出力することができる。これにより、端末装置100は、利用者の現在位置における感染リスクの推定結果を利用者に対して通知することができることができる。また、端末装置100は、他の利用者の端末装置の推定結果を出力してもよい。これにより、端末装置100の利用者は、他の利用者の周辺環境における感染リスクを把握することができる。 Further, the terminal device 100 can output the estimation result of the infection risk in the surrounding environment of the terminal device 100. As a result, the terminal device 100 can notify the user of the estimation result of the infection risk at the user's current position. Further, the terminal device 100 may output the estimation result of the terminal device of another user. As a result, the user of the terminal device 100 can grasp the risk of infection in the surrounding environment of other users.

〔2‐2.生成装置の構成例〕
次に、図2を用いて、実施形態に係る生成装置50の構成について説明する。図2は、実施形態に係る生成装置50の構成例を示す図である。生成装置50は、通信部51と、記憶部52と、制御部53とを有してよい。なお、生成装置50は、生成装置50の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)を有してもよい。
[2-2. Configuration example of generator]
Next, the configuration of the generation device 50 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the generation device 50 according to the embodiment. The generation device 50 may have a communication unit 51, a storage unit 52, and a control unit 53. The generation device 50 may have an input unit (for example, a keyboard, a mouse, etc.) that receives various operations from the administrator of the generation device 50 or the like.

(通信部51)
通信部51は、例えば、NIC(Network Interface Card)等によって実現されてよい。通信部51は、例えば、端末装置100との間で情報の送受信を行ってよい。通信部51は、ネットワークNと有線または無線で接続されてよい。なお、通信部51は、任意の外部機器と有線又は無線により通信可能であってもよい。
(Communication unit 51)
The communication unit 51 may be realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 51 may transmit / receive information to / from the terminal device 100, for example. The communication unit 51 may be connected to the network N by wire or wirelessly. The communication unit 51 may be able to communicate with any external device by wire or wirelessly.

(記憶部52)
記憶部52は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現されてよい。記憶部52は、各種プログラム(情報処理プログラムの一例に相当)を記憶することができる。例えば、記憶部52は、実施形態に係る生成プログラムを記憶することができる。また、記憶部52は、各種データを記憶することができる。例えば、記憶部52は、取得部531によって取得されたセンサ情報を記憶することができる。また、記憶部52は、生成部532によって生成される機械学習モデルの学習データを記憶することができる。また、記憶部52は、生成部532によって生成された学習済みの機械学習モデルのモデルデータを記憶することができる。
(Memory unit 52)
The storage unit 52 may be realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. The storage unit 52 can store various programs (corresponding to an example of an information processing program). For example, the storage unit 52 can store the generation program according to the embodiment. Further, the storage unit 52 can store various data. For example, the storage unit 52 can store the sensor information acquired by the acquisition unit 531. Further, the storage unit 52 can store the learning data of the machine learning model generated by the generation unit 532. Further, the storage unit 52 can store the model data of the trained machine learning model generated by the generation unit 532.

ここで、一実施形態に係る生成プログラムは、制御部53の機能を実現するプログラムであってよい。例えば、一実施形態に係る生成プログラムは、所定の環境に関する情報を取得する取得手順をコンピュータに実行させてよい。また、例えば、一実施形態に係る生成プログラムは、所定の環境に関する情報に基づいて端末装置の周辺環境における感染リスクを推定可能な機械学習モデルを生成する生成手順をコンピュータに実行させてよい。 Here, the generation program according to the embodiment may be a program that realizes the function of the control unit 53. For example, the generation program according to the embodiment may cause a computer to execute an acquisition procedure for acquiring information on a predetermined environment. Further, for example, the generation program according to the embodiment may cause a computer to execute a generation procedure for generating a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device based on information on a predetermined environment.

(制御部53)
制御部53は、生成装置50のコントローラ(controller)であってよい。制御部53は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって構成されてよい。制御部53は、RAMを作業領域として生成装置50内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)を実行してよい。例えば、制御部53は、CPUやMPU等によって、RAMを作業領域として実施形態に係る生成プログラムを実行してよい。また、制御部53は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてよい。
(Control unit 53)
The control unit 53 may be a controller of the generation device 50. The control unit 53 may be configured by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. The control unit 53 may execute various programs (corresponding to an example of an information processing program) stored in the storage device inside the generation device 50 using the RAM as a work area. For example, the control unit 53 may execute the generation program according to the embodiment by using the RAM as a work area by the CPU, MPU, or the like. Further, the control unit 53 may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部53は、取得部531と、生成部532と、配信部533とを有してよい。一実施形態において、制御部53は、以下に説明する情報処理の作用を実現または実行することができる。なお、制御部53の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 The control unit 53 may include an acquisition unit 531, a generation unit 532, and a distribution unit 533. In one embodiment, the control unit 53 can realize or execute the information processing operation described below. The internal configuration of the control unit 53 is not limited to the configuration shown in FIG. 2, and may be any other configuration as long as it is configured to perform information processing described later.

(取得部531)
取得部531は、所定の環境に関する情報を取得することができる。具体的には、取得部531は、所定の環境に関する情報の一例として、所定の環境に関するセンサ情報を取得可能なセンサによって取得されたセンサ情報を取得することができる。例えば、取得部531は、所定の環境に関するセンサ情報を取得可能なセンサを有する端末装置100によって取得されたセンサ情報を取得することができる。例えば、取得部531は、利用者の端末装置100の周辺環境に関する情報の一例として、利用者の端末装置100の周辺環境に関するセンサ情報を取得することができる。例えば、取得部531は、所定の環境に関するセンサ情報を取得可能なセンサを有する端末装置100からセンサ情報を取得してもよい。また、例えば、取得部531は、所定の環境に関するセンサ情報を取得可能なセンサを有する端末装置100によって取得されたセンサ情報が記憶されたデータベース等の端末装置100以外の装置からセンサ情報を取得してもよい。より具体的には、取得部531は、例えば、端末装置100によって取得されたセンサ情報を、センサ情報が取得された位置を示す位置情報およびセンサ情報が取得された日時を示す時間情報とともに端末装置100から取得してよい。取得部531は、取得したセンサ情報を位置情報および時間情報と紐づけて記憶部52に格納してよい。
(Acquisition unit 531)
The acquisition unit 531 can acquire information about a predetermined environment. Specifically, the acquisition unit 531 can acquire the sensor information acquired by the sensor capable of acquiring the sensor information regarding the predetermined environment as an example of the information regarding the predetermined environment. For example, the acquisition unit 531 can acquire the sensor information acquired by the terminal device 100 having a sensor capable of acquiring the sensor information regarding a predetermined environment. For example, the acquisition unit 531 can acquire sensor information regarding the surrounding environment of the user's terminal device 100 as an example of information regarding the surrounding environment of the user's terminal device 100. For example, the acquisition unit 531 may acquire sensor information from a terminal device 100 having a sensor capable of acquiring sensor information regarding a predetermined environment. Further, for example, the acquisition unit 531 acquires sensor information from a device other than the terminal device 100 such as a database in which the sensor information acquired by the terminal device 100 having a sensor capable of acquiring sensor information regarding a predetermined environment is stored. You may. More specifically, the acquisition unit 531 uses, for example, the sensor information acquired by the terminal device 100 together with the position information indicating the position where the sensor information is acquired and the time information indicating the date and time when the sensor information is acquired. It may be obtained from 100. The acquisition unit 531 may store the acquired sensor information in the storage unit 52 in association with the position information and the time information.

例えば、取得部531は、センサ情報の一例として、温度センサによって取得された端末装置100の周辺環境における温度情報を取得することができる。この点について、図3を用いて説明する。図3は、実施形態に係るセンサ情報の一例を示す図である。取得部531は、センサ情報の一例として、サーモグラフィーカメラによって撮影された端末装100置の周辺環境における温度分布画像を取得することができる。図3に例示する温度分布画像G11では、低温領域をR11、中温領域をR12、高温領域をR13で示している。具体的には、温度分布画像G11は、例えば、人体を高温物体とみなすと、人が密集している領域ほど、温度分布画像G11では高温領域として示している。取得部531は、温度分布画像G11における高温領域の分布パターンから、端末装置100の周辺環境における人混みの度合いに関する情報を取得してよい。 For example, the acquisition unit 531 can acquire the temperature information in the surrounding environment of the terminal device 100 acquired by the temperature sensor as an example of the sensor information. This point will be described with reference to FIG. FIG. 3 is a diagram showing an example of sensor information according to the embodiment. As an example of the sensor information, the acquisition unit 531 can acquire a temperature distribution image in the surrounding environment of 100 terminals mounted by a thermography camera. In the temperature distribution image G11 exemplified in FIG. 3, the low temperature region is shown by R11, the medium temperature region is shown by R12, and the high temperature region is shown by R13. Specifically, in the temperature distribution image G11, for example, when the human body is regarded as a high temperature object, the region where people are densely shown is shown as a high temperature region in the temperature distribution image G11. The acquisition unit 531 may acquire information on the degree of crowding in the surrounding environment of the terminal device 100 from the distribution pattern in the high temperature region in the temperature distribution image G11.

なお、取得部531は、温度センサによって取得された温度情報のうち、人体の体温として想定される温度情報のみを取得してもよい。例えば、取得部531は、温度センサによって取得された温度情報の中から、人体の体温として想定される温度情報以外の温度情報を取り除いてもよい。 The acquisition unit 531 may acquire only the temperature information assumed as the body temperature of the human body among the temperature information acquired by the temperature sensor. For example, the acquisition unit 531 may remove temperature information other than the temperature information assumed as the body temperature of the human body from the temperature information acquired by the temperature sensor.

生成部532は、例えば、取得部531によって取得された温度分布画像G11の高温領域の分布パターンに基づいて感染リスクを推定するよう機械学習モデルを学習させてよい。例えば、生成部532は、温度分布画像G11の高温領域の分布パターンから人混みが少ない状態であると推定される場合(例えば、高温領域の分布パターンがまばらである場合など)には、感染リスクを低く推定するよう機械学習モデルを学習させてよい。また、生成部532は、温度分布画像の高温領域の分布パターンから人混みが多い状態であると推定される場合(例えば、高温領域の分布パターンが局所に集中している場合など)には、感染リスクを高く推定するよう機械学習モデルを学習させてよい。 For example, the generation unit 532 may train the machine learning model to estimate the infection risk based on the distribution pattern in the high temperature region of the temperature distribution image G11 acquired by the acquisition unit 531. For example, when it is estimated from the distribution pattern of the high temperature region of the temperature distribution image G11 that the crowd is low (for example, when the distribution pattern of the high temperature region is sparse), the generation unit 532 sets the risk of infection. You may train the machine learning model to underestimate. Further, the generation unit 532 is infected when it is estimated from the distribution pattern of the high temperature region of the temperature distribution image that the crowd is crowded (for example, when the distribution pattern of the high temperature region is locally concentrated). You may train the machine learning model to estimate the risk high.

また、取得部531は、センサ情報の一例として、温度センサによって所定時間間隔で取得された端末装置100の周辺環境における温度情報を取得することができる。この点について、図4を用いて説明する。図4は、実施形態に係るセンサ情報の一例を示す図である。図4に示す例では、取得部531は、センサ情報の一例として、サーモグラフィーカメラによって所定時間間隔で撮影された端末装置100の周辺環境における温度分布画像を取得することができる。取得部531は、所定時間間隔で撮影された端末装置100の周辺環境における温度分布画像それぞれの高温領域の分布パターンから、端末装置100の周辺環境における人の滞留の有無に関する情報を取得してよい。 Further, as an example of the sensor information, the acquisition unit 531 can acquire the temperature information in the surrounding environment of the terminal device 100 acquired by the temperature sensor at predetermined time intervals. This point will be described with reference to FIG. FIG. 4 is a diagram showing an example of sensor information according to the embodiment. In the example shown in FIG. 4, the acquisition unit 531 can acquire a temperature distribution image in the surrounding environment of the terminal device 100 taken by a thermography camera at predetermined time intervals as an example of the sensor information. The acquisition unit 531 may acquire information regarding the presence or absence of human retention in the surrounding environment of the terminal device 100 from the distribution pattern of each high temperature region of the temperature distribution image in the surrounding environment of the terminal device 100 taken at predetermined time intervals. ..

例えば、図4の上段に示す温度分布画像G22は、温度分布画像G21が撮影されてからT秒後に撮影された画像である。また、温度分布画像G23は、温度分布画像G22が撮影されてからさらにT秒後に撮影された画像である。図4の上段に示す例では、温度分布画像G21からG22、G22からG23へと時間的に遷移する際に、高温領域の分布に大きな変化が見られない。したがって、取得部531は、例えば、温度分布画像G21からG23に基づいて、人の滞留が有ることを示す情報を取得してよい。 For example, the temperature distribution image G22 shown in the upper part of FIG. 4 is an image taken T seconds after the temperature distribution image G21 is taken. Further, the temperature distribution image G23 is an image taken T seconds after the temperature distribution image G22 is taken. In the example shown in the upper part of FIG. 4, no significant change is observed in the distribution in the high temperature region during the temporal transition from the temperature distribution image G21 to G22 and from G22 to G23. Therefore, the acquisition unit 531 may acquire information indicating that there is a human retention, based on, for example, the temperature distribution images G21 to G23.

例えば、温度分布画像G21~G23をそれぞれ縦4個×横4個の計16個の区画に区分して説明する。この場合、温度分布画像G21の高温領域は16区画のうち7区画であるのに対して、温度分布画像G22の高温領域は16区画のうち6区画である。すなわち、この場合、温度分布画像G22の高温領域は温度分布画像G21と比べて1区画減少している。したがって、例えば、温度分布画像G22によれば、温度分布画像G21が示す人混みの状態から、T秒間の間に人の移動がほとんど起きなかったことが示されている。すなわち、温度分布画像G22によれば、例えば、T秒後において温度分布画像G21が示す人混みと同程度の人混みの状態が保たれたことが示されている。 For example, the temperature distribution images G21 to G23 will be described by dividing them into a total of 16 sections of 4 vertical × 4 horizontal. In this case, the high temperature region of the temperature distribution image G21 is 7 out of 16 compartments, whereas the high temperature region of the temperature distribution image G22 is 6 out of 16 compartments. That is, in this case, the high temperature region of the temperature distribution image G22 is reduced by one section as compared with the temperature distribution image G21. Therefore, for example, according to the temperature distribution image G22, it is shown that almost no movement of people occurs during T seconds from the crowded state shown by the temperature distribution image G21. That is, according to the temperature distribution image G22, for example, it is shown that the crowded state of the same degree as the crowd shown by the temperature distribution image G21 was maintained after T seconds.

また、温度分布画像G22の高温領域は16区画のうち6区画であるのに対して、温度分布画像G23の高温領域は16区画のうち7区画である。すなわち、温度分布画像G23の高温領域は温度分布画像G22と比べて1区画しか増加していない。これは、例えば、温度分布画像G23によれば、温度分布画像G22が示す人混みの状態から、T秒間の間に人の移動がほとんど起きなかったことが示されている。すなわち、例えば、温度分布画像G23によれば、T秒後において温度分布画像G22が示す人混みと同程度の人混みの状態が保たれたことが示されている。したがって、取得部531は、この場合、温度分布画像G21からG23に基づいて、人の滞留が有ることを示す情報を取得してよい。 Further, the high temperature region of the temperature distribution image G22 is 6 out of 16 compartments, while the high temperature region of the temperature distribution image G23 is 7 out of 16 compartments. That is, the high temperature region of the temperature distribution image G23 is increased by only one section as compared with the temperature distribution image G22. For example, according to the temperature distribution image G23, it is shown that almost no movement of people occurred during T seconds from the crowded state shown by the temperature distribution image G22. That is, for example, according to the temperature distribution image G23, it is shown that the crowded state of the same degree as the crowd shown by the temperature distribution image G22 was maintained after T seconds. Therefore, in this case, the acquisition unit 531 may acquire information indicating that there is a human retention based on the temperature distribution images G21 to G23.

また、図4の下段に示す温度分布画像G25は、温度分布画像G24が撮影されてからT秒後に撮影された画像である。また、温度分布画像G26は、温度分布画像G25が撮影されてからさらにT秒後に撮影された画像である。図4の下段に示す例では、温度分布画像G24からG25、G25からG26へと時間的に遷移する際に、高温領域の分布に大きな変化が見られる。したがって、取得部531は、例えば、温度分布画像G24からG26に基づいて、人の滞留が無いことを示す情報を取得してよい。 Further, the temperature distribution image G25 shown in the lower part of FIG. 4 is an image taken T seconds after the temperature distribution image G24 was taken. Further, the temperature distribution image G26 is an image taken T seconds after the temperature distribution image G25 is taken. In the example shown in the lower part of FIG. 4, a large change is observed in the distribution in the high temperature region when the temperature distribution image G24 to G25 and G25 to G26 are temporally transitioned. Therefore, the acquisition unit 531 may acquire information indicating that there is no human retention, based on, for example, the temperature distribution images G24 to G26.

例えば、温度分布画像G24~G26をそれぞれ縦4個×横4個の計16個の区画に区分して説明する。この場合、温度分布画像G24の高温領域は16区画のうち7区画であるのに対して、温度分布画像G25の高温領域は16区画のうち2区画である。すなわち、温度分布画像G25の高温領域は温度分布画像G24と比べて5区画減少している。したがって、例えば、温度分布画像G25によれば、温度分布画像G24が示す人混みの状態から、T秒間の間に人の移動が起きたことが示されている。すなわち、温度分布画像G25によれば、例えば、T秒後には温度分布画像G24が示すよりも人が少ない人混みの状態になったが示されている。 For example, the temperature distribution images G24 to G26 will be described by dividing them into a total of 16 sections of 4 vertical × 4 horizontal. In this case, the high temperature region of the temperature distribution image G24 is 7 out of 16 compartments, whereas the high temperature region of the temperature distribution image G25 is 2 out of 16 compartments. That is, the high temperature region of the temperature distribution image G25 is reduced by 5 sections as compared with the temperature distribution image G24. Therefore, for example, according to the temperature distribution image G25, it is shown that the movement of people occurred during T seconds from the crowded state shown by the temperature distribution image G24. That is, according to the temperature distribution image G25, for example, it is shown that after T seconds, the number of people is smaller than that shown in the temperature distribution image G24.

また、温度分布画像G25の高温領域は16区画のうち2区画であるのに対して、温度分布画像G26の高温領域は16区画のうち7区画である。すなわち、温度分布画像G26の高温領域は温度分布画像G25と比べて5区画増加している。したがって、例えば、温度分布画像G26によれば、温度分布画像G25が示す人混みの状態から、T秒間の間に再び人の移動が起きたことが示されている。すなわち、温度分布画像G26によれば、例えば、T秒後には温度分布画像G25が示すよりも人が多い人混みの状態になったことが示されている。したがって、取得部531は、この場合、温度分布画像G24からG26に基づいて、人の滞留が無いことを示す情報を取得してよい。 Further, the high temperature region of the temperature distribution image G25 is 2 out of 16 compartments, while the high temperature region of the temperature distribution image G26 is 7 out of 16 compartments. That is, the high temperature region of the temperature distribution image G26 is increased by 5 sections as compared with the temperature distribution image G25. Therefore, for example, according to the temperature distribution image G26, it is shown that the movement of people has occurred again within T seconds from the crowded state shown by the temperature distribution image G25. That is, according to the temperature distribution image G26, for example, it is shown that after T seconds, the crowded state is larger than that shown by the temperature distribution image G25. Therefore, in this case, the acquisition unit 531 may acquire information indicating that there is no human retention based on the temperature distribution images G24 to G26.

生成部532は、例えば、温度分布画像の高温領域の分布パターンに基づいて感染リスクを推定するよう機械学習モデルを学習させてよい。また、生成部532は、例えば、所定時間間隔で撮影された端末装置100の周辺環境における温度分布画像それぞれの高温領域の分布パターンに基づいて感染リスクを推定するよう機械学習モデルを学習させてよい。例えば、生成部532は、人の滞留が有ることを示す情報に基づいて、感染リスクを高く推定するよう機械学習モデルを学習させてよい。また、生成部532は、人の滞留が無いことを示す情報に基づいて、感染リスクを低く推定するよう機械学習モデルを学習させてよい。 The generation unit 532 may train the machine learning model to estimate the infection risk based on the distribution pattern in the high temperature region of the temperature distribution image, for example. Further, the generation unit 532 may train the machine learning model to estimate the infection risk based on the distribution pattern of each high temperature region of the temperature distribution image in the surrounding environment of the terminal device 100 taken at a predetermined time interval, for example. .. For example, the generation unit 532 may train a machine learning model to estimate the risk of infection high based on the information indicating that there is a human retention. In addition, the generation unit 532 may train the machine learning model so as to estimate the infection risk low based on the information indicating that there is no human retention.

また、取得部531は、センサ情報の一例として、カメラによって所定時間内に撮影された端末装置100の周辺環境における画像に含まれる人影の動きを取得してよい。一般的に、天気の良い公園で自分の子供を遊ばせたいが、感染リスクが気になる場合がある。しかしながら、人混みの情報を取得するためにカメラで他所の人の顔画像を取得することはプライバシーの観点からはばかられる。そこで、取得部531は、人の顔画像等を取得することなく、人影の画像のみを取得することができる。この点について、図5を用いて説明する。 Further, as an example of the sensor information, the acquisition unit 531 may acquire the movement of a human figure included in the image in the surrounding environment of the terminal device 100 taken by the camera within a predetermined time. Generally, you want your child to play in a park with good weather, but you may be concerned about the risk of infection. However, acquiring a face image of a person from another place with a camera in order to acquire information on crowds is not possible from the viewpoint of privacy. Therefore, the acquisition unit 531 can acquire only an image of a human figure without acquiring a human face image or the like. This point will be described with reference to FIG.

図5は、実施形態に係るセンサ情報の一例を示す図である。例えば、取得部531は、カメラによって撮影された端末装置100の周辺環境における画像の中から人影の部分だけを抽出することにより、人影の画像G31を取得することができる。画像G31のうち黒で示す領域S1は、人影が一か所に集中している様子を示す。また、取得部531は、カメラによって所定時間内に撮影された別の画像の中から人影の部分だけを抽出することにより、別の人影の画像G32を取得することができる。画像G32のうち黒で示す領域S2は、ばらばらに分散した複数の人影のうちの一つの人影を示す。このように、取得部531は、所定時間内に撮影された画像に含まれる人影の動きを追跡することで、端末装置100の周辺環境における人の密集の度合いに関する情報を取得することができる。例えば、取得部531は、所定の画素数を閾値として設定してよい。この場合、取得部531は、例えば、人影の画像G32の画素数が所定の閾値を満たす場合に、人が密集していることを示す情報を取得してよい。また、取得部531は、例えば、人影の画像G32の画素数が所定の閾値を満たしていない場合に人が密集していないことを示す情報を取得してよい。 FIG. 5 is a diagram showing an example of sensor information according to the embodiment. For example, the acquisition unit 531 can acquire the image G31 of the human figure by extracting only the portion of the human figure from the image in the surrounding environment of the terminal device 100 taken by the camera. The black region S1 of the image G31 shows that human figures are concentrated in one place. Further, the acquisition unit 531 can acquire the image G32 of another human figure by extracting only the portion of the human figure from another image taken by the camera within a predetermined time. The region S2 shown in black in the image G32 shows one of a plurality of dispersely dispersed figures. In this way, the acquisition unit 531 can acquire information on the degree of crowding of people in the surrounding environment of the terminal device 100 by tracking the movement of a human figure included in the image captured within a predetermined time. For example, the acquisition unit 531 may set a predetermined number of pixels as a threshold value. In this case, the acquisition unit 531 may acquire information indicating that people are crowded when, for example, the number of pixels of the image G32 of the human figure satisfies a predetermined threshold value. Further, the acquisition unit 531 may acquire information indicating that people are not crowded when, for example, the number of pixels of the image G32 of the human figure does not satisfy a predetermined threshold value.

なお、取得部531は、カメラによって撮影された画像のうち、人影の画像のみを取得してもよい。例えば、取得部531は、カメラによって撮影された画像の中から、人影として想定される影以外の影(例えば、公園の木の陰や、建物の影など)を取り除いてもよい。 The acquisition unit 531 may acquire only the image of a human figure among the images taken by the camera. For example, the acquisition unit 531 may remove a shadow other than a shadow assumed as a human shadow (for example, a shadow of a tree in a park, a shadow of a building, etc.) from an image taken by a camera.

このとき、例えば、生成部532は、所定時間内に撮影された端末装置100の周辺環境における画像に含まれる人影の動きに基づいて感染リスクを推定するよう機械学習モデルを学習させてよい。例えば、生成部532は、人が多く密集している場合(例えば、複数の影がばらばらに分散したパターンから、所定時間経過後に、影が一か所に集中するパターンに変化した場合など)には、感染リスクを高く推定するよう機械学習モデルを学習させてよい。すなわち、生成部532は、例えば、人が密集していることを示す情報に基づいて、感染リスクを高く推定するよう機械学習モデルを学習させてよい。また、生成部532は、人が密集してない場合(例えば、複数の影がばらばらに分散したパターンから、所定時間経過後も、複数の影がばらばらに分散したパターンのままである場合など)には、感染リスクを低く推定するよう機械学習モデルを学習させてよい。すなわち、生成部532は、例えば、人が密集していないことを示す情報に基づいて、感染リスクを低く推定するよう機械学習モデルを学習させてよい。 At this time, for example, the generation unit 532 may train the machine learning model to estimate the infection risk based on the movement of the human figure included in the image in the surrounding environment of the terminal device 100 taken within a predetermined time. For example, when the generation unit 532 is crowded with many people (for example, when the pattern changes from a pattern in which a plurality of shadows are dispersed apart to a pattern in which the shadows are concentrated in one place after a lapse of a predetermined time). May train a machine learning model to estimate the risk of infection high. That is, the generation unit 532 may train the machine learning model so as to estimate the infection risk high based on the information indicating that the people are crowded, for example. In addition, when the generation unit 532 is not crowded with people (for example, from a pattern in which a plurality of shadows are scattered separately, a pattern in which a plurality of shadows are scattered even after a lapse of a predetermined time remains). May be trained in a machine learning model to underestimate the risk of infection. That is, the generation unit 532 may train a machine learning model to underestimate the risk of infection, for example, based on information indicating that people are not crowded.

ここで、図6を用いて、実施形態に係るセンサ情報の解析方法の一例について説明する。図6は、実施形態に係るセンサ情報の解析方法の一例を示す図である。図6に示す例では、制御部53が実施する人影の画像G3の解析方法の一例について説明する。まず、制御部53は、例えば、1フレームの人影の画像G3を格子状に細分化されてよい。次に、制御部53は、格子ごとに色情報を数値化してよい。そして、制御部53は、色情報の数値を各格子に対応付けた数値行列を作成してよい。制御部53は、例えば、白色の格子には数値「0」を、黒で示す領域S3に対応する黒色の格子には数値「1」を対応付けた数値行列を作成してよい。制御部53は、例えば、図6の矢印の方向に数値を並べた数値行列を作成してよい。また、制御部53は、所定時間内での影の動きを解析する場合は、所定時間内に撮影されたフレーム数分の各画像について数値行列を作成してよい。 Here, an example of a method for analyzing sensor information according to an embodiment will be described with reference to FIG. FIG. 6 is a diagram showing an example of a method for analyzing sensor information according to an embodiment. In the example shown in FIG. 6, an example of the analysis method of the image G3 of the human figure carried out by the control unit 53 will be described. First, the control unit 53 may subdivide the image G3 of a human figure in one frame into a grid pattern, for example. Next, the control unit 53 may digitize the color information for each grid. Then, the control unit 53 may create a numerical matrix in which the numerical values of the color information are associated with each grid. For example, the control unit 53 may create a numerical matrix in which the numerical value "0" is associated with the white grid and the numerical value "1" is associated with the black grid corresponding to the region S3 shown in black. The control unit 53 may, for example, create a numerical matrix in which numerical values are arranged in the direction of the arrow in FIG. Further, when the control unit 53 analyzes the movement of the shadow within the predetermined time, the control unit 53 may create a numerical matrix for each image for the number of frames captured within the predetermined time.

また、図6に示す解析方法は、温度分布画像にも適用されてよい。例えば、制御部53は、1フレームの温度分布画像G11を格子状に細分化してよい。制御部53は、各格子の温度情報を数値化してよい。制御部53は、温度情報の数値を各格子に対応付けた数値行列を作成してよい。例えば、制御部53は、低温領域の格子には数値「0」を、中温領域の格子には数値「1」を、高温領域の格子には数値「2」を対応付けた数値行列を作成してよい。また、制御部53は、図4に示す所定時間間隔で撮影された人混みの温度分布画像については、所定時間間隔で撮影されたフレーム数分の各画像について数値行列を作成してよい。 Further, the analysis method shown in FIG. 6 may be applied to a temperature distribution image. For example, the control unit 53 may subdivide the temperature distribution image G11 of one frame into a grid pattern. The control unit 53 may quantify the temperature information of each grid. The control unit 53 may create a numerical matrix in which the numerical values of the temperature information are associated with each grid. For example, the control unit 53 creates a numerical matrix in which the numerical value "0" is associated with the grid in the low temperature region, the numerical value "1" is associated with the grid in the medium temperature region, and the numerical value "2" is associated with the grid in the high temperature region. It's okay. Further, the control unit 53 may create a numerical matrix for each image of the number of frames taken at the predetermined time interval for the temperature distribution image of the crowd taken at the predetermined time interval shown in FIG.

生成部532は、教師あり学習で用いられる教師データを生成してもよい。生成部532は、例えば、各数値行列について、感染リスクの高さに応じたラベルを付したデータを教師データとして生成してよい。例えば、生成部532は、感染リスクが比較的高い環境に関する数値行列には、ラベル「危険」または数値ラベル「3」を付してよい。また、生成部532は、感染リスクが中程度の環境に関する数値行列には、ラベル「注意」または数値ラベル「2」を付してよい。また、生成部532は、感染リスクが比較的低い環境に関する数値行列には、ラベル「大丈夫」または数値ラベル「1」を付してよい。 The generation unit 532 may generate teacher data used in supervised learning. For example, the generation unit 532 may generate data labeled according to the high risk of infection for each numerical matrix as teacher data. For example, the generation unit 532 may attach the label "danger" or the numerical label "3" to the numerical matrix relating to the environment where the risk of infection is relatively high. In addition, the generation unit 532 may attach the label "Caution" or the numerical label "2" to the numerical matrix relating to the environment where the risk of infection is medium. In addition, the generation unit 532 may attach the label "OK" or the numerical label "1" to the numerical matrix relating to the environment where the risk of infection is relatively low.

また、取得部531は、センサ情報の一例として、音センサによって取得された端末装置100の周辺環境における音情報を取得することができる。この点について、図7を用いて説明する。取得部531は、音情報の一例として、端末装置100の周辺環境における人の声の音量の時間変化を示す情報を取得してよい。図7では、説明のために音量の時間変化の情報をグラフ(以下、音量グラフともいう)G4として例示している。音量グラフG4は、時刻t0~t1の範囲の音量グラフG41、時刻t1~t2の範囲の音量グラフG42、時刻t2以降の範囲の音量グラフG43の3つの領域に分けられてよい。音量グラフG41は、音量が小さく、音量の変化がほとんどない領域である。音量グラフG42は、音量が小さい状態から音量が大きい状態へと変化する領域である。音量グラフG43は、音量が大きく、音量の変化が大きい領域である。 Further, the acquisition unit 531 can acquire the sound information in the surrounding environment of the terminal device 100 acquired by the sound sensor as an example of the sensor information. This point will be described with reference to FIG. 7. As an example of sound information, the acquisition unit 531 may acquire information indicating a time change in the volume of a human voice in the surrounding environment of the terminal device 100. In FIG. 7, for the sake of explanation, the information on the time change of the volume is illustrated as a graph (hereinafter, also referred to as a volume graph) G4. The volume graph G4 may be divided into three areas: a volume graph G41 in the range of time t0 to t1, a volume graph G42 in the range of time t1 to t2, and a volume graph G43 in the range after time t2. The volume graph G41 is a region where the volume is low and the volume hardly changes. The volume graph G42 is an area where the volume changes from a low volume state to a high volume state. The volume graph G43 is a region where the volume is large and the change in volume is large.

生成部532は、例えば、所定時間内に取得された端末装置100の周辺環境における音量の時間変化のパターンに基づいて感染リスクを推定するよう機械学習モデルを学習させてよい。例えば、生成部532は、人が近くで大きな声を出している場合(例えば、音量グラフG43の領域に似たパターンの場合)には、感染リスクを高く推定するよう機械学習モデルを学習させてよい。また、生成部532は、人が声を出しながら近づいていると推定される場合(例えば、音量グラフG42の領域に似たパターンの場合)には、感染リスクを中程度に推定するよう機械学習モデルを学習させてよい。また、生成部532は、人が遠くで小さな声を出している場合(例えば、音量グラフG41の領域に似たパターンの場合)には、感染リスクを低く推定するよう機械学習モデルを学習させてよい。 The generation unit 532 may train the machine learning model to estimate the infection risk based on the pattern of the time change of the volume in the surrounding environment of the terminal device 100 acquired within a predetermined time, for example. For example, the generation unit 532 trains a machine learning model to estimate the risk of infection high when a person makes a loud voice nearby (for example, in the case of a pattern similar to the region of the volume graph G43). good. In addition, the generator 532 is machine-learned to moderately estimate the risk of infection when it is estimated that a person is approaching while speaking (for example, in the case of a pattern similar to the region of the volume graph G42). You may train the model. Further, the generation unit 532 trains a machine learning model to estimate the infection risk low when a person makes a small voice in a distant place (for example, in the case of a pattern similar to the region of the volume graph G41). good.

なお、取得部531は、音センサによって取得された音情報のうち、人の声の情報のみを取得してもよい。例えば、取得部531は、音センサによって取得された音情報の中から、人の声として想定される音以外の音(例えば、機械の駆動音、葉擦れの音などの人の動きに起因しない雑音)を取り除いてもよい。なお、取得部531は、人の声以外の人の動きに起因する音の情報を取得してもよい。例えば、取得部531は、端末装置100の周辺環境における靴音や衣擦れなどの音の情報を取得してもよい。また、取得部531は、音情報の一例として、端末装置100の周辺環境における音の周波数情報を取得してもよい。生成部532は、例えば、音情報の周波数を解析することによって、人の動きに起因する音か否かを判断してもよい。生成部532は、例えば、FFT(Fast Fourier Transform)などの任意の従来周知の手法により周波数解析を実行してよい。この場合、生成部532は、人の動きに起因する音の周波数情報に基づいて感染リスクを推定するよう機械学習モデルを学習させてもよい。 The acquisition unit 531 may acquire only the human voice information among the sound information acquired by the sound sensor. For example, the acquisition unit 531 is not caused by the movement of a person from the sound information acquired by the sound sensor, such as a sound other than the sound assumed as a human voice (for example, a machine driving sound, a leaf rubbing sound, etc.). Noise) may be removed. The acquisition unit 531 may acquire information on sounds caused by movements of people other than human voices. For example, the acquisition unit 531 may acquire information on sounds such as shoe sounds and clothes rubbing in the surrounding environment of the terminal device 100. Further, the acquisition unit 531 may acquire the frequency information of the sound in the surrounding environment of the terminal device 100 as an example of the sound information. The generation unit 532 may determine whether or not the sound is caused by the movement of a person, for example, by analyzing the frequency of the sound information. The generation unit 532 may perform frequency analysis by any conventionally known method such as FFT (Fast Fourier Transform). In this case, the generation unit 532 may train the machine learning model to estimate the infection risk based on the frequency information of the sound caused by the movement of the person.

取得部531は、センサ情報の一例として、風速センサによって取得された端末装置100の周辺環境における風速情報を取得することができる。この点について、図8を用いて説明する。取得部531は、風速の時間変化を示す情報を取得することができる。図8では、説明のために風速の時間変化を示す情報をグラフ(以下、風速グラフともいう)G5として示している。風速グラフG5は、時刻t0~t3の範囲の風速グラフG51、時刻t3~t4の範囲の風速グラフG52、時刻t4以降の範囲の風速グラフG53の3つの領域に分けられてよい。風速グラフG51は、風速が大きく、風速の変化が大きい領域である。風速グラフG52は、風速が大きい状態から風速が小さい状態へと変化する領域である。風速グラフG53は、風速が小さく、風速の変化がほとんどない領域である。 As an example of the sensor information, the acquisition unit 531 can acquire the wind speed information in the surrounding environment of the terminal device 100 acquired by the wind speed sensor. This point will be described with reference to FIG. The acquisition unit 531 can acquire information indicating the time change of the wind speed. In FIG. 8, for the sake of explanation, information indicating the time change of the wind speed is shown as a graph (hereinafter, also referred to as a wind speed graph) G5. The wind speed graph G5 may be divided into three regions: a wind speed graph G51 in the range of time t0 to t3, a wind speed graph G52 in the range of time t3 to t4, and a wind speed graph G53 in the range after time t4. The wind speed graph G51 is a region where the wind speed is large and the change in the wind speed is large. The wind speed graph G52 is a region where the wind speed changes from a high wind speed state to a low wind speed state. The wind speed graph G53 is a region where the wind speed is small and there is almost no change in the wind speed.

生成部532は、例えば、所定時間内に取得された端末装置100の周辺環境における風速の時間変化のパターンに基づいて感染リスクを推定するよう機械学習モデルを学習させてよい。例えば、生成部532は、空気の流れが良い(空気の循環が良く、換気が十分な)環境である場合(例えば、風速グラフG51の領域に似たパターンの場合)には、感染リスクを低く推定するよう機械学習モデルを学習させてよい。また、生成部532は、空気の流れが悪くなりつつある(換気が悪くなりつつある)環境である場合(例えば、風速グラフG52の領域に似たパターンの場合)には、感染リスクを中程度に推定するよう機械学習モデルを学習させてよい。また、生成部532は、空気の流れが悪い(空気が停滞しており、換気が悪い)環境である場合(例えば、風速グラフG53の領域に似たパターンの場合)には、感染リスクを高く推定するよう機械学習モデルを学習させてよい。 The generation unit 532 may train the machine learning model to estimate the infection risk based on the pattern of the time change of the wind speed in the surrounding environment of the terminal device 100 acquired within a predetermined time, for example. For example, the generator 532 has a low risk of infection when the environment has good air flow (good air circulation and sufficient ventilation) (for example, in the case of a pattern similar to the region of the wind speed graph G51). You may train the machine learning model to make an estimate. In addition, the generator 532 has a moderate risk of infection in an environment where the air flow is getting worse (ventilation is getting worse) (for example, in the case of a pattern similar to the region of the wind speed graph G52). You may train the machine learning model to make an estimation. Further, the generation unit 532 has a high risk of infection in an environment where the air flow is poor (air is stagnant and ventilation is poor) (for example, in the case of a pattern similar to the region of the wind speed graph G53). You may train the machine learning model to make an estimate.

(生成部532)
生成部532は、所定の環境に関する情報に基づいて端末装置100の周辺環境における感染リスクを推定可能な機械学習モデルを生成することができる。例えば、生成部532は、取得部531によって取得されたセンサ情報に基づいて端末装置100の周辺環境における感染リスクを推定する機械学習モデルを生成することができる。例えば、生成部532は、教師なし学習の一種であるクラスタリングによって機械学習モデルを学習させることができる。この点について、図9および図10を用いて具体的に説明する。
(Generation unit 532)
The generation unit 532 can generate a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device 100 based on the information about the predetermined environment. For example, the generation unit 532 can generate a machine learning model that estimates the infection risk in the surrounding environment of the terminal device 100 based on the sensor information acquired by the acquisition unit 531. For example, the generation unit 532 can train a machine learning model by clustering, which is a kind of unsupervised learning. This point will be specifically described with reference to FIGS. 9 and 10.

まず、図9を用いて、実施形態に係る学習データセットについて説明する。図9は、実施形態に係る学習データセットの一例を示す図である。学習データセット221Aは、例えば、「データセットID」、「人混み」、「滞留」、「影」、「音」、「風」といった項目を有してよい。 First, the learning data set according to the embodiment will be described with reference to FIG. FIG. 9 is a diagram showing an example of a learning data set according to an embodiment. The learning data set 221A may have items such as "data set ID", "crowd", "retention", "shadow", "sound", and "wind".

学習データセット221Aにおいて、「データセットID」の項目は、例えば、端末装置100によって取得された各種センサ情報の組からなる学習データセットを識別する識別情報が格納されてよい。ここで、データセットIDで識別される学習データセットは、同一の利用者の端末装置100の同一の周辺環境に関するセンサ情報の組であってよい。また、データセットIDで識別される学習データセットは、同一の位置で同一の日時に取得されたセンサ情報の組であってよい。これらは後述する学習データセットの変形例でも同様であってよい。 In the learning data set 221A, the item of "data set ID" may store, for example, identification information for identifying the learning data set consisting of a set of various sensor information acquired by the terminal device 100. Here, the learning data set identified by the data set ID may be a set of sensor information regarding the same surrounding environment of the terminal device 100 of the same user. Further, the learning data set identified by the data set ID may be a set of sensor information acquired at the same position at the same date and time. These may be the same in the modification of the learning data set described later.

学習データセット221Aにおいて、「人混み」の項目には、人混みの温度分布画像を示す情報が格納されてよい。例えば、「人混み」の項目には、1フレームの温度分布画像のピクセル毎のRGB数値が格納されてよい。 In the training data set 221A, the item of "crowd" may store information indicating a temperature distribution image of the crowd. For example, in the item of "crowd", the RGB numerical value for each pixel of the temperature distribution image of one frame may be stored.

学習データセット221Aにおいて、「滞留」の項目には、所定時間間隔で撮影された人混みの温度分布画像の組を示す情報が格納されてよい。例えば、「滞留」の項目には、所定時間間隔で撮影されたフレーム数分の温度分布画像それぞれについて、それぞれの温度分布画像のピクセル毎のRGB数値が画像と対応付けて格納されてよい。 In the training data set 221A, the item of "retention" may store information indicating a set of temperature distribution images of crowds taken at predetermined time intervals. For example, in the item of "retention", RGB numerical values for each pixel of each temperature distribution image may be stored in association with the image for each temperature distribution image for the number of frames taken at a predetermined time interval.

学習データセット221Aにおいて、「影」の項目には、所定時間内に撮影された人影の画像の組を示す情報が格納されてよい。例えば、「影」の項目には、所定時間内に撮影されたフレーム数分の人影の画像それぞれについて、それぞれの人影の画像のピクセル毎の白黒に対応する数値(白は「0」、黒は「1」)が画像と対応付けて格納されてよい。 In the training data set 221A, the item of "shadow" may store information indicating a set of images of a human figure taken within a predetermined time. For example, in the "shadow" item, for each image of a human figure taken within a predetermined time for the number of frames, a numerical value corresponding to black and white for each pixel of each image of the human image (white is "0", black is "0"). "1") may be stored in association with the image.

学習データセット221Aにおいて、「音」の項目には、所定時間内に取得された音量情報が格納されてよい。例えば、「音」の項目には、所定時間内に取得された音量情報として、所定時間内における瞬間最大音量、平均音量などの測定値が格納されてよい。 In the learning data set 221A, the volume information acquired within a predetermined time may be stored in the item of "sound". For example, in the item of "sound", measured values such as the instantaneous maximum volume and the average volume within the predetermined time may be stored as the volume information acquired within the predetermined time.

学習データセット221Aにおいて、「風」の項目には、所定時間内に取得された風速情報が格納されてよい。例えば、「風」の項目には、所定時間内に取得された風速情報として、所定時間内における瞬間最大風速、平均風速、風向などの測定値が格納されてよい。 In the learning data set 221A, the item of "wind" may store the wind speed information acquired within a predetermined time. For example, in the item of "wind", measured values such as an instantaneous maximum wind speed, an average wind speed, and a wind direction within a predetermined time may be stored as wind speed information acquired within a predetermined time.

次に、図10を用いて、実施形態に係る生成処理について説明する。図10は、実施形態に係る生成処理の概要について説明するための図である。生成部532は、機械学習モデルにセンサ情報が入力された場合に、入力されたセンサ情報が感染リスクの高さに応じた3つのクラスタのうち少なくともいずれか1つのクラスタに分類されるよう機械学習モデルを学習させることができる。例えば、生成部532は、k-means法を用いて、機械学習モデルにセンサ情報が入力された場合に、入力されたセンサ情報が感染リスクの高さに応じた3つのクラスタのうち少なくともいずれか1つのクラスタに分類されるよう機械学習モデルを学習させることができる。なお、生成部532は、k-means法に限らず、ディリクレ過程を用いたロジスティック回帰等の種々のクラスタリング手法を用いて機械学習モデルを学習させてもよい。 Next, the generation process according to the embodiment will be described with reference to FIG. FIG. 10 is a diagram for explaining an outline of the generation process according to the embodiment. When sensor information is input to the machine learning model, the generation unit 532 performs machine learning so that the input sensor information is classified into at least one of the three clusters according to the high risk of infection. You can train the model. For example, when the generation unit 532 uses the k-means method and sensor information is input to the machine learning model, the input sensor information is at least one of three clusters according to the high risk of infection. Machine learning models can be trained to be classified into one cluster. The generation unit 532 is not limited to the k-means method, and may train a machine learning model by using various clustering methods such as logistic regression using a Dirichlet process.

例えば、生成部532は、学習データセット221Aに基づいて、機械学習モデルを学習させることができる。例えば、生成部532は、データセットID「DS-1C」~「DS-mC」で識別されるm個(例えば、mは数千~数万の自然数)の学習データセットに基づいて機械学習モデルを学習させることができる。ここで、各学習データセットは、N次元のデータであるものとする。なお、N次元とは、1つのデータセットにおけるデータエントリー(数値)のエントリー個数がNであることを意味してよい。また、生成部532は、ある項目、例えば、「影」についてのデータが取得できない場合は、そのデータセットを学習に用いなくともよい。また、生成部532は、ある項目についてのデータが取得できない場合は、その項目のデータエントリーの数値を全て0として学習に使用してもよい。 For example, the generation unit 532 can train a machine learning model based on the training data set 221A. For example, the generation unit 532 is a machine learning model based on m learning data sets (for example, m is a natural number of several thousand to tens of thousands) identified by the data sets IDs “DS-1C” to “DS-mC”. Can be learned. Here, it is assumed that each training data set is N-dimensional data. The N dimension may mean that the number of data entries (numerical values) in one data set is N. Further, when the data for a certain item, for example, "shadow" cannot be acquired, the generation unit 532 does not have to use the data set for learning. Further, when the data for a certain item cannot be acquired, the generation unit 532 may set all the numerical values of the data entries of the item to 0 and use it for learning.

生成部532は、例えば、機械学習モデルにデータセットID「DS-1C」~「DS-mC」で識別されるm個の学習データセットが入力された場合、感染リスクが比較的高い環境に関するセンサ情報が属するクラスタC1、感染リスクが中程度の環境に関するセンサ情報が属するクラスタC2、感染リスクが比較的低い環境に関するセンサ情報が属するクラスタC3のうち少なくともいずれか1つのクラスタに分類されるよう機械学習モデルを学習させることができる。このように、生成部532は、機械学習モデルにセンサ情報が入力された場合に、感染リスクの高さに応じた2以上のクラスタのうち少なくともいずれか1つのクラスタにセンサ情報が分類されるよう学習した機械学習モデルを生成する。また、生成部532は、機械学習モデルの出力情報として、入力されたセンサ情報が分類されたクラスタに対応するラベルを出力するよう機械学習モデルを学習させてもよい。 For example, when m learning data sets identified by the data set IDs "DS-1C" to "DS-mC" are input to the machine learning model, the generation unit 532 is a sensor related to an environment having a relatively high risk of infection. Machine learning to be classified into at least one of the cluster C1 to which the information belongs, the cluster C2 to which the sensor information about the environment with a medium infection risk belongs, and the cluster C3 to which the sensor information about the environment with a relatively low infection risk belongs. You can train the model. As described above, when the sensor information is input to the machine learning model, the generation unit 532 classifies the sensor information into at least one of two or more clusters according to the high risk of infection. Generate a trained machine learning model. Further, the generation unit 532 may train the machine learning model so that the input sensor information outputs a label corresponding to the classified cluster as the output information of the machine learning model.

例えば、生成部532は、クラスタC1に対応するラベルを「危険」、クラスタC2に対応するラベルを「注意」、クラスタC3に対応するラベルを「大丈夫」としてよい。このとき、生成部532は、機械学習モデルに入力された学習データセットがクラスタC1に分類された場合には、機械学習モデルの出力情報としてクラスタC1に対応するラベル「危険」を出力するよう機械学習モデルを学習させてもよい。また、生成部532は、機械学習モデルに入力された学習データセットがクラスタC2に分類された場合には、機械学習モデルの出力情報としてクラスタC2に対応するラベル「注意」を出力するよう機械学習モデルを学習させてもよい。また、生成部532は、機械学習モデルに入力された学習データセットがクラスタC3に分類された場合には、機械学習モデルの出力情報としてクラスタC3に対応するラベル「大丈夫」を出力するよう機械学習モデルを学習させてもよい。このように、生成部532は、機械学習モデルの入力情報としてセンサ情報が入力された場合に、機械学習モデルの出力情報として、センサ情報が分類されるクラスタに対応する感染リスクを示すラベルを出力するよう学習した機械学習モデルを生成する。 For example, the generation unit 532 may set the label corresponding to the cluster C1 to "danger", the label corresponding to the cluster C2 to be "caution", and the label corresponding to the cluster C3 to be "OK". At this time, when the training data set input to the machine learning model is classified into the cluster C1, the generation unit 532 outputs the label "danger" corresponding to the cluster C1 as the output information of the machine learning model. The learning model may be trained. Further, when the training data set input to the machine learning model is classified into the cluster C2, the generation unit 532 is machine learning so as to output the label "Caution" corresponding to the cluster C2 as the output information of the machine learning model. You may train the model. Further, when the training data set input to the machine learning model is classified into the cluster C3, the generation unit 532 is machine learning so as to output the label "OK" corresponding to the cluster C3 as the output information of the machine learning model. You may train the model. As described above, when the sensor information is input as the input information of the machine learning model, the generation unit 532 outputs a label indicating the infection risk corresponding to the cluster in which the sensor information is classified as the output information of the machine learning model. Generate a machine learning model trained to do.

なお、生成部532は、主成分分析(PCA:principal component analysis)を用いて、N次元空間のクラスタを低次元に圧縮してもよい。この点について、図11を用いて具体的に説明する。図11は、実施形態の変形例に係る生成処理の概要について説明するための図である。生成部532は、主成分分析(PCA)を用いて、N次元空間のクラスタの次元を圧縮することで、演算を比較的容易にすることができる。例えば、図11の上段右側に示すように、生成部532は、主成分分析を用いて、特徴量である「人混み」と他の特徴量である「影」とから成る2次元のデータ(黒丸で示す点)を1次元のデータ(白丸で示す点)に圧縮することができる。このように、生成装置50は、主成分分析を用いて、N次元の特徴量を任意の次元まで圧縮して演算してよい。生成装置50は、例えば、N次元の特徴量を2次元まで圧縮して演算してよい。 The generation unit 532 may compress the clusters in the N-dimensional space to a lower dimension by using principal component analysis (PCA). This point will be specifically described with reference to FIG. FIG. 11 is a diagram for explaining an outline of the generation process according to the modified example of the embodiment. The generation unit 532 can make the calculation relatively easy by compressing the dimensions of the cluster in the N-dimensional space by using the principal component analysis (PCA). For example, as shown on the upper right side of FIG. 11, the generation unit 532 uses principal component analysis to generate two-dimensional data (black circles) composed of a feature amount “crowd” and another feature amount “shadow”. (Points indicated by) can be compressed into one-dimensional data (points indicated by white circles). As described above, the generation device 50 may perform the calculation by compressing the N-dimensional feature amount to an arbitrary dimension by using the principal component analysis. The generation device 50 may, for example, compress an N-dimensional feature amount to two dimensions for calculation.

なお、上記の実施形態では、生成部532が教師なし学習の一種であるクラスタリングによって機械学習モデルを学習させる例について説明したが、機械学習の手法はこれに限られない。例えば、生成部532は、教師あり学習によって機械学習モデルを学習させてもよい。例えば、生成部532は、センサ情報と教師ラベルとの組である学習データセットに基づいて、機械学習モデルを学習させてよい。例えば、生成部532は、機械学習モデルにセンサ情報が入力された場合に、センサ情報に対応する教師ラベルを機械学習モデルが出力するよう機械学習モデルを学習させてよい。この点について、図12および図13を用いて具体的に説明する。 In the above embodiment, an example in which the generation unit 532 learns a machine learning model by clustering, which is a kind of unsupervised learning, has been described, but the machine learning method is not limited to this. For example, the generation unit 532 may train a machine learning model by supervised learning. For example, the generation unit 532 may train a machine learning model based on a learning data set which is a set of sensor information and a teacher label. For example, the generation unit 532 may train the machine learning model so that the machine learning model outputs a teacher label corresponding to the sensor information when the sensor information is input to the machine learning model. This point will be specifically described with reference to FIGS. 12 and 13.

まず、図12を用いて、実施形態の変形例に係る学習データセットについて説明する。図12は、実施形態の変形例に係る学習データセットの一例を示す図である。学習データセット221Bは、「データセットID」、「人混み」、「滞留」、「影」、「音」、「風」、「教師ラベル」といった項目を有してよい。 First, the learning data set according to the modified example of the embodiment will be described with reference to FIG. FIG. 12 is a diagram showing an example of a learning data set according to a modified example of the embodiment. The learning data set 221B may have items such as "data set ID", "crowd", "retention", "shadow", "sound", "wind", and "teacher label".

学習データセット221Bにおいて、「データセットID」の項目には、例えば、端末装置100によって取得された各種センサ情報と教師ラベルとの組からなる学習データセットを識別する識別情報が格納されてよい。 In the learning data set 221B, the item of "data set ID" may store, for example, identification information for identifying the learning data set consisting of a set of various sensor information acquired by the terminal device 100 and a teacher label.

学習データセット221Bにおいて、「人混み」の項目には、例えば、人混みの温度分布画像を示す情報が格納されてよい。例えば、「人混み」の項目には、1フレームの温度分布画像のピクセル毎のRGB数値が格納されてよい。 In the training data set 221B, the item of "crowd" may store, for example, information indicating a temperature distribution image of the crowd. For example, in the item of "crowd", the RGB numerical value for each pixel of the temperature distribution image of one frame may be stored.

学習データセット221Bにおいて、「滞留」の項目には、例えば、所定時間間隔で撮影された人混みの温度分布画像の組を示す情報が格納されてよい。例えば、「滞留」の項目には、所定時間間隔で撮影されたフレーム数分の温度分布画像それぞれについて、それぞれの温度分布画像のピクセル毎のRGB数値が画像と対応付けて格納されてよい。 In the training data set 221B, the item of "retention" may store, for example, information indicating a set of temperature distribution images of crowds taken at predetermined time intervals. For example, in the item of "retention", RGB numerical values for each pixel of each temperature distribution image may be stored in association with the image for each temperature distribution image for the number of frames taken at a predetermined time interval.

学習データセット221Bにおいて、「影」の項目には、例えば、所定時間内に撮影された人影の画像の組を示す情報が格納されてよい。例えば、「影」の項目には、所定時間内に撮影されたフレーム数分の人影の画像それぞれについて、それぞれの人影の画像のピクセル毎の白黒に対応する数値(白は「0」、黒は「1」)が画像と対応付けて格納されてよい。 In the training data set 221B, the item of "shadow" may store, for example, information indicating a set of images of a human figure taken within a predetermined time. For example, in the "shadow" item, for each image of a human figure taken within a predetermined time for the number of frames, a numerical value corresponding to black and white for each pixel of each image of the human image (white is "0", black is "0"). "1") may be stored in association with the image.

学習データセット221Bにおいて、「音」の項目には、例えば、所定時間内に取得された音量情報を示す。例えば、「音」の項目には、所定時間内に取得された音量情報として、所定時間内における瞬間最大音量、平均音量などの測定値が格納されてよい。 In the training data set 221B, the item of "sound" indicates, for example, the volume information acquired within a predetermined time. For example, in the item of "sound", measured values such as the instantaneous maximum volume and the average volume within the predetermined time may be stored as the volume information acquired within the predetermined time.

学習データセット221Bにおいて、「風」の項目には、例えば、所定時間内に取得された風速情報を示す。例えば、「風」の項目には、所定時間内に取得された風速情報として、所定時間内における瞬間最大風速、平均風速、風向などの測定値が格納されてよい。 In the training data set 221B, the item of "wind" indicates, for example, wind speed information acquired within a predetermined time. For example, in the item of "wind", measured values such as an instantaneous maximum wind speed, an average wind speed, and a wind direction within a predetermined time may be stored as wind speed information acquired within a predetermined time.

学習データセット221Bにおいて、「教師ラベル」の項目には、例えば、データセットIDで識別されるセンサ情報の組に関する環境における感染リスクの高さを示す情報が格納されてよい。例えば、教師ラベル「3」は、感染リスクが比較的高い環境に関するセンサ情報であることを示す。また、教師ラベル「2」は、感染リスクが中程度の環境に関するセンサ情報であることを示す。また、教師ラベル「1」は、感染リスクが比較的低い環境に関するセンサ情報であることを示す。 In the training data set 221B, the item of "teacher label" may store, for example, information indicating the high risk of infection in the environment regarding the set of sensor information identified by the data set ID. For example, the teacher label "3" indicates that it is sensor information about an environment where the risk of infection is relatively high. The teacher label "2" also indicates that the sensor information is for an environment with a moderate risk of infection. Further, the teacher label "1" indicates that the sensor information is related to the environment where the risk of infection is relatively low.

例えば、生成部532は、学習データセット221Bに基づいて、機械学習モデルを学習させることができる。例えば、生成部532は、データセットID「DS-1A」~「DS-mA」で識別されるm個(例えば、mは数千~数万の自然数)の学習データセットに基づいて機械学習モデルを学習させることができる。例えば、生成部532は、機械学習モデルにデータセットID「DS-1A」で識別されるセンサ情報の組(人混み#1、滞留#1、影#1、音#1、風#1)が入力された場合、機械学習モデルが教師ラベル「3」を出力するよう機械学習モデルを学習させてよい。また、生成部532は、機械学習モデルにデータセットID「DS-2A」で識別されるセンサ情報の組(人混み#2、滞留#2、影#2、音#2、風#2)が入力された場合、機械学習モデルが教師ラベル「2」を出力するよう機械学習モデルを学習させてよい。このようにして、生成部532は、データセットID「DS-1A」~「DS-mA」で識別されるm個の学習データセットを学習させることで、学習済みの機械学習モデルを生成してよい。 For example, the generation unit 532 can train a machine learning model based on the training data set 221B. For example, the generation unit 532 is a machine learning model based on m learning data sets (for example, m is a natural number of several thousand to tens of thousands) identified by the data sets IDs “DS-1A” to “DS-mA”. Can be learned. For example, the generation unit 532 inputs a set of sensor information (crowd # 1, retention # 1, shadow # 1, sound # 1, wind # 1) identified by the data set ID "DS-1A" into the machine learning model. If so, the machine learning model may be trained to output the teacher label "3". Further, the generation unit 532 inputs a set of sensor information (crowd # 2, retention # 2, shadow # 2, sound # 2, wind # 2) identified by the data set ID “DS-2A” into the machine learning model. If so, the machine learning model may be trained to output the teacher label "2". In this way, the generation unit 532 generates a trained machine learning model by training m training data sets identified by the data sets IDs "DS-1A" to "DS-mA". good.

次に、図13を用いて、実施形態の変形例に係る学習データセットについて説明する。図13は、実施形態の変形例に係る学習データセットの一例を示す図である。変形例に係る学習データセットでは、各センサ情報に、各センサ情報から推定される感染リスクの高さに応じた点数が付与されてよい。具体的には、感染リスクが比較的高い環境に関するセンサ情報には点数「3」、感染リスクが中程度の環境に関するセンサ情報には点数「2」、感染リスクが比較的低い環境に関するセンサ情報には点数「1」が付与されてよい。そして、教師ラベルは、各種センサ情報に付与された点数の合計に基づいて付与されてよい。例えば、各種センサ情報の点数の合計が12点を超える場合は、感染リスクが比較的高い環境に関するセンサ情報であることを示す教師ラベル「3」が付与されてよい。また、各種センサ情報の点数の合計が9点~12点である場合は、感染リスクが中程度の環境に関するセンサ情報であることを示す教師ラベル「2」が付与されてよい。また、各種センサ情報の点数の合計が9点以下である場合は、感染リスクが比較的低い環境に関するセンサ情報であることを示す教師ラベル「1」が付与されてよい。なお、各種センサ情報のうち、特定のセンサ情報に重み付けをして、各種センサ情報の点数の合計点を算出してもよい。 Next, the learning data set according to the modified example of the embodiment will be described with reference to FIG. FIG. 13 is a diagram showing an example of a learning data set according to a modified example of the embodiment. In the learning data set according to the modified example, each sensor information may be given a score according to the high infection risk estimated from each sensor information. Specifically, the score is "3" for the sensor information related to the environment with a relatively high infection risk, the score is "2" for the sensor information related to the environment with a medium infection risk, and the sensor information related to the environment with a relatively low infection risk. May be given a score of "1". Then, the teacher label may be given based on the total of the points given to the various sensor information. For example, when the total score of various sensor information exceeds 12, a teacher label "3" indicating that the sensor information is related to an environment having a relatively high infection risk may be given. Further, when the total score of the various sensor information is 9 to 12 points, the teacher label "2" indicating that the sensor information is related to the environment where the infection risk is moderate may be given. Further, when the total score of various sensor information is 9 points or less, a teacher label "1" indicating that the sensor information is related to an environment having a relatively low infection risk may be given. Of the various sensor information, the specific sensor information may be weighted to calculate the total score of the various sensor information.

変形例に係る学習データセット221Cは、「データセットID」、「人混み」、「滞留」、「影」、「音」、「風」、「教師ラベル」といった項目を有してよい。 The learning data set 221C according to the modification may have items such as "data set ID", "crowd", "retention", "shadow", "sound", "wind", and "teacher label".

学習データセット221Cにおいて、「データセットID」の項目には、例えば、端末装置100によって取得された各種センサ情報に付与された点数と教師ラベルとの組からなる学習データセットを識別する識別情報が格納されてよい。 In the training data set 221C, in the item of "data set ID", for example, identification information for identifying the training data set consisting of a set of points and a teacher label given to various sensor information acquired by the terminal device 100 is included. May be stored.

学習データセット221Cにおいて、「人混み」の項目には、例えば、人混みの温度分布画像から推定される感染リスクの高さを示す情報が格納されてよい。例えば、「人混み」の項目には、人混みの温度分布画像における高温領域の分布パターンから推定される感染リスクの高さに応じた点数が格納されてよい。 In the training data set 221C, the item of "crowd" may store, for example, information indicating the high risk of infection estimated from the temperature distribution image of the crowd. For example, in the item of "crowd", points according to the high risk of infection estimated from the distribution pattern in the high temperature region in the temperature distribution image of the crowd may be stored.

学習データセット221Cにおいて、「滞留」の項目には、例えば、所定時間間隔で撮影された人混みの温度分布画像の組から推定される感染リスクの高さを示す情報が格納されてよい。例えば、「滞留」の項目には、所定時間間隔で撮影された人混みの温度分布画像それぞれの高温領域の分布パターンから推定される感染リスクの高さに応じた点数が格納されてよい。 In the training data set 221C, the item of "retention" may store, for example, information indicating the high risk of infection estimated from a set of temperature distribution images of crowds taken at predetermined time intervals. For example, in the item of "retention", points according to the high risk of infection estimated from the distribution pattern of each high temperature region of the temperature distribution image of the crowd taken at a predetermined time interval may be stored.

学習データセット221Cにおいて、「影」の項目には、例えば、所定時間内に撮影された人影の画像の組から推定される感染リスクの高さを示す情報が格納されてよい。例えば、「影」の項目には、所定時間内に撮影された画像に含まれる人影の動きから推定される感染リスクの高さに応じた点数が格納されてよい。 In the training data set 221C, the item of "shadow" may store, for example, information indicating a high risk of infection estimated from a set of images of a human figure taken within a predetermined time. For example, in the item of "shadow", a score according to the high risk of infection estimated from the movement of a human figure included in an image taken within a predetermined time may be stored.

学習データセット221Cにおいて、「音」の項目には、例えば、所定時間内に取得された音量情報から推定される感染リスクの高さを示す情報が格納されてよい。例えば、「音」の項目には、所定時間内に取得された音量の時間変化のパターンから推定される感染リスクの高さに応じた点数が格納されてよい。 In the learning data set 221C, the item of "sound" may store, for example, information indicating a high risk of infection estimated from the volume information acquired within a predetermined time. For example, in the item of "sound", a score according to the high risk of infection estimated from the time-varying pattern of the volume acquired within a predetermined time may be stored.

学習データセット221Cにおいて、「風」の項目には、例えば、所定時間内に取得された風速情報から推定される感染リスクの高さを示す情報が格納されてよい。例えば、「風」の項目には、所定時間内に取得された風速の時間変化のパターンから推定される感染リスクの高さに応じた点数が格納されてよい。 In the training data set 221C, the item of "wind" may store, for example, information indicating a high infection risk estimated from the wind speed information acquired within a predetermined time. For example, in the item of "wind", a score according to the high risk of infection estimated from the time-varying pattern of the wind speed acquired within a predetermined time may be stored.

学習データセット221Cにおいて、「教師ラベル」の項目には、例えば、データセットIDで識別されるセンサ情報の組に関する環境における感染リスクの高さを示す情報が格納されてよい。例えば、教師ラベル「3」は、感染リスクが比較的高い環境に関するセンサ情報であることを示す。また、教師ラベル「2」は、感染リスクが中程度の環境に関するセンサ情報であることを示す。また、教師ラベル「1」は、感染リスクが比較的低い環境に関するセンサ情報であることを示す。 In the training data set 221C, the item of "teacher label" may store, for example, information indicating the high risk of infection in the environment regarding the set of sensor information identified by the data set ID. For example, the teacher label "3" indicates that it is sensor information about an environment where the risk of infection is relatively high. The teacher label "2" also indicates that the sensor information is for an environment with a moderate risk of infection. Further, the teacher label "1" indicates that the sensor information is related to the environment where the risk of infection is relatively low.

例えば、生成部532は、学習データセット221Cに基づいて、機械学習モデルを学習させることができる。例えば、生成部532は、データセットID「DS-1B」~「DS-mB」で識別されるm個(例えば、mは数千~数万の自然数)の学習データセットに基づいて機械学習モデルを学習させることができる。例えば、生成部532は、機械学習モデルにデータセットID「DS-1B」で識別されるセンサ情報の点数の組(人混み「3」、滞留「3」、影「2」、音「3」、風「2」)が入力された場合、機械学習モデルが教師ラベル「3」を出力するよう機械学習モデルを学習させてよい。また、生成部532は、機械学習モデルにデータセットID「DS-2B」で識別されるセンサ情報の点数の組(人混み「1」、滞留「1」、影「3」、音「2」、風「3」)が入力された場合、機械学習モデルが教師ラベル「2」を出力することができるよう機械学習モデルを学習させてよい。このようにして、生成部532は、データセットID「DS-1B」~「DS-mB」で識別されるm個の学習データセットを学習させることで、学習済みの機械学習モデルを生成してよい。 For example, the generation unit 532 can train a machine learning model based on the training data set 221C. For example, the generation unit 532 is a machine learning model based on m learning data sets (for example, m is a natural number of several thousand to tens of thousands) identified by the data sets IDs "DS-1B" to "DS-mB". Can be learned. For example, the generation unit 532 has a set of points of sensor information identified by the data set ID "DS-1B" in the machine learning model (crowd "3", retention "3", shadow "2", sound "3", When the wind "2") is input, the machine learning model may be trained so that the machine learning model outputs the teacher label "3". Further, the generation unit 532 has a set of points of sensor information identified by the data set ID "DS-2B" in the machine learning model (crowd "1", retention "1", shadow "3", sound "2", When the wind "3") is input, the machine learning model may be trained so that the machine learning model can output the teacher label "2". In this way, the generation unit 532 generates a trained machine learning model by training m training data sets identified by the data sets IDs "DS-1B" to "DS-mB". good.

(配信部533)
配信部533は、生成部532によって生成された機械学習モデルに関する情報を端末装置100に配信してよい。
(Distribution unit 533)
The distribution unit 533 may distribute information about the machine learning model generated by the generation unit 532 to the terminal device 100.

〔2‐3.生成装置の情報処理手順〕
次に、図14を用いて、実施形態に係る生成装置の情報処理手順について説明する。図14は、実施形態に係る生成装置の情報処理手順を示す図である。まず、取得部531は、所定の環境に関する情報を取得することができる(ステップS101)。次に、生成部532は、所定の環境に関する情報に基づいて端末装置100の周辺環境における感染リスクを推定可能な機械学習モデルを生成することができる(ステップS102)。
[2-3. Information processing procedure of the generator]
Next, the information processing procedure of the generator according to the embodiment will be described with reference to FIG. FIG. 14 is a diagram showing an information processing procedure of the generator according to the embodiment. First, the acquisition unit 531 can acquire information about a predetermined environment (step S101). Next, the generation unit 532 can generate a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device 100 based on the information about the predetermined environment (step S102).

〔2‐4.端末装置の構成例〕
次に、図15を用いて、実施形態に係る端末装置の構成について説明する。図15は、実施形態に係る端末装置の構成例を示す図である。端末装置100は、通信部110と、センサ部120と、記憶部130と、入力部140と、出力部150と、制御部160とを有することができる。
[2-4. Configuration example of terminal device]
Next, the configuration of the terminal device according to the embodiment will be described with reference to FIG. FIG. 15 is a diagram showing a configuration example of the terminal device according to the embodiment. The terminal device 100 can include a communication unit 110, a sensor unit 120, a storage unit 130, an input unit 140, an output unit 150, and a control unit 160.

(通信部110)
通信部110は、例えば、NIC等によって実現されてよい。そして、通信部110は、生成装置50との間で情報の送受信を行ってよい。通信部110は、ネットワークと有線または無線で接続されてよい。
(Communication unit 110)
The communication unit 110 may be realized by, for example, a NIC or the like. Then, the communication unit 110 may send and receive information to and from the generation device 50. The communication unit 110 may be connected to the network by wire or wirelessly.

(センサ部120)
センサ部120は、端末装置100に搭載される各種のセンサ備えてよい。例えば、センサ部120は、温度センサと、画像センサ(カメラ)と、音センサと、風速センサとを備えてよい。センサ部120は、端末装置100の周辺環境に関するセンサ情報を検出することができる。なお、上記した各センサは、あくまでも例示であって限定されるものではない。すなわち、センサ部120は、各センサのうちの一部を備える構成であってもよいし、各センサに加えてあるいは代えて、湿度センサ等その他のセンサを備えてもよい。
(Sensor unit 120)
The sensor unit 120 may include various sensors mounted on the terminal device 100. For example, the sensor unit 120 may include a temperature sensor, an image sensor (camera), a sound sensor, and a wind speed sensor. The sensor unit 120 can detect sensor information regarding the surrounding environment of the terminal device 100. It should be noted that each of the above sensors is merely an example and is not limited. That is, the sensor unit 120 may be configured to include a part of each sensor, or may include other sensors such as a humidity sensor in addition to or in place of each sensor.

温度センサは、例えば、赤外線センサであってよい。温度センサは、物体から発せられる赤外線を測定することにより、物体の温度を検出することができる。温度センサは、例えば端末装置100の周辺環境における物体の温度を検出することができる。例えば、温度センサは、サーモグラフィーカメラであってよい。サーモグラフィーカメラは、物体の表面から発せられる赤外線を測定し、表面温度に色を割り当てた温度分布画像を出力することができる。なお、温度センサは、例えば、赤外線センサとサーモグラフィ―カメラを備えてもよい。 The temperature sensor may be, for example, an infrared sensor. The temperature sensor can detect the temperature of an object by measuring the infrared rays emitted from the object. The temperature sensor can detect, for example, the temperature of an object in the surrounding environment of the terminal device 100. For example, the temperature sensor may be a thermography camera. A thermography camera can measure infrared rays emitted from the surface of an object and output a temperature distribution image in which colors are assigned to the surface temperature. The temperature sensor may include, for example, an infrared sensor and a thermography camera.

画像センサ(カメラ)は、端末装置100の周辺環境を撮像することができる。画像センサは、例えば、CCD(Charge-Coupled Device)イメージセンサや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等であてよい。画像センサ(カメラ)は、例えば端末装置100の周辺環境を撮像することができる。 The image sensor (camera) can image the surrounding environment of the terminal device 100. The image sensor may be, for example, a CCD (Charge-Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like. The image sensor (camera) can image the surrounding environment of the terminal device 100, for example.

音センサは、音を検出することができる。例えば、音センサは、マイクロフォンであってよい。音センサは、例えば端末装置100の周辺環境における音を検出することができる。 The sound sensor can detect sound. For example, the sound sensor may be a microphone. The sound sensor can detect sound in the surrounding environment of the terminal device 100, for example.

風速センサは、風速を検出することができる。例えば、風速センサは、アプリケーションを起動し、スマートフォン等のヘッドホン端子に小型の風速計(羽が付いたプロペラ)を挿入することで、風速、平均風速、最大風速、気温、風向などを検出するものであってよい。風速センサは、例えば端末装置100の周辺環境における風速を検出することができる。なお、風速センサは、スマートフォン等に無線通信により風速情報を送信可能な別体の装置であってもよい。 The wind speed sensor can detect the wind speed. For example, a wind speed sensor detects wind speed, average wind speed, maximum wind speed, temperature, wind direction, etc. by starting an application and inserting a small anemometer (propeller with wings) into the headphone terminal of a smartphone or the like. May be. The wind speed sensor can detect, for example, the wind speed in the surrounding environment of the terminal device 100. The wind speed sensor may be a separate device capable of transmitting wind speed information to a smartphone or the like by wireless communication.

(記憶部130)
記憶部130は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現されてよい。記憶部130は、各種プログラム(情報処理プログラムの一例に相当)を記憶することができる。例えば、記憶部130は、実施形態に係る推定プログラムを記憶することができる。また、記憶部130は、各種データを記憶することができる。例えば、記憶部130は、取得部161によって取得されたセンサ情報を記憶することができる。例えば、記憶部130は、取得部161によって取得された機械学習モデルに関する情報を記憶することができる。例えば、記憶部130は、取得部161によって取得された機械学習モデルのモデルデータを記憶することができる。例えば、記憶部130は、画像センサが撮像した画像を記憶することができる。
(Memory unit 130)
The storage unit 130 may be realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 130 can store various programs (corresponding to an example of an information processing program). For example, the storage unit 130 can store the estimation program according to the embodiment. Further, the storage unit 130 can store various data. For example, the storage unit 130 can store the sensor information acquired by the acquisition unit 161. For example, the storage unit 130 can store information about the machine learning model acquired by the acquisition unit 161. For example, the storage unit 130 can store the model data of the machine learning model acquired by the acquisition unit 161. For example, the storage unit 130 can store the image captured by the image sensor.

ここで、一実施形態に係る推定プログラムは、制御部160の機能を実現するプログラムであってよい。例えば、一実施形態に係る推定プログラムは、所定の環境に関する情報を取得可能なセンサから所定の環境に関する情報を取得する取得手順と、所定の環境に関する情報に基づいて所定の環境における感染リスクを推定可能な機械学習モデルを用いて、端末装置100の周辺環境における感染リスクを推定する推定手順と、をコンピュータに実行させる。なお、以下では、実施形態に係る推定プログラムに相当するアプリケーションを感染リスク推定アプリと記載する場合がある。 Here, the estimation program according to the embodiment may be a program that realizes the function of the control unit 160. For example, an estimation program according to an embodiment estimates an infection risk in a predetermined environment based on an acquisition procedure for acquiring information on a predetermined environment from a sensor capable of acquiring information on the predetermined environment and information on the predetermined environment. Using a possible machine learning model, a computer is made to perform an estimation procedure for estimating the risk of infection in the surrounding environment of the terminal device 100. In the following, an application corresponding to the estimation program according to the embodiment may be described as an infection risk estimation application.

(入力部140・出力部150)
入力部140は、利用者から各種操作を受け付ける入力装置であってよい。例えば、入力部140は、キーボードやマウスや操作キー等によって実現されてよい。出力部150は、各種情報を表示するための表示装置であってよい。すなわち、出力部150は画面を有してよい。例えば、出力部150は、液晶ディスプレイ等によって実現されてよい。なお、端末装置100にタッチパネルが採用される場合には、入力部140と出力部150とは一体化されてよい。また、以下の説明では、出力部150を画面と記載する場合がある。
(Input unit 140, output unit 150)
The input unit 140 may be an input device that receives various operations from the user. For example, the input unit 140 may be realized by a keyboard, a mouse, operation keys, or the like. The output unit 150 may be a display device for displaying various information. That is, the output unit 150 may have a screen. For example, the output unit 150 may be realized by a liquid crystal display or the like. When a touch panel is adopted for the terminal device 100, the input unit 140 and the output unit 150 may be integrated. Further, in the following description, the output unit 150 may be described as a screen.

(制御部160)
制御部160は、端末装置100のコントローラであってよい。制御部160は、例えば、CPUやMPU等によって構成されてよい。制御部160は、例えば、RAMを作業領域として端末装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)を実行してよい。例えば、制御部160は、CPUやMPU等によって、RAMを作業領域として実施形態に係る推定プログラムを実行してよい。また、制御部160は、例えば、ASICやFPGA等の集積回路により実現されてよい。
(Control unit 160)
The control unit 160 may be the controller of the terminal device 100. The control unit 160 may be configured by, for example, a CPU, an MPU, or the like. The control unit 160 may execute, for example, various programs (corresponding to an example of an information processing program) stored in the storage device inside the terminal device 100 using the RAM as a work area. For example, the control unit 160 may execute the estimation program according to the embodiment by using the RAM as a work area by the CPU, MPU, or the like. Further, the control unit 160 may be realized by an integrated circuit such as an ASIC or FPGA.

制御部160は、取得部161と、推定部162と、出力制御部163とを有してよい。制御部160は、例えば、以下に説明する情報処理の作用を実現または実行することができる。なお、制御部160の内部構成は、図15に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 The control unit 160 may include an acquisition unit 161, an estimation unit 162, and an output control unit 163. The control unit 160 can realize or execute, for example, the operation of information processing described below. The internal configuration of the control unit 160 is not limited to the configuration shown in FIG. 15, and may be any other configuration as long as it is configured to perform information processing described later.

(取得部161)
取得部161は、所定の環境に関する情報を取得することができる。具体的には、取得部161は、所定の環境に関する情報の一例として、所定の環境に関するセンサ情報を取得可能なセンサによって取得されたセンサ情報を取得することができる。例えば、取得部161は、利用者の端末装置100の周辺環境に関する情報の一例として、利用者の端末装置100の周辺環境に関するセンサ情報を取得することができる。例えば、取得部161は、センサ部120によって検出された端末装置100の周辺環境に関するセンサ情報をセンサ部120から取得することができる。また、例えば、取得部161は、端末装置100によって取得されたセンサ情報が記憶されたデータベース等の端末装置100以外の装置からセンサ情報を取得してもよい。
(Acquisition unit 161)
The acquisition unit 161 can acquire information about a predetermined environment. Specifically, the acquisition unit 161 can acquire the sensor information acquired by the sensor capable of acquiring the sensor information regarding the predetermined environment as an example of the information regarding the predetermined environment. For example, the acquisition unit 161 can acquire sensor information regarding the surrounding environment of the user's terminal device 100 as an example of information regarding the surrounding environment of the user's terminal device 100. For example, the acquisition unit 161 can acquire sensor information regarding the surrounding environment of the terminal device 100 detected by the sensor unit 120 from the sensor unit 120. Further, for example, the acquisition unit 161 may acquire the sensor information from a device other than the terminal device 100 such as a database in which the sensor information acquired by the terminal device 100 is stored.

例えば、取得部161は、センサ情報の一例として、温度センサによって取得された端末装置100の周辺環境における温度情報を取得することができる。例えば、例えば、取得部161は、センサ情報の一例として、サーモグラフィーカメラによって撮影された端末装置100の周辺環境における温度分布画像を取得することができる。また、取得部161は、センサ情報の一例として、温度センサによって所定時間間隔で取得された端末装置100の周辺環境における温度情報を取得することができる。また、取得部161は、センサ情報の一例として、カメラによって所定時間内に撮影された端末装置100の周辺環境における画像に含まれる人影の動きを取得することができる。また、取得部161は、センサ情報の一例として、音センサによって取得された端末装置100の周辺環境における音情報を取得することができる。また、取得部161は、センサ情報の一例として、風速センサによって取得された端末装置100の周辺環境における風速情報を取得することができる。取得部161は、取得したセンサ情報を記憶部130に格納することができる。 For example, the acquisition unit 161 can acquire the temperature information in the surrounding environment of the terminal device 100 acquired by the temperature sensor as an example of the sensor information. For example, for example, the acquisition unit 161 can acquire a temperature distribution image in the surrounding environment of the terminal device 100 taken by a thermography camera as an example of sensor information. Further, as an example of the sensor information, the acquisition unit 161 can acquire the temperature information in the surrounding environment of the terminal device 100 acquired by the temperature sensor at predetermined time intervals. Further, as an example of the sensor information, the acquisition unit 161 can acquire the movement of a human figure included in the image in the surrounding environment of the terminal device 100 taken by the camera within a predetermined time. Further, the acquisition unit 161 can acquire the sound information in the surrounding environment of the terminal device 100 acquired by the sound sensor as an example of the sensor information. Further, the acquisition unit 161 can acquire the wind speed information in the surrounding environment of the terminal device 100 acquired by the wind speed sensor as an example of the sensor information. The acquisition unit 161 can store the acquired sensor information in the storage unit 130.

また、取得部161は、所定の環境に関するセンサ情報に基づいて所定の環境における感染リスクを推定可能な機械学習モデルに関する情報を生成装置50から取得することができる。例えば、取得部161は、機械学習モデルに関する情報の一例として、機械学習モデルのモデルデータを取得することができる。取得部161は、取得した機械学習モデルに関する情報を記憶部130に格納することができる。 Further, the acquisition unit 161 can acquire information on the machine learning model capable of estimating the infection risk in the predetermined environment from the generation device 50 based on the sensor information on the predetermined environment. For example, the acquisition unit 161 can acquire model data of a machine learning model as an example of information regarding the machine learning model. The acquisition unit 161 can store the acquired information about the machine learning model in the storage unit 130.

(推定部162)
推定部162は、所定の環境に関するセンサ情報に基づいて所定の環境における感染リスクを推定可能な機械学習モデルを用いて、端末装置100の周辺環境における感染リスクを推定してよい。具体的には、推定部162は、例えば、取得部161によって取得された機械学習モデルを用いて、端末装置100の周辺環境における感染リスクを推定してよい。より具体的には、推定部162は、取得部161によって取得された利用者の端末装置100の周辺環境に関するセンサ情報を入力データとして、取得部161によって取得された機械学習モデルにより、端末装置100の周辺環境における感染リスクを推定してよい。これによれば、端末装置100は、利用者の現在位置における感染リスクを推定することができる。
(Estimation unit 162)
The estimation unit 162 may estimate the infection risk in the surrounding environment of the terminal device 100 by using a machine learning model capable of estimating the infection risk in the predetermined environment based on the sensor information regarding the predetermined environment. Specifically, the estimation unit 162 may estimate the infection risk in the surrounding environment of the terminal device 100 by using, for example, the machine learning model acquired by the acquisition unit 161. More specifically, the estimation unit 162 uses the machine learning model acquired by the acquisition unit 161 as input data for the sensor information regarding the surrounding environment of the user's terminal device 100 acquired by the acquisition unit 161 to use the terminal device 100. The risk of infection in the surrounding environment may be estimated. According to this, the terminal device 100 can estimate the infection risk at the user's current position.

(出力制御部163)
出力制御部163は、推定部162による推定結果を出力部150に出力することができる。例えば、出力制御部163は、推定部162による推定結果を音声により出力してよい。また、出力制御部163は、推定部162による推定結果を画面に表示してもよい。例えば、出力制御部163は、推定部162によって推定された感染リスクを利用者に対して通知することができる。例えば、出力制御部163は、利用者の現在位置における感染リスクを利用者に対して通知することができる。例えば、出力制御部163は、推定部162によって感染リスクの高い環境であると推定された場所に利用者が所定時間以上滞在している場合には、利用者に対して感染リスクが高いことをアラームで通知することができる。
(Output control unit 163)
The output control unit 163 can output the estimation result by the estimation unit 162 to the output unit 150. For example, the output control unit 163 may output the estimation result by the estimation unit 162 by voice. Further, the output control unit 163 may display the estimation result by the estimation unit 162 on the screen. For example, the output control unit 163 can notify the user of the infection risk estimated by the estimation unit 162. For example, the output control unit 163 can notify the user of the infection risk at the user's current position. For example, the output control unit 163 determines that the infection risk is high for the user when the user stays in a place estimated by the estimation unit 162 to be an environment with a high infection risk for a predetermined time or longer. You can be notified by an alarm.

なお、出力制御部163は、利用者に対して感染リスクが高いことを音声により出力してもよい。また、出力制御部163は、利用者に対して感染リスクが高いことを画面に表示してもよい。例えば、出力制御部163は、利用者の現在位置に応じて、推定部162による推定結果を音声により出力するか又は画面に表示するかを選択してもよい。例えば、出力制御部163は、利用者の現在位置から利用者が公共の場所(例えば、勤務先や電車の中)にいると推定される場合は、推定部162による推定結果を画面に表示してもよい。また、出力制御部163は、利用者の現在位置から利用者がプライベートな場所(例えば、自宅や公園)にいると推定される場合は、推定部162による推定結果を音声により出力してもよい。また、出力制御部163は、各端末装置100による推定結果をクラウド上で共有して、危険度マップを生成してもよい。出力制御部163は、生成した危険度マップを各端末装置100に配信してもよい。そして、出力制御部163は、各端末装置100によって受信された危険度マップを各端末装置100の画面に表示してもよい。 The output control unit 163 may output by voice that the risk of infection is high for the user. Further, the output control unit 163 may display on the screen that the risk of infection is high for the user. For example, the output control unit 163 may select whether to output the estimation result by the estimation unit 162 by voice or display it on the screen according to the current position of the user. For example, when the output control unit 163 estimates that the user is in a public place (for example, at work or in a train) from the user's current position, the output control unit 163 displays the estimation result by the estimation unit 162 on the screen. You may. Further, when the user is estimated to be in a private place (for example, home or park) from the current position of the user, the output control unit 163 may output the estimation result by the estimation unit 162 by voice. .. Further, the output control unit 163 may share the estimation result by each terminal device 100 on the cloud to generate a risk degree map. The output control unit 163 may distribute the generated risk map to each terminal device 100. Then, the output control unit 163 may display the risk map received by each terminal device 100 on the screen of each terminal device 100.

〔2‐5.端末装置の情報処理の例〕
次に、図16を用いて実施形態に係る端末装置の情報処理について説明する。図16は、実施形態に係る端末装置の情報処理の一例について説明するための図である。図16の上側に示す例では、店舗Aの従業員の端末装置100には、感染リスク推定アプリがインストールされている。端末装置100は、例えば、端末装置100の周辺環境(すなわち、店舗A内の環境)に関するセンサ情報に基づいて、端末装置100の周辺環境における感染リスク(すなわち、店舗A内の感染リスク)を推定することができる。例えば、端末装置100は、店舗A内の感染リスクが比較的低いと推定することができる。続いて、端末装置100は、推定結果をクラウドにアップすることができる。端末装置100は、店舗A内の感染リスクが比較的低いことを視覚的に示す印(図16に示す例では、点線の丸印)を店舗Aの位置に重畳した危険度マップM1を生成することができる。続いて、端末装置100は、生成した危険度マップM1を自店舗のHPやSNS上にアップして顧客と共有することができる。また、端末装置100は、生成した危険度マップM1を他の利用者の端末装置100に配信してもよい。そして、他の利用者の端末装置100は、端末装置100から危険度マップM1を受信すると、危険度マップM1を画面に表示することができる。
[2-5. Example of information processing of terminal equipment]
Next, information processing of the terminal device according to the embodiment will be described with reference to FIG. FIG. 16 is a diagram for explaining an example of information processing of the terminal device according to the embodiment. In the example shown on the upper side of FIG. 16 , the infection risk estimation application is installed in the terminal device 1001 of the employee of the store A. The terminal device 100 1 has, for example, an infection risk in the peripheral environment of the terminal device 100 1 (that is, an infection risk in the store A) based on sensor information regarding the surrounding environment of the terminal device 100 1 (that is, the environment in the store A). ) Can be estimated. For example, the terminal device 100 1 can be estimated to have a relatively low risk of infection in the store A. Subsequently, the terminal device 100 1 can upload the estimation result to the cloud. The terminal device 100 1 generates a risk map M1 in which a mark visually indicating that the risk of infection in the store A is relatively low (a dotted circle in the example shown in FIG. 16) is superimposed on the position of the store A. can do. Subsequently, the terminal device 100 1 can upload the generated risk map M1 on the HP or SNS of its own store and share it with the customer. Further, the terminal device 100 1 may distribute the generated risk map M1 to the terminal device 100 of another user. Then, when the terminal device 100 of another user receives the risk map M1 from the terminal device 100 1 , the risk map M1 can be displayed on the screen.

また、図16の下側に示す例では、店舗Bの従業員の端末装置100には、感染リスク推定アプリがインストールされている。端末装置100は、例えば、端末装置100の周辺環境(すなわち、店舗B内の環境)に関するセンサ情報に基づいて、端末装置100の周辺環境における感染リスク(すなわち、店舗B内の感染リスク)を推定することができる。例えば、端末装置100は、店舗B内の感染リスクが比較的高いと推定することができる。続いて、端末装置100は、推定結果をクラウドにアップすることができる。端末装置100は、例えば、店舗B内の感染リスクが比較的高いことを視覚的に示す印(図16に示す例では、実線の丸印)を店舗Bの位置に重畳した危険度マップM1を生成することができる。続いて、端末装置100は、生成した危険度マップM1を自店舗のHPやSNS上にアップして顧客と共有することができる。また、端末装置100は、生成した危険度マップM1を他の利用者の端末装置100に配信してもよい。そして、他の利用者の端末装置100は、端末装置100から危険度マップM1を受信すると、危険度マップM1を画面に表示することができる。 Further, in the example shown at the lower side of FIG. 16, the infection risk estimation application is installed in the terminal device 100 2 of the employee of the store B. The terminal device 100 2 has, for example, an infection risk in the peripheral environment of the terminal device 100 2 (that is, an infection risk in the store B) based on sensor information regarding the surrounding environment of the terminal device 100 2 (that is, the environment in the store B). ) Can be estimated. For example, the terminal device 100 2 can be estimated to have a relatively high risk of infection in the store B. Subsequently, the terminal device 100 2 can upload the estimation result to the cloud. The terminal device 100 2 has, for example, a risk map M1 in which a mark visually indicating that the risk of infection in the store B is relatively high (a solid circle in the example shown in FIG. 16) is superimposed on the position of the store B. Can be generated. Subsequently, the terminal device 100 2 can upload the generated risk map M1 on the HP or SNS of its own store and share it with the customer. Further, the terminal device 100 2 may distribute the generated risk map M1 to the terminal device 100 of another user. Then, when the terminal device 100 of another user receives the risk map M1 from the terminal device 100 1 , the risk map M1 can be displayed on the screen.

このように、端末装置100は、各店舗における感染リスク情報を自店舗のHPやSNS上にアップして顧客と共有することができる。これにより、一実施形態に係る端末装置100によれば、例えば、従業員は店内が混みあっておらず安全であることを顧客に知らせたり、店内が混み合っており危険であることなどを知らせることができる。また、例えば、顧客は、時間差を置いて顧客に訪問したり、別店舗を先に訪問したりする等の対策を取ることができる。すなわち、一実施形態に係る端末装置100によれば、感染症リスクを考慮した生活様式に必要な情報を提供し得る。 In this way, the terminal device 100 can upload the infection risk information in each store on the HP or SNS of its own store and share it with the customer. As a result, according to the terminal device 100 according to the embodiment, for example, the employee informs the customer that the inside of the store is not crowded and is safe, or informs that the inside of the store is crowded and dangerous. be able to. Further, for example, the customer can take measures such as visiting the customer at a time lag or visiting another store first. That is, according to the terminal device 100 according to the embodiment, it is possible to provide information necessary for a lifestyle in consideration of the risk of infectious diseases.

次に、図17を用いて実施形態に係る端末装置100の情報処理について説明する。図17は、実施形態に係る端末装置100の情報処理の一例について説明するための図である。図17に示す例では、端末装置100は、各利用者の端末装置100における推定結果に基づいて、より広範囲の危険度マップM2を生成することができる。端末装置100は、危険度マップM2を生成すると、生成した危険度マップM2を画面に表示することができる。したがって、一実施形態に係る端末装置100によれば、利用者は、感染症リスクを考慮して行動予定を検討することができる。 Next, information processing of the terminal device 100 according to the embodiment will be described with reference to FIG. FIG. 17 is a diagram for explaining an example of information processing of the terminal device 100 according to the embodiment. In the example shown in FIG. 17, the terminal device 100 can generate a wider range of risk map M2 based on the estimation result in the terminal device 100 of each user. When the terminal device 100 generates the risk map M2, the terminal device 100 can display the generated risk map M2 on the screen. Therefore, according to the terminal device 100 according to the embodiment, the user can consider the action schedule in consideration of the risk of infectious disease.

次に、図18を用いて実施形態に係る端末装置の情報処理について説明する。図18は、実施形態に係る端末装置の情報処理の一例について説明するための図である。図18に示す例では、端末装置100は、図17に示した危険度マップに基づいて、利用者に対して出発地から目的地までの移動経路を提案することができる。例えば、端末装置100は、利用者から出発地点P1と到着地点P2の入力を受け付ける。続いて、端末装置100は、出発地点P1と到着地点P2を含む領域の危険度マップに基づいて、出発地点P1から到着地点P2までの移動経路を重畳した危険度マップM3を生成することができる。例えば、端末装置100は、感染リスクに応じた複数の移動経路を重畳した危険度マップM3を生成することができる。図18に示す例では、感染リスクが比較的低い移動経路RT1、感染リスクが中程度である移動経路RT2、および感染リスクが比較的高い移動経路RT3を重畳した危険度マップM3を生成することができる。また、端末装置100は、危険度マップM3を生成すると、生成した危険度マップM3を画面に表示することができる。したがって、一実施形態に係る端末装置100によれば、利用者は、比較的感染症リスクが低い経路に沿って移動することができる。 Next, information processing of the terminal device according to the embodiment will be described with reference to FIG. FIG. 18 is a diagram for explaining an example of information processing of the terminal device according to the embodiment. In the example shown in FIG. 18, the terminal device 100 can propose a movement route from the departure point to the destination to the user based on the risk degree map shown in FIG. For example, the terminal device 100 receives input of a departure point P1 and an arrival point P2 from a user. Subsequently, the terminal device 100 can generate a risk map M3 in which the movement route from the departure point P1 to the arrival point P2 is superimposed based on the risk map of the area including the departure point P1 and the arrival point P2. .. For example, the terminal device 100 can generate a risk map M3 in which a plurality of movement routes according to the infection risk are superimposed. In the example shown in FIG. 18, it is possible to generate a risk map M3 in which a movement route RT1 having a relatively low infection risk, a movement route RT2 having a medium infection risk, and a movement route RT3 having a relatively high infection risk are superimposed. can. Further, when the terminal device 100 generates the risk map M3, the generated risk map M3 can be displayed on the screen. Therefore, according to the terminal device 100 according to the embodiment, the user can move along a route having a relatively low risk of infectious disease.

〔2‐6.端末装置の情報処理手順〕
次に、図19を用いて、実施形態に係る端末装置の情報処理手順について説明する。図19は、実施形態に係る端末装置の情報処理手順を示す図である。まず、取得部161は、所定の環境に関する情報を取得することができる(ステップS201)。次に、推定部162は、所定の環境に関する情報に基づいて所定の環境における感染リスクを推定可能な機械学習モデルを用いて、端末装置100の周辺環境における感染リスクを推定することができる(ステップS202)。そして、出力制御部163は、推定部162による推定結果を出力することができる(ステップS203)。
[2-6. Information processing procedure of terminal device]
Next, the information processing procedure of the terminal device according to the embodiment will be described with reference to FIG. FIG. 19 is a diagram showing an information processing procedure of the terminal device according to the embodiment. First, the acquisition unit 161 can acquire information about a predetermined environment (step S201). Next, the estimation unit 162 can estimate the infection risk in the surrounding environment of the terminal device 100 by using a machine learning model that can estimate the infection risk in the predetermined environment based on the information about the predetermined environment (step). S202). Then, the output control unit 163 can output the estimation result by the estimation unit 162 (step S203).

〔3.効果〕
上述してきたように、一実施形態に係る端末装置100は、取得部161と推定部162を備える。取得部161は、所定の環境に関する情報を取得可能なセンサから所定の環境に関する情報を取得する。推定部162は、所定の環境に関する情報に基づいて所定の環境における感染リスクを推定可能な機械学習モデルを用いて、端末装置100の周辺環境における感染リスクを推定する。
[3. effect〕
As described above, the terminal device 100 according to the embodiment includes an acquisition unit 161 and an estimation unit 162. The acquisition unit 161 acquires information on a predetermined environment from a sensor that can acquire information on the predetermined environment. The estimation unit 162 estimates the infection risk in the surrounding environment of the terminal device 100 by using a machine learning model that can estimate the infection risk in the predetermined environment based on the information about the predetermined environment.

これにより、端末装置100は、各種センサ情報の相関性が高い機械学習モデルを用いて、端末装置100の周辺環境における感染リスクを推定することができる。 Thereby, the terminal device 100 can estimate the infection risk in the surrounding environment of the terminal device 100 by using a machine learning model having a high correlation of various sensor information.

また、所定の環境に関する情報は、端末装置100の周辺環境における温度分布画像、所定時間間隔で取得された端末装置100の周辺環境における温度分布画像、所定時間内に撮影された端末装置100の周辺環境における人影の画像、端末装置100の周辺環境における音情報、および端末装置100の周辺環境における風速情報のうち少なくとも1つ、を含む。 Further, the information regarding the predetermined environment includes a temperature distribution image in the surrounding environment of the terminal device 100, a temperature distribution image in the peripheral environment of the terminal device 100 acquired at a predetermined time interval, and a periphery of the terminal device 100 taken within a predetermined time. It includes an image of a human figure in the environment, sound information in the surrounding environment of the terminal device 100, and at least one of wind velocity information in the surrounding environment of the terminal device 100.

これにより、端末装置100は、各種センサ情報に基づいて、端末装置100の周辺環境における感染リスクを推定することができる。 Thereby, the terminal device 100 can estimate the infection risk in the surrounding environment of the terminal device 100 based on various sensor information.

また、実施形態に係る端末装置100は、推定部162による推定結果を端末装置100に出力する出力制御部163をさらに備える。 Further, the terminal device 100 according to the embodiment further includes an output control unit 163 that outputs an estimation result by the estimation unit 162 to the terminal device 100.

これにより、端末装置100は、端末装置100の利用者に対して、感染症リスクを考慮した生活様式に必要な情報を提供することができる。 As a result, the terminal device 100 can provide the user of the terminal device 100 with information necessary for a lifestyle considering the risk of infectious diseases.

また、出力制御部163は、推定部162によって推定された推定結果に基づく感染リスクを示す危険度マップを利用者の端末装置100の画面に表示する。 Further, the output control unit 163 displays a risk map showing the infection risk based on the estimation result estimated by the estimation unit 162 on the screen of the user's terminal device 100.

これにより、端末装置100は、端末装置100の利用者が感染症リスクを考慮して行動予定を検討することを可能にする。 This enables the terminal device 100 to allow the user of the terminal device 100 to consider the action schedule in consideration of the risk of infectious disease.

また、出力制御部163は、推定部162によって推定された推定結果に基づいて、利用者によって指定された出発地から目的地までの移動経路を利用者の端末装置100の画面に表示する。 Further, the output control unit 163 displays the movement route from the departure point designated by the user to the destination on the screen of the user's terminal device 100 based on the estimation result estimated by the estimation unit 162.

これにより、端末装置100は、端末装置100の利用者が比較的感染症リスクが低い経路に沿って移動することを可能にする。 Thereby, the terminal device 100 enables the user of the terminal device 100 to move along a route having a relatively low risk of infectious disease.

また、実施形態に係る生成装置50は、取得部531と生成部532を備える。取得部531は、所定の環境に関する情報を取得する。生成部532は、所定の環境に関する情報に基づいて端末装置100の周辺環境における感染リスクを推定可能な機械学習モデルを生成する。 Further, the generation device 50 according to the embodiment includes an acquisition unit 531 and a generation unit 532. The acquisition unit 531 acquires information about a predetermined environment. The generation unit 532 generates a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device 100 based on the information about the predetermined environment.

これにより、生成装置50は、各種センサ情報の相関性が高い機械学習モデルを用いて、感染症に感染するリスクを推定可能とすることができる。 As a result, the generator 50 can estimate the risk of being infected with an infectious disease by using a machine learning model with high correlation of various sensor information.

また、取得部531は、所定の環境に関する情報として、所定の環境に関するセンサ情報を取得可能なセンサによって取得されたセンサ情報を取得する。生成部532は、機械学習モデルにセンサ情報が入力された場合に、感染リスクの高さに応じた2以上のクラスタのうち少なくともいずれか1つのクラスタにセンサ情報が分類されるよう学習した機械学習モデルを生成する。 Further, the acquisition unit 531 acquires the sensor information acquired by the sensor capable of acquiring the sensor information regarding the predetermined environment as the information regarding the predetermined environment. The generation unit 532 has learned that when sensor information is input to the machine learning model, the sensor information is classified into at least one of two or more clusters according to the high risk of infection. Generate a model.

これにより、生成装置50は、例えば、感染リスクの高さのレベルが「危険」と「大丈夫」の2種類である場合であっても、感染症に感染するリスクを推定可能とすることができる。 Thereby, for example, the generator 50 can estimate the risk of being infected with an infectious disease even when the level of high risk of infection is two types, "danger" and "OK". ..

また、生成部532は、機械学習モデルの入力情報としてセンサ情報が入力された場合に、機械学習モデルの出力情報として、センサ情報が分類されるクラスタに対応する感染リスクを示すラベルを出力するよう学習した機械学習モデルを生成する。 Further, when the sensor information is input as the input information of the machine learning model, the generation unit 532 outputs the label indicating the infection risk corresponding to the cluster in which the sensor information is classified as the output information of the machine learning model. Generate a trained machine learning model.

これにより、生成装置50は、利用者に対してわかりやすい推定結果を出力することを可能とする。 This makes it possible for the generation device 50 to output an estimation result that is easy for the user to understand.

また、取得部531は、端末装置100の周辺環境における温度分布画像であるセンサ情報を取得する。生成部532は、温度分布画像の温度分布のパターンに基づいて、端末装置100の周辺環境における感染リスクを推定可能な機械学習モデルを生成する。 Further, the acquisition unit 531 acquires sensor information which is a temperature distribution image in the surrounding environment of the terminal device 100. The generation unit 532 generates a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device 100 based on the temperature distribution pattern of the temperature distribution image.

これにより、生成装置50は、例えば、人混みの有無を示す情報に基づいて、感染リスクを推定可能とすることができる。 Thereby, the generation device 50 can estimate the infection risk, for example, based on the information indicating the presence or absence of crowds.

また、取得部531は、所定時間間隔で取得された端末装置100の周辺環境における温度分布画像であるセンサ情報を取得する。生成部532は、温度分布画像それぞれの温度分布のパターンに基づいて、端末装置100の周辺環境における感染リスクを推定可能な機械学習モデルを生成する。 Further, the acquisition unit 531 acquires sensor information which is a temperature distribution image in the surrounding environment of the terminal device 100 acquired at predetermined time intervals. The generation unit 532 generates a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device 100 based on the temperature distribution pattern of each temperature distribution image.

これにより、生成装置50は、例えば、人の滞留の有無を示す情報に基づいて、感染リスクを推定可能とすることができる。 Thereby, the generation device 50 can estimate the infection risk, for example, based on the information indicating the presence or absence of human retention.

また、取得部531は、所定時間内に撮影された端末装置100の周辺環境における人影の画像であるセンサ情報を取得する。生成部532は、画像に含まれる人影の時間変化のパターンに基づいて、端末装置100の周辺環境における感染リスクを推定可能な機械学習モデルを生成する。 Further, the acquisition unit 531 acquires sensor information which is an image of a human figure in the surrounding environment of the terminal device 100 taken within a predetermined time. The generation unit 532 generates a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device 100 based on the time-varying pattern of the human figure included in the image.

これにより、生成装置50は、プライバシーに配慮したうえで、感染リスクを推定可能とすることができる。 As a result, the generation device 50 can estimate the risk of infection while considering privacy.

また、取得部531は、所定時間内に取得された端末装置100の周辺環境における音情報であるセンサ情報を取得する。生成部532は、音情報の時間変化のパターンに基づいて、端末装置100の周辺環境における感染リスクを推定可能な機械学習モデルを生成する。 Further, the acquisition unit 531 acquires sensor information which is sound information in the surrounding environment of the terminal device 100 acquired within a predetermined time. The generation unit 532 generates a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device 100 based on the pattern of the time change of the sound information.

これにより、生成装置50は、例えば、音の情報から推定される人の動きに関する情報に基づいて、感染リスクを推定可能とすることができる。 Thereby, the generation device 50 can estimate the infection risk based on the information on the movement of the person estimated from the sound information, for example.

また、取得部531は、所定時間内に取得された端末装置100の周辺環境における風速情報であるセンサ情報を取得する。生成部532は、風速情報の時間変化のパターンに基づいて、端末装置100の周辺環境における感染リスクを推定可能な機械学習モデルを生成する。 Further, the acquisition unit 531 acquires sensor information which is wind speed information in the surrounding environment of the terminal device 100 acquired within a predetermined time. The generation unit 532 generates a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device 100 based on the pattern of the time change of the wind speed information.

これにより、生成装置50は、例えば、空気の循環の良し悪しや換気が十分か不十分かといった情報に基づいて、感染リスクを推定可能とすることができる。 This makes it possible for the generator 50 to estimate the risk of infection, for example, based on information such as whether the air circulation is good or bad and whether the ventilation is sufficient or insufficient.

〔4.ハードウェア構成〕
また、上述してきた実施形態に係る端末装置100または生成装置50は、例えば図20に示すような構成のコンピュータ1000によって実現されてよい。図20は、端末装置100または生成装置50の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備えてよい。
[4. Hardware configuration]
Further, the terminal device 100 or the generation device 50 according to the above-described embodiment may be realized by, for example, a computer 1000 having a configuration as shown in FIG. FIG. 20 is a hardware configuration diagram showing an example of a computer that realizes the functions of the terminal device 100 or the generation device 50. The computer 1000 may include a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納することができる。 The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400, and controls each part. The ROM 1300 can store a boot program executed by the CPU 1100 when the computer 1000 is started, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納することができる。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信することができる。 The HDD 1400 can store a program executed by the CPU 1100, data used by such a program, and the like. The communication interface 1500 can receive data from another device via a predetermined communication network and send the data to the CPU 1100, and can transmit the data generated by the CPU 1100 to the other device via the predetermined communication network.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御することができる。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得することができる。また、CPU1100は、入出力インターフェイス1600を介して、生成したデータを出力装置へ出力することができる。 The CPU 1100 can control an output device such as a display or a printer and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 can acquire data from the input device via the input / output interface 1600. Further, the CPU 1100 can output the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供することができる。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行することができる。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等であってよい。 The media interface 1700 can read a program or data stored in the recording medium 1800 and provide the program or data to the CPU 1100 via the RAM 1200. The CPU 1100 can load such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700 and execute the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.

例えば、コンピュータ1000が実施形態に係る端末装置100または生成装置50として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部160または制御部53の機能を実現することができる。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the terminal device 100 or the generation device 50 according to the embodiment, the CPU 1100 of the computer 1000 executes the function of the control unit 160 or the control unit 53 by executing the program loaded on the RAM 1200. It can be realized. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via a predetermined communication network.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することができることが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible that the present invention can be practiced in other modified forms.

〔5.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[5. others〕
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or are described as being manually performed. It is also possible to automatically perform all or part of the processed processing by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically distributed in any unit according to various loads and usage conditions. Can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、推定部は、推定手段や推定回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the estimation unit can be read as an estimation means or an estimation circuit.

1 情報処理システム
50 生成装置
51 通信部
52 記憶部
53 制御部
531 取得部
532 生成部
533 配信部
100 端末装置
110 通信部
120 センサ部
130 記憶部
140 入力部
150 出力部
160 制御部
161 取得部
162 推定部
163 出力制御部
1 Information processing system 50 Generation device 51 Communication section 52 Storage section 53 Control section 531 Acquisition section 532 Generation section 533 Distribution section 100 Terminal device 110 Communication section 120 Sensor section 130 Storage section 140 Input section 150 Output section 160 Control section 161 Acquisition section 162 Estimator 163 Output control

Claims (16)

所定の環境に関する情報を取得可能なセンサから前記所定の環境に関する情報を取得する取得手順と、
前記所定の環境に関する情報に基づいて前記所定の環境における感染リスクを推定可能な機械学習モデルを用いて、端末装置の周辺環境における感染リスクを推定する推定手順と、
をコンピュータに実行させ、
前記取得手順は、
前記所定の環境に関する情報として、前記端末装置に搭載されたサーモグラフィーカメラによって所定時間間隔で撮影された前記端末装置の周辺環境における複数の温度分布画像を取得し、
前記推定手順は、
前記所定時間間隔で撮影された前記複数の温度分布画像それぞれにおける所定の温度以上の領域である高温領域の分布パターンの時間変化を示す情報に基づいて前記端末装置の周辺環境における感染リスクを推定可能な前記機械学習モデルを用いて、前記所定時間間隔で撮影された前記複数の温度分布画像それぞれにおける前記高温領域の分布パターンの時間変化を示す情報から、前記端末装置の周辺環境における感染リスクを推定する、
推定プログラム。
An acquisition procedure for acquiring information on a predetermined environment from a sensor capable of acquiring information on the predetermined environment, and an acquisition procedure.
An estimation procedure for estimating the infection risk in the surrounding environment of the terminal device using a machine learning model capable of estimating the infection risk in the predetermined environment based on the information on the predetermined environment, and an estimation procedure.
Let the computer run
The acquisition procedure is
As information on the predetermined environment, a plurality of temperature distribution images in the surrounding environment of the terminal device taken at predetermined time intervals by a thermography camera mounted on the terminal device are acquired.
The estimation procedure is
It is possible to estimate the infection risk in the surrounding environment of the terminal device based on the information showing the time change of the distribution pattern in the high temperature region, which is the region above the predetermined temperature in each of the plurality of temperature distribution images taken at the predetermined time interval. The risk of infection in the surrounding environment of the terminal device is estimated from the information showing the time change of the distribution pattern in the high temperature region in each of the plurality of temperature distribution images taken at the predetermined time interval by using the machine learning model. do,
Estimate program.
前記所定の環境に関する情報は、
前記端末装置の周辺環境における温度分布画像、所定時間間隔で取得された前記端末装置の周辺環境における温度分布画像、所定時間内に撮影された前記端末装置の周辺環境における人影の画像、前記端末装置の周辺環境における音情報、および前記端末装置の周辺環境における風速情報のうち少なくとも1つ、を含む、
請求項1に記載の推定プログラム。
Information about the given environment
A temperature distribution image in the surrounding environment of the terminal device, a temperature distribution image in the peripheral environment of the terminal device acquired at predetermined time intervals, an image of a human figure in the peripheral environment of the terminal device taken within a predetermined time, and the terminal device. Includes sound information in the surrounding environment of the terminal device and at least one of wind velocity information in the surrounding environment of the terminal device.
The estimation program according to claim 1.
前記推定手順による推定結果を前記端末装置に出力する出力制御手順、
をさらにコンピュータに実行させる、請求項1または2に記載の推定プログラム。
An output control procedure that outputs the estimation result by the estimation procedure to the terminal device,
The estimation program according to claim 1 or 2, further causing a computer to execute the program.
前記出力制御手順は、
前記推定手順によって推定された推定結果に基づく感染リスクを示す危険度マップを前記端末装置の画面に表示する手順である、
請求項3に記載の推定プログラム。
The output control procedure is
This is a procedure for displaying a risk map showing an infection risk based on the estimation result estimated by the estimation procedure on the screen of the terminal device.
The estimation program according to claim 3.
前記出力制御手順は、
前記推定手順によって推定された推定結果に基づいて、前記端末装置の利用者によって指定された出発地から目的地までの移動経路を前記端末装置の画面に表示する手順である、
請求項3または4に記載の推定プログラム。
The output control procedure is
Based on the estimation result estimated by the estimation procedure, the procedure is to display the movement route from the departure point to the destination specified by the user of the terminal device on the screen of the terminal device.
The estimation program according to claim 3 or 4.
所定の環境に関する情報を取得可能なセンサから前記所定の環境に関する情報を取得する取得部と、
前記所定の環境に関する情報に基づいて前記所定の環境における感染リスクを推定可能な機械学習モデルを用いて、端末装置の周辺環境における感染リスクを推定する推定部と、
を備え、
前記取得部は、
前記所定の環境に関する情報として、前記端末装置に搭載されたサーモグラフィーカメラによって所定時間間隔で撮影された前記端末装置の周辺環境における複数の温度分布画像を取得し、
前記推定部は、
前記所定時間間隔で撮影された前記複数の温度分布画像それぞれにおける所定の温度以上の領域である高温領域の分布パターンの時間変化を示す情報に基づいて前記端末装置の周辺環境における感染リスクを推定可能な前記機械学習モデルを用いて、前記所定時間間隔で撮影された前記複数の温度分布画像それぞれにおける前記高温領域の分布パターンの時間変化を示す情報から、前記端末装置の周辺環境における感染リスクを推定する、
推定装置。
An acquisition unit that acquires information on the predetermined environment from a sensor that can acquire information on the predetermined environment, and an acquisition unit.
An estimation unit that estimates the infection risk in the surrounding environment of the terminal device using a machine learning model that can estimate the infection risk in the predetermined environment based on the information about the predetermined environment.
Equipped with
The acquisition unit
As information on the predetermined environment, a plurality of temperature distribution images in the surrounding environment of the terminal device taken at predetermined time intervals by a thermography camera mounted on the terminal device are acquired.
The estimation unit is
It is possible to estimate the infection risk in the surrounding environment of the terminal device based on the information showing the time change of the distribution pattern in the high temperature region, which is the region above the predetermined temperature in each of the plurality of temperature distribution images taken at the predetermined time interval. The risk of infection in the surrounding environment of the terminal device is estimated from the information showing the time change of the distribution pattern in the high temperature region in each of the plurality of temperature distribution images taken at the predetermined time interval by using the machine learning model. do,
Estimator.
所定の環境に関する情報を取得可能なセンサから前記所定の環境に関する情報を取得する取得ステップと、
前記所定の環境に関する情報に基づいて前記所定の環境における感染リスクを推定可能な機械学習モデルを用いて、端末装置の周辺環境における感染リスクを推定する推定ステップと、
を含み、
前記取得ステップは、
前記所定の環境に関する情報として、前記端末装置に搭載されたサーモグラフィーカメラによって所定時間間隔で撮影された前記端末装置の周辺環境における複数の温度分布画像を取得し、
前記推定ステップは、
前記所定時間間隔で撮影された前記複数の温度分布画像それぞれにおける所定の温度以上の領域である高温領域の分布パターンの時間変化を示す情報に基づいて前記端末装置の周辺環境における感染リスクを推定可能な前記機械学習モデルを用いて、前記所定時間間隔で撮影された前記複数の温度分布画像それぞれにおける前記高温領域の分布パターンの時間変化を示す情報から、前記端末装置の周辺環境における感染リスクを推定する、
推定方法。
The acquisition step of acquiring the information on the predetermined environment from the sensor capable of acquiring the information on the predetermined environment, and the acquisition step.
Using a machine learning model that can estimate the infection risk in the predetermined environment based on the information about the predetermined environment, the estimation step for estimating the infection risk in the surrounding environment of the terminal device, and the estimation step.
Including
The acquisition step is
As information on the predetermined environment, a plurality of temperature distribution images in the surrounding environment of the terminal device taken at predetermined time intervals by a thermography camera mounted on the terminal device are acquired.
The estimation step is
It is possible to estimate the infection risk in the surrounding environment of the terminal device based on the information showing the time change of the distribution pattern in the high temperature region, which is the region above the predetermined temperature in each of the plurality of temperature distribution images taken at the predetermined time interval. The risk of infection in the surrounding environment of the terminal device is estimated from the information showing the time change of the distribution pattern in the high temperature region in each of the plurality of temperature distribution images taken at the predetermined time interval by using the machine learning model. do,
Estimating method.
所定の環境に関する情報を取得可能なセンサから前記所定の環境に関する情報を取得する取得手順と、
前記所定の環境に関する情報に基づいて端末装置の周辺環境における感染リスクを推定可能な機械学習モデルを生成する生成手順と、
をコンピュータに実行させ、
前記取得手順は、
前記所定の環境に関する情報として、前記端末装置に搭載されたサーモグラフィーカメラによって所定時間間隔で撮影された前記端末装置の周辺環境における複数の温度分布画像を取得し、
前記生成手順は、
前記所定時間間隔で撮影された前記複数の温度分布画像それぞれにおける所定の温度以上の領域である高温領域の分布パターンの時間変化を示す情報に基づいて前記端末装置の周辺環境における感染リスクを推定可能な前記機械学習モデルを生成する、
生成プログラム。
An acquisition procedure for acquiring information on a predetermined environment from a sensor capable of acquiring information on the predetermined environment, and an acquisition procedure.
A generation procedure for generating a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device based on the information on the predetermined environment, and a generation procedure.
Let the computer run
The acquisition procedure is
As information on the predetermined environment, a plurality of temperature distribution images in the surrounding environment of the terminal device taken at predetermined time intervals by a thermography camera mounted on the terminal device are acquired.
The generation procedure is
It is possible to estimate the infection risk in the surrounding environment of the terminal device based on the information showing the time change of the distribution pattern in the high temperature region, which is the region above the predetermined temperature in each of the plurality of temperature distribution images taken at the predetermined time interval. Generate the machine learning model,
Generation program.
前記取得手順は、
前記所定の環境に関する情報として、前記所定の環境に関するセンサ情報を取得可能なセンサによって取得された前記センサ情報を取得する手順であり、
前記生成手順は、
前記機械学習モデルに前記センサ情報が入力された場合に、感染リスクの高さに応じた2以上のクラスタのうち少なくともいずれか1つのクラスタに前記センサ情報が分類されるよう学習した前記機械学習モデルを生成する手順である、
請求項8に記載の生成プログラム。
The acquisition procedure is
As the information regarding the predetermined environment, it is a procedure for acquiring the sensor information acquired by a sensor capable of acquiring the sensor information regarding the predetermined environment.
The generation procedure is
When the sensor information is input to the machine learning model, the machine learning model learned so that the sensor information is classified into at least one of two or more clusters according to the high risk of infection. Is the procedure to generate
The generation program according to claim 8.
前記生成手順は、
前記機械学習モデルの入力情報として前記センサ情報が入力された場合に、前記機械学習モデルの出力情報として、前記センサ情報が分類されるクラスタに対応する感染リスクを示すラベルを出力するよう学習した前記機械学習モデルを生成する手順である、
請求項9に記載の生成プログラム。
The generation procedure is
When the sensor information is input as the input information of the machine learning model, the machine learning model is learned to output a label indicating the infection risk corresponding to the cluster in which the sensor information is classified as the output information of the machine learning model. The procedure for generating a machine learning model,
The generation program according to claim 9.
前記取得手順は、
前記端末装置の周辺環境における温度分布画像である前記センサ情報を取得する手順であり、
前記生成手順は、
前記温度分布画像の温度分布のパターンに基づいて、前記端末装置の周辺環境における感染リスクを推定可能な機械学習モデルを生成する手順である、
請求項9に記載の生成プログラム。
The acquisition procedure is
This is a procedure for acquiring the sensor information which is a temperature distribution image in the surrounding environment of the terminal device.
The generation procedure is
This is a procedure for generating a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device based on the temperature distribution pattern of the temperature distribution image.
The generation program according to claim 9.
前記取得手順は、
所定時間内に撮影された前記端末装置の周辺環境における人影の画像である前記センサ情報を取得する手順であり、
前記生成手順は、
前記画像に含まれる人影の時間変化のパターンに基づいて、前記端末装置の周辺環境における感染リスクを推定可能な機械学習モデルを生成する手順である、
請求項9~11のいずれか1つに記載の生成プログラム。
The acquisition procedure is
It is a procedure for acquiring the sensor information which is an image of a human figure in the surrounding environment of the terminal device taken within a predetermined time.
The generation procedure is
It is a procedure for generating a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device based on the time-varying pattern of the human figure included in the image.
The generation program according to any one of claims 9 to 11.
前記取得手順は、
所定時間内に取得された前記端末装置の周辺環境における音情報である前記センサ情報を取得する手順であり、
前記生成手順は、
前記音情報の時間変化のパターンに基づいて、前記端末装置の周辺環境における感染リスクを推定可能な機械学習モデルを生成する手順である、
請求項9~12のいずれか1つに記載の生成プログラム。
The acquisition procedure is
It is a procedure for acquiring the sensor information which is the sound information in the surrounding environment of the terminal device acquired within a predetermined time.
The generation procedure is
This is a procedure for generating a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device based on the pattern of time change of the sound information.
The generation program according to any one of claims 9 to 12.
前記取得手順は、
所定時間内に取得された前記端末装置の周辺環境における風速情報である前記センサ情報を取得する手順であり、
前記生成手順は、
前記風速情報の時間変化のパターンに基づいて、前記端末装置の周辺環境における感染リスクを推定可能な機械学習モデルを生成する手順である、
請求項9~13のいずれか1つに記載の生成プログラム。
The acquisition procedure is
It is a procedure for acquiring the sensor information which is the wind speed information in the surrounding environment of the terminal device acquired within a predetermined time.
The generation procedure is
It is a procedure for generating a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device based on the pattern of the time change of the wind speed information.
The generation program according to any one of claims 9 to 13.
所定の環境に関する情報を取得可能なセンサから前記所定の環境に関する情報を取得する取得部と、
前記所定の環境に関する情報に基づいて端末装置の周辺環境における感染リスクを推定可能な機械学習モデルを生成する生成部と、
を備え、
前記取得部は、
前記所定の環境に関する情報として、前記端末装置に搭載されたサーモグラフィーカメラによって所定時間間隔で撮影された前記端末装置の周辺環境における複数の温度分布画像を取得し、
前記生成部は、
前記所定時間間隔で撮影された前記複数の温度分布画像それぞれにおける所定の温度以上の領域である高温領域の分布パターンの時間変化を示す情報に基づいて前記端末装置の周辺環境における感染リスクを推定可能な前記機械学習モデルを生成する、
生成装置。
An acquisition unit that acquires information on the predetermined environment from a sensor that can acquire information on the predetermined environment, and an acquisition unit.
A generator that generates a machine learning model that can estimate the risk of infection in the surrounding environment of the terminal device based on the information about the predetermined environment.
Equipped with
The acquisition unit
As information on the predetermined environment, a plurality of temperature distribution images in the surrounding environment of the terminal device taken at predetermined time intervals by a thermography camera mounted on the terminal device are acquired.
The generator is
It is possible to estimate the infection risk in the surrounding environment of the terminal device based on the information showing the time change of the distribution pattern in the high temperature region, which is the region above the predetermined temperature in each of the plurality of temperature distribution images taken at the predetermined time interval. Generate the machine learning model,
Generator.
所定の環境に関する情報を取得可能なセンサから前記所定の環境に関する情報を取得する取得ステップと、
前記所定の環境に関する情報に基づいて端末装置の周辺環境における感染リスクを推定可能な機械学習モデルを生成する生成ステップと、
を含み、
前記取得ステップは、
前記所定の環境に関する情報として、前記端末装置に搭載されたサーモグラフィーカメラによって所定時間間隔で撮影された前記端末装置の周辺環境における複数の温度分布画像を取得し、
前記生成ステップは、
前記所定時間間隔で撮影された前記複数の温度分布画像それぞれにおける所定の温度以上の領域である高温領域の分布パターンの時間変化を示す情報に基づいて前記端末装置の周辺環境における感染リスクを推定可能な前記機械学習モデルを生成する、
生成方法。
The acquisition step of acquiring the information on the predetermined environment from the sensor capable of acquiring the information on the predetermined environment, and the acquisition step.
A generation step to generate a machine learning model capable of estimating the infection risk in the surrounding environment of the terminal device based on the information about the predetermined environment, and
Including
The acquisition step is
As information on the predetermined environment, a plurality of temperature distribution images in the surrounding environment of the terminal device taken at predetermined time intervals by a thermography camera mounted on the terminal device are acquired.
The generation step is
It is possible to estimate the infection risk in the surrounding environment of the terminal device based on the information showing the time change of the distribution pattern in the high temperature region, which is the region above the predetermined temperature in each of the plurality of temperature distribution images taken at the predetermined time interval. Generate the machine learning model,
Generation method.
JP2020117873A 2020-07-08 2020-07-08 Estimator program, estimator, estimation method, generation program, generation device and generation method Active JP7084962B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020117873A JP7084962B2 (en) 2020-07-08 2020-07-08 Estimator program, estimator, estimation method, generation program, generation device and generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020117873A JP7084962B2 (en) 2020-07-08 2020-07-08 Estimator program, estimator, estimation method, generation program, generation device and generation method

Publications (2)

Publication Number Publication Date
JP2022015191A JP2022015191A (en) 2022-01-21
JP7084962B2 true JP7084962B2 (en) 2022-06-15

Family

ID=80120590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020117873A Active JP7084962B2 (en) 2020-07-08 2020-07-08 Estimator program, estimator, estimation method, generation program, generation device and generation method

Country Status (1)

Country Link
JP (1) JP7084962B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7422177B2 (en) 2022-03-31 2024-01-25 本田技研工業株式会社 Traffic safety support system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092330A (en) 2016-12-01 2018-06-14 富士通株式会社 Risk evaluation device and risk assessment method and risk assessment program
JP2020027610A (en) 2018-08-08 2020-02-20 パナソニックIpマネジメント株式会社 Information providing method, server, voice recognition device, information providing program, and information providing system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092330A (en) 2016-12-01 2018-06-14 富士通株式会社 Risk evaluation device and risk assessment method and risk assessment program
JP2020027610A (en) 2018-08-08 2020-02-20 パナソニックIpマネジメント株式会社 Information providing method, server, voice recognition device, information providing program, and information providing system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
S. H. Lee, Y. Nah andL. Choi,Influenza surveillance and forecast with smartphonesensors,16th IEEE International Symposium onObject/component/service-oriented Real-time distributed Computing (ISORC 2013),2013年,pp.1-8
小島 颯平,スマートフォンカメラを用いた群衆人数推定システム,マルチメディアと分散処理ワークショップ,情報処理学会,2015年10月,pp.211-215
西村 友洋,スマートフォンを活用した屋内環境における混雑センシング,情報処理学会論文誌,2014年12月,Vo.55 No.12,pp.2511-2523

Also Published As

Publication number Publication date
JP2022015191A (en) 2022-01-21

Similar Documents

Publication Publication Date Title
Deep et al. A survey on anomalous behavior detection for elderly care using dense-sensing networks
US11747898B2 (en) Method and apparatus with gaze estimation
US8295545B2 (en) System and method for model based people counting
Chen et al. A fall detection system based on infrared array sensors with tracking capability for the elderly at home
JP5527423B2 (en) Image processing system, image processing method, and storage medium storing image processing program
JPWO2018051944A1 (en) People flow estimation device, people flow estimation method and program
WO2016088413A1 (en) Information processing device, information processing method, and program
TWI307061B (en) Image monitoring method and system for event detection
JP2014095967A (en) Information processing apparatus, information processing method and program
CN112149615A (en) Face living body detection method, device, medium and electronic equipment
JP7084962B2 (en) Estimator program, estimator, estimation method, generation program, generation device and generation method
US11216704B2 (en) Recognition system using multimodality dataset
WO2020222157A1 (en) Method and system for tracking, analyzing and reacting to user behaviour in digital and physical spaces
JP2009289210A (en) Device and method for recognizing important object and program thereof
Siriwardhana et al. Classification of activities of daily living based on depth sequences and audio
JP6891732B2 (en) Information processing equipment, information processing methods, and programs
WO2018080536A1 (en) Venue monitoring through sentiment analysis
WO2018211602A1 (en) Learning apparatus, estimating apparatus, learning method, and program
JP2017196194A (en) Sleep state analysis support device and sleep state analysis support program
JP6658402B2 (en) Frame rate determination device, frame rate determination method, and computer program for frame rate determination
EP4096209A1 (en) Information processing device, information processing method, and information processing program
WO2024004210A1 (en) Information processing program, information processing method, and information processing device
CN111062337B (en) People stream direction detection method and device, storage medium and electronic equipment
JP2019046385A (en) Status inference system and status inference method
WO2022097277A1 (en) Server device, method for controlling server device, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220603

R150 Certificate of patent or registration of utility model

Ref document number: 7084962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150