JP2021103420A - Guiding system, server, program, and service providing method - Google Patents

Guiding system, server, program, and service providing method Download PDF

Info

Publication number
JP2021103420A
JP2021103420A JP2019234246A JP2019234246A JP2021103420A JP 2021103420 A JP2021103420 A JP 2021103420A JP 2019234246 A JP2019234246 A JP 2019234246A JP 2019234246 A JP2019234246 A JP 2019234246A JP 2021103420 A JP2021103420 A JP 2021103420A
Authority
JP
Japan
Prior art keywords
person
information
sensor data
recommendation information
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019234246A
Other languages
Japanese (ja)
Other versions
JP7433894B2 (en
Inventor
有之 岸本
Ariyuki Kishimoto
有之 岸本
強一 櫻井
Kyoichi Sakurai
強一 櫻井
峯邑 隆司
Takashi Minemura
隆司 峯邑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019234246A priority Critical patent/JP7433894B2/en
Publication of JP2021103420A publication Critical patent/JP2021103420A/en
Application granted granted Critical
Publication of JP7433894B2 publication Critical patent/JP7433894B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a guiding system, a server, a program, and a service providing method capable of guiding a staying person by urging the person to move.SOLUTION: A guiding system includes image sensors 3(3-0 to 3-n) for sensing a person, and a cloud server 200 communicative with the image sensors 3(3-0 to 3-n). The image sensors 3(3-0 to 3-n) include an analysis unit. The analysis unit generates sensor data containing positions of persons and staying time by analyzing data obtained by imaging a prescribed area with an imaging element. The server 200 includes an acquisition unit and a recommendation information generation unit. The acquisition unit acquires sensor data from the image sensors 3(3-0 to 3-n). The recommendation information generation unit generates recommendation information for urging a person to move on the basis of the positions of persons and staying time contained in the acquired sensor data.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、誘導システム、サーバ、プログラムおよびサービス提供方法に関する。 Embodiments of the present invention relate to guidance systems, servers, programs and service provision methods.

近年の人感センサは、CPU(Central Processing Unit)やメモリを備え、いわばレンズ付きの組み込みコンピュータといえる。高度な処理機能も有しており、例えば、画像センサは撮影した画像データを分析して、例えば人間の在・不在、あるいは人数などを計算することができる。 In recent years, motion sensors are equipped with a CPU (Central Processing Unit) and memory, and can be said to be an embedded computer with a lens. It also has advanced processing functions, for example, an image sensor can analyze captured image data and calculate, for example, the presence / absence of humans or the number of people.

特許第6151085号明細書Japanese Patent No. 6151085

ところで、駅構内やショッピングモール、フードコート等において、人が一定の場所に座って又は立って長時間留まることで、他の人の移動や同じ場所に暫く留まりたい場合の障害となるケースがあり、長時間留まる人をいかにスマートに移動させるかが課題であった。 By the way, in a station yard, a shopping mall, a food court, etc., if a person sits or stands in a certain place and stays for a long time, it may become an obstacle when another person moves or wants to stay in the same place for a while. The challenge was how to move people who stay for a long time smartly.

そこで、目的は、滞留する人に移動を促す誘導システム、サーバ、プログラムおよびサービス提供方法を提供することにある。 Therefore, the purpose is to provide a guidance system, a server, a program, and a service providing method for encouraging the staying person to move.

実施形態によれば、誘導システムは、人を検知する人感センサと、この人感センサと通信可能なサーバとを具備する。人感センサは、解析部を備える。解析部は、所定エリアを撮像素子で撮像して得られたデータを解析して、人の位置と滞在時間を含むセンサデータを生成する。サーバは、取得部と、レコメンド情報生成部を備える。取得部は、センサデータを人感センサから取得する。レコメンド情報生成部は、取得されたセンサデータに含まれる人の位置と滞在時間に基づいて、人の移動を促すレコメンド情報を生成する。 According to the embodiment, the guidance system includes a motion sensor that detects a person and a server that can communicate with the motion sensor. The motion sensor includes an analysis unit. The analysis unit analyzes the data obtained by imaging a predetermined area with an image sensor, and generates sensor data including the position of a person and the staying time. The server includes an acquisition unit and a recommendation information generation unit. The acquisition unit acquires sensor data from the motion sensor. The recommendation information generation unit generates recommendation information that encourages the movement of a person based on the position and staying time of the person included in the acquired sensor data.

図1は、実施形態に係る誘導システムの一例を示す図である。FIG. 1 is a diagram showing an example of a guidance system according to an embodiment. 図2は、画像センサ3の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the image sensor 3. 図3は、画像センサ3で得られた画像データの一例を示す図である。FIG. 3 is a diagram showing an example of image data obtained by the image sensor 3. 図4は、画像センサ3のセンシング項目の一例を示す図である。FIG. 4 is a diagram showing an example of sensing items of the image sensor 3. 図5は、クラウドサーバ200の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of the cloud server 200. 図6は、混雑情報の一例を示す図である。FIG. 6 is a diagram showing an example of congestion information. 図7は、店舗情報の一例を示す図である。FIG. 7 is a diagram showing an example of store information. 図8は、天候情報の一例を示す図である。FIG. 8 is a diagram showing an example of weather information. 図9は、ICカードデータベース240fにより管理される情報の一例を示す図である。FIG. 9 is a diagram showing an example of information managed by the IC card database 240f. 図10は、タブレット20の一例を示す機能ブロック図である。FIG. 10 is a functional block diagram showing an example of the tablet 20. 図11は、クラウドサーバ200が画像センサ3からセンサデータを取得する手順を示すシーケンス図である。FIG. 11 is a sequence diagram showing a procedure in which the cloud server 200 acquires sensor data from the image sensor 3. 図12は、クラウドサーバ200による入店者登録に係わる処理手順の一例を示すフローチャートである。FIG. 12 is a flowchart showing an example of a processing procedure related to store visitor registration by the cloud server 200. 図13は、クラウドサーバ200の処理手順の一例を示すフローチャートである。FIG. 13 is a flowchart showing an example of the processing procedure of the cloud server 200. 図14は、レコメンド情報の一例を示す模式図である。FIG. 14 is a schematic diagram showing an example of recommendation information. 図15は、レコメンド情報の一例を示す模式図である。FIG. 15 is a schematic diagram showing an example of recommendation information. 図16は、退席促しに係わる処理手順の一例を示すフローチャートである。FIG. 16 is a flowchart showing an example of a processing procedure related to prompting to leave. 図17は、クラウドサーバ200による入店者登録に係わる処理手順の他の例を示すフローチャートである。FIG. 17 is a flowchart showing another example of the processing procedure related to the store visitor registration by the cloud server 200. 図18は、クラウドサーバ200の処理手順の他の例を示すフローチャートである。FIG. 18 is a flowchart showing another example of the processing procedure of the cloud server 200.

人感センサである画像センサは、センサあるいは赤外線センサ等に比べて多様な情報を取得することができる。魚眼レンズや超広角レンズなどを用いれば、1台の画像センサで撮影可能な領域を拡大できるし、画像の歪みは計算で補正することができる。視野内のセンシングしたくない領域をマスク設定する機能や、学習機能を備えた画像センサも知られている。実施形態に係わる画像センサは、視野内に捕えた映像を撮影して取得した画像データを処理して、例えば人間情報や環境情報を得ることができる。 An image sensor, which is a motion sensor, can acquire a variety of information as compared with a sensor, an infrared sensor, or the like. If a fisheye lens, an ultra-wide-angle lens, or the like is used, the area that can be photographed by one image sensor can be enlarged, and the distortion of the image can be corrected by calculation. An image sensor having a function of setting a mask for an area in the field of view that is not desired to be sensed and a learning function is also known. The image sensor according to the embodiment can obtain, for example, human information or environmental information by taking an image captured in the field of view and processing the acquired image data.

人間情報は対象空間における人間に関する情報であり、その一例として、人の存在または不在(在/不在)、人数、人の行動、人の活動量などを挙げることができる。人物に付随する物体(物品)、つまり荷物の有無も人間情報の一例である。環境情報は、制御対象の空間(対象空間)の環境に関する情報であり、その一例として店舗の照度分布、あるいは温度分布などを挙げることができる。 Human information is information about humans in the target space, and examples thereof include the existence or absence (presence / absence) of a person, the number of people, the behavior of a person, and the amount of activity of a person. An object (article) attached to a person, that is, the presence or absence of luggage is also an example of human information. The environmental information is information about the environment of the space to be controlled (target space), and examples thereof include a store illuminance distribution and a temperature distribution.

人間情報および環境情報は、対象空間ごとに算出することができる。あるいは、対象空間を複数に分割した小領域(エリア)毎に、人間情報や環境情報を算出することもできる。この実施形態では、特に、店舗における人間の在/不在、着席/空席に着目する。 Human information and environmental information can be calculated for each target space. Alternatively, human information and environmental information can be calculated for each small area (area) in which the target space is divided into a plurality of areas. In this embodiment, attention is paid particularly to the presence / absence of human beings and the seated / vacant seats in the store.

図1は、実施形態に係る誘導システムの一例を示す図である。図1において、複数の画像センサ3(3−0〜3−n)が、店舗Tの店内の例えば天井に、店内を見下ろすかたちで配設される。画像センサ3は、来客エリアに配設された複数のテーブルや席(椅子)を視野内に捉える。画像センサ3は、視野に捕えたものを撮像して画像データを生成する。 FIG. 1 is a diagram showing an example of a guidance system according to an embodiment. In FIG. 1, a plurality of image sensors 3 (3-0 to 3-n) are arranged on the ceiling of the store T, for example, in a form overlooking the inside of the store. The image sensor 3 captures a plurality of tables and seats (chairs) arranged in the visitor area in the field of view. The image sensor 3 captures an image captured in the field of view and generates image data.

特に、画像センサ3−0は、店舗Tの入り口や入場ゲート付近に設置され、来店者を正面方向から撮像して、顔画像データ、あるいは全身像データを取得する。 In particular, the image sensor 3-0 is installed near the entrance of the store T or the entrance gate, and images the visitor from the front direction to acquire face image data or whole body image data.

各画像センサ3は、例えば管理室に配置されたゲートウェイ(GW)7に、信号線100を介して接続される。信号線100のプロトコルには、EtherCAT(登録商標)やBACnet(登録商標)、TCP/IP(Transmission Control Protocol / Internet Protocol)、UDP/IPなどを適用できる。 Each image sensor 3 is connected to, for example, a gateway (GW) 7 arranged in a control room via a signal line 100. EtherCAT (registered trademark), BACnet (registered trademark), TCP / IP (Transmission Control Protocol / Internet Protocol), UDP / IP, and the like can be applied to the protocol of the signal line 100.

ゲートウェイ7は、店舗内ネットワーク500に接続される。店舗内ネットワーク500の通信プロトコルには、Building Automation and Control Networking protocol(BACnet(登録商標))、DALI、ZigBee(登録商標)、ECHONET Lite(登録商標)等を適用することが可能である。 The gateway 7 is connected to the in-store network 500. Building Automation and Control Networking protocol (BACnet (registered trademark)), DALI, ZigBee (registered trademark), ECHONET Lite (registered trademark), and the like can be applied to the communication protocol of the in-store network 500.

店舗内ネットワーク500には、管理サーバ400、店舗サーバ5、およびファイヤウォール6が接続される。ファイヤウォール6は、例えばインターネット上に形成された専用線ネットワーク300を介してクラウド600のクラウドサーバ200に接続される。 The management server 400, the store server 5, and the firewall 6 are connected to the in-store network 500. The firewall 6 is connected to the cloud server 200 of the cloud 600 via, for example, a dedicated line network 300 formed on the Internet.

上記構成により、誘導システムは、クラウド600のクラウドサーバ200や、データセンタ700のデータベース700a等に安全にアクセスして、様々なリソースを利用することができる。以下に、画像センサ3とクラウドサーバ200との連携により提供されるサービスについて説明する。 With the above configuration, the guidance system can safely access the cloud server 200 of the cloud 600, the database 700a of the data center 700, and the like, and use various resources. The service provided by the cooperation between the image sensor 3 and the cloud server 200 will be described below.

実施形態に係わる誘導システムは、インターネット等を経由してアクセス可能な各種のシステムや、データベースとも連携し、各種の情報源から得たデータを利用することも可能である。情報源には、例えば、店舗ごとの予約システムや注文システム、気象データや天候情報を配信する気象データサーバ、通信事業者のサーバ等を挙げることができる。 The guidance system according to the embodiment can also be linked with various systems accessible via the Internet or the like and a database, and can use data obtained from various information sources. Examples of the information source include a reservation system and an ordering system for each store, a weather data server that distributes weather data and weather information, and a server of a telecommunications carrier.

図2は、画像センサ3の一例を示すブロック図である。画像センサ3は、カメラ部31、記憶部32、プロセッサ33、および通信部34を備える。これらは内部バス35を介して互いに接続される。 FIG. 2 is a block diagram showing an example of the image sensor 3. The image sensor 3 includes a camera unit 31, a storage unit 32, a processor 33, and a communication unit 34. These are connected to each other via an internal bus 35.

カメラ部31は、魚眼レンズ31a、絞り機構31b、撮像素子(イメージセンサ)31cおよびレジスタ30を備える。魚眼レンズ31aは、視野内の映像を撮像素子31cに結像する。実施形態では、魚眼レンズ31aは、店舗の来客エリアを視野に捉えていて、来客エリアの映像を撮像素子31cに結像する。なお、来客エリアは複数の領域に分割されるのが普通で、個々の領域を一つの画像センサで撮像し、複数の画像センサで得られた画像データを統合して来客エリアの全領域をカバーするようにしても良い。 The camera unit 31 includes a fisheye lens 31a, an aperture mechanism 31b, an image sensor (image sensor) 31c, and a register 30. The fisheye lens 31a forms an image in the field of view on the image sensor 31c. In the embodiment, the fisheye lens 31a captures the visitor area of the store as a field of view, and forms an image of the visitor area on the image sensor 31c. The visitor area is usually divided into a plurality of areas, and each area is imaged by one image sensor, and the image data obtained by the plurality of image sensors is integrated to cover the entire area of the visitor area. You may try to do it.

撮像素子31cは、CMOS(相補型金属酸化膜半導体)に代表されるイメージセンサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。この映像信号はディジタル符号化され、来客エリアを撮像素子31cで撮像して得られた画像データが生成される。画像データは人の顔画像データを含んでよい。撮像素子31cへの入射光量は絞り機構31bにより調節される。 The image sensor 31c is an image sensor typified by CMOS (complementary metal oxide semiconductor), and generates a video signal having a frame rate of, for example, 30 frames per second. This video signal is digitally coded, and image data obtained by imaging the visitor area with the image sensor 31c is generated. The image data may include human face image data. The amount of light incident on the image sensor 31c is adjusted by the aperture mechanism 31b.

レジスタ30は、カメラ情報30aを記憶する。カメラ情報30aは、例えばオートゲインコントロール機能の状態、ゲインの値、露光時間などの、カメラ部31に関する情報、あるいは画像センサ3それ自体に関する情報である。 The register 30 stores the camera information 30a. The camera information 30a is information about the camera unit 31, such as the state of the auto gain control function, the gain value, and the exposure time, or information about the image sensor 3 itself.

記憶部32は、SDRAM(Synchronous Dynamic RAM)やEPROM(Erasable Programmable ROM)などの半導体メモリである。記憶部32は、カメラ部31により取得された顔画像データを含む画像データ32a、および、実施形態に係わる各種の機能をプロセッサ33に実行させるためのプログラム32b、画像センサを一意に区別するためのセンサID(IDentification)32c、および、辞書データ32dを記憶する。 The storage unit 32 is a semiconductor memory such as an SDRAM (Synchronous Dynamic RAM) or an EPROM (Erasable Programmable ROM). The storage unit 32 uniquely distinguishes the image data 32a including the face image data acquired by the camera unit 31, the program 32b for causing the processor 33 to execute various functions related to the embodiment, and the image sensor. The sensor ID (IDentification) 32c and the dictionary data 32d are stored.

辞書データ32dは、画像センサ3における検出項目(人、物、男性、女性など)に応じて用意される、いわばテンプレートデータに類するデータである。例えば『椅子』の検出向けに用意された辞書データ32dを用いてテンプレートマッチング処理を行うことで、画像データから椅子が検出される。その精度や椅子のタイプ(オフィスチェア、ソファー、座椅子など)や色を区別可能とするために、多様な辞書データ32dが予め用意される。このほか、車椅子、ベビーカー、子供、カート、白杖利用者、徘徊老人、不審人物、迷子、逃げ遅れた人物、等を検出するための辞書データを作成することができる。作成方法の一例としては、例えばサポートベクトルマシンやボルツマンマシンなどの、機械学習(Machine-Learning)の枠組みを利用することができる。 The dictionary data 32d is data similar to template data prepared according to detection items (people, objects, men, women, etc.) in the image sensor 3. For example, the chair is detected from the image data by performing the template matching process using the dictionary data 32d prepared for the detection of the "chair". Various dictionary data 32d are prepared in advance in order to make it possible to distinguish the accuracy, the type of chair (office chair, sofa, sitting chair, etc.) and the color. In addition, dictionary data for detecting wheelchairs, strollers, children, carts, white cane users, wandering elderly people, suspicious persons, lost children, persons who have been late to escape, etc. can be created. As an example of the creation method, a machine learning framework such as a support vector machine or a Boltzmann machine can be used.

プロセッサ33は、記憶部32に記憶されたプログラムをロードし、実行することで、実施形態において説明する各種の機能を実現する。プロセッサ33は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。FPGA(Field Programmable Gate Array)等でプロセッサ15を構成することもできる。MPU(Micro Processing Unit)もプロセッサの一つである。
通信部34は、信号線100に接続可能で、ゲートウェイ7、管理サーバ400、店舗サーバ5、およびクラウド600とのデータの授受を仲介する。
The processor 33 realizes various functions described in the embodiment by loading and executing the program stored in the storage unit 32. The processor 33 is, for example, an LSI (Large Scale Integration) including a multi-core CPU (Central Processing Unit) and tuned for executing image processing at high speed. The processor 15 can also be configured by FPGA (Field Programmable Gate Array) or the like. MPU (Micro Processing Unit) is also one of the processors.
The communication unit 34 can connect to the signal line 100 and mediates the exchange of data with the gateway 7, the management server 400, the store server 5, and the cloud 600.

ところで、プロセッサ33は、実施形態に係る処理機能として、検出部33a、特徴量計算部33b、解析部33c、および学習部33dを備える。検出部33a、特徴量計算部33b、解析部33c、および学習部33dは、例えば、プロセッサ33のレジスタにロードされたプログラム32bに従い、プロセッサ33が演算処理を実行する過程で生成される、プロセスである。 By the way, the processor 33 includes a detection unit 33a, a feature amount calculation unit 33b, an analysis unit 33c, and a learning unit 33d as processing functions according to the embodiment. The detection unit 33a, the feature amount calculation unit 33b, the analysis unit 33c, and the learning unit 33d are, for example, generated in a process in which the processor 33 executes arithmetic processing according to the program 32b loaded in the register of the processor 33. is there.

検出部33aは、辞書データ32dを用いて視野内の対象を検出する。すなわち検出部33aは、検出項目ごとに用意される辞書データセットを使用して、画像データ32aから対象空間における対象を検出する。 The detection unit 33a detects an object in the visual field using the dictionary data 32d. That is, the detection unit 33a detects an object in the target space from the image data 32a by using the dictionary data set prepared for each detection item.

特徴量計算部33bは、記憶部32に記憶された画像データ32aを所定のアルゴリズムで処理して、視野内の人や物体に係わる特徴量を抽出する。例えば、画像データの各フレームの輝度の変化をピクセルごとにトレースし、その時系列を分析することで動き特徴量を計算することができる。輝度勾配方向ヒストグラム(histograms of oriented gradients:HOG)特徴量、コントラスト、解像度、S/N比、および色調などの特徴量が知られている。また、輝度勾配方向共起ヒストグラム(Co-occurrence HOG:Co−HOG)特徴量、Haar-Like特徴量なども特徴量として知られている。 The feature amount calculation unit 33b processes the image data 32a stored in the storage unit 32 by a predetermined algorithm to extract the feature amount related to a person or an object in the visual field. For example, it is possible to calculate the motion feature amount by tracing the change in the brightness of each frame of the image data pixel by pixel and analyzing the time series. Histograms of oriented gradients (HOG) Features such as features, contrast, resolution, signal-to-noise ratio, and color tone are known. Further, a co-occurrence histogram (Co-occurrence HOG: Co-HOG) feature quantity, a Haar-Like feature quantity, and the like are also known as feature quantities.

解析部33cは、画像データ32aを解析して、着席者の位置、属性情報および滞在時間を含むセンサデータを生成する。すなわち解析部33cは、例えば特徴量計算部33bで得られた特徴量に基づき、人間情報(人の位置、人の在/不在、人数、人の行動、人の活動量、荷物の有無など)や環境情報(照度分布、温度分布等)を計算する。実施形態では、センシング項目として[人セル位置]、[在不在]、[滞在時間]、および[歩行滞留]を想定する。解析部33cは、さらに、男性、女性、若年、中年、老年などの、より詳しい属性情報をセンシングすることも可能である。 The analysis unit 33c analyzes the image data 32a and generates sensor data including the position of the seated person, the attribute information, and the staying time. That is, the analysis unit 33c has human information (position of person, presence / absence of person, number of people, behavior of person, amount of activity of person, presence / absence of luggage, etc.) based on the feature amount obtained by, for example, the feature amount calculation unit 33b. And environmental information (illuminance distribution, temperature distribution, etc.) are calculated. In the embodiment, [human cell position], [absence], [stay time], and [walking retention] are assumed as sensing items. The analysis unit 33c can further sense more detailed attribute information such as male, female, young, middle-aged, and old.

また、解析部33cは、人間情報、環境情報、特徴量などを参照し、例えばルールベースによる認識、あるいは機械学習による認識により、店舗における人および物品に関する情報を取得する。例えば、動き特徴量を用いたパターン認識技術により、人の行動(利用客の注文行動、店員の片付け行動など)を検知することができる。 In addition, the analysis unit 33c refers to human information, environmental information, feature quantities, and the like, and acquires information on people and goods in the store, for example, by rule-based recognition or machine learning recognition. For example, it is possible to detect a person's behavior (customer's ordering behavior, clerk's tidying up behavior, etc.) by a pattern recognition technology using a motion feature amount.

学習部33dは、画像データ32a、および特徴量計算部33bの出力に基づいて、解析部33cによる解析結果の正答率を向上させるべく、学習を行う。 The learning unit 33d performs learning based on the output of the image data 32a and the feature amount calculation unit 33b in order to improve the correct answer rate of the analysis result by the analysis unit 33c.

図3は、画像センサ3で得られた画像データの一例を示す図である。この画像データのフレームは、(x)軸および(y)軸方向にそれぞれ7分割され、7×7=49個のセルに分割される。中央の画像センサ3の視野には4個のテーブルと、テーブルごとに4つの席が捉えられている。画像センサ3は、(x、y)=(2,2)、(2,6)、(6,6)、(1,4)のセルに人を検出し、人セル位置として図4に示されるセンサデータを得る。 FIG. 3 is a diagram showing an example of image data obtained by the image sensor 3. The frame of this image data is divided into 7 cells in the (x) axis direction and the (y) axis direction, respectively, and is divided into 7 × 7 = 49 cells. Four tables and four seats are captured in the field of view of the central image sensor 3. The image sensor 3 detects a person in the cells (x, y) = (2,2), (2,6), (6,6), (1,4), and is shown in FIG. 4 as the person cell position. Obtain sensor data.

図4に示されるように、図3の環境に対応して、セル(2,2)、(2,6)、(6,6)には在フラグ1が立つ。セル(1,4)については在フラグが0であり、(移動中)を検知されたことが示される。これらをまとめて、[在不在]=(1,1,1,0)のセンサデータが得られる。人を検知された各セルにつき、[滞在(在席)時間]項目として、例えば(30,30,40,00)が検知される。単位は(分)である。[歩行滞留]として、各セルに(0,0,0,1)が検知される。 As shown in FIG. 4, the presence flag 1 is set in the cells (2, 2), (2, 6), and (6, 6) according to the environment of FIG. The presence flag is 0 for cells (1 and 4), indicating that (moving) has been detected. Collectively, sensor data of [absence] = (1,1,1,0) can be obtained. For each cell in which a person is detected, for example, (30, 30, 40, 00) is detected as a [stay (attendance) time] item. The unit is (minutes). (0, 0, 0, 1) is detected in each cell as [walking retention].

さらに、各セル位置(x、y)=(2,2)、(2,6)、(6,6)、(1,4)の人の属性が、例えば男,女,女,男として特定され、それぞれを区別するための識別情報(人ID)が、例えば001,002,003,004として付与される。 Further, the attributes of the person at each cell position (x, y) = (2,2), (2,6), (6,6), (1,4) are specified as, for example, a man, a woman, a woman, and a man. Then, identification information (person ID) for distinguishing each is given as, for example, 001,002,003,004.

さらに詳しく説明する。解析部33cにより計算されるセンサデータには、(1)人の有無、(2)人数、(3)人の活動量、(4)照度、(5)歩行者の滞留状況(歩行滞留)、等が挙げられる。 This will be described in more detail. The sensor data calculated by the analysis unit 33c includes (1) presence / absence of people, (2) number of people, (3) amount of activity of people, (4) illuminance, (5) pedestrian retention status (walking retention), and And so on.

(1)人の有無(人の在又は不在)の検知
例えば、解析部33cは、画像間の差分に基づいて画像内の人物領域を識別することにより人の有無を検知してもよい。あるいは、人物認識技術を応用して人の有無を検知することもできる。画像間の差分には、背景画像との差分や、時間的に連続する画像間の差分(フレーム間差分)などが用いられてもよい。
(1) Detection of presence / absence of a person (presence / absence of a person) For example, the analysis unit 33c may detect the presence / absence of a person by identifying a person area in the image based on the difference between the images. Alternatively, the presence or absence of a person can be detected by applying the person recognition technology. As the difference between the images, a difference from the background image, a difference between temporally continuous images (difference between frames), and the like may be used.

(2)人数の推定
例えば、解析部33cは、(1)と同様の方法で画像内の人物領域を識別し、識別された人物領域の画像データを画像処理して、対象空間に存在する人の人数を推定してもよい。
(2) Estimating the number of people For example, the analysis unit 33c identifies a person area in the image by the same method as in (1), processes the image data of the identified person area, and performs image processing on the person existing in the target space. You may estimate the number of people.

(3)人の活動量の推定
例えば、解析部33cは、フレーム間差分などを用いて動き領域を抽出し、抽出された動き領域の大きさや形状等に基づいて活動量を推定してもよい。例えば、活動量は“無”、“小”、“中”、“大”などの段階で推定されてもよいし、METs(Metabolic Equivalents)等の指標値として推定されてもよい。解析部33cは、部分空間ごとに動き領域を抽出し、部分空間ごとの活動量を推定してもよい。
(3) Estimating the amount of human activity For example, the analysis unit 33c may extract a movement region using an inter-frame difference or the like, and estimate the amount of activity based on the size, shape, or the like of the extracted movement region. .. For example, the amount of activity may be estimated at the stage of "none", "small", "medium", "large", etc., or may be estimated as an index value such as METs (Metabolic Equivalents). The analysis unit 33c may extract a motion region for each subspace and estimate the amount of activity for each subspace.

(4)照度の推定
例えば、解析部33cは、画像と、カメラ部31の撮像設定値(例えばゲインや露光時間など)とに基づいて対象空間(あるいは部分空間ごと)の照度を推定してもよい。
(4) Illuminance estimation For example, the analysis unit 33c may estimate the illuminance of the target space (or each subspace) based on the image and the imaging set values (for example, gain, exposure time, etc.) of the camera unit 31. Good.

(5)歩行滞留の検知
例えば、解析部33cは、フレーム間差分などを用いて動き領域を抽出し、抽出された動き領域の大きさや形状等に基づいて歩行滞留を検知してもよい。
(5) Detection of gait retention For example, the analysis unit 33c may extract a movement region using an inter-frame difference or the like, and detect gait retention based on the size, shape, or the like of the extracted movement region.

画像センサ3は、図4に示されるようなセンサデータを繰り返し生成する。センサデータは画像センサ3からゲートウェイ7を経由してクラウドサーバ200に送信される。 The image sensor 3 repeatedly generates sensor data as shown in FIG. The sensor data is transmitted from the image sensor 3 to the cloud server 200 via the gateway 7.

図5は、クラウドサーバ200の一例を示すブロック図である。クラウドサーバ200は、CPUやMPU等のプロセッサ210と、ROM(Read Only Memory)220およびRAM(Random Access Memory)230を備えるコンピュータである。クラウドサーバ200は、さらに、ハードディスクドライブ(Hard Disk Drive:HDD)などの記憶部240、光学メディアドライブ260、および、通信部270を備える。 FIG. 5 is a block diagram showing an example of the cloud server 200. The cloud server 200 is a computer including a processor 210 such as a CPU and an MPU, a ROM (Read Only Memory) 220, and a RAM (Random Access Memory) 230. The cloud server 200 further includes a storage unit 240 such as a hard disk drive (HDD), an optical media drive 260, and a communication unit 270.

ROM220は、BIOS(Basic Input Output System)やUEFI(Unified Extensible Firmware Interface)などの基本プログラム、および各種の設定データ等を記憶する。RAM230は、記憶部240からロードされたプログラムやデータを一時的に記憶する。 The ROM 220 stores basic programs such as BIOS (Basic Input Output System) and UEFI (Unified Extensible Firmware Interface), and various setting data. The RAM 230 temporarily stores programs and data loaded from the storage unit 240.

光学メディアドライブ260は、CD−ROM280などの記録媒体に記録されたディジタルデータを読み取る。クラウドサーバ200で実行される各種プログラムは、例えばCD−ROM280に記録されて頒布される。このCD−ROM280に格納されたプログラムは光学メディアドライブ260により読み取られ、記憶部240にインストールされる。 The optical media drive 260 reads digital data recorded on a recording medium such as a CD-ROM 280. Various programs executed on the cloud server 200 are recorded and distributed on, for example, a CD-ROM 280. The program stored in the CD-ROM 280 is read by the optical media drive 260 and installed in the storage unit 240.

通信部270は、専用線ネットワーク300およびファイヤウォール6経由での、画像センサシステムとの通信を制御する。 The communication unit 270 controls communication with the image sensor system via the leased line network 300 and the firewall 6.

記憶部240は、プロセッサ210により実行されるプログラム240a、センサデータ240b、混雑情報240c、店舗情報240d、天候情報240e、および、ICカードデータベース240fを記憶する。センサデータ240bは、画像センサ3から取得される。混雑情報240c、店舗情報240d、ICカードデータベース240fは、例えば店舗サーバ5から取得されたり、センサデータ240bに基づいてクラウドサーバ200で算出される。天候情報240eは、気象データサーバにアクセスして取得される。 The storage unit 240 stores the program 240a executed by the processor 210, the sensor data 240b, the congestion information 240c, the store information 240d, the weather information 240e, and the IC card database 240f. The sensor data 240b is acquired from the image sensor 3. The congestion information 240c, the store information 240d, and the IC card database 240f are acquired from, for example, the store server 5, or calculated by the cloud server 200 based on the sensor data 240b. The weather information 240e is acquired by accessing the weather data server.

図6は、混雑情報240cの一例を示す図である。混雑情報は、店舗内の位置(来客エリア)ごとに、現在の人数と、混雑度の設定値とを対応付けて管理される情報である。位置は、例えば異なるフードコート(S1〜S5)に対応付けられ、各位置ごとに混雑度を測るしきい値としての混雑度設定値が設定されている。混雑度設定値=3が設定されていて、つまり人数が3人以上になれば、その位置は混雑していると見做される。 FIG. 6 is a diagram showing an example of congestion information 240c. The congestion information is information that is managed by associating the current number of people with the set value of the degree of congestion for each position (visitor area) in the store. The positions are associated with, for example, different food courts (S1 to S5), and a congestion degree setting value is set as a threshold value for measuring the congestion degree for each position. If the congestion degree setting value = 3 is set, that is, if the number of people is 3 or more, the position is considered to be congested.

図7は、店舗情報240dの一例を示す図である。店舗情報は、それぞれの店舗(T1〜T5)ごとに、取扱商品のジャンルと、現時点におけるセールの有無、およびセール時刻を対応付けて管理される情報である。 FIG. 7 is a diagram showing an example of store information 240d. The store information is information managed for each store (T1 to T5) in association with the genre of the products handled, the presence or absence of a sale at the present time, and the sale time.

図8は、天候情報240eの一例を示す図である。天候情報は、店外情報の一つの例であり、日時に対応付けて、天気、気温、及び湿度が対応付けて管理される情報である。例えば、梅雨時には雨を避けるために、店舗内につい長居しがちである。天候情報を参照し、晴れてきたことが分かればそのことをサイネージして、お客様に「外に出ようか…」という気持ちを起こさせることができる。結果として、さりげない形でお客様に退席してもらうことができる。 FIG. 8 is a diagram showing an example of the weather information 240e. The weather information is an example of information outside the store, and is information in which the weather, temperature, and humidity are managed in association with the date and time. For example, during the rainy season, people tend to stay longer in stores to avoid rain. By referring to the weather information and knowing that it is sunny, you can signage it and make the customer feel like "let's go out ...". As a result, customers can be casually left.

図9は、ICカードデータベース240fにより管理される情報の一例を示す図である。ICカードデータベース240fは、ICカードなどで一意に区別可能な人IDごとに、属性、好み(店舗)、好み(店外)、および入店の有無が対応付けて管理される情報である。端的に言えば、ICカードデータベース240fにおいて、人の嗜好を示す、好み情報(ID/属性毎)が管理される。 FIG. 9 is a diagram showing an example of information managed by the IC card database 240f. The IC card database 240f is information that is managed in association with attributes, preferences (stores), preferences (outside the store), and presence / absence of entry for each person ID that can be uniquely distinguished by an IC card or the like. In short, in the IC card database 240f, preference information (for each ID / attribute) indicating a person's preference is managed.

例えばID=001としてセンシングされた人は、男性で、店舗の好みが食品、店外の情報としては晴れであることを好み、既に入店していることがわかる。この種のデータベースは、例えばWebアクセス履歴を協調フィルタリングなどの手法で解析して生成されることができる。 For example, it can be seen that the person sensed with ID = 001 is a man, prefers food in the store, and prefers sunny information outside the store, and has already entered the store. This kind of database can be generated by analyzing the Web access history by a method such as collaborative filtering.

プロセッサ210は、OS(Operating System)および各種のプログラムを実行する。ところで、プロセッサ210は、実施形態に係る処理機能として取得部210a、識別部210d、レコメンド情報生成部210b、および、提示部210cを備える。取得部210a、識別部210d、レコメンド情報生成部210b、および、提示部210cは、記憶部240のプログラム240aがRAM230にロードされ、当該プログラムの進行に伴ってプロセッサ210が演算処理を実行することで生成されるプロセスとして、理解され得る。つまりプログラム240aは、クラウドサーバ200を動作させるためのプログラムであって、クラウドサーバ200を、取得部210a、識別部210d、レコメンド情報生成部210b、および、提示部210cとして動作させるための命令を含む。 The processor 210 executes an OS (Operating System) and various programs. By the way, the processor 210 includes an acquisition unit 210a, an identification unit 210d, a recommendation information generation unit 210b, and a presentation unit 210c as processing functions according to the embodiment. In the acquisition unit 210a, the identification unit 210d, the recommendation information generation unit 210b, and the presentation unit 210c, the program 240a of the storage unit 240 is loaded into the RAM 230, and the processor 210 executes arithmetic processing as the program progresses. It can be understood as a process that is generated. That is, the program 240a is a program for operating the cloud server 200, and includes an instruction for operating the cloud server 200 as an acquisition unit 210a, an identification unit 210d, a recommendation information generation unit 210b, and a presentation unit 210c. ..

取得部210aは、画像センサ3から、着席者の位置および滞在時間を含むセンサデータを取得する。また、取得部210aは、混雑情報、セール情報を取得する。さらに、取得部210aは、気象データサーバにアクセスして、対象とする店舗を含む地理的エリアの天候情報を取得する。 The acquisition unit 210a acquires sensor data including the position and staying time of the seated person from the image sensor 3. In addition, the acquisition unit 210a acquires congestion information and sale information. Further, the acquisition unit 210a accesses the weather data server to acquire the weather information of the geographical area including the target store.

識別部210dは、画像センサ3から取得されたセンサデータに含まれる着席者ごとの顔画像データに基づいて、当該着席者の個人を識別する。 The identification unit 210d identifies the individual seated person based on the face image data of each seated person included in the sensor data acquired from the image sensor 3.

レコメンド情報生成部210bは、画像センサ3から取得されたセンサデータに含まれる着席者の位置と滞在時間に基づいて、着席者の退席を促すレコメンド情報を生成する。その際、混雑情報、セール情報、天候情報を参照して、着席者にとってより適切なレコメンド情報を生成することもできる。さらに、実施形態では、人物の属性および個人を特定し、属性に応じた傾向や、各々の個人向けのレコメンド情報を生成する。
提示部210cは、レコメンド情報生成部210bにより計算されたレコメンド情報を、ディジタルサイネージやWebページなどの電子広告媒体を介して着席者に提示する。
The recommendation information generation unit 210b generates recommendation information for urging the seated person to leave the seat based on the position and staying time of the seated person included in the sensor data acquired from the image sensor 3. At that time, it is also possible to generate more appropriate recommendation information for the seated person by referring to the congestion information, the sale information, and the weather information. Further, in the embodiment, the attributes of the person and the individual are specified, and the tendency according to the attribute and the recommendation information for each individual are generated.
The presentation unit 210c presents the recommendation information calculated by the recommendation information generation unit 210b to the seated person via an electronic advertising medium such as digital signage or a Web page.

図10は、タブレット20の一例を示す機能ブロック図である。タブレット20は、操作部21と、表示部22と、通信部23と、出力部24と、制御部25と、メモリ26と、を備える。各部(操作部21、表示部22、通信部23、出力部24、制御部25及びメモリ26)は、バス27で通信可能に接続されており、各部間で必要なデータのやり取りが行えるようになっている。 FIG. 10 is a functional block diagram showing an example of the tablet 20. The tablet 20 includes an operation unit 21, a display unit 22, a communication unit 23, an output unit 24, a control unit 25, and a memory 26. Each unit (operation unit 21, display unit 22, communication unit 23, output unit 24, control unit 25, and memory 26) is communicably connected by a bus 27 so that necessary data can be exchanged between each unit. It has become.

操作部21は、例えば、電源のON/OFFを行うための電源スイッチ等のスイッチ類を含む。表示部22は、タッチパネル付きの液晶モニタを有し、画像を表示する。表示部22はタッチパネル機能も有するので、操作部21の機能の一部を兼ねることができる。 The operation unit 21 includes, for example, switches such as a power switch for turning on / off the power. The display unit 22 has a liquid crystal monitor with a touch panel and displays an image. Since the display unit 22 also has a touch panel function, it can also serve as a part of the functions of the operation unit 21.

通信部23は、店舗T内の無線通信設備(無線LAN(Local Area Network)など)、あるいは公衆セルラフォンシステム等に接続可能な、無線通信ユニットを備える。実施形態では、店舗T内の無線LANに接続して各種の情報を取得することを、想定する。
出力部24は、スピーカーやイヤホンジャック等を備え、アナログの音声や楽音を再生出力したり、オーディオ信号を出力する。
The communication unit 23 includes a wireless communication unit that can be connected to a wireless communication facility (wireless LAN (Local Area Network) or the like) in the store T, a public cellular phone system, or the like. In the embodiment, it is assumed that various information is acquired by connecting to the wireless LAN in the store T.
The output unit 24 includes a speaker, an earphone jack, and the like, and reproduces and outputs analog voice and musical sound, and outputs an audio signal.

メモリ26は、制御部25が実行するプログラムや各種データ、およびモバイルOS(Operating System)等を記憶する。
制御部25は、CPU等のプロセッサを備え、タブレット20の制御を司る。制御部25のCPUは、メモリ26に記憶されている制御プログラムやインストールされたアプリケーションに従って、各種の処理等を実行する。実施形態では、制御部25は、メモリ26に記憶されたプログラムを読み出し、ブラウザアプリ(ブラウザ)25aを実行する。ブラウザ25aは、Webページの情報や、店舗Tに固有の情報、あるいは、クラウドサーバ200から送信されたレコメンド情報を表示部22に表示する。次に、上記構成における作用を説明する。
The memory 26 stores a program executed by the control unit 25, various data, a mobile OS (Operating System), and the like.
The control unit 25 includes a processor such as a CPU and controls the tablet 20. The CPU of the control unit 25 executes various processes according to the control program stored in the memory 26 and the installed application. In the embodiment, the control unit 25 reads the program stored in the memory 26 and executes the browser application (browser) 25a. The browser 25a displays the information on the Web page, the information unique to the store T, or the recommendation information transmitted from the cloud server 200 on the display unit 22. Next, the operation in the above configuration will be described.

図11は、クラウドサーバ200が画像センサ3からセンサデータを取得する手順を示すシーケンス図である。画像センサ3は、画像データを取得し(ステップS101)、記憶部32に保存する(ステップS102)。そして画像センサ3は、画像データを画像処理して(ステップS103)、センサデータを生成する(ステップS104)。 FIG. 11 is a sequence diagram showing a procedure in which the cloud server 200 acquires sensor data from the image sensor 3. The image sensor 3 acquires image data (step S101) and stores it in the storage unit 32 (step S102). Then, the image sensor 3 performs image processing on the image data (step S103) to generate sensor data (step S104).

ゲートウェイ7は、画像センサ3からセンサデータを取得し(ステップS106)、バッファメモリなどにセンサデータを保存する(ステップS107)。
クラウドサーバ200は、例えば一定のポーリング周期でセンサデータ取得要求をゲートウェイ7に送信する(ステップS301)。このセンサデータ取得要求を受け付け(ステップS201)たゲートウェイ7は、クラウドサーバ200にセンサデータを送信する(ステップS202)。クラウドサーバ200は、送信されたセンサデータを取得する(ステップS203)。
The gateway 7 acquires sensor data from the image sensor 3 (step S106) and stores the sensor data in a buffer memory or the like (step S107).
The cloud server 200 transmits, for example, a sensor data acquisition request to the gateway 7 at a constant polling cycle (step S301). The gateway 7 that has received the sensor data acquisition request (step S201) transmits the sensor data to the cloud server 200 (step S202). The cloud server 200 acquires the transmitted sensor data (step S203).

図12は、クラウドサーバ200による入店者登録に係わる処理手順の一例を示すフローチャートである。人の入店を検知すると(ステップS21)、クラウドサーバ200は、画像センサ3から送信されたセンサデータから、入店者の顔の特徴、および身体の特徴を示す特徴情報を取得する(ステップS22)。次にクラウドサーバ200は、特徴情報から男性、女性、あるいは凡その年齢などの属性情報を抽出し(ステップS23)、記憶部240に登録する(ステップS24)。ここまでの手順を経て、登録処理が完了し(ステップS25)、店舗Tに入ってきた人が入店状態として管理される。 FIG. 12 is a flowchart showing an example of a processing procedure related to store visitor registration by the cloud server 200. When the entry of a person is detected (step S21), the cloud server 200 acquires the feature information indicating the facial feature and the physical feature of the shopkeeper from the sensor data transmitted from the image sensor 3 (step S22). ). Next, the cloud server 200 extracts attribute information such as male, female, or about age from the feature information (step S23) and registers it in the storage unit 240 (step S24). Through the procedure up to this point, the registration process is completed (step S25), and the person who has entered the store T is managed as the store entry state.

図13は、クラウドサーバ200の処理手順の一例を示すフローチャートである。図11において、クラウドサーバ200は、画像センサ3からのセンサデータを参照し、席ごとに着席者がいるか、または着席状態であるかをモニタする(ステップS31)。混雑情報240cを参照して、混雑度が設定値以上であれば(ステップS32でYES)、クラウドサーバ200は、その席の滞在時間を滞在時間をセンサデータから判定する(ステップS33)。滞在時間が既定値を超えていれば(YES)、クラウドサーバ200は、退席を促すためのレコメンド情報を作成し、着席者に提示して退席を促す(ステップS34)。その後、取得したセンサデータから退席したことを確認できれば(ステップS35でYES)、退席完了である(ステップS42)。 FIG. 13 is a flowchart showing an example of the processing procedure of the cloud server 200. In FIG. 11, the cloud server 200 refers to the sensor data from the image sensor 3 and monitors whether there is a seated person or a seated state for each seat (step S31). With reference to the congestion information 240c, if the degree of congestion is equal to or greater than the set value (YES in step S32), the cloud server 200 determines the staying time of the seat from the sensor data (step S33). If the staying time exceeds the default value (YES), the cloud server 200 creates recommendation information for prompting to leave and presents it to the seated person to prompt them to leave (step S34). After that, if it can be confirmed from the acquired sensor data that the user has left the seat (YES in step S35), the seat has been completed (step S42).

ステップS35で、退席を確認できなければ(NO)、クラウドサーバ200は、その時間において、その人の属性を示す特徴に合った店舗情報があるか否かを判定する(ステップS36)。店舗情報240dを参照して、例えば店舗T1のセールが12:00から始まることを確認できれば(YES)、クラウドサーバ200は、店舗T1での食品のセール情報を示すレコメンド情報を作成し、着席者に提示して退席を促す(ステップS37)。 If the exit cannot be confirmed in step S35 (NO), the cloud server 200 determines whether or not there is store information matching the characteristics indicating the attribute of the person at that time (step S36). With reference to the store information 240d, for example, if it can be confirmed that the sale of the store T1 starts at 12:00 (YES), the cloud server 200 creates recommendation information indicating the food sale information at the store T1 and is seated. (Step S37).

図14は、レコメンド情報の一例を示す模式図である。実施形態において、レコメンド情報は、例えば卓上に置かれたタブレット20の画面に表示される。図14に示されるように、「お隣のお店T1で、12:00から生鮮食品のセールが始まります!」といった広告情報が、タブレット20に表示される。その後、取得したセンサデータから退席したことを確認できれば(ステップS8でYES)、退席完了である(ステップS42)。 FIG. 14 is a schematic diagram showing an example of recommendation information. In the embodiment, the recommendation information is displayed on the screen of the tablet 20 placed on the table, for example. As shown in FIG. 14, advertising information such as "Fresh food sale starts at 12:00 at the next store T1!" Is displayed on the tablet 20. After that, if it can be confirmed from the acquired sensor data that the user has left the seat (YES in step S8), the seat has been completed (step S42).

ステップS38で退席を確認できなければ(NO)、クラウドサーバ200は天候情報240eを参照し、その時間における天候が、その人の属性を示す特徴に合っているかどうかを判定する(ステップS39)。その人が、晴れを好む属性を持つ場合、晴れでなければ(NO)処理手順はここまでとし、在席のままの状態が継続されることとなる(ステップS43)。 If the exit cannot be confirmed in step S38 (NO), the cloud server 200 refers to the weather information 240e and determines whether the weather at that time matches the characteristics indicating the attributes of the person (step S39). If the person has an attribute that prefers sunny weather, the (NO) processing procedure is completed up to this point if it is not sunny, and the state of being present is continued (step S43).

天候情報が晴れであれば、クラウドサーバ200は、その人に外出を促すレコメンド情報を作成し、着席者に提示して退席を促す(ステップS40)。 If the weather information is sunny, the cloud server 200 creates recommendation information that urges the person to go out and presents it to the occupants to urge them to leave (step S40).

図15は、レコメンド情報の他の例を示す模式図である。図15に示されるように、「外は良い天気です。近くの〇〇商店街にでかけてみませんか?」といった広告情報が、タブレット20に表示され、外出がさりげなく促される。その後、取得したセンサデータから退席したことを確認できれば(ステップS11でYES)退席完了、NOであれば、在席のままになる(ステップS13)。 FIG. 15 is a schematic diagram showing another example of the recommendation information. As shown in FIG. 15, advertising information such as "The weather is fine outside. Why don't you go to the nearby XX shopping street?" Is displayed on the tablet 20 to casually encourage you to go out. After that, if it can be confirmed from the acquired sensor data that the person has left the seat (YES in step S11), the seat is completed, and if NO, the person remains present (step S13).

図16は、退席促しに係わる処理手順の一例を示すフローチャートである。図16において、クラウドサーバ200は、レコメンド情報を生成する(ステップS81)。レコメンド情報は、例えばHTML(HyperText Markup Language)形式のテキストデータとして生成される。次に、クラウドサーバ200の提示部210cは、レコメンド情報を提示するためのWebページが更新されたことを、対象となるタブレット20に通知する(ステップS82)。この通知を受けたタブレット20は、更新されたWebページの取得をクラウドサーバ200に要求する。 FIG. 16 is a flowchart showing an example of a processing procedure related to prompting to leave. In FIG. 16, the cloud server 200 generates recommendation information (step S81). The recommendation information is generated as text data in HTML (HyperText Markup Language) format, for example. Next, the presentation unit 210c of the cloud server 200 notifies the target tablet 20 that the Web page for presenting the recommendation information has been updated (step S82). Upon receiving this notification, the tablet 20 requests the cloud server 200 to acquire the updated Web page.

クラウドサーバ200の提示部210cは、Webページの取得要求の到来を待ち受ける(ステップS83)。取得要求を受信すると(Yes)、クラウドサーバ200の提示部210cは、要求元のタブレット20に、レコメンド情報を含むHTMLデータを送信する(ステップS84)。これを受けたタブレット20のブラウザ25a(図10)は、HTMLデータを可視化して表示部22に表示する。以上の手順により、退席を促すためのレコメンド情報がクラウドサーバ200において生成されたのち、タブレット20において直ちに提示される。 The presentation unit 210c of the cloud server 200 waits for the arrival of the acquisition request of the Web page (step S83). Upon receiving the acquisition request (Yes), the presentation unit 210c of the cloud server 200 transmits HTML data including the recommendation information to the requesting tablet 20 (step S84). Upon receiving this, the browser 25a (FIG. 10) of the tablet 20 visualizes the HTML data and displays it on the display unit 22. By the above procedure, the recommendation information for prompting to leave is generated in the cloud server 200, and then immediately presented in the tablet 20.

以上述べたように、実施形態によれば、画像センサ3により取得されるセンサデータとして、店舗内の着席者の位置、属性、および滞在時間をクラウドサーバ200に渡す。クラウドサーバ200は、これらのセンサデータに基づき、店舗の混雑状況や着席者の滞在時間などを判定する。その結果に基づき、長時間にわたる着席者の卓上のサイネージ機器(タブレット等)に、その人の属性に応じて退席を促すレコメンド情報を表示するようにした。 As described above, according to the embodiment, the position, attribute, and staying time of the seated person in the store are passed to the cloud server 200 as the sensor data acquired by the image sensor 3. Based on these sensor data, the cloud server 200 determines the congestion status of the store, the staying time of the seated person, and the like. Based on the results, the signage device (tablet, etc.) on the desk of the seated person for a long time is displayed with the recommendation information for prompting the person to leave according to the attribute of the person.

既存の技術では、人の退席を促すためのレコメンド情報を作成し、積極的に提示することは知られていなかった。これに対し実施形態では、広告媒体を用いて、自然な形で長期着席者の退席を促すことができる。これらのことから実施形態によれば、滞留する人に退席を促すことの可能な誘導システム、サーバ、プログラムおよびサービス提供方法を提供することが可能となる。 With existing technology, it was not known to create and actively present recommendation information to encourage people to leave. On the other hand, in the embodiment, an advertising medium can be used to naturally encourage long-term seated persons to leave. From these facts, according to the embodiment, it becomes possible to provide a guidance system, a server, a program, and a service providing method capable of urging a resident person to leave the seat.

<変形例>
図17は、クラウドサーバ200による入店者登録に係わる処理手順の他の例を示すフローチャートである。以上の説明では入店者の属性情報をセンサデータから取得し、レコメンド情報を作成した。変形例ではさらに一歩踏み込み、入店者の個人を特定することにより、さらに効果的な退席促しを実現する。
<Modification example>
FIG. 17 is a flowchart showing another example of the processing procedure related to the store visitor registration by the cloud server 200. In the above explanation, the attribute information of the shopkeeper is acquired from the sensor data and the recommendation information is created. In the modified example, by taking a step further and identifying the individual of the entrant, a more effective urge to leave the store is realized.

図17において、人の入店を検知すると(ステップS51)、クラウドサーバ200は、例えば店舗入り口に設けられたデバイス(カードセンサなど)への、入店者によるICカードのタッチを検知する(ステップS52)。あるいは、スマートフォンなどのデバイスによる近距離無線通信で、ICカード情報に類する情報を取得することもできる。このようにして取得されたICカードの情報(個人IDなど)が、ICカードデータベース240fに入店記録として登録される(ステップS53)。 In FIG. 17, when a person enters the store (step S51), the cloud server 200 detects, for example, the touch of the IC card by the store entrant to a device (card sensor or the like) provided at the store entrance (step). S52). Alternatively, information similar to IC card information can be acquired by short-range wireless communication using a device such as a smartphone. The IC card information (personal ID, etc.) acquired in this way is registered in the IC card database 240f as a store entry record (step S53).

そうしてクラウドサーバ200は、ICカードデータベース240fのIDと、画像センサでセンシングされた該当者のIDとを紐づけて登録する(ステップS54)。ここまでの手順を経て、登録処理が完了し(ステップS55)、店舗Tに入ってきた人が入店状態として管理される。すなわち入店者は、それぞれ固有のIDと対応付けて管理される。 Then, the cloud server 200 registers the ID of the IC card database 240f in association with the ID of the corresponding person sensed by the image sensor (step S54). Through the procedure up to this point, the registration process is completed (step S55), and the person who has entered the store T is managed as the store entry state. That is, each store entrant is managed in association with a unique ID.

図18は、クラウドサーバ200の処理手順の他の例を示すフローチャートである。図18において、クラウドサーバ200は、画像センサ3からのセンサデータを参照し、席ごとに着席者がいるか、または着席状態であるかをモニタする(ステップS61)。混雑情報240cを参照して、混雑度が設定値以上であれば(ステップS62でYES)、クラウドサーバ200は、その席に滞在している人(ID:xxxx)の滞在時間を、センサデータから判定する(ステップS63)。滞在時間が既定値を超えていれば(YES)、クラウドサーバ200は、退席を促すためのレコメンド情報を作成し、(ID:xxxx)の人に提示して退席を促す(ステップS64)。その後、取得したセンサデータから退席したことを確認できれば(ステップS65でYES)、退席完了である(ステップS72)。 FIG. 18 is a flowchart showing another example of the processing procedure of the cloud server 200. In FIG. 18, the cloud server 200 refers to the sensor data from the image sensor 3 and monitors whether there is a seated person or a seated state for each seat (step S61). With reference to the congestion information 240c, if the degree of congestion is equal to or higher than the set value (YES in step S62), the cloud server 200 determines the staying time of the person (ID: xxx) staying at the seat from the sensor data. Determine (step S63). If the staying time exceeds the default value (YES), the cloud server 200 creates recommendation information for urging the person to leave the room and presents it to the person (ID: xxx) to urge the person to leave the room (step S64). After that, if it can be confirmed from the acquired sensor data that the person has left the seat (YES in step S65), the person has left the seat (step S72).

ステップS65で、退席を確認できなければ(NO)、クラウドサーバ200は、その時間において、(ID:xxxx)の人の特徴に合った店舗情報があるか否かを判定する(ステップS66)。店舗情報240dを参照して、例えば店舗T1のセールが12:00から始まることを確認できれば(YES)、クラウドサーバ200は、店舗T1での食品のセール情報を示すレコメンド情報を作成し、(ID:xxxx)の人に提示して退席を促す(ステップS67)。 If the exit cannot be confirmed in step S65 (NO), the cloud server 200 determines whether or not there is store information that matches the characteristics of the person (ID: xxx) at that time (step S66). With reference to the store information 240d, for example, if it can be confirmed that the sale of the store T1 starts at 12:00 (YES), the cloud server 200 creates recommendation information indicating the food sale information at the store T1 and (ID). : Xxxx) to prompt the person to leave (step S67).

ステップS68で退席を確認できなければ(NO)、クラウドサーバ200は天候情報240eを参照し、その時間における天候が、(ID:xxxx)の人の特徴に合っているかどうかを判定する(ステップS69)。その人が、晴れを好む属性を持つ場合、晴れでなければ(NO)処理手順はここまでとし、在席のままの状態が継続されることとなる(ステップS73)。天候情報が晴れであれば、クラウドサーバ200は、(ID:xxxx)の人に外出を促すレコメンド情報を作成し、着席者に提示して退席を促す(ステップS70)。 If the exit cannot be confirmed in step S68 (NO), the cloud server 200 refers to the weather information 240e and determines whether the weather at that time matches the characteristics of the person (ID: xxx) (step S69). ). If the person has an attribute that prefers sunny weather, the (NO) processing procedure is completed up to this point if it is not sunny, and the state of being present is continued (step S73). If the weather information is sunny, the cloud server 200 creates recommendation information for urging the person (ID: xxx) to go out, presents it to the occupants, and urges them to leave (step S70).

以上のように、変形例では、顔画像データに基づいて入店者の個人を特定し、予め登録された個人の好みを示す情報(嗜好情報)に則してレコメンド情報を作成するようにした。これにより、より個人の好みに則したかたちで、さらに効果的に退席を促すことが可能になる。 As described above, in the modified example, the individual of the entrant is specified based on the face image data, and the recommendation information is created according to the information (preference information) indicating the personal preference registered in advance. .. This makes it possible to more effectively encourage people to leave their seats in a way that is more in line with their personal tastes.

なお、この発明は上記実施の形態に限定されるものではない。例えば、図14、図15のようなメッセージに限らず、周辺の店舗の混雑状況を詳しく表示することによっても、着席者の外出を促すことは可能である。
また、クラウドサーバ200に備わる機能の一部、または全てをゲートウェイ7に実装しても良い。
The present invention is not limited to the above embodiment. For example, it is possible to encourage the seated person to go out not only by the messages shown in FIGS. 14 and 15 but also by displaying the congestion status of the surrounding stores in detail.
Further, some or all of the functions provided in the cloud server 200 may be implemented in the gateway 7.

本発明の実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. This novel embodiment can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. This embodiment and its modifications are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

3…画像センサ、5…店舗サーバ、6…ファイヤウォール、7…ゲートウェイ、15…プロセッサ、20…タブレット、21…操作部、22…表示部、23…通信部、24…出力部、25…制御部、25a…ブラウザ、26…メモリ、27…バス、30…レジスタ、30a…カメラ情報、31…カメラ部、31a…魚眼レンズ、31b…絞り機構、31c…撮像素子、32…記憶部、32a…画像データ、32b…プログラム、32d…辞書データ、33…プロセッサ、33a…検出部、33b…特徴量計算部、33c…解析部、33d…学習部、34…通信部、35…内部バス、100…信号線、200…クラウドサーバ、220…ROM、230…RAM、240…記憶部、240a…プログラム、240b…センサデータ、240c…混雑情報、240d…店舗情報、240e…天候情報、240f…ICカードデータベース、210…プロセッサ、210a…取得部、210b…レコメンド情報生成部、210c…提示部、210d…識別部、260…光学メディアドライブ、270…通信部、300…専用線ネットワーク、400…管理サーバ、500…店舗内ネットワーク、600…クラウド、700…データセンタ、700a…データベース、T,T1〜T5…店舗。 3 ... Image sensor, 5 ... Store server, 6 ... Firewall, 7 ... Gateway, 15 ... Processor, 20 ... Tablet, 21 ... Operation unit, 22 ... Display unit, 23 ... Communication unit, 24 ... Output unit, 25 ... Control Unit, 25a ... Browser, 26 ... Memory, 27 ... Bus, 30 ... Register, 30a ... Camera information, 31 ... Camera unit, 31a ... Fish-eye lens, 31b ... Aperture mechanism, 31c ... Imaging element, 32 ... Storage unit, 32a ... Image Data, 32b ... Program, 32d ... Dictionary data, 33 ... Processor, 33a ... Detection unit, 33b ... Feature calculation unit, 33c ... Analysis unit, 33d ... Learning unit, 34 ... Communication unit, 35 ... Internal bus, 100 ... Signal Line, 200 ... cloud server, 220 ... ROM, 230 ... RAM, 240 ... storage, 240a ... program, 240b ... sensor data, 240c ... congestion information, 240d ... store information, 240e ... weather information, 240f ... IC card database, 210 ... Processor, 210a ... Acquisition unit, 210b ... Recommendation information generation unit, 210c ... Presentation unit, 210d ... Identification unit, 260 ... Optical media drive, 270 ... Communication unit, 300 ... Dedicated line network, 400 ... Management server, 500 ... In-store network, 600 ... cloud, 700 ... data center, 700a ... database, T, T1-T5 ... store.

Claims (13)

人を検知する人感センサと、この人感センサと通信可能なサーバとを具備し、
前記人感センサは、
所定エリアを撮像して得られたデータを解析して、人の位置、属性情報および滞在時間を含むセンサデータを生成する解析部を備え、
前記サーバは、
前記センサデータを前記人感センサから取得する取得部と、
前記取得されたセンサデータに含まれる前記人の位置、属性情報および滞在時間に基づいて、前記人の移動を促すレコメンド情報を生成するレコメンド情報生成部とを備える、誘導システム。
It is equipped with a motion sensor that detects a person and a server that can communicate with this motion sensor.
The motion sensor is
It is equipped with an analysis unit that analyzes the data obtained by imaging a predetermined area and generates sensor data including the position of a person, attribute information, and staying time.
The server
An acquisition unit that acquires the sensor data from the motion sensor, and
A guidance system including a recommendation information generation unit that generates recommendation information that encourages the movement of the person based on the position, attribute information, and staying time of the person included in the acquired sensor data.
前記サーバは、前記取得されたセンサデータに含まれる前記人の顔画像データに基づいて、当該人の個人を識別する識別部をさらに具備し、
前記レコメンド情報生成部は、前記取得されたセンサデータに含まれる前記人の位置および滞在時間に基づいて、前記識別された個人の移動を促すレコメンド情報を生成する、請求項1に記載の誘導システム。
The server further includes an identification unit that identifies the individual of the person based on the face image data of the person included in the acquired sensor data.
The guidance system according to claim 1, wherein the recommendation information generation unit generates recommendation information for promoting the movement of the identified individual based on the position and staying time of the person included in the acquired sensor data. ..
前記識別部は、前記識別した個人と、当該個人に対応する人とを紐づけてデータベースに管理する、請求項2に記載の誘導システム。 The guidance system according to claim 2, wherein the identification unit associates the identified individual with a person corresponding to the individual and manages the identification unit in a database. 前記取得部は、前記所定エリアの混雑情報を取得し、
前記レコメンド情報生成部は、前記混雑情報に基づいて前記レコメンド情報を生成する、請求項1乃至3のいずれか1項に記載の誘導システム。
The acquisition unit acquires congestion information of the predetermined area, and obtains the congestion information.
The guidance system according to any one of claims 1 to 3, wherein the recommendation information generation unit generates the recommendation information based on the congestion information.
前記取得部は、前記所定エリアとは異なるエリアにおけるセール情報を取得し、
前記レコメンド情報生成部は、前記セール情報に基づいて前記レコメンド情報を生成する、請求項1乃至3のいずれか1項に記載の誘導システム。
The acquisition unit acquires sale information in an area different from the predetermined area, and obtains the sale information.
The guidance system according to any one of claims 1 to 3, wherein the recommendation information generation unit generates the recommendation information based on the sale information.
前記取得部は、前記所定エリアを含む地理的エリアの天候情報を取得し、
前記レコメンド情報生成部は、前記取得された天候情報に基づいて前記レコメンド情報を生成する、請求項1乃至3のいずれか1項に記載の誘導システム。
The acquisition unit acquires weather information of a geographical area including the predetermined area, and obtains weather information.
The guidance system according to any one of claims 1 to 3, wherein the recommendation information generation unit generates the recommendation information based on the acquired weather information.
さらに、電子広告媒体を介して前記レコメンド情報を提示する提示部を具備する、請求項1乃至6のいずれか1項に記載の誘導システム。 The guidance system according to any one of claims 1 to 6, further comprising a presentation unit that presents the recommendation information via an electronic advertising medium. 所定エリアを撮像して得られた画像データから人の位置、属性情報および滞在時間を含むセンサデータを生成可能な人感センサと通信する通信部と、
前記センサデータを前記人感センサから取得する取得部と、
前記取得されたセンサデータに含まれる前記人の位置、属性情報および滞在時間に基づいて、前記人の移動を促すレコメンド情報を生成するレコメンド情報生成部とを備える、サーバ。
A communication unit that communicates with a motion sensor that can generate sensor data including a person's position, attribute information, and staying time from image data obtained by imaging a predetermined area.
An acquisition unit that acquires the sensor data from the motion sensor, and
A server including a recommendation information generation unit that generates recommendation information for urging the movement of the person based on the position, attribute information, and staying time of the person included in the acquired sensor data.
前記取得されたセンサデータに含まれる前記人の顔画像データに基づいて、当該人の個人を識別する識別部をさらに具備し、
前記レコメンド情報生成部は、前記取得されたセンサデータに含まれる前記人の位置および滞在時間に基づいて、前記識別された個人の移動を促すレコメンド情報を生成する、請求項8に記載のサーバ。
An identification unit for identifying the individual of the person is further provided based on the face image data of the person included in the acquired sensor data.
The server according to claim 8, wherein the recommendation information generation unit generates recommendation information for promoting the movement of the identified individual based on the position and staying time of the person included in the acquired sensor data.
コンピュータを、所定エリアを撮像して得られたデータから人の位置、属性情報および滞在時間を含むセンサデータを生成可能な人感センサと通信する通信部として動作させるための命令と、
コンピュータを、前記センサデータを前記人感センサから取得する取得部として動作させるための命令と、
コンピュータを、前記取得されたセンサデータに含まれる前記人の位置、属性情報および滞在時間に基づいて、前記人の移動を促すレコメンド情報を生成するレコメンド情報生成部として動作させるための命令とを含む、プログラム。
Instructions for operating the computer as a communication unit that communicates with a motion sensor capable of generating sensor data including a person's position, attribute information, and staying time from the data obtained by imaging a predetermined area.
Instructions for operating the computer as an acquisition unit for acquiring the sensor data from the motion sensor, and
Includes an instruction to operate the computer as a recommendation information generator that generates recommendation information that encourages the movement of the person based on the position, attribute information, and staying time of the person included in the acquired sensor data. ,program.
コンピュータを、前記取得されたセンサデータに含まれる前記人の顔画像データに基づいて、当該人の個人を識別する識別部として動作させるための命令と、
コンピュータに、前記取得されたセンサデータに含まれる前記人の位置および滞在時間に基づいて、前記識別された個人の移動を促すレコメンド情報を生成させるための命令とをさらに含む、請求項10に記載のプログラム。
An instruction for operating the computer as an identification unit for identifying the individual of the person based on the face image data of the person included in the acquired sensor data.
The tenth aspect of the present invention further includes an instruction for causing the computer to generate recommendation information for prompting the movement of the identified individual based on the position and staying time of the person included in the acquired sensor data. Program.
所定エリアを撮像して得られたデータから人の位置、属性情報および滞在時間を含むセンサデータを生成可能な人感センサと通信可能なサーバに適用されるサービス提供方法であって、
前記サーバが、前記センサデータを前記人感センサから取得する過程と、
前記サーバが、前記取得されたセンサデータに含まれる前記人の位置、属性情報および滞在時間に基づいて、前記人の移動を促すレコメンド情報を生成する過程とを含む、サービス提供方法。
It is a service providing method applied to a server capable of communicating with a motion sensor capable of generating sensor data including a person's position, attribute information and staying time from data obtained by imaging a predetermined area.
The process in which the server acquires the sensor data from the motion sensor, and
A service providing method including a process in which the server generates recommendation information for urging the movement of the person based on the position, attribute information, and staying time of the person included in the acquired sensor data.
前記サーバが、前記取得されたセンサデータに含まれる前記人の顔画像データに基づいて、当該人の個人を識別する過程と、
前記サーバが、前記取得されたセンサデータに含まれる前記人の位置および滞在時間に基づいて、前記識別された個人の移動を促すレコメンド情報を生成する過程とをさらに含む、請求項12に記載のサービス提供方法。
A process in which the server identifies an individual of the person based on the face image data of the person included in the acquired sensor data.
12. The process of claim 12, wherein the server further includes a process of generating recommendation information for promoting the movement of the identified individual based on the position and staying time of the person included in the acquired sensor data. Service provision method.
JP2019234246A 2019-12-25 2019-12-25 Guidance system, server, program and service provision method Active JP7433894B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019234246A JP7433894B2 (en) 2019-12-25 2019-12-25 Guidance system, server, program and service provision method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019234246A JP7433894B2 (en) 2019-12-25 2019-12-25 Guidance system, server, program and service provision method

Publications (2)

Publication Number Publication Date
JP2021103420A true JP2021103420A (en) 2021-07-15
JP7433894B2 JP7433894B2 (en) 2024-02-20

Family

ID=76755211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019234246A Active JP7433894B2 (en) 2019-12-25 2019-12-25 Guidance system, server, program and service provision method

Country Status (1)

Country Link
JP (1) JP7433894B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7420307B1 (en) 2023-05-22 2024-01-23 三菱電機ビルソリューションズ株式会社 Display system, information processing device, evaluation method, and computer-readable recording medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073666A (en) 2000-08-29 2002-03-12 Sharp Corp Information providing system, information providing server, information receiving terminal and recording medium with information providing program recorded thereon
JP2007148878A (en) 2005-11-29 2007-06-14 Nec Corp Server, method and program for distributing recommendation information
JP6459281B2 (en) 2014-08-04 2019-01-30 富士通株式会社 Eating and drinking pace evaluation program, eating and drinking pace evaluation method, computer and eating and drinking pace evaluation system
JP6589499B2 (en) 2015-09-18 2019-10-16 オムロン株式会社 Action control system and action control method
WO2019064381A1 (en) 2017-09-27 2019-04-04 楽天株式会社 Information processing device, information processing method, program, and storage medium
JP2019145045A (en) 2018-02-23 2019-08-29 パナソニックIpマネジメント株式会社 Customer management system, customer management method and program
JP6789260B2 (en) 2018-03-02 2020-11-25 ヤフー株式会社 Store support system, store support method, and store support program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7420307B1 (en) 2023-05-22 2024-01-23 三菱電機ビルソリューションズ株式会社 Display system, information processing device, evaluation method, and computer-readable recording medium

Also Published As

Publication number Publication date
JP7433894B2 (en) 2024-02-20

Similar Documents

Publication Publication Date Title
US10909386B2 (en) Information push method, information push device and information push system
US20190216333A1 (en) Thermal face image use for health estimation
JP4165095B2 (en) Information providing apparatus and information providing method
US11138420B2 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
CN105869015A (en) Information processing method and system
US20050228868A1 (en) Data notification method and system thereof
CN110945489A (en) Information processing system, information processing apparatus, information processing method, and recording medium
CN107924544B (en) Information processing system and information processing method
JP2017033413A (en) Robot photographing system and image management method
Khanal et al. Using emotion recognition in intelligent interface design for elderly care
JP7433894B2 (en) Guidance system, server, program and service provision method
JP7353964B2 (en) Guidance system, server, program and service provision method
JP2017220181A (en) Guide display system, guide display method and guide display program
JP2019148992A (en) Vacancy information presentation system, server, vacancy information presentation method and program
JP2019036201A (en) Output controller, output control method, and output control program
WO2019150954A1 (en) Information processing device
JP2020187389A (en) Mobile body locus analysis apparatus, mobile body locus analysis program, and mobile body locus analysis method
WO2021241293A1 (en) Action-subject specifying system
Tanaka et al. AkiKomi: Design and Implementation of a Mobile App System for Real-time Room Occupancy Estimation
JP7264065B2 (en) Monitored Person Monitoring Support System and Monitored Person Monitoring Support Method
JP7123601B2 (en) Value evaluation system and property search system
JP2022015191A (en) Estimation program, estimation device, estimation method, generation program, generation device, and generation method
WO2022267006A1 (en) Anti-lost method and system, readable storage medium, cloud server, and mobile terminal
WO2024018545A1 (en) Generation program, generation method, and information processing device
JP2022052910A (en) Physical condition evaluation system, server, program, and physical condition evaluation service provision method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220615

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R150 Certificate of patent or registration of utility model

Ref document number: 7433894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150