JP2023023492A - Image sensor system, calculation device, sensing method and program - Google Patents

Image sensor system, calculation device, sensing method and program Download PDF

Info

Publication number
JP2023023492A
JP2023023492A JP2021129073A JP2021129073A JP2023023492A JP 2023023492 A JP2023023492 A JP 2023023492A JP 2021129073 A JP2021129073 A JP 2021129073A JP 2021129073 A JP2021129073 A JP 2021129073A JP 2023023492 A JP2023023492 A JP 2023023492A
Authority
JP
Japan
Prior art keywords
space
data
image sensor
usage data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021129073A
Other languages
Japanese (ja)
Inventor
孝明 榎原
Takaaki Enohara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2021129073A priority Critical patent/JP2023023492A/en
Publication of JP2023023492A publication Critical patent/JP2023023492A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an image sensor system capable of calculating a use rate of a space.SOLUTION: An image sensor system includes a plurality of image sensors installed in an object space, and a calculation device. The image sensor includes an imaging section for acquiring image data of an allocated area, and a processor for generating space use data showing the distribution of a moving body in the area after image processing of the image data. The calculation device includes an acquisition section, a storage section, an integration processing section and a space use rate calculation section. The acquisition section acquires the space use data from the image sensor. The storage section stores map data showing a correspondence relation of an object space with the area. The integration processing section integrates the acquired space use data on the basis of the map data to generate space use data in the object space. The space use rate calculation section calculates a space use rate which is an index showing a degree of using the object space by the moving body for each place.SELECTED DRAWING: Figure 5

Description

本発明の実施形態は、画像センサシステム、計算装置、センシング方法、およびプログラムに関する。 Embodiments of the present invention relate to image sensor systems, computing devices, sensing methods, and programs.

近年の画像センサは、CPU(Central Processing Unit)やメモリを備え、いわばレンズ付きの組み込みコンピュータといえる。高度な画像処理機能も有しており、撮影した画像データを分析して、視野内を動く人間等の在・不在、あるいは人数などを計算することができる。以下、画像センサの視野内を移動して検出対象になり得る物体を、動体と称する。例えば人や動物などの生物、稼働部を備える機械(ファクシミリ装置等)、あるいは非生物の移動体(車両(無人搬送車を含む)等)が動体である。 A recent image sensor is equipped with a CPU (Central Processing Unit) and memory, and can be said to be a so-called built-in computer with a lens. It also has advanced image processing functions, and can analyze the captured image data and calculate the presence/absence of people moving within the field of view, or the number of people. An object that can be detected by moving within the field of view of the image sensor is hereinafter referred to as a moving object. For example, the moving object is a living object such as a person or an animal, a machine (such as a facsimile machine) having an operating part, or a non-living moving object (such as a vehicle (including an unmanned guided vehicle)).

特許第6616521号公報Japanese Patent No. 6616521 特開2019-200715号公報JP 2019-200715 A 特開2010-117216号公報JP 2010-117216 A 特開2012-146022号公報JP 2012-146022 A 特開2013-137701号公報Japanese Unexamined Patent Application Publication No. 2013-137701

人流データは、動体の移動する度合いをデータ化した指標である。人流データを用いれば、人の動きの激しい場所を濃い色で、動きのあまりない場所を薄い色で表現したりして、人間の目視確認に有効な情報を作成することができる(ヒートマップ)。つまり、人流データは、個々の人がどのように動いたかを蓄積して得られるデータで、人を主体として議論されるデータといえる。 The people flow data is an index that converts the degree of movement of moving bodies into data. By using people flow data, it is possible to create information that is effective for visual confirmation of people (heat map), by expressing places where there is a lot of movement of people in dark colors and places where there is little movement in light colors. . In other words, people flow data is data obtained by accumulating how individual people move, and it can be said that people are the subject of discussion.

これとは異なる観点から、動体が空間を使用している度合いを数値化したいというニーズが高まってきている。例えば、人がその場に留まっている度合いを数値として算出し、その値を空調や照明の制御システムに与えることでより快適な空間を作り出すことが考えられている。しかしながら、動体が空間を使用している度合いを数値として算出できるようにした技術は知られていない。既存の技術では密度や混雑度などの指標が知られているに過ぎず、機器に直接入力可能な、いわば動体の空間使用率と称することのできる指標を求めることはできなかった。まして、センサ単独での検知範囲を超えるような、大空間に関する指標を得るための技術は知られていない。 From a different point of view, there is an increasing need to quantify the extent to which a moving object uses space. For example, it is considered to create a more comfortable space by calculating the degree to which a person stays in place as a numerical value and applying that value to an air conditioning or lighting control system. However, there is no known technology that enables numerical calculation of the degree to which a moving object uses space. With existing technology, only indices such as density and degree of congestion are known, and indices that can be directly input to devices and can be called space utilization rates of moving objects cannot be obtained. Furthermore, there is no known technique for obtaining an index related to a large space that exceeds the detection range of a single sensor.

そこで、目的は、空間の使用率を算出できる画像センサシステム、計算装置、センシング方法、およびプログラムを提供することにある。 Accordingly, it is an object of the present invention to provide an image sensor system, a computing device, a sensing method, and a program capable of calculating the usage rate of space.

実施形態によれば、画像センサシステムは、対象空間に設置される複数の画像センサと、画像センサと通信可能な計算装置とを具備する。画像センサは、それぞれ割り当てられたエリアの画像データを取得する撮像部と、画像データを画像処理して当該エリアにおける動体の分布を示す空間使用データを生成するプロセッサとを備える。計算装置は、取得部、記憶部、統合処理部、および空間使用率算出部を備える。取得部は、複数の画像センサから空間使用データを取得する。記憶部は、対象空間とエリアとの対応関係を示すマップデータを記憶する。統合処理部は、取得された空間使用データをマップデータに基づいて統合して、対象空間における空間使用データを生成する。空間使用率算出部は、対象空間における空間使用データに基づいて、動体が対象空間を使用している度合いを場所ごとに示す指標である空間使用率を算出する。 According to an embodiment, an image sensor system includes a plurality of image sensors installed in a target space and a computing device in communication with the image sensors. The image sensor includes an imaging unit that acquires image data for each assigned area, and a processor that processes the image data to generate space usage data that indicates the distribution of moving objects in the area. The computing device includes an acquisition unit, a storage unit, an integration processing unit, and a space usage rate calculation unit. The acquisition unit acquires space usage data from multiple image sensors. The storage unit stores map data indicating the correspondence relationship between the target space and the area. The integration processing unit integrates the acquired space usage data based on the map data to generate space usage data in the target space. The space usage rate calculation unit calculates a space usage rate, which is an index indicating the degree to which the moving body uses the target space for each location, based on the space usage data in the target space.

図1は、実施形態に係る画像センサシステムの一例を示す模式図である。FIG. 1 is a schematic diagram showing an example of an image sensor system according to an embodiment. 図2は、ビルのフロア内の一例を示す図である。FIG. 2 is a diagram showing an example inside a building floor. 図3は、図1に示される画像センサシステムの一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the image sensor system shown in FIG. 図4は、実施形態に係る画像センサ3の一例を示すブロック図である。FIG. 4 is a block diagram showing an example of the image sensor 3 according to the embodiment. 図5は、実施形態に係るゲートウェイ装置7の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of the gateway device 7 according to the embodiment. 図6は、画像センサ3の処理手順の一例を示すフローチャートである。FIG. 6 is a flow chart showing an example of a processing procedure of the image sensor 3. As shown in FIG. 図7は、撮像部31の視野内の画像の一例を示す図である。FIG. 7 is a diagram showing an example of an image within the field of view of the imaging section 31. As shown in FIG. 図8は、画像センサ3におけるデータの流れの一例を示す図である。FIG. 8 is a diagram showing an example of data flow in the image sensor 3. As shown in FIG. 図9は、ゲートウェイ装置7の処理手順の一例を示すフローチャートである。FIG. 9 is a flow chart showing an example of the processing procedure of the gateway device 7. As shown in FIG. 図10は、空間使用率の一例を示す模式図である。FIG. 10 is a schematic diagram showing an example of the space usage rate. 図11は、ゲートウェイ装置7におけるデータの流れの一例を示す図である。FIG. 11 is a diagram showing an example of data flow in the gateway device 7. As shown in FIG. 図12は、空間使用率の分析結果に基づくヒートマップの一例を示す図である。FIG. 12 is a diagram showing an example of a heat map based on the analysis result of space utilization. 図13は、空間使用率の分析結果に基づくカラーマップの一例を示す図である。FIG. 13 is a diagram showing an example of a color map based on the analysis result of space utilization.

画像センサは、人感センサ、明かりセンサあるいは赤外線センサ等に比べて多様な情報を取得することができる。魚眼レンズなどの広角レンズを用いれば、1台の画像センサで撮影可能な領域を拡大できる。画像の歪みは計算処理で補正することができる。視野内のセンシングしたくない領域をマスク設定する機能や、学習機能を備えた画像センサも知られている。魚眼カメラで撮像した画像データを処理し、各種のセンシングデータを得ることができる。通信機能を持つ画像センサも知られており、IoT(Internet of Things)技術との親和性も高い。さらには、ビッグデータ解析のためのエッジデバイスとしても期待されている。以下では、この種のセンサを用いたシステムの一例について説明する。 An image sensor can acquire a wider variety of information than a human sensor, a light sensor, an infrared sensor, or the like. By using a wide-angle lens such as a fisheye lens, the area that can be captured by a single image sensor can be expanded. Image distortion can be corrected by computational processing. Image sensors are also known that have a function of masking an area in the field of view that is not desired to be sensed, and have a learning function. Various sensing data can be obtained by processing image data captured by a fisheye camera. Image sensors with communication functions are also known, and have a high affinity with IoT (Internet of Things) technology. Furthermore, it is also expected to be an edge device for big data analysis. An example of a system using this type of sensor will be described below.

<構成>
図1は、実施形態に係る画像センサを備える画像センサシステムの一例を示す模式図である。図1において、照明設備1、照明コントローラ4、および画像センサ3(3-1~3-n)は、ビル400の例えばフロアごとに設けられ、ゲートウェイ装置7と通信可能に接続される。各階のゲートウェイ装置7は、ビル内ネットワーク8を介して、例えばビル管理センタのBEMS(Building Energy Management System)サーバ5と通信可能に接続される。
<Configuration>
FIG. 1 is a schematic diagram illustrating an example of an image sensor system including an image sensor according to an embodiment. In FIG. 1, lighting equipment 1, lighting controller 4, and image sensors 3 (3-1 to 3-n) are provided, for example, on each floor of building 400, and are connected to gateway device 7 so as to be communicable. The gateway device 7 on each floor is communicably connected to, for example, a building management center BEMS (Building Energy Management System) server 5 via an intra-building network 8 .

BEMSサーバ5は、例えばTCP/IP(Transmission Control Protocol / Internet Protocol)ベースの通信ネットワーク10経由で、クラウドコンピューティングシステム(クラウド)100に接続されることができる。クラウド100は、サーバ200およびデータベース300を備え、ビル管理等に関するサービスを提供する。 The BEMS server 5 can be connected to a cloud computing system (cloud) 100 via a TCP/IP (Transmission Control Protocol/Internet Protocol) based communication network 10, for example. The cloud 100 includes a server 200 and a database 300, and provides services related to building management and the like.

図2は、ビル400内のフロアの一例を示す図である。図2に示されるように、照明設備1、空調機器2の吹き出し口、および画像センサ3は各フロアの例えば天井に配設される。画像センサ3には、それぞれのセンシング対象とするエリアが割り当てられる。図2において、エリアA1,A2がそれぞれフロアのおよそ半分をカバーしていることが示される。すべてのエリアを合わせれば、対象空間のフロアをカバーすることができる。図中ハッチングで示すように、異なる画像センサ3の割り当てエリアの一部が重なっていてもよい。 FIG. 2 is a diagram showing an example of floors in the building 400. As shown in FIG. As shown in FIG. 2, the lighting equipment 1, the outlets of the air conditioners 2, and the image sensor 3 are arranged on, for example, the ceiling of each floor. Each image sensor 3 is assigned an area to be sensed. In FIG. 2 it is shown that areas A1 and A2 each cover approximately half of the floor. All areas together can cover the floor of the target space. As indicated by hatching in the drawing, the areas assigned to different image sensors 3 may partially overlap.

画像センサ3は、割り当てられたエリアを見下し画角で視野内に捉え、視野内を撮像して画像データを取得する。この画像データは画像センサ3において処理され、人物情報、あるいは環境情報などの、各種のセンシングデータが生成される。すなわち画像センサ3は、自らに割り当てられたエリアのセンシングデータを生成する。 The image sensor 3 looks down on the assigned area and catches it within the field of view at an angle of view, and acquires image data by capturing an image within the field of view. This image data is processed by the image sensor 3 to generate various sensing data such as human information or environmental information. That is, the image sensor 3 generates sensing data of the area assigned to itself.

環境情報は、エリアの環境に関する情報であり、例えば、フロアの照度や温度等である。人物情報は、エリアにおける人間に関する情報である。例えばエリア内の人数、人の行動、人の活動量、人の存在または不在を示す在不在、などが人物情報の例である。近年では、これらの情報に基づき照明機器や空調機器を制御することで、居住環境における人の快適性や安全性等を向上させることが検討されている。環境情報および人物情報を、対象空間を複数に分割した小領域ごとに算出することも可能である。この小領域を、画像センサ3ごとの割り当てエリアに対応付けてもよい。 The environment information is information about the environment of the area, such as the illuminance and temperature of the floor. Person information is information about a person in an area. Examples of personal information include the number of people in an area, behavior of people, amount of activity of people, presence/absence indicating the presence or absence of people, and the like. In recent years, it has been studied to improve the comfort and safety of people in living environments by controlling lighting equipment and air conditioning equipment based on such information. It is also possible to calculate environmental information and person information for each small area obtained by dividing the target space into a plurality of areas. This small area may be associated with the allocated area for each image sensor 3 .

実施形態では、空間使用率という量を導入する。空間使用率は、動体が空間を使用している度合い(使用率)を示す指標である。例えば、空間使用率は、人が留まっている度合いを場所ごとに示す指標である。空間を使用することとは、例えば、席に座ってオフィスワークを行うことでもよい。また、空間内の通路や階段を移動することでもよい。あるいは、店舗等で売り場を歩き回ることであっても良い。 The embodiment introduces a quantity called space utilization. The space usage rate is an index indicating the degree (usage rate) to which the moving body uses the space. For example, the space utilization rate is an index that indicates the degree to which people stay in each place. Using the space may mean, for example, sitting at a seat and doing office work. Alternatively, it may be possible to move through passages or stairs in the space. Alternatively, it may be walking around the sales floor in a store or the like.

図3は、図1に示される画像センサシステムの一例を示すブロック図である。図3において、ゲートウェイ装置7、管理端末20、BEMSサーバ5、および照明コントローラ4がビル内ネットワーク8に接続され、ビルシステムを形成する。ビル内ネットワーク8の通信プロトコルとしてはBuilding Automation and Control Networking protocol(BACnet(登録商標))が代表的である。このほかDALI、ZigBee(登録商標)、ECHONET Lite(登録商標)等のプロトコルも知られている。 FIG. 3 is a block diagram showing an example of the image sensor system shown in FIG. In FIG. 3, a gateway device 7, a management terminal 20, a BEMS server 5, and a lighting controller 4 are connected to an intra-building network 8 to form a building system. A typical communication protocol for the intra-building network 8 is the Building Automation and Control Networking protocol (BACnet (registered trademark)). In addition, protocols such as DALI, ZigBee (registered trademark), and ECHONET Lite (registered trademark) are also known.

ゲートウェイ装置7は、複数の画像センサ3(3-1~3-n)を配下として収容する。画像センサ3-1~3-nは、センサネットワーク9により、一筆書き状に接続される(渡り配線)。センサネットワーク9は、画像センサ3-1~3-nとゲートウェイ装置7とを通信可能に接続する。センサネットワーク9のプロトコルとしては、例えばEtherCAT(登録商標)が知られている。 The gateway device 7 accommodates a plurality of image sensors 3 (3-1 to 3-n) as subordinates. The image sensors 3-1 to 3-n are connected by a sensor network 9 in a unicursal manner (crossover wiring). The sensor network 9 connects the image sensors 3-1 to 3-n and the gateway device 7 so as to be able to communicate with each other. EtherCAT (registered trademark), for example, is known as a protocol for the sensor network 9 .

ゲートウェイ装置7は、センサネットワーク9とビル内ネットワーク8との間での通信プロトコルを変換する。よってBEMSサーバ5、および管理端末20は、画像センサ3-1~3-nと相互に通信できる。BEMSサーバ5は、画像センサ3-1~3-nからセンシングデータを取得してビル400の空調や照明を制御する。 The gateway device 7 converts communication protocols between the sensor network 9 and the in-building network 8 . Therefore, the BEMS server 5 and the management terminal 20 can mutually communicate with the image sensors 3-1 to 3-n. The BEMS server 5 acquires sensing data from the image sensors 3-1 to 3-n and controls the air conditioning and lighting of the building 400. FIG.

管理端末20は、画像センサ3-1~3-nに個別にアクセスし、コマンドの投入や各種の設定を行う。照明コントローラ4は、BEMSサーバ5からの制御に基づいて照明設備1を制御する。 The management terminal 20 individually accesses the image sensors 3-1 to 3-n to input commands and perform various settings. The lighting controller 4 controls the lighting equipment 1 based on control from the BEMS server 5 .

図4は、実施形態に係る画像センサ3の一例を示すブロック図である。画像センサ3は、撮像部31、メモリ32、プロセッサ33、および通信部34を備える。これらは内部バス35を介して互いに接続される。メモリ32およびプロセッサ33を備える画像センサ3は、コンピュータである。 FIG. 4 is a block diagram showing an example of the image sensor 3 according to the embodiment. The image sensor 3 includes an imaging section 31 , a memory 32 , a processor 33 and a communication section 34 . These are connected to each other via an internal bus 35 . Image sensor 3 with memory 32 and processor 33 is a computer.

撮像部31は、いわゆる魚眼カメラであり、広角レンズとしての魚眼レンズ31a、絞り機構31b、イメージセンサ31cおよびレジスタ30を備える。魚眼レンズ31aは、エリアを天井から見下ろす形(見下し画角)で視野内に捕え、イメージセンサ31cに結像する。魚眼レンズ31aからの光量は絞り機構31bにより調節される。イメージセンサ31cは例えばCMOS(相補型金属酸化膜半導体)センサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。この映像信号はディジタル符号化され、原画像のデータとして出力される。この画像データはメモリ32に記憶される(画像データ32b)。 The imaging unit 31 is a so-called fish-eye camera, and includes a fish-eye lens 31a as a wide-angle lens, a diaphragm mechanism 31b, an image sensor 31c, and a register 30. The fish-eye lens 31a captures the area in the view looking down from the ceiling (downward angle of view) and forms an image on the image sensor 31c. The amount of light from the fisheye lens 31a is adjusted by a diaphragm mechanism 31b. The image sensor 31c is, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor, and generates a video signal with a frame rate of, for example, 30 frames per second. This video signal is digitally encoded and output as original image data. This image data is stored in the memory 32 (image data 32b).

レジスタ30は、カメラ情報30aを記憶する。カメラ情報30aは、例えばオートゲインコントロール機能の状態、フレームレート、ゲインの値、露光時間などの、撮像部31に関する情報、あるいは画像センサ3それ自体に関する情報である。 The register 30 stores camera information 30a. The camera information 30a is information related to the imaging unit 31, such as the state of the auto gain control function, frame rate, gain value, and exposure time, or information related to the image sensor 3 itself.

メモリ32は、SDRAM(Synchronous Dynamic RAM)などの半導体メモリ、またはNANDフラッシュメモリやEPROM(Erasable Programmable ROM)などの不揮発性メモリである。メモリ32は、プロセッサ33を機能させるためのプログラム32aと、撮像部31で取得された画像データ32b、およびパラメータ32cを記憶する。 The memory 32 is a semiconductor memory such as SDRAM (Synchronous Dynamic RAM), or a non-volatile memory such as NAND flash memory or EPROM (Erasable Programmable ROM). The memory 32 stores a program 32a for causing the processor 33 to function, image data 32b acquired by the imaging unit 31, and parameters 32c.

プロセッサ33は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。MPU(Micro Processing Unit)、あるいはFPGA(Field Programmable Gate Array)等でプロセッサ33を構成することもできる。プロセッサ33は、内蔵レジスタ(図示せず)に読み込まれたプログラム32aを実行して、実施形態において説明する各種の機能を実現する。 The processor 33 is, for example, a multi-core CPU (Central Processing Unit) and is an LSI (Large Scale Integration) tuned to execute image processing at high speed. The processor 33 can also be configured with an MPU (Micro Processing Unit), an FPGA (Field Programmable Gate Array), or the like. The processor 33 executes a program 32a read into an internal register (not shown) to realize various functions described in the embodiments.

通信部34は、センサネットワーク9に接続可能で、通信相手先(ゲートウェイ装置7、管理端末20、他の画像センサ3、あるいはBEMSサーバ5等)とのデータの授受を仲介する。通信のインタフェースは有線でも無線でもよい。通信ネットワークのトポロジはライン配線、リング配線、ツリー配線など任意のトポロジを適用できる。通信プロトコルは汎用プロトコルでも、産業用プロトコルでもよい。単独の通信方法でもよいし、複数の通信方法を組み合わせてもよい。通信の対象はリアルタイムデータ、あるいは蓄積データのいずれでもよい。さらに、常時通信や要求時通信などを選択することも可能である。 The communication unit 34 can be connected to the sensor network 9, and mediates the exchange of data with a communication partner (the gateway device 7, the management terminal 20, another image sensor 3, or the BEMS server 5, etc.). The communication interface may be wired or wireless. Arbitrary topologies such as line wiring, ring wiring, and tree wiring can be applied to the topology of the communication network. The communication protocol may be a general purpose protocol or an industrial protocol. A single communication method may be used, or a plurality of communication methods may be combined. The object of communication may be either real-time data or stored data. Furthermore, it is also possible to select constant communication, on-demand communication, or the like.

特に、通信部34は、画像センサ3によるセンシングデータや、プロセッサ33の処理結果、処理データ、マップ情報、画像解析に係わるパラメータ、空間使用率を算出する基となる各種画像(ヒートマップなど)、原画像、処理結果画像などの各種画像、空間使用率算出アルゴリズム、レイアウトマップなどの各種パラメータ、あるいは、その他の事象用の各種パラメータ(辞書データなど)を、通信ネットワークとしてのセンサネットワーク9経由で送受信する。これにより、上記データや情報は、ゲートウェイ装置7、他の画像センサ3、BEMSサーバ5、および管理端末20等と、ビル内ネットワーク8等を経由して共有されることができる。 In particular, the communication unit 34 receives sensing data from the image sensor 3, processing results of the processor 33, processing data, map information, parameters related to image analysis, various images (heat map, etc.) used as a basis for calculating the space utilization rate, Various images such as original images and processed images, various parameters such as space usage rate calculation algorithms and layout maps, or various parameters for other events (dictionary data, etc.) are sent and received via the sensor network 9 as a communication network. do. As a result, the data and information can be shared with the gateway device 7, other image sensors 3, the BEMS server 5, the management terminal 20, and the like via the intra-building network 8 and the like.

ところで、プロセッサ33は、実施形態に係る処理機能として、空間使用データ生成部33aを備える。空間使用データ生成部33aは、メモリ32のプログラム32aがプロセッサ33のレジスタにロードされ、当該プログラムの進行に伴ってプロセッサ33が演算処理を実行することで生成されるプロセスとして、理解され得る。 By the way, the processor 33 has a space usage data generator 33a as a processing function according to the embodiment. The space use data generation unit 33a can be understood as a process generated by loading the program 32a of the memory 32 into the register of the processor 33 and executing arithmetic processing by the processor 33 as the program progresses.

空間使用データ生成部33aは、メモリ32の画像データ32bを画像処理し、複数のフレームごとに、それぞれ人物が存在する領域(人物領域)を検出する。人物領域は複数のフレームにわたって蓄積される。そして、空間使用データ生成部33aは、例えば既定の蓄積時間についてのフレーム間の平均値として、空間使用データを生成する。ここで、上記蓄積時間は例えば管理端末20から任意の値を設定することが可能で、パラメータ32cに登録される。空間使用データは、配列データとして表現されても良いし、あるいはヒートマップのように画像として表現されても良い。 The space usage data generation unit 33a performs image processing on the image data 32b in the memory 32, and detects areas in which people exist (person areas) for each of a plurality of frames. The human region is accumulated over multiple frames. Then, the space use data generation unit 33a generates space use data as an average value between frames for a predetermined accumulation time, for example. Here, the accumulation time can be set to any value from the management terminal 20, for example, and registered in the parameter 32c. Space usage data may be represented as array data, or may be represented as an image such as a heat map.

画像処理としては、背景差分やフレーム間差分、テンプレートマッチングや機械学習、あるいはディープラーニングなどの手法を適用することが可能である。人物領域の単位は、例えば、画素単位、ブロック単位、エリア単位、画像全体、あるいはこれらの混合などを任意に設定することができる。これも、例えば管理端末20から任意に可変することが可能で、設定された値はパラメータ32cに登録される。 As image processing, techniques such as background subtraction, inter-frame subtraction, template matching, machine learning, or deep learning can be applied. The unit of the person region can be arbitrarily set, for example, in pixel units, block units, area units, the entire image, or a mixture thereof. This can also be arbitrarily changed from the management terminal 20, for example, and the set value is registered in the parameter 32c.

パラメータは、撮像部31の視野と実空間上の面積とを対応付けるための指標であり、実施形態では、複数の種類にわたって記憶されることができる。パラメータの例としては、対象空間の天井高さや検知範囲などの数値、フロアのレイアウトマップ、あるいは領域分割されたレイアウトマップ等を挙げることができる、これらはいずれもメモリ32のパラメータ32cに登録され、プロセッサ33により適宜読み出されて使用される。 A parameter is an index for associating the field of view of the imaging unit 31 with an area on the real space, and can be stored in a plurality of types in the embodiment. Examples of parameters include numerical values such as the ceiling height and detection range of the target space, a floor layout map, and a layout map divided into areas. It is appropriately read and used by the processor 33 .

図5は、実施形態に係るゲートウェイ装置7の一例を示す機能ブロック図である。計算装置の一例としてのゲートウェイ装置7は、CPUやMPU(Micro Processing Unit)等のプロセッサ75と、ROM(Read Only Memory)72およびRAM(Random Access Memory)73を備えるコンピュータである。ゲートウェイ装置7は、さらに、記憶部74および通信部77を備える。 FIG. 5 is a functional block diagram showing an example of the gateway device 7 according to the embodiment. The gateway device 7 as an example of a computing device is a computer including a processor 75 such as a CPU or MPU (Micro Processing Unit), a ROM (Read Only Memory) 72 and a RAM (Random Access Memory) 73 . The gateway device 7 further includes a storage section 74 and a communication section 77 .

ROM72は、組み込みOS(Operating System)、各種ファームウェアなどの基本プログラム、および各種の設定データ等を記憶する。RAM73は、記憶部74からロードされたプログラムやデータを一時的に記憶する。 The ROM 72 stores an embedded OS (Operating System), basic programs such as various types of firmware, various setting data, and the like. The RAM 73 temporarily stores programs and data loaded from the storage unit 74 .

通信部77は、ビル内ネットワーク8経由で画像センサ3、BEMSサーバ5等と通信するための機能を備える。ゲートウェイ装置7で実行される各種プログラムを、例えば通信部77を介してサーバからダウンロードし、記憶部74にインストールすることもできる。通信部77からビル内ネットワーク8を介してクラウド100(図1)にアクセスし、最新のプログラムをダウンロードして内部のプログラムをアップデートすることもできる。 The communication unit 77 has a function for communicating with the image sensor 3, the BEMS server 5, etc. via the intra-building network 8. FIG. Various programs to be executed by the gateway device 7 can be downloaded from a server via the communication unit 77 and installed in the storage unit 74, for example. It is also possible to access the cloud 100 (FIG. 1) from the communication unit 77 via the intra-building network 8, download the latest programs, and update the internal programs.

記憶部74は、プロセッサ75により実行されるプログラム74aに加えて、マップデータ74b、空間使用データ74c、空間使用率74d、および、アルゴリズム74eを記憶する。 In addition to the program 74a executed by the processor 75, the storage unit 74 stores map data 74b, space usage data 74c, space usage rate 74d, and algorithm 74e.

マップデータ74bは、画像センサ3ごとの割り当てエリアと、対象空間のマップとの対応関係を示すデータである。 The map data 74b is data indicating the correspondence relationship between the assigned area for each image sensor 3 and the map of the target space.

空間使用データ74cは、画像センサ3-1~3-nから収集された空間使用データである。画像センサ3-1~3-nは、それぞれ自らに割り当てられたエリアについて算出した空間使用データをを送信する。これを収集したゲートウェイ装置7は、各センサの空間使用データを統合し、対象空間に関する空間使用データに変換する。 Space usage data 74c is space usage data collected from image sensors 3-1 through 3-n. Image sensors 3-1 to 3-n transmit space usage data calculated for their assigned areas. The gateway device 7 that has collected this integrates the space use data of each sensor and converts it into space use data regarding the target space.

空間使用率74dは、プロセッサ75により算出された空間使用率である。空間使用率74dは、所定の期間にわたって蓄積される。
アルゴリズム74eは、プロセッサ75により空間使用率を算出する際に使用されるアルゴリズムである。
A space utilization rate 74 d is a space utilization rate calculated by the processor 75 . Space utilization 74d is accumulated over a predetermined period of time.
Algorithm 74e is an algorithm used by processor 75 to calculate space utilization.

プロセッサ75は、各種のプログラムを実行する。また、プロセッサ75は、実施形態に係る処理機能として、取得部75a、統合処理部75b、空間使用率算出部75c、予測部75d、分析部75e、および、可視化部75fを備える。これらの機能ブロックは、プログラム74aがRAM73にロードされ、当該プログラムの実行の過程で生成されるプロセスとして、理解され得る。つまりプログラム74aは、コンピュータであるゲートウェイ装置7を取得部75a、統合処理部75b、空間使用率算出部75c、予測部75d、分析部75e、および、可視化部75fとして動作させる。 The processor 75 executes various programs. The processor 75 also includes an acquisition unit 75a, an integration processing unit 75b, a space utilization calculation unit 75c, a prediction unit 75d, an analysis unit 75e, and a visualization unit 75f as processing functions according to the embodiment. These functional blocks can be understood as processes generated in the course of program 74a being loaded into RAM 73 and the program being executed. That is, the program 74a causes the gateway device 7, which is a computer, to operate as an acquisition unit 75a, an integration processing unit 75b, a space utilization calculation unit 75c, a prediction unit 75d, an analysis unit 75e, and a visualization unit 75f.

取得部75aは、画像センサ3-1~3-nのそれぞれで検知されたセンシングデータとしての空間使用データを取得する。取得された空間使用データは、記憶部74に記憶され、蓄積される(空間使用データ74c)。
統合処理部75bは、マップデータ74bに基づいて空間使用データ74cを統合して、対象空間における空間使用データを生成する。
The acquisition unit 75a acquires space usage data as sensing data detected by each of the image sensors 3-1 to 3-n. The acquired space use data is stored and accumulated in the storage unit 74 (space use data 74c).
The integration processing unit 75b integrates the space usage data 74c based on the map data 74b to generate space usage data in the target space.

空間使用率算出部75cは、上記取得された空間使用データ74cに基づいて空間使用率を算出する。空間使用率は、様々に定義することができる。つまり、異なるアルゴリズム(関数)に基づいて種々の空間使用率を算出することができる。個々のアルゴリズムは記憶部74に記憶され(アルゴリズム74c)、プロセッサ75により読み出されて使用される。どのアルゴリズムにより空間使用率を算出するかは、例えば管理端末20から任意に設定することができる。 The space usage rate calculator 75c calculates the space usage rate based on the space usage data 74c obtained above. Space utilization can be defined in various ways. That is, various space utilization rates can be calculated based on different algorithms (functions). Individual algorithms are stored in the storage unit 74 (algorithm 74c) and read by the processor 75 for use. Which algorithm is used to calculate the space usage rate can be arbitrarily set from the management terminal 20, for example.

例えば、空間使用率の異なる定義の例として、算出の単位を挙げることができる。つまり、対象空間全体を単位として空間使用率を算出するか、または、個々のブロックを単位として空間使用率を算出するかを定義することができる。ブロックは、例えば各座席としてもよいし、複数のブロックをまとめた単位をブロックとして定義しても良い。ブロックをどのように設定するかなどの情報は、例えば管理端末20から任意に設定することができる。 For example, a unit of calculation can be cited as an example of different definitions of space utilization. In other words, it is possible to define whether the space utilization rate is calculated in units of the entire target space or in units of individual blocks. A block may be, for example, each seat, or may be defined as a unit in which a plurality of blocks are grouped together. Information such as how to set blocks can be arbitrarily set from the management terminal 20, for example.

また、計算式における分母と分子を異なる量に設定し、複数の空間使用率の定義とすることもできる。例えば、分母を画像上の面積、あるいは実空間上の面積とすれば、少なくとも2種類の空間使用率を定義することができる。さらに、分母を画像全体またはエリア内の、過去に人物が存在した領域の面積と定義しても良い。その際、過去1日の平均値、過去1週間の平均値、過去1か月の平均値、季節ごとの平均値、あるいは年単位での平均値というように、参照時間を定義することもできる。分母に対する参照時間は、空間使用率の算出の際の蓄積時間と同じでも、異なっていてもよい。分母に適用される量、および参照時間は例えば管理端末20から任意に設定することができる。 Also, the denominator and numerator in the calculation formula can be set to different amounts to define a plurality of space usage rates. For example, if the denominator is the area on the image or the area on the real space, at least two types of space usage rates can be defined. Furthermore, the denominator may be defined as the area of the entire image or area in which a person has existed in the past. In doing so, it is also possible to define a reference time such as the average value of the past day, the average value of the past week, the average value of the past month, the average value of each season, or the average value of a year. . The reference time to the denominator may be the same as or different from the accumulated time when calculating space utilization. The amount applied to the denominator and the reference time can be arbitrarily set from the management terminal 20, for example.

分子としては、例えば人物領域の面積を適用することができる。人物に一つ以上の条件付けをし、一つ以上の人物領域の面積として分子を定義することもできる。条件付けの例としては、例えば動きの大きさ(オフィスワークしていている人、歩行している人など)がある。また、姿勢(立っている人、座っている人など)、服装(制服を着ている人、スーツを着ている人など)、属性(男女、年代)なども、条件付けの例として用いることができる。さらには、視野内の個人を特定し、個人ごとの領域面積を分子として用いれば、当該個人の空間使用率を計算することができる。 As the numerator, for example, the area of the person region can be applied. One can also apply one or more conditionings to the person and define the numerator as the area of one or more person regions. Examples of conditioning include, for example, magnitude of movement (person working in an office, person walking, etc.). In addition, posture (person standing, sitting, etc.), clothing (person wearing uniform, person wearing suit, etc.), attributes (gender, age), etc. can also be used as examples of conditioning. can. Furthermore, by specifying an individual within the field of view and using the area of each individual as a numerator, it is possible to calculate the space usage rate of the individual.

また、空間使用率の定義の例として、空間単位(ゾーン、フロア、複数フロア、ビル全体、組織単位(課、部)など過去に人物が存在した領域の面積)、あるいは時間単位(時間、日、週、月、年、営業日、休日など)を設定することができる。 In addition, as an example of the definition of the space utilization rate, space units (zones, floors, multiple floors, entire buildings, organizational units (sections, departments), etc., areas where people have lived in the past) or time units (hours, days , week, month, year, business day, holiday, etc.) can be set.

さらに、プロセッサ75は、空間使用率を算出する領域を対象空間に設定する。例えば、オフィスフロアの椅子ごとに領域を設定し、それぞれの椅子に人がどのくらいの時間座っているかを示す量(着席率)を、空間使用率として定義することができる。領域の設定には、例えばセマンティックセグメーションなどの手法を適用することができる。 Furthermore, the processor 75 sets the area for which the space usage rate is to be calculated in the target space. For example, it is possible to set an area for each chair on the office floor, and define the space usage rate as the amount (seating rate) indicating how long people are sitting in each chair. A technique such as semantic segmentation, for example, can be applied to the setting of the area.

予測部75dは、蓄積された空間使用率74dに基づいて、将来の空間使用率を予測する。例えば、明日の空間使用率を予測することにより、明日の混雑場所を予測することができる。 The prediction unit 75d predicts the future space usage rate based on the accumulated space usage rate 74d. For example, by predicting tomorrow's space utilization rate, tomorrow's crowded places can be predicted.

分析部75eは、蓄積された空間使用率74dに基づいて、当該空間使用率に関する傾向を分析する。対象空間にわたって統合した空間使用率を分析することにより、例えば、特定の曜日や特定の季節、特異日などにおいて、特定の場所が混雑するなどの、有意な傾向を抽出することができる。 Based on the accumulated space usage rate 74d, the analysis unit 75e analyzes the trend of the space usage rate. By analyzing the space utilization rate integrated over the target space, for example, it is possible to extract significant trends such as congestion in a specific place on a specific day of the week, a specific season, or a specific day.

可視化部75fは、プロセッサ75により算出された空間使用率、将来の空間使用率、あるいは空間使用率の傾向を可視化し、ユーザに視覚的に訴求できるようにする。可視化処理としては、例えば、空間使用率のグラフ化、またはヒートマップ化を挙げることができる。 The visualization unit 75f visualizes the space usage rate calculated by the processor 75, the future space usage rate, or the tendency of the space usage rate, so as to visually appeal to the user. Visualization processing may include, for example, graphing the space utilization rate or heat mapping.

<作用>
次に、上記構成における作用を説明する。
図6は、実施形態に係わる画像センサ3の処理手順の一例を示すフローチャートである。図6において、画像センサ3は、撮像部31で取得(ステップS11)した画像データ32bをメモリ32に記憶し、蓄積する(ステップS12)。記憶された画像データ32bは、空間使用データ生成部33aに渡される。
<Action>
Next, the operation of the above configuration will be described.
FIG. 6 is a flow chart showing an example of the processing procedure of the image sensor 3 according to the embodiment. In FIG. 6, the image sensor 3 stores the image data 32b acquired by the imaging unit 31 (step S11) in the memory 32 and accumulates them (step S12). The stored image data 32b is passed to the space usage data generator 33a.

空間使用データ生成部33aは、設定されたパラメータのもとで画像データ32bを画像処理し、空間使用データを生成する(ステップS13)。生成された空間使用データは、通信部34からセンサネットワーク9経由でゲートウェイ装置7に送信される。 The space use data generator 33a performs image processing on the image data 32b under the set parameters to generate space use data (step S13). The generated space use data is transmitted from the communication unit 34 to the gateway device 7 via the sensor network 9 .

図7は、画像センサ3の撮像部31の視野内の画像の一例を示す図である。図7は、ある特定の時点を捉えた1フレームの画像を示し、この時点における人物の居場所が捉えられている。着席している人もいれば、歩行中の人物もいる。撮像部31は、時系列の画像データ(フレーム)をメモリ32に蓄積する。そして、一定の期間にわたる画像データを処理して、例えばセルごとの人物の存在期間を反映する空間使用データが生成される。 FIG. 7 is a diagram showing an example of an image within the field of view of the imaging section 31 of the image sensor 3. As shown in FIG. FIG. 7 shows a one-frame image captured at a specific point in time, and captures the location of a person at this point in time. Some are seated, some are walking. The imaging unit 31 accumulates time-series image data (frames) in the memory 32 . Image data over a period of time is then processed to generate space usage data reflecting, for example, the duration of a person's presence for each cell.

図8は、画像センサ3におけるデータの流れの一例を示す図である。図8において、撮像部31で取得された画像データ32bは、メモリ32に一時的に記憶されたのち、プロセッサ33の空間使用データ生成部33aに渡される。空間使用データ生成部33aは、メモリのパラメータ32cを用いて、画像データ32bから空間使用データを生成する。生成された空間使用データは、通信部34からゲートウェイ装置7に送信される。 FIG. 8 is a diagram showing an example of data flow in the image sensor 3. As shown in FIG. In FIG. 8, the image data 32b acquired by the imaging unit 31 is temporarily stored in the memory 32 and then transferred to the space usage data generation unit 33a of the processor 33. FIG. The space use data generator 33a uses the memory parameter 32c to generate space use data from the image data 32b. The generated space usage data is transmitted from the communication unit 34 to the gateway device 7 .

図9は、ゲートウェイ装置7の処理手順の一例を示すフローチャートである。図9において、ゲートウェイ装置7は画像センサ3-1~3-nと通信し(ステップS21)、画像センサ3-1~3-nにおいて個別に検知された空間使用率データ(センシング情報)を取得して記憶部74に蓄積する(ステップS22)。次にゲートウェイ装置7は、統合処理部75bにより、蓄積された空間使用データ74cを共通の対象空間に対して統合する。 FIG. 9 is a flow chart showing an example of the processing procedure of the gateway device 7. As shown in FIG. In FIG. 9, the gateway device 7 communicates with the image sensors 3-1 to 3-n (step S21) and acquires space usage rate data (sensing information) individually detected by the image sensors 3-1 to 3-n. and stores it in the storage unit 74 (step S22). Next, the gateway device 7 integrates the accumulated space use data 74c with respect to the common target space by the integration processing unit 75b.

ゲートウェイ装置7は、この統合した空間使用データに所定の計算アルゴリズム(計算式)を適用して空間使用率を算出し(ステップS23)記憶部74に蓄積する(ステップS24)。
次に、ゲートウェイ装置7は、蓄積された空間使用率74dを分析して、例えば所定の期間にわたる種々の傾向を算出するとともに(ステップS25)、例えば統計的な解析により、将来の空間使用率を予測する(ステップS26)。
次に、ゲートウェイ装置7は、空間使用率を可視化して可視化データを作成し(ステップS27)、この可視化データをBEMSサーバ5や管理端末20等に送信する(ステップS28)。
The gateway device 7 applies a predetermined calculation algorithm (calculation formula) to the integrated space use data to calculate the space use rate (step S23) and stores it in the storage unit 74 (step S24).
Next, the gateway device 7 analyzes the accumulated space utilization rate 74d, calculates various trends over a predetermined period, for example (step S25), and predicts the future space utilization rate by, for example, statistical analysis. Predict (step S26).
Next, the gateway device 7 visualizes the space usage rate to create visualization data (step S27), and transmits this visualization data to the BEMS server 5, the management terminal 20, and the like (step S28).

図10は、空間使用率の一例を示す模式図である。対象空間に対して設定されたセル(マス目)ごとに、人物の滞在期間がグラフィカルに示される。図10においては、例えば60分を最大値とし、滞在期間が10分になるまで、例えば4ランクの濃さで着席時間が可視化される。蓄積された画像データから着席時間を可視化し、さらに分析することで、例えば(2021年MM月DD日の、9:00~10:00における[着席率]は、48%)といった値が算出される。この[着席率]が、空間使用率の一例である。 FIG. 10 is a schematic diagram showing an example of the space usage rate. The period of stay of a person is graphically shown for each cell (square) set in the target space. In FIG. 10, for example, 60 minutes is set as the maximum value, and the sitting time is visualized with, for example, 4 ranks until the length of stay reaches 10 minutes. By visualizing the sitting time from the accumulated image data and further analyzing it, for example, a value such as ([Seating rate] from 9:00 to 10:00 on DD, MM, 2021 is 48%) is calculated. be. This [seat rate] is an example of the space usage rate.

図11は、ゲートウェイ装置7におけるデータの流れの一例を示す図である。図11において、通信部77は、画像センサ3-1~3-nからセンサネットワーク9経由で空間使用データを取得し、蓄積する。統合処理部75bは、記憶部74に蓄積された、画像センサ(エリア)ごとの空間使用データ74cを読み出し、統合して、対象空間における空間使用率データを生成する。空間使用率算出部75cは、対象空間での空間使用率データから所定のアルゴリズムにより空間使用率を生成する。対象空間についての空間使用率は、分析部75eに渡されて各種の傾向が求められるとともに、予測部75dに渡されて将来の空間使用率が計算される。そして可視化部75fにより、現在の空間使用率、空間使用率の傾向、および将来の空間使用率が可視化され、図12、図13に示すような可視化データが得られる。この可視化データは通信部77に渡されて宛先に向け送信される。 FIG. 11 is a diagram showing an example of data flow in the gateway device 7. As shown in FIG. In FIG. 11, the communication unit 77 acquires space use data from the image sensors 3-1 to 3-n via the sensor network 9 and accumulates it. The integration processing unit 75b reads the space usage data 74c for each image sensor (area) accumulated in the storage unit 74, integrates them, and generates space usage rate data in the target space. The space usage rate calculator 75c generates a space usage rate from the space usage rate data in the target space using a predetermined algorithm. The space usage rate of the target space is passed to the analysis unit 75e to obtain various trends, and is also passed to the prediction unit 75d to calculate the future space usage rate. The visualization unit 75f visualizes the current space usage rate, the trend of the space usage rate, and the future space usage rate, and visualized data as shown in FIGS. 12 and 13 are obtained. This visualized data is passed to the communication unit 77 and transmitted to the destination.

図12は、空間使用率の分布、方向、密度などを色分けして示す画像(ヒートマップ)の一例を示す図である。例えば、人が良く通るエリア(空間使用率が密)を赤色、人があまり通らないエリア(空間使用率が疎)を黄色、その中間をオレンジなどの色分けで示すことにより(カラーマップ)、例えばフロアにおける混雑度や動線を一目で把握することができる。もちろん、空間使用率の長さ(大きさ)や方向に応じて色分けしてもよい。この種のヒートマップは、例えばオフィスフロア、空港、あるいは駅のコンコースなどに適用することが可能である。 FIG. 12 is a diagram showing an example of an image (heat map) showing the distribution, direction, density, etc. of the space usage rate in different colors. For example, by using colors such as red to indicate areas where people frequently pass by (dense space utilization), yellow for areas where few people pass by (sparse space utilization), and orange for the middle (color map), You can grasp the degree of congestion and flow lines on the floor at a glance. Of course, different colors may be used according to the length (magnitude) and direction of the space usage rate. This kind of heat map can be applied, for example, to office floors, airports or train station concourses.

空間使用率の分析結果を活用することで、オフィスや店舗、公共施設や工場などの現状を把握し、改善を図ることができる。例えば以下の2例が代表的である。
(1) オフィス改善の例
会議室などの利用率を分析し、利用率の低い領域を別の用途に変更する。フリーアドレスのオフィスや兼務者の領域などの在席率を推定し、不要な領域を別の用途に変更する。動線がスマートなレイアウトに変更する。
(2) 店舗改善の例
人通りの多いところに広告を表示する。動線に合わせて関連商品を配置する。
By utilizing the analysis results of the space utilization rate, it is possible to grasp the current situation of offices, stores, public facilities, factories, etc., and make improvements. For example, the following two examples are typical.
(1) Examples of office improvements
Analyze the utilization rate of a conference room, etc., and change areas with low utilization rates to other uses. Estimate the occupancy rate of free-address offices, areas of people with multiple jobs, etc., and change unnecessary areas to other uses. Change the flow line to a smart layout.
(2) Examples of store improvements
Display ads in high-traffic areas. Arrange related products according to the flow line.

あるいは、食堂などの混雑上状況をほぼリアルタイムで把握し、利用者のスマートフォンに表示する、などのアプリケーションも考えられる。
図13に示されるように、所定の空間(食堂など)のエリアごとに混雑状況を色分けし、Web経由でアクセス可能なヒートマップとして公開すれば、利用者への便宜を図ることができる。
Another conceivable application is to grasp the congestion status of a cafeteria in almost real time and display it on the user's smartphone.
As shown in FIG. 13, if the congestion status is color-coded for each area of a predetermined space (dining room, etc.) and published as a heat map that can be accessed via the Web, it is possible to improve convenience for users.

<効果>
以上説明したようにこの実施形態では、画像センサ3-1~3-nにおいてエリアごとに撮像した画像データから、空間使用率を算出する基となるデータとしての空間使用データをそれぞれ算出する。画像センサ3-1~3-nは、このエリアごとの空間使用データを、センシングデータとしてゲートウェイ装置7に送信する。ゲートウェイ装置7は、取得した空間使用データをマップデータ74bに基づいて統合して対象空間の単位での空間使用データを生成し、さらに、この統合された空間使用データから、機器制御のためのデータとしての空間使用率を算出するようにした。つまり、カラーマップ等の空間使用データの算出にとどまらず、制御対象の機器に直接投入することの可能な制御量を、対象空間の全体にわたって算出できるようにした。従って、画像センサ単体では得られない、詳細な空間使用率を算出することができ、これによりビルにおける空調制御、照明制御の自由度や精度を飛躍的に高めることが可能になる。
<effect>
As described above, in this embodiment, the space usage data as the basis for calculating the space usage rate is calculated from the image data captured by the image sensors 3-1 to 3-n for each area. The image sensors 3-1 to 3-n transmit the space use data for each area to the gateway device 7 as sensing data. The gateway device 7 integrates the acquired space usage data based on the map data 74b to generate space usage data in units of the target space, and further converts the integrated space usage data into data for device control. It was made to calculate the space utilization rate as. In other words, in addition to calculating space use data such as a color map, it is possible to calculate a control amount that can be directly applied to a device to be controlled over the entire target space. Therefore, it is possible to calculate a detailed space utilization rate that cannot be obtained by a single image sensor, and thereby dramatically improve the flexibility and accuracy of air conditioning control and lighting control in a building.

また実施形態では、空間使用率を算出するにあたり、複数のパラメータと、複数の計算式(アルゴリズム)とをゲートウェイ装置7に予め登録しておき、異なるパラメータ、アルゴリズムのもとでの空間使用率を算出できるようにした。このようにしたので、対象とする空間や建物の特性に応じた空間使用率を算出することが可能になる。例えば月ごと、季節ごと等の空間使用率の傾向を利用することで、オフィスの機器レイアウトの改善に役立てることが可能になる。 Further, in the embodiment, when calculating the space utilization rate, a plurality of parameters and a plurality of calculation formulas (algorithms) are registered in the gateway device 7 in advance, and the space utilization rate under different parameters and algorithms is calculated. made it possible to calculate Since this is done, it is possible to calculate the space usage rate according to the characteristics of the target space and building. For example, by using trends in space usage rates by month, season, etc., it is possible to make use of this to improve the equipment layout of the office.

これらのことから実施形態によれば、空間の使用率を算出できる画像センサ、センシング方法、およびプログラムを提供することができる。これにより、例えば、人が留まっている度合いを場所ごとに示す指標を出力できるようになり、機器制御との親和性を高めた画像センサシステムを提供できる。 From these, according to the embodiment, it is possible to provide an image sensor, a sensing method, and a program capable of calculating the space usage rate. As a result, for example, it becomes possible to output an index indicating the degree to which a person stays for each location, and it is possible to provide an image sensor system with improved compatibility with device control.

なお、この発明は上記実施形態に限定されるものではない。例えば、撮像部31において魚眼レンズに限定されず、鏡面を利用したいわゆるパノラマレンズなどの、他の形式の広角レンズを用いることも可能である。 In addition, this invention is not limited to the said embodiment. For example, the imaging unit 31 is not limited to a fish-eye lens, and it is also possible to use another type of wide-angle lens such as a so-called panorama lens using a mirror surface.

また、検知の対象は人物に限定されず、人物とは異なる物体であっても良い。例えばオフィスにおける背景を検知・識別するための背景辞書、机を検知するための机辞書、椅子を検知するための椅子辞書、あるいは什器や複合機などを検知するための辞書を用いれば、人物だけでなく、様々な対象を検知することができる。
また、計算装置としてのゲートウェイ装置7に実装した各種機能を、管理端末20、あるいはBEMSサーバ5に実装してもよい。
Also, the object to be detected is not limited to a person, and may be an object other than a person. For example, if you use a background dictionary for detecting and identifying the background in an office, a desk dictionary for detecting desks, a chair dictionary for detecting chairs, or a dictionary for detecting fixtures and multifunction devices, only people can be detected. Instead, it can detect various objects.
Also, various functions implemented in the gateway device 7 as a computing device may be implemented in the management terminal 20 or the BEMS server 5 .

本発明の実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While embodiments of the invention have been described, the embodiments are provided by way of example and are not intended to limit the scope of the invention. This novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

1…照明設備、2…空調機器、3…画像センサ、3-1~3-n…画像センサ、4…照明コントローラ、5…BEMSサーバ、7…ゲートウェイ装置、8…ビル内ネットワーク、9…センサネットワーク、10…通信ネットワーク、20…管理端末、30…レジスタ、30a…カメラ情報、31…撮像部、31a…魚眼レンズ、31b…絞り機構、31c…イメージセンサ、32…メモリ、32a…プログラム、32b…画像データ、32c…パラメータ、33…プロセッサ、33a…空間使用データ生成部、34…通信部、35…内部バス、72…ROM、73…RAM、74…記憶部、74a…プログラム、74b…マップデータ、74c…空間使用データ、74d…空間使用率、74e…アルゴリズム、75…プロセッサ、75a…取得部、75b…統合処理部、75c…空間使用率算出部、75d…予測部、75e…分析部、75f…可視化部、77…通信部、100…クラウド、200…サーバ、300…データベース、400…ビル。 DESCRIPTION OF SYMBOLS 1... Lighting installation, 2... Air conditioner, 3... Image sensor, 3-1-3-n... Image sensor, 4... Lighting controller, 5... BEMS server, 7... Gateway apparatus, 8... Building network, 9... Sensor Network 10... Communication network 20... Management terminal 30... Register 30a... Camera information 31... Imaging unit 31a... Fisheye lens 31b... Aperture mechanism 31c... Image sensor 32... Memory 32a... Program 32b... Image data 32c Parameter 33 Processor 33a Space usage data generator 34 Communication unit 35 Internal bus 72 ROM 73 RAM 74 Storage unit 74a Program 74b Map data , 74c... Space usage data, 74d... Space usage rate, 74e... Algorithm, 75... Processor, 75a... Acquisition unit, 75b... Integrated processing unit, 75c... Space usage rate calculation unit, 75d... Prediction unit, 75e... Analysis unit, 75f...Visualization part, 77...Communication part, 100...Cloud, 200...Server, 300...Database, 400...Building.

Claims (10)

対象空間に設置される複数の画像センサと、
前記画像センサと通信可能な計算装置とを具備し、
前記画像センサは、
それぞれ割り当てられたエリアの画像データを取得する撮像部と、
前記画像データを画像処理して当該エリアにおける動体の分布を示す空間使用データを生成するプロセッサとを備え、
前記計算装置は、
前記複数の画像センサから前記空間使用データを取得する取得部と、
前記対象空間と前記エリアとの対応関係を示すマップデータを記憶する記憶部と、
前記取得された空間使用データを前記マップデータに基づいて統合して、前記対象空間における空間使用データを生成する統合処理部と、
前記対象空間における空間使用データに基づいて、動体が前記対象空間を使用している度合いを場所ごとに示す指標である空間使用率を算出する空間使用率算出部とを備える、画像センサシステム。
a plurality of image sensors installed in the target space;
a computing device in communication with the image sensor;
The image sensor is
an imaging unit that acquires image data of each assigned area;
a processor that performs image processing on the image data to generate space usage data that indicates the distribution of moving objects in the area;
The computing device
an acquisition unit that acquires the space usage data from the plurality of image sensors;
a storage unit that stores map data indicating a correspondence relationship between the target space and the area;
an integration processing unit that integrates the acquired space usage data based on the map data to generate space usage data in the target space;
an image sensor system, comprising: a space usage rate calculation unit that calculates a space usage rate, which is an index indicating the extent to which a moving body uses the target space for each location, based on space usage data in the target space.
前記計算装置は、
前記算出された空間使用率を蓄積する記憶部と、
前記蓄積された空間使用率に基づいて将来の空間使用率を予測する予測部をさらに備える、請求項1に記載の画像センサシステム。
The computing device
a storage unit for accumulating the calculated space utilization rate;
2. The image sensor system of claim 1, further comprising a predictor that predicts future space utilization based on the accumulated space utilization.
前記計算装置は、
前記算出された空間使用率を蓄積する記憶部と、
前記蓄積された空間使用率に基づいて前記空間使用率に関する傾向を分析する分析部をさらに備える、請求項1に記載の画像センサシステム。
The computing device
a storage unit for accumulating the calculated space utilization rate;
2. The image sensor system of claim 1, further comprising an analysis unit that analyzes trends regarding the space utilization based on the accumulated space utilization.
前記計算装置は、
前記算出された空間使用率を可視化する可視化部をさらに備える、請求項1に記載の画像センサシステム。
The computing device
2. The image sensor system of claim 1, further comprising a visualization unit that visualizes the calculated space utilization.
前記計算装置は、
前記算出された空間使用率を蓄積する記憶部と、
前記蓄積された空間使用率に基づいて将来の空間使用率を予測する予測部と、
前記将来の空間使用率を可視化する可視化部とをさらに備える、請求項1に記載の画像センサシステム。
The computing device
a storage unit for accumulating the calculated space utilization rate;
a prediction unit that predicts future space utilization based on the accumulated space utilization;
2. The image sensor system of claim 1, further comprising a visualization unit that visualizes the future space utilization.
前記計算装置は、
前記算出された空間使用率を蓄積する記憶部と、
前記蓄積された空間使用率に基づいて前記空間使用率に関する傾向を分析する分析部と、
前記空間使用率に関する傾向を可視化する可視化部とをさらに備える、請求項1に記載の画像センサシステム。
The computing device
a storage unit for accumulating the calculated space utilization rate;
an analysis unit that analyzes a trend regarding the space utilization rate based on the accumulated space utilization rate;
2. The image sensor system of claim 1, further comprising a visualization unit that visualizes trends regarding the space utilization.
前記プロセッサは、前記エリアにおけるセンシング項目として在不在、人数、活動量、照度、および歩行滞留のうち少なくともいずれかをセンシングする、請求項1に記載の画像センサシステム。 2. The image sensor system according to claim 1, wherein said processor senses at least one of presence/absence, number of people, amount of activity, illuminance, and staying on foot as sensing items in said area. 割り当てエリアにおける空間使用データをそれぞれ生成する複数の画像センサと通信可能な計算装置であって、
前記複数の画像センサから前記空間使用データを取得する取得部と、
対象空間と前記画像センサごとに割り当てられたエリアとの対応関係を示すマップデータを記憶する記憶部と、
前記取得された空間使用データを前記マップデータに基づいて統合して、前記対象空間における空間使用データを生成する統合処理部と、
前記対象空間における空間使用データに基づいて、動体が前記対象空間を使用している度合いを場所ごとに示す指標である空間使用率を算出する空間使用率算出部とを備える、画像センサシステム。
A computing device in communication with a plurality of image sensors each generating space usage data in an assigned area, comprising:
an acquisition unit that acquires the space usage data from the plurality of image sensors;
a storage unit that stores map data indicating the correspondence relationship between the target space and the areas assigned to each of the image sensors;
an integration processing unit that integrates the acquired space usage data based on the map data to generate space usage data in the target space;
an image sensor system, comprising: a space usage rate calculation unit that calculates a space usage rate, which is an index indicating the extent to which a moving body uses the target space for each location, based on space usage data in the target space.
コンピュータにより実行されるセンシング方法であって、
前記コンピュータが、割り当てエリアにおける空間使用データをそれぞれ生成する複数の画像センサから前記空間使用データを取得することと、
前記コンピュータが、対象空間と前記画像センサごとの割り当てエリアとの対応関係を示すマップデータに基づいて、前記取得された空間使用データを統合して、前記対象空間における空間使用データを生成することと、
前記コンピュータが、前記対象空間における空間使用データに基づいて、動体が前記対象空間を使用している度合いを場所ごとに示す指標である空間使用率を算出することとを具備する、センシング方法。
A computer implemented sensing method comprising:
the computer obtaining the space usage data from a plurality of image sensors each generating space usage data in an assigned area;
The computer generates space usage data in the target space by integrating the acquired space usage data based on map data indicating the correspondence relationship between the target space and the allocated areas for each of the image sensors. ,
A sensing method, wherein the computer calculates a space usage rate, which is an index indicating the extent to which a moving body uses the target space for each location, based on space usage data in the target space.
割り当てエリアにおける空間使用データをそれぞれ生成する複数の画像センサと通信可能なコンピュータに、
割り当てエリアにおける空間使用データをそれぞれ生成する複数の画像センサから前記空間使用データを取得することと、
対象空間と前記画像センサごとの割り当てエリアとの対応関係を示すマップデータに基づいて、前記取得された空間使用データを統合して、前記対象空間における空間使用データを生成することと、
前記対象空間における空間使用データに基づいて、動体が前記対象空間を使用している度合いを場所ごとに示す指標である空間使用率を算出することとを実行させる、プログラム。
a computer capable of communicating with a plurality of image sensors each generating spatial usage data in an assigned area;
obtaining the space usage data from a plurality of image sensors each generating space usage data in an assigned area;
generating space usage data in the target space by integrating the acquired space usage data based on map data indicating the correspondence relationship between the target space and the allocated areas for each of the image sensors;
calculating a space usage rate, which is an index indicating the extent to which a moving body uses the target space for each location, based on space usage data in the target space.
JP2021129073A 2021-08-05 2021-08-05 Image sensor system, calculation device, sensing method and program Pending JP2023023492A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021129073A JP2023023492A (en) 2021-08-05 2021-08-05 Image sensor system, calculation device, sensing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021129073A JP2023023492A (en) 2021-08-05 2021-08-05 Image sensor system, calculation device, sensing method and program

Publications (1)

Publication Number Publication Date
JP2023023492A true JP2023023492A (en) 2023-02-16

Family

ID=85203013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021129073A Pending JP2023023492A (en) 2021-08-05 2021-08-05 Image sensor system, calculation device, sensing method and program

Country Status (1)

Country Link
JP (1) JP2023023492A (en)

Similar Documents

Publication Publication Date Title
JP6705028B2 (en) Image sensor
CN108241300B (en) Device control for predetermined spatial regions
US9464819B2 (en) Air conditioning control system and air conditioning control method
JP7463582B2 (en) Sensing system, maintenance terminal device, data distribution method, and image sensor
US10416143B2 (en) Devices and methods for determining and acting upon cumulative exposure of a building occupant to a hazardous substance
CN110892207B (en) Indoor environment weighted preference management
WO2017072158A1 (en) A system and method for determining the location and occupancy of workspaces
JP6296725B2 (en) Building equipment control system and image sensor
WO2019087742A1 (en) Image sensor, sensing method, control system and program
JP2023023492A (en) Image sensor system, calculation device, sensing method and program
CA3039375A1 (en) Neural network combining visible and thermal images for inferring environmental data of an area of a building
JP2022141274A (en) Image sensor, sensing method, and program
CN112005246A (en) Information management system
JP6524201B2 (en) Building equipment control system and image sensor device
JP7419095B2 (en) Image sensors, computing devices, and image sensor systems
JP2022114707A (en) Air-conditioning control system, server, air-conditioning control method and program
Gaonkar et al. Comfort Management System for Smart Buildings: An Open-Source Scalable Prototype
JP7254570B2 (en) Image sensor system, computing device, sensing method, and program
JP7237499B2 (en) Image sensor, sensing method, control system and program
JP6635857B2 (en) Device control system, device control method, controller, and device control program
JP7237713B2 (en) Sensor system, image sensor, and sensing method
JP7145693B2 (en) SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR
WO2019082652A1 (en) Image sensor, person detection method, program, and control system
JP7286747B2 (en) Image sensor, motion detection method, program and control system
JP2022020297A (en) Image sensor, sensing method and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240319