JP2022141274A - Image sensor, sensing method, and program - Google Patents

Image sensor, sensing method, and program Download PDF

Info

Publication number
JP2022141274A
JP2022141274A JP2021041499A JP2021041499A JP2022141274A JP 2022141274 A JP2022141274 A JP 2022141274A JP 2021041499 A JP2021041499 A JP 2021041499A JP 2021041499 A JP2021041499 A JP 2021041499A JP 2022141274 A JP2022141274 A JP 2022141274A
Authority
JP
Japan
Prior art keywords
space
image
image sensor
processor
space usage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021041499A
Other languages
Japanese (ja)
Inventor
孝明 榎原
Takaaki Enohara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2021041499A priority Critical patent/JP2022141274A/en
Publication of JP2022141274A publication Critical patent/JP2022141274A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image sensor, a sensing method and a program, which allow for obtaining space usage.SOLUTION: An image sensor 3 is provided, comprising an image capturing unit 31 configured to obtain image data by capturing an image of a target space, a memory 32 for storing the image data, and a processor 33 configured to perform image processing on the stored image data to compute a space usage rate, which is an indicator of an extent of usage of the target space by a moving object at each location.SELECTED DRAWING: Figure 4

Description

本発明の実施形態は、画像センサ、センシング方法、およびプログラムに関する。 Embodiments of the present invention relate to image sensors, sensing methods, and programs.

近年の画像センサは、CPU(Central Processing Unit)やメモリを備え、いわばレンズ付きの組み込みコンピュータといえる。高度な画像処理機能も有しており、撮影した画像データを分析して、視野内を動く人間等の在・不在、あるいは人数などを計算することができる。以下、画像センサの視野内を移動して検出対象になり得る物体を、動体と称する。例えば人や動物などの生物や、非生物の移動体(車両など)が動体である。 A recent image sensor is equipped with a CPU (Central Processing Unit) and memory, and can be said to be a so-called built-in computer with a lens. It also has advanced image processing functions, and can analyze the captured image data and calculate the presence/absence of people moving within the field of view, or the number of people. An object that can be detected by moving within the field of view of the image sensor is hereinafter referred to as a moving object. For example, living objects such as humans and animals, and non-living moving objects (vehicles, etc.) are moving objects.

特許第6616521号公報Japanese Patent No. 6616521 特開2019-200715号公報JP 2019-200715 A 特開2012-146022号公報JP 2012-146022 A 特開2013-137701号公報Japanese Unexamined Patent Application Publication No. 2013-137701 特開2003-109001号公報Japanese Patent Application Laid-Open No. 2003-109001

人流データは、動体の移動する度合いをデータ化した指標である。人流データを用いれば、人の動きの激しい場所を濃い色で、動きのあまりない場所を薄い色で表現したりして、人間の目視確認に有効な情報を作成することができる(ヒートマップ)。つまり、人流データは、個々の人がどのように動いたかを蓄積して得られるデータで、人を主体として議論されるデータといえる。 The people flow data is an index that converts the degree of movement of moving bodies into data. By using people flow data, it is possible to create information that is effective for visual confirmation of people (heat map), by expressing places where there is a lot of movement of people in dark colors and places where there is little movement in light colors. . In other words, people flow data is data obtained by accumulating how individual people move, and it can be said that people are the subject of discussion.

これとは異なる観点から、動体が空間を使用している度合いを数値化したいというニーズが高まってきている。例えば、人がその場に留まっている度合いを数値として算出し、その値を空調や照明の制御システムに与えることでより快適な空間を作り出すことが考えられている。しかしながら、動体が空間を使用している度合いを数値として算出できるようにした技術は知られていない。既存の技術では密度や混雑度などの指標が知られているに過ぎず、機器に直接入力可能な、いわば動体の空間使用率と称することのできる指標を求めることはできなかった。 From a different point of view, there is an increasing need to quantify the extent to which a moving object uses space. For example, it is considered to create a more comfortable space by calculating the degree to which a person stays in place as a numerical value and applying that value to an air conditioning or lighting control system. However, there is no known technology that enables numerical calculation of the degree to which a moving object uses space. With existing technology, only indices such as density and degree of congestion are known, and indices that can be directly input to devices and can be called space utilization rates of moving objects cannot be obtained.

そこで、目的は、空間の使用率を得ることのできる画像センサ、センシング方法、およびプログラムを提供することにある。 Therefore, an object is to provide an image sensor, a sensing method, and a program capable of obtaining the utilization rate of space.

実施形態によれば、画像センサは、撮像部と、記憶部と、プロセッサとを具備する。撮像部は、対象空間を撮像して画像データを取得する。記憶部は、画像データを記憶する。プロセッサは、記憶された画像データを画像処理して、動体が対象空間を使用している度合いを場所ごとに示す指標である空間使用率を算出する。 According to an embodiment, an image sensor comprises an imaging unit, a storage unit, and a processor. The imaging unit acquires image data by imaging a target space. The storage unit stores image data. The processor performs image processing on the stored image data to calculate a space usage rate, which is an index indicating the extent to which the moving object uses the target space for each location.

図1は、実施形態に係る画像センサを備える画像センサシステムの一例を示す模式図である。FIG. 1 is a schematic diagram illustrating an example of an image sensor system including an image sensor according to an embodiment. 図2は、ビル内のフロアの一例を示す図である。FIG. 2 is a diagram showing an example of floors in a building. 図3は、図1に示される画像センサシステムの一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the image sensor system shown in FIG. 図4は、実施形態に係る画像センサ3の一例を示すブロック図である。FIG. 4 is a block diagram showing an example of the image sensor 3 according to the embodiment. 図5は、画像センサ3におけるデータの流れの一例を示す図である。FIG. 5 is a diagram showing an example of data flow in the image sensor 3. As shown in FIG. 図6は、実施形態に係わる画像センサ3の処理手順の一例を示すフローチャートである。FIG. 6 is a flow chart showing an example of the processing procedure of the image sensor 3 according to the embodiment. 図7は、撮像部31の視野内の画像の一例を示す図である。FIG. 7 is a diagram showing an example of an image within the field of view of the imaging section 31. As shown in FIG. 図8は、空間使用データの一例を示す模式図である。FIG. 8 is a schematic diagram showing an example of space usage data. 図9は、着席率に基づく自動領域分割の一例を示す模式図である。FIG. 9 is a schematic diagram showing an example of automatic area division based on the seating rate. 図10は、レイアウトマップの一例を示す模式図である。FIG. 10 is a schematic diagram showing an example of a layout map. 図11は、動き分布に基づいて分割された領域の一例を示す図である。FIG. 11 is a diagram showing an example of regions divided based on motion distribution. 図12は、領域分割された対象空間の属性を示す図である。FIG. 12 is a diagram showing attributes of a target space divided into regions.

画像センサは、人感センサ、明かりセンサあるいは赤外線センサ等に比べて多様な情報を取得することができる。魚眼レンズなどの広角レンズを用いれば、1台の画像センサで撮影可能な領域を拡大できる。画像の歪みは計算処理で補正することができる。視野内のセンシングしたくない領域をマスク設定する機能や、学習機能を備えた画像センサも知られている。 An image sensor can acquire a wider variety of information than a human sensor, a light sensor, an infrared sensor, or the like. By using a wide-angle lens such as a fisheye lens, the area that can be captured by a single image sensor can be expanded. Image distortion can be corrected by computational processing. Image sensors are also known that have a function of masking an area in the field of view that is not desired to be sensed, and have a learning function.

近年の画像センサは、CPU(Central Processing Unit)やメモリを備え、いわばレンズ付きの組み込みコンピュータといえる。高度な画像処理機能も有しており、撮影した画像データを分析して、例えば人間の在不在、あるいは人数などを計算することができる。通信機能を持つものもあり、IoT(Internet of Things)技術との親和性も高い。さらには、ビッグデータ解析のためのエッジデバイスとしても期待されている。魚眼カメラで撮像した画像データを処理し、精度の高いセンシングデータを得ることが重要である。以下では、画像センサを利用するソリューションの一例について説明する。 A recent image sensor is equipped with a CPU (Central Processing Unit) and memory, and can be said to be a so-called built-in computer with a lens. It also has advanced image processing functions, and can analyze captured image data and calculate the presence or absence of people, or the number of people, for example. Some have communication functions, and have a high affinity with IoT (Internet of Things) technology. Furthermore, it is also expected to be an edge device for big data analysis. It is important to process image data captured by a fisheye camera and obtain highly accurate sensing data. An example of a solution using an image sensor is described below.

[構成]
図1は、実施形態に係る画像センサを備える画像センサシステムの一例を示す模式図である。図1において、照明設備1、照明コントローラ4、および画像センサ3(3-1~3-n)は、ビル400の例えばフロアごとに設けられ、ゲートウェイ装置7と通信可能に接続される。各階のゲートウェイ装置7は、ビル内ネットワーク8を介して、例えばビル管理センタのBEMS(Building Energy Management System)サーバ5と通信可能に接続される。
[Constitution]
FIG. 1 is a schematic diagram illustrating an example of an image sensor system including an image sensor according to an embodiment. In FIG. 1, lighting equipment 1, lighting controller 4, and image sensors 3 (3-1 to 3-n) are provided, for example, on each floor of building 400, and are connected to gateway device 7 so as to be communicable. The gateway device 7 on each floor is communicably connected to, for example, a building management center BEMS (Building Energy Management System) server 5 via an intra-building network 8 .

BEMSサーバ5は、例えばTCP/IP(Transmission Control Protocol / Internet Protocol)ベースの通信ネットワーク10経由で、クラウドコンピューティングシステム(クラウド)100に接続されることができる。クラウド100は、サーバ200およびデータベース300を備え、ビル管理等に関するサービスを提供する。 The BEMS server 5 can be connected to a cloud computing system (cloud) 100 via a TCP/IP (Transmission Control Protocol/Internet Protocol) based communication network 10, for example. The cloud 100 includes a server 200 and a database 300, and provides services related to building management and the like.

図2は、ビル400内のフロアの一例を示す図である。図2に示されるように、照明設備1、空調機器2の吹き出し口、および画像センサ3は各フロアの例えば天井に配設される。画像センサ3には、それぞれのセンシング対象とするエリアが割り当てられる。図2において、エリアA1,A2がそれぞれフロアのおよそ半分をカバーしていることが示される。すべてのエリアを合わせれば、対象空間のフロアをカバーすることができる。図中ハッチングで示すように、異なる画像センサ3の割り当てエリアの一部が重なっていてもよい。 FIG. 2 is a diagram showing an example of floors in the building 400. As shown in FIG. As shown in FIG. 2, the lighting equipment 1, the outlets of the air conditioners 2, and the image sensor 3 are arranged on, for example, the ceiling of each floor. Each image sensor 3 is assigned an area to be sensed. In FIG. 2 it is shown that areas A1 and A2 each cover approximately half of the floor. All areas together can cover the floor of the target space. As indicated by hatching in the drawing, the areas assigned to different image sensors 3 may partially overlap.

画像センサ3は、割り当てられたエリアを見下し画角で視野内に捉え、視野内を撮像して画像データを取得する。この画像データは画像センサ3において処理され、人物情報、あるいは環境情報などの、各種のセンシングデータが生成される。すなわち画像センサ3は、対象空間に係わるセンシングデータを生成する。 The image sensor 3 looks down on the assigned area and catches it within the field of view at an angle of view, and acquires image data by capturing an image within the field of view. This image data is processed by the image sensor 3 to generate various sensing data such as human information or environmental information. That is, the image sensor 3 generates sensing data related to the target space.

環境情報は、対象とする空間(ゾーン)の環境に関する情報であり、例えば、フロアの照度や温度等である。人物情報は、対象空間における人間に関する情報である。例えばエリア内の人数、人の行動、人の活動量、人の存在または不在を示す在不在、などが人物情報の例である。 The environment information is information about the environment of the target space (zone), such as the illuminance and temperature of the floor. Person information is information about a person in the target space. Examples of personal information include the number of people in an area, behavior of people, amount of activity of people, presence/absence indicating the presence or absence of people, and the like.

近年では、これらの情報に基づき照明機器や空調機器を制御することで、居住環境における人の快適性や安全性等を向上させることが検討されている。環境情報および人物情報を、ゾーンを複数に分割した小領域ごとに算出することも可能である。この小領域を、画像センサ3ごとの割り当てエリアに対応付けてもよい。 In recent years, it has been studied to improve the comfort and safety of people in living environments by controlling lighting equipment and air conditioning equipment based on such information. It is also possible to calculate environmental information and person information for each small area obtained by dividing a zone into a plurality of areas. This small area may be associated with the allocated area for each image sensor 3 .

実施形態では、空間使用率という量を導入し、この量を計算出力することの可能な画像センサについて説明する。ここで、空間使用率は、動体が空間を使用している度合い(使用率)を示す指標である。例えば、空間使用率は、人が留まっている度合いを場所ごとに示す指標である。 In the embodiments, an image sensor capable of introducing a quantity called space utilization and calculating and outputting this quantity will be described. Here, the space usage rate is an index indicating the degree (usage rate) of the space that the moving body uses. For example, the space utilization rate is an index that indicates the degree to which people stay in each place.

空間を使用することとは、例えば、席に座ってオフィスワークを行うことでもよい。また、空間内の通路や階段を移動することでもよい。あるいは、店舗等で売り場を歩き回ることであっても良い。 Using the space may mean, for example, sitting at a seat and doing office work. Alternatively, it may be possible to move through passages or stairs in the space. Alternatively, it may be walking around the sales floor in a store or the like.

図3は、図1に示される画像センサシステムの一例を示すブロック図である。図3において、ゲートウェイ装置7、管理端末20、BEMSサーバ5、および照明コントローラ4がビル内ネットワーク8に接続され、ビルシステムを形成する。ビル内ネットワーク8の通信プロトコルとしてはBuilding Automation and Control Networking protocol(BACnet(登録商標))が代表的である。このほかDALI、ZigBee(登録商標)、ECHONET Lite(登録商標)等のプロトコルも知られている。 FIG. 3 is a block diagram showing an example of the image sensor system shown in FIG. In FIG. 3, a gateway device 7, a management terminal 20, a BEMS server 5, and a lighting controller 4 are connected to an intra-building network 8 to form a building system. A typical communication protocol for the intra-building network 8 is the Building Automation and Control Networking protocol (BACnet (registered trademark)). In addition, protocols such as DALI, ZigBee (registered trademark), and ECHONET Lite (registered trademark) are also known.

ゲートウェイ装置7は、複数の画像センサ3(3-1~3-n)を配下として収容する。画像センサ3-1~3-nは、センサネットワーク9により、一筆書き状に接続される(渡り配線)。センサネットワーク9は、画像センサ3-1~3-nとゲートウェイ装置7とを通信可能に接続する。センサネットワーク9のプロトコルとしては、例えばEtherCAT(登録商標)が知られている。 The gateway device 7 accommodates a plurality of image sensors 3 (3-1 to 3-n) as subordinates. The image sensors 3-1 to 3-n are connected by a sensor network 9 in a unicursal manner (crossover wiring). The sensor network 9 connects the image sensors 3-1 to 3-n and the gateway device 7 so as to be able to communicate with each other. EtherCAT (registered trademark), for example, is known as a protocol for the sensor network 9 .

ゲートウェイ装置7は、センサネットワーク9とビル内ネットワーク8との間での通信プロトコルを変換する。これにより、BEMSサーバ5、および管理端末20が、画像センサ3-1~3-nと相互通信することが可能である。BEMSサーバ5は、画像センサ3-1~3-nからセンシングデータを取得してビル400の空調や照明を制御する。 The gateway device 7 converts communication protocols between the sensor network 9 and the in-building network 8 . This allows the BEMS server 5 and the management terminal 20 to mutually communicate with the image sensors 3-1 to 3-n. The BEMS server 5 acquires sensing data from the image sensors 3-1 to 3-n and controls the air conditioning and lighting of the building 400. FIG.

管理端末20は、画像センサ3-1~3-nに個別にアクセスし、コマンドの投入や各種の設定を行う。照明コントローラ4は、BEMSサーバ5からの制御に基づいて照明設備1を制御する。 The management terminal 20 individually accesses the image sensors 3-1 to 3-n to input commands and perform various settings. The lighting controller 4 controls the lighting equipment 1 based on control from the BEMS server 5 .

図4は、実施形態に係る画像センサ3の一例を示すブロック図である。画像センサ3は、撮像部31、メモリ32、プロセッサ33、および通信部34を備える。これらは内部バス35を介して互いに接続される。メモリ32およびプロセッサ33を備える画像センサ3は、コンピュータである。 FIG. 4 is a block diagram showing an example of the image sensor 3 according to the embodiment. The image sensor 3 includes an imaging section 31 , a memory 32 , a processor 33 and a communication section 34 . These are connected to each other via an internal bus 35 . Image sensor 3 with memory 32 and processor 33 is a computer.

撮像部31は、いわゆる魚眼カメラであり、広角レンズとしての魚眼レンズ31a、絞り機構31b、イメージセンサ31cおよびレジスタ30を備える。魚眼レンズ31aは、エリアを天井から見下ろす形(見下し画角)で視野内に捕え、イメージセンサ31cに結像する。魚眼レンズ31aからの光量は絞り機構31bにより調節される。イメージセンサ31cは例えばCMOS(相補型金属酸化膜半導体)センサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。この映像信号はディジタル符号化され、原画像のデータとして出力される。この画像データはメモリ32に記憶される(画像データ32b)。 The imaging unit 31 is a so-called fish-eye camera, and includes a fish-eye lens 31a as a wide-angle lens, a diaphragm mechanism 31b, an image sensor 31c, and a register 30. The fish-eye lens 31a captures the area in the view looking down from the ceiling (downward angle of view) and forms an image on the image sensor 31c. The amount of light from the fisheye lens 31a is adjusted by a diaphragm mechanism 31b. The image sensor 31c is, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor, and generates a video signal with a frame rate of, for example, 30 frames per second. This video signal is digitally encoded and output as original image data. This image data is stored in the memory 32 (image data 32b).

レジスタ30は、カメラ情報30aを記憶する。カメラ情報30aは、例えばオートゲインコントロール機能の状態、フレームレート、ゲインの値、露光時間などの、撮像部31に関する情報、あるいは画像センサ3それ自体に関する情報である。 The register 30 stores camera information 30a. The camera information 30a is information related to the imaging unit 31, such as the state of the auto gain control function, frame rate, gain value, and exposure time, or information related to the image sensor 3 itself.

メモリ32は、SDRAM(Synchronous Dynamic RAM)などの半導体メモリ、またはNANDフラッシュメモリやEPROM(Erasable Programmable ROM)などの不揮発性メモリである。メモリ32は、プロセッサ33を機能させるためのプログラム32aと、撮像部31で取得された画像データ32b、パラメータ32c、およびアルゴリズム32dを記憶する。 The memory 32 is a semiconductor memory such as SDRAM (Synchronous Dynamic RAM), or a non-volatile memory such as NAND flash memory or EPROM (Erasable Programmable ROM). The memory 32 stores a program 32a for causing the processor 33 to function, image data 32b acquired by the imaging section 31, parameters 32c, and an algorithm 32d.

プロセッサ33は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。MPU(Micro Processing Unit)、あるいはFPGA(Field Programmable Gate Array)等でプロセッサ15を構成することもできる。プロセッサ33は、内蔵レジスタ(図示せず)に読み込まれたプログラム32aを実行して、実施形態において説明する各種の機能を実現する。 The processor 33 is, for example, a multi-core CPU (Central Processing Unit) and is an LSI (Large Scale Integration) tuned to execute image processing at high speed. The processor 15 can also be configured by an MPU (Micro Processing Unit), an FPGA (Field Programmable Gate Array), or the like. The processor 33 executes a program 32a read into an internal register (not shown) to realize various functions described in the embodiments.

通信部34は、センサネットワーク9に接続可能で、通信相手先(ゲートウェイ装置7、管理端末20、他の画像センサ3、あるいはBEMSサーバ5等)とのデータの授受を仲介する。通信のインタフェースは有線でも無線でもよい。通信ネットワークのトポロジはライン配線、リング配線、ツリー配線など任意のトポロジを適用できる。通信プロトコルは汎用プロトコルでも、産業用プロトコルでもよい。単独の通信方法でもよいし、複数の通信方法を組み合わせてもよい。通信の対象はリアルタイムデータ、あるいは蓄積データのいずれでもよい。さらに、常時通信や要求時通信などを選択することも可能である。 The communication unit 34 can be connected to the sensor network 9, and mediates the exchange of data with a communication partner (the gateway device 7, the management terminal 20, another image sensor 3, or the BEMS server 5, etc.). The communication interface may be wired or wireless. Arbitrary topologies such as line wiring, ring wiring, and tree wiring can be applied to the topology of the communication network. The communication protocol may be a general purpose protocol or an industrial protocol. A single communication method may be used, or a plurality of communication methods may be combined. The object of communication may be either real-time data or stored data. Furthermore, it is also possible to select constant communication, on-demand communication, or the like.

特に、通信部34は、画像センサ3によるセンシングデータや、プロセッサ33の処理結果、処理データ、マップ情報、画像解析に係わるパラメータ、空間使用率を算出する基となる各種画像(ヒートマップなど)、原画像、処理結果画像などの各種画像、空間使用率算出アルゴリズム、レイアウトマップなどの各種パラメータ、あるいは、その他事象用の各種パラメータ(辞書データなど)を、通信ネットワークとしてのセンサネットワーク9経由で送受信する。これにより、上記データや情報は、ゲートウェイ装置7、他の画像センサ3、BEMSサーバ5、および管理端末20等と、ビル内ネットワーク8等を経由して共有されることができる。 In particular, the communication unit 34 receives sensing data from the image sensor 3, processing results of the processor 33, processing data, map information, parameters related to image analysis, various images (heat map, etc.) used as a basis for calculating the space utilization rate, Various images such as original images and processed images, various parameters such as space usage rate calculation algorithms and layout maps, or various parameters for other events (dictionary data, etc.) are transmitted and received via the sensor network 9 as a communication network. . As a result, the data and information can be shared with the gateway device 7, other image sensors 3, the BEMS server 5, the management terminal 20, and the like via the intra-building network 8 and the like.

ところで、プロセッサ33は、実施形態に係る処理機能として、空間使用データ生成部33a、空間使用率算出部33b、および領域設定部33cを備える。これらの機能ブロックは、メモリ32に記憶されたプログラム32aがプロセッサ33のレジスタにロードされ、当該プログラムの進行に伴ってプロセッサ33が演算処理を実行することで生成されるプロセスとして、理解され得る。 By the way, the processor 33 includes a space usage data generation unit 33a, a space usage rate calculation unit 33b, and an area setting unit 33c as processing functions according to the embodiment. These functional blocks can be understood as processes generated by the program 32a stored in the memory 32 being loaded into the registers of the processor 33 and the processor 33 performing arithmetic processing as the program progresses.

空間使用データ生成部33aは、メモリ32の画像データ32bを画像処理し、複数のフレームごとに、それぞれ人物が存在する領域(人物領域)を検出する。人物領域は複数のフレームにわたって蓄積される。そして、空間使用データ生成部33aは、例えば既定の蓄積時間についてのフレーム間の平均値として、空間使用データを生成する。ここで、上記蓄積時間は例えば管理端末20から任意の値を設定することが可能で、パラメータ32cに登録される。空間使用データは、配列データとして表現されても良いし、あるいはヒートマップのように画像として表現されても良い。 The space usage data generation unit 33a performs image processing on the image data 32b in the memory 32, and detects areas in which people exist (person areas) for each of a plurality of frames. The human region is accumulated over multiple frames. Then, the space use data generation unit 33a generates space use data as an average value between frames for a predetermined accumulation time, for example. Here, the accumulation time can be set to any value from the management terminal 20, for example, and registered in the parameter 32c. Space usage data may be represented as array data, or may be represented as an image such as a heat map.

画像処理としては、背景差分やフレーム間差分、テンプレートマッチングや機械学習、あるいはディープラーニングなどの手法を適用することが可能である。人物領域の単位は、例えば、画素単位、ブロック単位、エリア単位、画像全体、あるいはこれらの混合などを任意に設定することができる。これも、例えば管理端末20から任意に可変することが可能で、設定された値はパラメータ32cに登録される。 As image processing, techniques such as background subtraction, inter-frame subtraction, template matching, machine learning, or deep learning can be applied. The unit of the person region can be arbitrarily set, for example, in pixel units, block units, area units, the entire image, or a mixture thereof. This can also be arbitrarily changed from the management terminal 20, for example, and the set value is registered in the parameter 32c.

パラメータは、撮像部31の視野と実空間上の面積とを対応付けるための指標であり、実施形態では、複数の種類にわたって記憶されることができる。パラメータの例としては、対象空間の天井高さや検知範囲などの数値、フロアのレイアウトマップ、あるいは領域分割されたレイアウトマップ等を挙げることができる、これらはいずれもメモリ32のパラメータ32cに登録され、プロセッサ33により適宜読み出されて使用される。 A parameter is an index for associating the field of view of the imaging unit 31 with an area on the real space, and can be stored in a plurality of types in the embodiment. Examples of parameters include numerical values such as the ceiling height and detection range of the target space, a floor layout map, and a layout map divided into areas. It is appropriately read and used by the processor 33 .

空間使用率算出部33bは、上記生成された空間使用データに基づいて空間使用率を算出する。空間使用率は、様々に定義することができる。つまり、異なるアルゴリズム(関数)に基づいて種々の空間使用率を算出することができる。個々のアルゴリズムはメモリ32に記憶され(アルゴリズム32d)、プロセッサ33により読み出されて使用される。どのアルゴリズムにより空間使用率を算出するかは、例えば管理端末20から任意に設定することができる。 The space usage rate calculator 33b calculates the space usage rate based on the space usage data generated above. Space utilization can be defined in various ways. That is, various space utilization rates can be calculated based on different algorithms (functions). Individual algorithms are stored in memory 32 (algorithm 32d) and read out by processor 33 for use. Which algorithm is used to calculate the space usage rate can be arbitrarily set from the management terminal 20, for example.

例えば、空間使用率の異なる定義の例として、算出の単位を挙げることができる。つまり、画像全体を単位として空間使用率を算出するか、または、個々のエリアを単位として空間使用率を算出するかを定義することができる。エリアは、例えば各座席としてもよいし、複数のエリアをまとめた単位をエリアとして定義しても良い。エリアをどのように設定するかなどの情報は、例えば管理端末20から任意に設定することができ、パラメータ32cに登録される。 For example, a unit of calculation can be cited as an example of different definitions of space utilization. In other words, it is possible to define whether the space usage rate is calculated in units of the entire image or in units of individual areas. The area may be, for example, each seat, or may be defined as a unit in which a plurality of areas are grouped together. Information such as how to set the area can be arbitrarily set from the management terminal 20, for example, and registered in the parameter 32c.

また、計算式における分母と分子を異なる量に設定し、複数の空間使用率の定義とすることもできる。例えば、分母を画像上の面積、あるいは実空間上の面積とすれば、少なくとも2種類の空間使用率を定義することができる。さらに、分母を画像全体またはエリア内の、過去に人物が存在した領域の面積と定義しても良い。その際、過去1日の平均値、過去1週間の平均値、過去1か月の平均値、季節ごとの平均値、あるいは年単位での平均値というように、参照時間を定義することもできる。分母に対する参照時間は、空間使用率の算出の際の蓄積時間と同じでも、異なっていてもよい。分母に適用される量、および参照時間は例えば管理端末20から任意に設定することができ、パラメータ32cに登録される。 Also, the denominator and numerator in the calculation formula can be set to different amounts to define a plurality of space usage rates. For example, if the denominator is the area on the image or the area on the real space, at least two types of space usage rates can be defined. Furthermore, the denominator may be defined as the area of the entire image or area in which a person has existed in the past. In doing so, it is also possible to define a reference time such as the average value of the past day, the average value of the past week, the average value of the past month, the average value of each season, or the average value of a year. . The reference time to the denominator may be the same as or different from the accumulated time when calculating space utilization. The amount applied to the denominator and the reference time can be arbitrarily set from the management terminal 20, for example, and registered in the parameter 32c.

分子としては、例えば人物領域の面積を適用することができる。人物に一つ以上の条件付けをし、一つ以上の人物領域の面積として分子を定義することもできる。条件付けの例としては、例えば動きの大きさ(オフィスワークしていている人、歩行している人など)がある。また、姿勢(立っている人、座っている人など)、服装(制服を着ている人、スーツを着ている人など)、属性(男女、年代)なども、条件付けの例として用いることができる。さらには、視野内の個人を特定し、個人ごとの領域面積を分子として用いれば、当該個人の空間使用率を計算することができる。 As the numerator, for example, the area of the person region can be applied. One can also apply one or more conditionings to the person and define the numerator as the area of one or more person regions. Examples of conditioning include, for example, magnitude of movement (person working in an office, person walking, etc.). In addition, posture (person standing, sitting, etc.), clothing (person wearing uniform, person wearing suit, etc.), attributes (gender, age), etc. can also be used as examples of conditioning. can. Furthermore, by specifying an individual within the field of view and using the area of each individual as a numerator, it is possible to calculate the space usage rate of the individual.

さらに、プロセッサ33の領域設定部33cは、空間使用率を算出する領域を、対象空間に設定する。例えば、オフィスフロアの椅子ごとに領域を設定し、それぞれの椅子に人がどのくらいの時間座っているかを示す量(着席率)を、空間使用率として定義することができる。領域の設定には、例えばセマンティックセグメーションなどの手法を適用することができる。 Furthermore, the area setting unit 33c of the processor 33 sets the area for calculating the space usage rate to the target space. For example, it is possible to set an area for each chair on the office floor, and define the space usage rate as the amount (seating rate) indicating how long people are sitting in each chair. A technique such as semantic segmentation, for example, can be applied to the setting of the area.

図5は、画像センサ3におけるデータの流れの一例を示す図である。図5において、撮像部31で取得された画像データ32bは、メモリ32に一時的に記憶されたのち、プロセッサ33の空間使用データ生成部33aに渡される。空間使用データ生成部33aは、
画像データから空間使用データを生成して空間使用率算出部33bに渡す。
FIG. 5 is a diagram showing an example of data flow in the image sensor 3. As shown in FIG. In FIG. 5, the image data 32b acquired by the imaging unit 31 is temporarily stored in the memory 32 and then transferred to the space use data generation unit 33a of the processor 33. FIG. The space usage data generation unit 33a
Space usage data is generated from the image data and passed to the space usage rate calculator 33b.

空間使用率算出部33bは、メモリのパラメータ32c、アルゴリズム32dを参照し、空間使用データから空間使用率を算出する。算出された空間使用率は、通信部34からセンサネットワーク9経由でゲートウェイ装置7等に送信され、空調制御、照明制御のための基礎データとして直接、利用される。 The space usage rate calculator 33b refers to the memory parameter 32c and the algorithm 32d to calculate the space usage rate from the space usage data. The calculated space usage rate is transmitted from the communication unit 34 to the gateway device 7 or the like via the sensor network 9 and directly used as basic data for air conditioning control and lighting control.

[作用]
次に、上記構成における作用を説明する。
図6は、実施形態に係わる画像センサ3の処理手順の一例を示すフローチャートである。図6において、画像センサ3は、撮像部31で取得(ステップS1)した画像データ32bをメモリ32に記憶し、蓄積する(ステップS2)。記憶された画像データ32bは、空間使用データ生成部33aに渡される。
[Action]
Next, the operation of the above configuration will be described.
FIG. 6 is a flow chart showing an example of the processing procedure of the image sensor 3 according to the embodiment. In FIG. 6, the image sensor 3 stores the image data 32b acquired by the imaging unit 31 (step S1) in the memory 32 and accumulates them (step S2). The stored image data 32b is passed to the space usage data generator 33a.

空間使用データ生成部33aは、設定されたパラメータのもとで空間使用データを生成し(ステップS3)、空間使用率算出部33bに渡す。空間使用率算出部33bは、空間使用データに所定の計算アルゴリズム(計算式)を適用して空間使用率を算出する(ステップS4)。算出された空間使用率は、通信部34からゲートウェイ装置7経由でBEMSサーバ5に送信され、空調制御、照明制御のための基礎データとして利用される。 The space usage data generation unit 33a generates space usage data based on the set parameters (step S3), and passes it to the space usage rate calculation unit 33b. The space usage rate calculator 33b applies a predetermined calculation algorithm (calculation formula) to the space usage data to calculate the space usage rate (step S4). The calculated space usage rate is transmitted from the communication unit 34 to the BEMS server 5 via the gateway device 7 and used as basic data for air conditioning control and lighting control.

図7は、撮像部31の視野内の画像の一例を示す図である。図7は、ある特定の時点を捉えた1フレームの画像を示し、この時点における人物の居場所が捉えられている。着席している人もいれば、歩行中の人物もいる。撮像部31は、時系列の画像データ(フレーム)をメモリ32に蓄積する。そして、一定の期間にわたる画像データを処理して、例えばセルごとの人物の存在期間を反映する空間使用データが生成される。 FIG. 7 is a diagram showing an example of an image within the field of view of the imaging section 31. As shown in FIG. FIG. 7 shows a one-frame image captured at a specific point in time, and captures the location of a person at this point in time. Some are seated, some are walking. The imaging unit 31 accumulates time-series image data (frames) in the memory 32 . Image data over a period of time is then processed to generate space usage data reflecting, for example, the duration of a person's presence for each cell.

図8は、空間使用データの一例を示す模式図である。対象空間に対して設定されたセル(マス目)ごとに、人物の滞在期間がグラフィカルに示される。図8においては、例えば60分を最大値とし、滞在期間が10分になるまで、例えば4ランクの濃さで着席時間が可視化される。蓄積された画像データから着席時間を可視化し、さらに分析することで、例えば(2021年MM月DD日の、9:00~10:00における[着席率]は、48%)といった値が算出される。この[着席率]が、空間使用率の一例である。 FIG. 8 is a schematic diagram showing an example of space usage data. The period of stay of a person is graphically shown for each cell (square) set in the target space. In FIG. 8, for example, the maximum value is 60 minutes, and the sitting time is visualized with, for example, 4 ranks until the length of stay reaches 10 minutes. By visualizing the sitting time from the accumulated image data and further analyzing it, for example, a value such as ([Seating rate] from 9:00 to 10:00 on DD, MM, 2021 is 48%) is calculated. be. This [seat rate] is an example of the space usage rate.

図9は、着席率に基づく自動領域分割の一例を示す模式図である。領域設定部33c(図4)は、対象空間において、空間使用率を算出する領域を設定する。例えば、演算処理の対象から除外する領域(マスク領域)を対象空間に設定することにより、それ以外の領域(演算処理の対象とする領域)に対してのみ、空間使用率を算出するように設定することができる。 FIG. 9 is a schematic diagram showing an example of automatic area division based on the seating rate. The region setting unit 33c (FIG. 4) sets a region for calculating the space usage rate in the target space. For example, by setting the area to be excluded from the calculation target (mask area) as the target space, you can set the space usage rate to be calculated only for the other area (the area to be calculated). can do.

また、マスクされていない領域(処理対象の領域)をさらに複数に分割し、複数のエリアを設定することもできる。また、カラーマップのように画像を色塗りして領域分割することもできる。 Moreover, it is also possible to further divide the unmasked area (area to be processed) into a plurality of areas and set a plurality of areas. It is also possible to divide an image into areas by coloring it like a color map.

さらには、領域分割されたレイアウトマップから、領域分割を設定することもできる。図9はその一例を示しており、[着席率]が比較的高い領域を机エリア、[着席率]が比較的低い領域を通路エリアとして設定した状態を示す。机エリアをドット、通路エリアを斜線のハッチングで示す。このように、人物の動き分布に基づいて、自動で領域分割を行うことができる。 Furthermore, it is also possible to set the area division from the area-divided layout map. FIG. 9 shows an example of this, in which an area with a relatively high [seat rate] is set as a desk area, and an area with a relatively low [seat rate] is set as an aisle area. The desk area is indicated by dots, and the aisle area is indicated by diagonal hatching. In this way, it is possible to automatically perform region division based on the motion distribution of the person.

図10は、レイアウトマップの一例を示す模式図である。レイアウトマップは、例えばBEMSサーバ5からダウンロードされて画像センサ3のメモリ32に予め記憶される。
図11は、動き分布に基づいて分割された領域の一例を示す図である。対象空間において、人の動き分析により例えば矩形状の領域が検出されたとする。この領域とレイアウトマップとを照合することにより、領域の属性(机、通路など)を検出することができる。
FIG. 10 is a schematic diagram showing an example of a layout map. The layout map is downloaded from, for example, the BEMS server 5 and stored in the memory 32 of the image sensor 3 in advance.
FIG. 11 is a diagram showing an example of regions divided based on motion distribution. Assume that, for example, a rectangular area is detected in the target space by human motion analysis. By comparing this area with the layout map, the attributes of the area (desk, passage, etc.) can be detected.

図12は、領域分割された対象空間の属性を示す図である。図12に示されるように、机領域と通路領域とを、画像センサ3自身のセンシング処理だけで自動で認識し、設定することが可能になる。設定された領域は、通信部34によりBEMSサーバ5等に通知される。 FIG. 12 is a diagram showing attributes of a target space divided into regions. As shown in FIG. 12, the desk area and the passage area can be automatically recognized and set only by the sensing processing of the image sensor 3 itself. The set area is notified to the BEMS server 5 and the like by the communication unit 34 .

上記のように、領域設定部33c(図4)は、空間使用率を算出する領域を対象空間に自動で設定する。上記した人の動き分析だけでなく、例えばセマンティックセグメンテーションにより、机/床/壁などに自動で領域分割を行うこともできる。あるいは、照明の点灯区分に合わせて照明を点消灯させ、そのときの照度分布をセンシングして得られた結果に基づいて自動領域分割を行うようにしても良い。なお、各領域は、管理端末20を用いた管理者の操作により設定することもできる。 As described above, the area setting unit 33c (FIG. 4) automatically sets the area for calculating the space usage rate in the target space. In addition to the human movement analysis described above, semantic segmentation, for example, can also be used to automatically segment areas into desks/floors/walls, and the like. Alternatively, the lighting may be turned on and off according to the lighting section of the lighting, and the automatic area division may be performed based on the result obtained by sensing the illuminance distribution at that time. Each area can also be set by an administrator's operation using the management terminal 20. FIG.

[効果]
以上説明したようにこの実施形態では、画像センサ3で取得された画像データから、空間使用率を算出する基となるデータとしての空間使用データを算出し、さらに、空間使用データから、機器制御のためのデータとしての空間使用率を算出するようにした。つまり、カラーマップ等の空間使用データの算出にとどまらず、制御対象の機器に直接投入することの可能な制御量を、画像センサ自身により算出できるようにした。
[effect]
As described above, in this embodiment, from the image data acquired by the image sensor 3, the space usage data is calculated as the basis for calculating the space usage rate. The space utilization rate is calculated as data for In other words, the image sensor itself can calculate not only the space usage data such as the color map, but also the control amount that can be applied directly to the device to be controlled.

このように、サーバなどの計算リソースの介在する必要なしに、機器制御のための制御量を画像センサが直接、生成することが可能になる。これにより、ビルにおける空調制御、照明制御の自由度を飛躍的に高めることが可能になる。 In this way, it becomes possible for the image sensor to directly generate a control amount for device control without the need for intervening computational resources such as a server. This makes it possible to dramatically increase the degree of freedom in air conditioning control and lighting control in buildings.

また実施形態では、空間使用率を算出するにあたり、複数のパラメータと、複数の計算式(アルゴリズム)とを画像センサ3自身に予め登録しておき、異なるパラメータ、アルゴリズムのもとでの空間使用率を算出できるようにした。このようにしたので、対象とする空間や建物の特性に応じた空間使用率を算出することが可能になる。例えば月ごと、季節ごと等の空間使用率の傾向を利用することで、オフィスの機器レイアウトの改善に役立てることが可能になる。 Further, in the embodiment, when calculating the space utilization rate, a plurality of parameters and a plurality of calculation formulas (algorithms) are registered in the image sensor 3 in advance, and the space utilization rate under different parameters and algorithms is calculated. made it possible to calculate Since this is done, it is possible to calculate the space usage rate according to the characteristics of the target space and building. For example, by using trends in space usage rates by month, season, etc., it is possible to make use of this to improve the equipment layout of the office.

これらのことから実施形態によれば、空間の使用率を得ることのできる画像センサ、センシング方法、およびプログラムを提供することができる。これにより、例えば、人が留まっている度合いを場所ごとに示す指標を出力できるようになり、機器制御との親和性を高めた画像センサを提供できる。 From these, according to the embodiment, it is possible to provide an image sensor, a sensing method, and a program capable of obtaining the utilization rate of the space. As a result, for example, it is possible to output an index indicating the degree to which a person stays for each location, and it is possible to provide an image sensor that is highly compatible with device control.

なお、この発明は上記実施形態に限定されるものではない。例えば、撮像部31において魚眼レンズに限定されず、鏡面を利用したいわゆるパノラマレンズなどの、他の形式の広角レンズを用いることも可能である。 In addition, this invention is not limited to the said embodiment. For example, the imaging unit 31 is not limited to a fish-eye lens, and it is also possible to use another type of wide-angle lens such as a so-called panorama lens using a mirror surface.

また、検知の対象は人物に限定されず、人物とは異なる物体であっても良い。例えばオフィスにおける背景を検知・識別するための背景辞書、机を検知するための机辞書、椅子を検知するための椅子辞書、あるいは什器や複合機などを検知するための辞書を用いれば、人物だけでなく、様々な対象を検知することができる。 Also, the object to be detected is not limited to a person, and may be an object other than a person. For example, if you use a background dictionary for detecting and identifying the background in an office, a desk dictionary for detecting desks, a chair dictionary for detecting chairs, or a dictionary for detecting fixtures and multifunction devices, only people can be detected. Instead, it can detect various objects.

本発明の実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While embodiments of the invention have been described, the embodiments are provided by way of example and are not intended to limit the scope of the invention. This novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

1…照明設備、2…空調機器、3(3-1~3-n)…画像センサ、4…照明コントローラ、5…BEMSサーバ、7…ゲートウェイ装置、8…ビル内ネットワーク、9…センサネットワーク、10…通信ネットワーク、15…プロセッサ、20…管理端末、30…レジスタ、30a…カメラ情報、31…撮像部、31a…魚眼レンズ、31b…絞り機構、31c…イメージセンサ、32…メモリ、32a…プログラム、32b…画像データ、32c…パラメータ、32d…アルゴリズム、33…プロセッサ、33a…空間使用データ生成部、33b…空間使用率算出部、33c…領域設定部、34…通信部、35…内部バス、100…クラウド、200…サーバ、300…データベース、400…ビル。 DESCRIPTION OF SYMBOLS 1... Lighting installation, 2... Air conditioner, 3 (3-1-3-n)... Image sensor, 4... Lighting controller, 5... BEMS server, 7... Gateway apparatus, 8... Building network, 9... Sensor network, DESCRIPTION OF SYMBOLS 10... Communication network 15... Processor 20... Management terminal 30... Register 30a... Camera information 31... Imaging part 31a... Fish-eye lens 31b... Diaphragm mechanism 31c... Image sensor 32... Memory 32a... Program, 32b image data 32c parameter 32d algorithm 33 processor 33a space usage data generator 33b space usage rate calculator 33c area setting unit 34 communication unit 35 internal bus 100 ... cloud, 200 ... server, 300 ... database, 400 ... building.

Claims (11)

対象空間を撮像して画像データを取得する撮像部と、
前記画像データを記憶する記憶部と、
前記記憶された画像データを画像処理して、動体が前記対象空間を使用している度合いを場所ごとに示す指標である空間使用率を算出するプロセッサとを具備する、画像センサ。
an imaging unit that captures an image of a target space and acquires image data;
a storage unit that stores the image data;
and a processor that performs image processing on the stored image data to calculate a space usage rate, which is an index indicating the extent to which a moving object uses the target space for each location.
前記プロセッサは、
前記画像データを画像処理して、前記対象空間における前記動体の分布を示す空間使用データを生成する空間使用データ生成部と、
前記空間使用データに基づいて、前記空間使用率を算出する空間使用率算出部とを備える、請求項1に記載の画像センサ。
The processor
a space usage data generation unit that performs image processing on the image data to generate space usage data that indicates the distribution of the moving object in the target space;
2. The image sensor according to claim 1, further comprising a space usage rate calculator that calculates said space usage rate based on said space usage data.
前記記憶部は、前記撮像部の視野と実空間上の面積とを対応付けるパラメータを複数記憶し、
前記空間使用率算出部は、前記複数のパラメータの少なくともいずれかに基づいて前記空間使用率を算出する、請求項2に記載の画像センサ。
The storage unit stores a plurality of parameters that associate the field of view of the imaging unit with an area in real space,
3. The image sensor according to claim 2, wherein said space usage rate calculator calculates said space usage rate based on at least one of said plurality of parameters.
前記記憶部は、前記空間使用率をそれぞれ異なる定義で表す複数のアルゴリズムを記憶し、
前記空間使用率算出部は、前記複数のアルゴリズムのいずれかに基づいて前記空間使用率を算出する、請求項2に記載の画像センサ。
The storage unit stores a plurality of algorithms that express the space utilization rate with different definitions,
3. The image sensor according to claim 2, wherein said space usage rate calculator calculates said space usage rate based on one of said plurality of algorithms.
前記プロセッサは、前記空間使用率を算出する領域を前記対象空間に設定する領域設定部をさらに備える、請求項1に記載の画像センサ。 2. The image sensor according to claim 1, wherein said processor further comprises an area setting unit that sets an area for calculating said space usage rate in said target space. 通信ネットワークを経由したアクセスを受け付ける通信部をさらに具備し、
前記領域設定部は、前記通信ネットワークを経由したアクセスによる前記対象空間の設定を受け付ける、請求項5に記載の画像センサ。
further comprising a communication unit that accepts access via a communication network,
6. The image sensor according to claim 5, wherein said area setting unit receives setting of said target space by access via said communication network.
前記領域設定部は、自動領域分割アルゴリズムにより前記対象空間を自動で設定する、請求項5に記載の画像センサ。 6. The image sensor according to claim 5, wherein said area setting unit automatically sets said object space by an automatic area division algorithm. 前記算出された空間使用率を通信ネットワークに送出する通信部をさらに具備する、請求項1に記載の画像センサ。 2. The image sensor according to claim 1, further comprising a communication unit that sends said calculated space utilization rate to a communication network. 前記プロセッサは、前記空間使用率と、前記対象空間における在不在、人数、活動量、照度、および、歩行滞留を含むセンシング項目のうち少なくともいずれか1つのセンシング項目とをセンシングする、請求項1に記載の画像センサ。 2. The processor as set forth in claim 1, wherein said space utilization rate and at least one sensing item among sensing items including presence/absence in said target space, number of people, amount of activity, illuminance, and staying on foot. Image sensor as described. 対象空間を撮像して画像データを取得する撮像部と、記憶部と、プロセッサとを具備する画像センサの前記プロセッサにより実行されるセンシング方法であって、
前記プロセッサが、前記画像データを前記記憶部に記憶する過程と、
前記プロセッサが、前記記憶された画像データを画像処理して、前記対象空間における動体の分布を示す空間使用データを生成する過程と、
前記プロセッサが、空間使用データに基づいて、前記動体が前記対象空間を使用している度合いを場所ごとに示す指標である空間使用率を算出する過程とを具備する、センシング方法。
A sensing method executed by the processor of an image sensor comprising an imaging unit that captures an image of a target space and acquires image data, a storage unit, and a processor,
the processor storing the image data in the storage unit;
the processor image processing the stored image data to generate space usage data indicative of a distribution of moving objects in the object space;
A sensing method, wherein the processor calculates a space usage rate, which is an index indicating the extent to which the moving body uses the target space for each location, based on the space usage data.
対象空間を撮像して画像データを取得する撮像部と、プロセッサとを具備するコンピュータを、請求項1乃至9のいずれか1項に記載の画像センサとして機能させるためのプログラム。 10. A program for causing a computer comprising an imaging unit that captures an image of a target space and acquires image data, and a processor to function as the image sensor according to any one of claims 1 to 9.
JP2021041499A 2021-03-15 2021-03-15 Image sensor, sensing method, and program Pending JP2022141274A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021041499A JP2022141274A (en) 2021-03-15 2021-03-15 Image sensor, sensing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021041499A JP2022141274A (en) 2021-03-15 2021-03-15 Image sensor, sensing method, and program

Publications (1)

Publication Number Publication Date
JP2022141274A true JP2022141274A (en) 2022-09-29

Family

ID=83402802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021041499A Pending JP2022141274A (en) 2021-03-15 2021-03-15 Image sensor, sensing method, and program

Country Status (1)

Country Link
JP (1) JP2022141274A (en)

Similar Documents

Publication Publication Date Title
JP6705028B2 (en) Image sensor
CN108241300B (en) Device control for predetermined spatial regions
US20110205366A1 (en) Air conditioning control system and air conditioning control method
CN107883541A (en) Air conditioning control method and device
DE102011077522A1 (en) Method and device for detecting thermal comfort
US11015832B2 (en) Thermographic sensing of human thermal conditions to improve thermal comfort
WO2018120962A1 (en) Reliability management-based uncertainty elimination context awareness system and working method thereof
JP2022518005A (en) Using one or more thermography cameras and one or more RGB-D sensors to detect the presence of one or more human occupants in the construction space in real time and estimate thermal comfort.
JP7463582B2 (en) Sensing system, maintenance terminal device, data distribution method, and image sensor
JP2017003203A (en) Estimation device, estimation method, and estimation program
JP7005285B2 (en) Image sensors, sensing methods, control systems and programs
JP2017120167A (en) Air-conditioning management system and program
CA3039375A1 (en) Neural network combining visible and thermal images for inferring environmental data of an area of a building
JP2022141274A (en) Image sensor, sensing method, and program
WO2017119336A1 (en) Lighting control system, lighting control method, lighting control device, and computer program
JP2023023492A (en) Image sensor system, calculation device, sensing method and program
US10991130B2 (en) Systems and methods for implementing a sensor based real time tracking system
JP7419095B2 (en) Image sensors, computing devices, and image sensor systems
JP7237713B2 (en) Sensor system, image sensor, and sensing method
JP6524201B2 (en) Building equipment control system and image sensor device
JP2022020297A (en) Image sensor, sensing method and program
WO2019082652A1 (en) Image sensor, person detection method, program, and control system
Gaonkar et al. Comfort Management System for Smart Buildings: An Open-Source Scalable Prototype
JP2020048055A (en) Image sensor, sensing method, control system, and program
JP7145693B2 (en) SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231213