JP7254570B2 - Image sensor system, computing device, sensing method, and program - Google Patents

Image sensor system, computing device, sensing method, and program Download PDF

Info

Publication number
JP7254570B2
JP7254570B2 JP2019047005A JP2019047005A JP7254570B2 JP 7254570 B2 JP7254570 B2 JP 7254570B2 JP 2019047005 A JP2019047005 A JP 2019047005A JP 2019047005 A JP2019047005 A JP 2019047005A JP 7254570 B2 JP7254570 B2 JP 7254570B2
Authority
JP
Japan
Prior art keywords
motion information
image sensor
data
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019047005A
Other languages
Japanese (ja)
Other versions
JP2020149422A (en
Inventor
孝明 榎原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019047005A priority Critical patent/JP7254570B2/en
Publication of JP2020149422A publication Critical patent/JP2020149422A/en
Application granted granted Critical
Publication of JP7254570B2 publication Critical patent/JP7254570B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明の実施形態は、画像センサシステム、計算装置、センシング方法、およびプログラムに関する。 Embodiments of the present invention relate to image sensor systems, computing devices, sensing methods, and programs.

近年の画像センサは、CPU(Central Processing Unit)やメモリを備え、いわばレンズ付きの組み込みコンピュータといえる。高度な画像処理機能も有しており、撮影した画像データを分析して、例えば人間の在不在、あるいは人数などを計算することができる。この種の画像センサは、ビル管理システムと組み合わせて、快適性、居住性の向上や省エネルギー化の促進などに活用されようとしている。 A recent image sensor is equipped with a CPU (Central Processing Unit) and memory, and can be said to be a so-called built-in computer with a lens. It also has advanced image processing functions, and can analyze captured image data and calculate the presence or absence of people, or the number of people, for example. Image sensors of this type are being used in combination with building management systems to improve comfort and livability and promote energy conservation.

再公表WO2013/187047号公報Republished WO2013/187047 特許第5903634号明細書Patent No. 5903634 特開2017-215694号公報JP 2017-215694 A 再公表WO2010/013572号公報Republished WO2010/013572 特開2011-193187号公報JP 2011-193187 A

既存のセンサは、特定の場所の明るさや、人間の在不在などを検知できるに留まっているので、照明制御や空調などの用途ごとにセンサを設置する必要があった。このため配線が煩雑になったり、その都度、工事が必要になったりしてエンジニアリング作業の増大を招いていた。画像センサの能力を活かし、可用性を高めたシステムが要望されている。 Existing sensors can only detect the brightness of a specific location or the presence or absence of people, so it was necessary to install sensors for each application, such as lighting control and air conditioning. As a result, the wiring becomes complicated, and construction work is required each time, resulting in an increase in engineering work. There is a demand for a system that utilizes the capabilities of an image sensor and has increased availability.

そこで、目的は、可用性を高めた画像センサシステム、計算装置、センシング方法、およびプログラムを提供することにある。 Accordingly, it is an object of the present invention to provide an image sensor system, computing device, sensing method, and program with improved availability.

実施形態によれば、画像センサシステムは、対象をセンシングする複数の画像センサと、画像センサと通信可能な計算装置とを具備する。各画像センサは、撮像部と画像処理部を備える。撮像部は、割り当てられたエリアを撮像して画像データを取得する。画像処理部は、画像データを画像処理してエリアにおける動き情報を検知する。計算装置は、取得部、記憶部、および統合処理部を備える。取得部は、画像センサごとに検知された動き情報を取得する。記憶部は、画像センサごとに割り当てられたエリアと、対象空間のマップとの対応関係を示すマップデータを記憶する。統合処理部は、取得された動き情報をマップデータに基づいて統合して、対象空間における動き情報を計算する。 According to an embodiment, an image sensor system includes a plurality of image sensors for sensing an object and a computing device in communication with the image sensors. Each image sensor includes an imaging section and an image processing section. The imaging unit acquires image data by imaging the assigned area. The image processing unit performs image processing on the image data to detect motion information in the area. The computing device comprises an acquisition unit, a storage unit, and an integration processing unit. The acquisition unit acquires motion information detected by each image sensor. The storage unit stores map data indicating a correspondence relationship between an area assigned to each image sensor and a map of the target space. The integration processing unit integrates the acquired motion information based on the map data to calculate motion information in the target space.

図1は、実施形態に係る画像センサを備える画像センサシステムの一例を示す模式図である。FIG. 1 is a schematic diagram illustrating an example of an image sensor system including an image sensor according to an embodiment. 図2は、ビルのフロア内の一例を示す図である。FIG. 2 is a diagram showing an example inside a building floor. 図3は、図1に示される画像センサシステムの一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the image sensor system shown in FIG. 図4は、実施形態に係る画像センサの一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of an image sensor according to the embodiment; 図5は、画像センサ3の基本的な処理手順を示すフローチャートである。FIG. 5 is a flow chart showing a basic processing procedure of the image sensor 3. As shown in FIG. 図6は、画像センサ3におけるデータの流れの一例を示す図である。FIG. 6 is a diagram showing an example of data flow in the image sensor 3. As shown in FIG. 図7は、実施形態に係る管理端末200の一例を示すブロック図である。FIG. 7 is a block diagram showing an example of the management terminal 200 according to the embodiment. 図8は、センサ座標系と基準座標系との関係の一例を示す図である。FIG. 8 is a diagram showing an example of the relationship between the sensor coordinate system and the reference coordinate system. 図9は、管理端末200の基本的な処理手順を示すフローチャートである。FIG. 9 is a flowchart showing a basic processing procedure of the management terminal 200. As shown in FIG. 図10は、管理端末200における動きベクトルのマッピング処理について説明するための図である。FIG. 10 is a diagram for explaining the motion vector mapping process in the management terminal 200. As shown in FIG. 図11は、エリアに重複がある場合の動きベクトルの合成について説明するための図である。FIG. 11 is a diagram for explaining motion vector synthesis when areas overlap. 図12は、時系列で検知された動きベクトルの接続について説明するための図である。FIG. 12 is a diagram for explaining connection of motion vectors detected in time series. 図13は、動きベクトルの補間について説明するための図である。FIG. 13 is a diagram for explaining motion vector interpolation. 図14は、動きベクトルの補正について説明するための図である。FIG. 14 is a diagram for explaining motion vector correction. 図15は、動きベクトル基づいて人の位置が予測可能であることを説明するための図である。FIG. 15 is a diagram for explaining that the position of a person can be predicted based on motion vectors. 図16は、動きベクトルの解析結果に基づくヒートマップの一例を示す図である。FIG. 16 is a diagram showing an example of a heat map based on the motion vector analysis result. 図17は、動きベクトルの解析結果に基づくカラーマップの一例を示す図である。FIG. 17 is a diagram showing an example of a color map based on the motion vector analysis result. 図18は、管理端末200におけるデータの流れの一例を示す図である。FIG. 18 is a diagram showing an example of data flow in the management terminal 200. As shown in FIG.

画像センサは、人感センサ、明かりセンサあるいは赤外線センサ等に比べて多様な情報を取得することができる。魚眼レンズや超広角レンズなどを用いれば1台の画像センサで撮影可能な領域を拡大できるし、画像の歪みは計算処理で補正することができる。視野内のセンシングしたくない領域をマスク設定する機能や、学習機能を備えた画像センサも知られている。 An image sensor can acquire a wider variety of information than a human sensor, a light sensor, an infrared sensor, or the like. By using a fish-eye lens, an ultra-wide-angle lens, or the like, the area that can be captured by a single image sensor can be expanded, and image distortion can be corrected by calculation processing. Image sensors are also known that have a function of masking an area in the field of view that is not desired to be sensed, and have a learning function.

[構成]
図1は、実施形態に係る画像センサを備える画像センサシステムの一例を示す模式図である。図1において、照明機器1、空調機器2、および画像センサ3は、ビル10の例えばフロアごとに設けられ、コントローラ4と通信可能に接続される。各階のコントローラ4は、ビル内ネットワーク500を介して、例えばビル管理センタのBEMS(Building Energy Management System)サーバ5と通信可能に接続される。ビル内ネットワーク500の通信プロトコルとしてはBuilding Automation and Control Networking protocol(BACnet(登録商標))が代表的である。このほかDALI、ZigBee(登録商標)、ECHONET Lite(登録商標)等のプロトコルも知られている。
[composition]
FIG. 1 is a schematic diagram illustrating an example of an image sensor system including an image sensor according to an embodiment. In FIG. 1, a lighting device 1, an air conditioner 2, and an image sensor 3 are provided, for example, on each floor of a building 10, and are connected to a controller 4 so as to be communicable. The controller 4 on each floor is communicably connected to, for example, a building management center BEMS (Building Energy Management System) server 5 via an intra-building network 500 . A typical communication protocol for the intra-building network 500 is the Building Automation and Control Networking protocol (BACnet (registered trademark)). In addition, protocols such as DALI, ZigBee (registered trademark), and ECHONET Lite (registered trademark) are also known.

BEMSサーバ5は、例えばTCP/IP(Transmission Control Protocol / Internet Protocol)ベースの通信ネットワーク300経由で、クラウドコンピューティングシステム(クラウド)600に接続されることができる。クラウド600は、データベース70およびサーバ80を備え、ビル管理等に関するサービスを提供する。 The BEMS server 5 can be connected to a cloud computing system (cloud) 600 via a TCP/IP (Transmission Control Protocol/Internet Protocol) based communication network 300, for example. The cloud 600 includes a database 70 and a server 80, and provides services related to building management and the like.

図2に示されるように、照明機器1、空調機器2の吹き出し口、および画像センサ3は各フロアの例えば天井に配設される。画像センサ3には、それぞれのセンシング対象とするエリアが割り当てられる。図2において、エリアA1,A2がそれぞれフロアのおよそ半分をカバーしていることが示される。すべてのエリアを合わせれば、対象空間のフロアをカバーすることができる。図中ハッチングで示すように、異なる画像センサ3の割り当てエリアの一部が重なっていてもよい(重複部分)。 As shown in FIG. 2, lighting equipment 1, outlets of air conditioning equipment 2, and image sensor 3 are arranged on, for example, the ceiling of each floor. Each image sensor 3 is assigned an area to be sensed. In FIG. 2 it is shown that areas A1 and A2 each cover approximately half of the floor. All areas together can cover the floor of the target space. As indicated by hatching in the drawing, the areas assigned to different image sensors 3 may partially overlap (overlapping portion).

画像センサ3は、視野内に捕えた映像を撮影して画像データを取得する。この画像データは画像センサ3において処理され、人物情報、あるいは環境情報などが計算される。すなわち画像センサ3は、対象空間における対象を検知(センシング)して、この対象に係わる特徴量を算出する。 The image sensor 3 acquires image data by photographing an image captured within its field of view. This image data is processed by the image sensor 3, and personal information, environment information, or the like is calculated. That is, the image sensor 3 detects (senses) an object in the object space and calculates a feature amount related to this object.

環境情報は、対象とする空間(ゾーン)の環境に関する情報であり、例えば、フロアの照度や温度等である。人物情報は、対象空間における人間に関する情報である。例えばエリア内の人数、人の行動、人の活動量、人の存在または不在を示す在不在、あるいは、人が歩いているか、または1つの場所に留まっているかを示す歩行滞留などが人物情報の例である。 The environment information is information about the environment of the target space (zone), such as the illuminance and temperature of the floor. Person information is information about a person in the target space. For example, the number of people in an area, the behavior of people, the amount of activity of people, presence or absence indicating the presence or absence of people, or walking stay indicating whether people are walking or staying in one place. For example.

近年では、人の居住環境においてこれらの情報に基づき照明機器1や空調機器2を制御することで、人の快適性や安全性等を確保することが検討されている。環境情報および人物情報を、ゾーンを複数に分割した小領域ごとに算出することも可能である。この小領域を、画像センサ3ごとの割り当てエリアに対応付けてもよい。 In recent years, it has been studied to ensure human comfort and safety by controlling the lighting equipment 1 and the air conditioning equipment 2 based on such information in a human living environment. It is also possible to calculate environmental information and person information for each small area obtained by dividing a zone into a plurality of areas. This small area may be associated with the allocated area for each image sensor 3 .

実施形態では、対象の動きを示す動き情報に着目する。動き情報としては、対象の動きの大きさおよび方向を表す、動きベクトルが代表的である。これに代えて、対象の動きの大きさを示す量や、対象の動きの方向を示す量等のスカラー値も、動き情報として理解されることが可能である。 In the embodiment, attention is paid to motion information indicating the motion of the object. A typical example of motion information is a motion vector that represents the magnitude and direction of motion of an object. Alternatively, a scalar value, such as a quantity indicative of the magnitude of an object's movement or an amount indicative of the direction of an object's movement, can also be understood as motion information.

図3は、図1に示される画像センサシステムの一例を示すブロック図である。図3において、BEMSサーバ5の配下に、空調機器2を制御する空調コントローラ41、エレベータを制御するエレベーターコントローラ42、防犯システムを制御する防犯コントローラ43、防災システムを制御する防災コントローラ44、および、照明機器1(1-1、1-2)を制御する照明コントローラ45が、ビル内ネットワーク500経由で接続される。 FIG. 3 is a block diagram showing an example of the image sensor system shown in FIG. In FIG. 3, under the control of the BEMS server 5, there are an air conditioning controller 41 that controls the air conditioning equipment 2, an elevator controller 42 that controls the elevator, a security controller 43 that controls the security system, a disaster prevention controller 44 that controls the disaster prevention system, and lighting. A lighting controller 45 that controls the equipment 1 (1-1, 1-2) is connected via an intra-building network 500. FIG.

また、ビル内ネットワーク500に、管理端末200、およびゲートウェイ71,72がBEMSサーバ5と通信可能に接続される。ゲートウェイ71は、複数の画像センサ3(3-1~3-n)を配下として収容する。画像センサ3-1~3-nは、センサネットワーク101により、一筆書き状に接続される(渡り配線)。同様に、画像センサ3-1~3-mが、センサネットワーク102を介してゲートウェイ72の配下に収容される。 Also, a management terminal 200 and gateways 71 and 72 are connected to the intra-building network 500 so as to be able to communicate with the BEMS server 5 . The gateway 71 accommodates a plurality of image sensors 3 (3-1 to 3-n) as subordinates. The image sensors 3-1 to 3-n are connected by a sensor network 101 in a unicursal manner (crossover wiring). Similarly, the image sensors 3 - 1 to 3 - m are accommodated under the gateway 72 via the sensor network 102 .

センサネットワーク101,102のプロトコルとしては、例えばEtherCAT(登録商標)が知られている。センサネットワーク101は、画像センサ3-1~3-nとゲートウェイ71とを通信可能に接続する。センサネットワーク102は、画像センサ3-1~3-mとゲートウェイ72とを通信可能に接続する。各ゲートウェイ71,72は、それぞれセンサネットワーク101,102とビル内ネットワーク500との間でのプロトコル変換機能を有する。これにより、BEMSサーバ5および管理端末200も、ゲートウェイ71,72経由で画像センサ3-1~3-n、3-1~3-mと相互通信することが可能である。 EtherCAT (registered trademark), for example, is known as a protocol for the sensor networks 101 and 102 . The sensor network 101 connects the image sensors 3-1 to 3-n and the gateway 71 so as to be able to communicate with each other. The sensor network 102 connects the image sensors 3-1 to 3-m and the gateway 72 so as to be able to communicate with each other. Each gateway 71, 72 has a protocol conversion function between the sensor networks 101, 102 and the intra-building network 500, respectively. Thereby, the BEMS server 5 and the management terminal 200 can also communicate with the image sensors 3-1 to 3-n and 3-1 to 3-m via the gateways 71 and 72, respectively.

図4は、実施形態に係る画像センサ3の一例を示すブロック図である。画像センサ3は、撮像部としてのカメラ部31と、メモリ32、プロセッサ33、および通信部34を備える。これらは内部バス35を介して互いに接続される。メモリ32とプロセッサ33を備えることで、画像センサ3はコンピュータとして機能する。 FIG. 4 is a block diagram showing an example of the image sensor 3 according to the embodiment. The image sensor 3 includes a camera section 31 as an imaging section, a memory 32 , a processor 33 and a communication section 34 . These are connected to each other via an internal bus 35 . By having the memory 32 and the processor 33, the image sensor 3 functions as a computer.

カメラ部31は、魚眼レンズ31a、絞り機構31b、イメージセンサ31cおよびレジスタ30を備える。魚眼レンズ31aは、エリアを天井から見下ろす形で視野に捕え、イメージセンサ31cに結像する。魚眼レンズ31aからの光量は絞り機構31bにより調節される。イメージセンサ31cは例えばCMOS(相補型金属酸化膜半導体)センサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。この映像信号はディジタル符号化され、画像データとして出力される。 The camera unit 31 includes a fisheye lens 31a, an aperture mechanism 31b, an image sensor 31c, and a register 30. The fish-eye lens 31a catches the area in the field of view looking down from the ceiling and forms an image on the image sensor 31c. The amount of light from the fisheye lens 31a is adjusted by a diaphragm mechanism 31b. The image sensor 31c is, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor, and generates a video signal with a frame rate of, for example, 30 frames per second. This video signal is digitally encoded and output as image data.

レジスタ30は、カメラ情報30aを記憶する。カメラ情報30aは、例えばオートゲインコントロール機能の状態、ゲインの値、露光時間などの、カメラ部31に関する情報、あるいは画像センサ3それ自体に関する情報である。
例えば、上記フレームレート、イメージセンサ31cのゲインの値、露光時間など、センシングの感度や精度に影響を及ぼすパラメータは、プロセッサ33により制御される。
The register 30 stores camera information 30a. The camera information 30a is information about the camera unit 31, such as the state of the auto gain control function, gain value, and exposure time, or information about the image sensor 3 itself.
For example, the processor 33 controls parameters that affect the sensing sensitivity and accuracy, such as the frame rate, the gain value of the image sensor 31c, and the exposure time.

メモリ32は、SDRAM(Synchronous Dynamic RAM)などの半導体メモリ、またはNANDフラッシュメモリやEPROM(Erasable Programmable ROM)などの不揮発性メモリであり、実施形態に係わる各種の機能をプロセッサ33に実行させるためのプログラム32aと、カメラ部31により取得された画像データ32bを記憶する。さらにメモリ32は、辞書データ32c、および動きベクトルデータ32dを記憶する。 The memory 32 is a semiconductor memory such as SDRAM (Synchronous Dynamic RAM) or a non-volatile memory such as NAND flash memory or EPROM (Erasable Programmable ROM). 32a and image data 32b acquired by the camera unit 31 are stored. Further, the memory 32 stores dictionary data 32c and motion vector data 32d.

辞書データ32cは、センシング項目と特徴量とを対応づけたテーブル形式のデータであり、例えば機械学習(Machine-Learning)等の手法により生成することが可能である。辞書データ32cを用いた例えばパターンマッチング処理により、エリアにおける検出対象(人など)を識別することが可能である。 The dictionary data 32c is tabular data in which sensing items and feature amounts are associated with each other, and can be generated by a technique such as machine-learning. For example, by pattern matching processing using the dictionary data 32c, it is possible to identify the detection target (person, etc.) in the area.

動きベクトルデータ32dは、プロセッサ33の画像処理部33aにより生成された、エリアにおける動きベクトルを示すデータである。動きベクトルデータ32dは、例えば予め定められた期間(一日、一週間、あるいは一ヶ月など)にわたってメモリ32に蓄積される。 The motion vector data 32d is data indicating a motion vector in an area, generated by the image processing section 33a of the processor 33. FIG. The motion vector data 32d are accumulated in the memory 32, for example, for a predetermined period (one day, one week, one month, etc.).

このほか、メモリ32には、マスク設定データなどが記憶されてもよい。マスク設定データは、カメラ部31に捕えられた視野のうち、画像処理する領域(画像処理の対象領域)と、画像処理しない領域(画像処理の非対象領域)とを区別するために用いられる。 In addition, the memory 32 may store mask setting data and the like. The mask setting data is used to distinguish an area for image processing (target area for image processing) and an area for non-image processing (non-target area for image processing) in the field of view captured by the camera unit 31 .

プロセッサ33は、メモリ32に記憶されたプログラムをロードし、実行することで、実施形態において説明する各種の機能を実現する。プロセッサ33は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。FPGA(Field Programmable Gate Array)等でプロセッサ15を構成することもできる。MPU(Micro Processing Unit)もプロセッサの一つである。 The processor 33 loads and executes programs stored in the memory 32 to implement various functions described in the embodiments. The processor 33 is, for example, a multi-core CPU (Central Processing Unit) and is an LSI (Large Scale Integration) tuned to execute image processing at high speed. The processor 15 can also be configured with an FPGA (Field Programmable Gate Array) or the like. An MPU (Micro Processing Unit) is also one of the processors.

通信部34は、センサネットワーク101(102)に接続可能で、通信相手先(BEMSサーバ5、管理端末200、または他の画像センサ3等)とのデータの授受を仲介する。通信のインタフェースは有線でも無線でもよい。通信ネットワークのトポロジはスター型、リング型など任意のトポロジを適用できる。通信プロトコルは汎用プロトコルでも、産業用プロトコルでもよい。単独の通信方法でもよいし、複数の通信方法を組み合わせてもよい。 The communication unit 34 is connectable to the sensor network 101 (102), and mediates the exchange of data with a communication partner (the BEMS server 5, the management terminal 200, or another image sensor 3, etc.). The communication interface may be wired or wireless. Any topology such as a star type or a ring type can be applied to the topology of the communication network. The communication protocol may be a general purpose protocol or an industrial protocol. A single communication method may be used, or a plurality of communication methods may be combined.

特に、通信部34は、画像センサ3によるセンシングデータや、プロセッサ33の処理結果、処理データ、パラメータ、画像データ、動きベクトルデータ、蓄積された過去の動きベクトルデータ、加工された動きベクトルデータ、統計解析データ、出力データ、パラメータ、辞書データ、ファームウェアなどを、通信ネットワークとしてのセンサネットワーク101(102)経由で送受信する。これにより、上記データや情報は、他の画像センサ3、BEMSサーバ5、および管理端末200等と、ビル内ネットワーク500等を経由して共有されることが可能である。 In particular, the communication unit 34 receives sensing data from the image sensor 3, processing results of the processor 33, processing data, parameters, image data, motion vector data, accumulated past motion vector data, processed motion vector data, statistics, Analysis data, output data, parameters, dictionary data, firmware, etc. are transmitted and received via the sensor network 101 (102) as a communication network. As a result, the above data and information can be shared with other image sensors 3, BEMS servers 5, management terminals 200 and the like via the intra-building network 500 and the like.

ところで、プロセッサ33は、実施形態に係る処理機能として、画像処理部33a、および制御部33bを備える。画像処理部33a、および制御部33bは、メモリ32に記憶されたプログラム32aがプロセッサ33のレジスタにロードされ、当該プログラムの進行に伴ってプロセッサ33が演算処理を実行することで生成されるプロセスとして、理解され得る。つまりプログラム32aは、画像処理プログラム、および制御プログラムを含む。 By the way, the processor 33 includes an image processing section 33a and a control section 33b as processing functions according to the embodiment. The image processing unit 33a and the control unit 33b load the program 32a stored in the memory 32 into the registers of the processor 33, and the processor 33 executes arithmetic processing as the program progresses. , can be understood. That is, the program 32a includes an image processing program and a control program.

画像処理部33aは、画像データ32bを画像処理して、対象エリアにおける動きベクトル(オプティカルフロー)を検知する。これにより得られた動きベクトルデータは、メモリ32に蓄積される(動きベクトルデータ32d)。 The image processing unit 33a performs image processing on the image data 32b to detect a motion vector (optical flow) in the target area. The motion vector data thus obtained is stored in the memory 32 (motion vector data 32d).

動きベクトルの解析に際して、画像データに特有の特徴量を利用することも可能である。特徴量としては、輝度勾配方向ヒストグラム(Histograms of Oriented Gradients:HOG)、コントラスト、解像度、S/N比、および色調などがある。輝度勾配方向共起ヒストグラム(Co-occurrence HOG:Co-HOG)特徴量、Haar-Like特徴量なども特徴量として知られている。 When analyzing the motion vector, it is also possible to use feature amounts unique to the image data. The features include histograms of oriented gradients (HOG), contrast, resolution, S/N ratio, and color tone. A co-occurrence histogram (Co-occurrence HOG: Co-HOG) feature amount, a Haar-Like feature amount, and the like are also known as feature amounts.

また、画像処理部33aは、在不在、人数、活動量、照度、歩行滞留、および前記動きベクトルを含むセンシング項目のうち、いずれかまたは複数のセンシング項目をセンシングする。エリアごとに、これらの複数のセンシング項目を設定することもできる。画像処理部33aは、エリアをさらに複数に分割したブロックごとに各センシング項目をセンシングし、ブロックごとのセンシング結果を統合して、エリアごとのセンシング結果を得ることも可能である。 In addition, the image processing unit 33a senses any one or a plurality of sensing items among sensing items including presence/absence, number of people, amount of activity, illuminance, staying on foot, and the motion vector. These multiple sensing items can also be set for each area. The image processing unit 33a can sense each sensing item for each block obtained by further dividing the area into a plurality of blocks, integrate the sensing results for each block, and obtain the sensing result for each area.

制御部33bは、管理端末200からの通知に応じてセンシングの感度を可変する。例えば、他の画像センサのエリアから自らのエリアへと人が移動してくることを通知されると、制御部33bはカメラ部31に制御信号を与えて、デフォルトの状態よりもセンシング感度を高める。センシング感度を高めるには、イメージセンサのゲインを上げたり、物体検知に係わるしきい値を低下させたり、フレームレートを高速化したりするなどの手法がある。 The control unit 33b varies the sensing sensitivity according to the notification from the management terminal 200. FIG. For example, when notified that a person is moving from an area of another image sensor to its own area, the control unit 33b gives a control signal to the camera unit 31 to increase the sensing sensitivity from the default state. . There are methods to increase the sensing sensitivity, such as increasing the gain of the image sensor, lowering the threshold value related to object detection, and increasing the frame rate.

図5は、図4に示される画像処理部33aの基本的な処理手順を示すフローチャートである。図5において、カメラ部31で取得(ステップS1)された画像データ32bは、メモリ32に一時的に記憶されたのち(ステップS2)、画像処理部33aに送られる。画像処理部33aは、画像データ32bを画像処理して、在不在判定(ステップS3)、人数推定(ステップS4)、活動量推定(ステップS5)、照度推定(ステップS6)、歩行滞留判定(ステップS7)、および動きベクトル算出(ステップS8)の各処理を実行し、これらの項目を画像データ32bからセンシングする。 FIG. 5 is a flow chart showing a basic processing procedure of the image processing section 33a shown in FIG. In FIG. 5, image data 32b acquired by the camera section 31 (step S1) is temporarily stored in the memory 32 (step S2), and then sent to the image processing section 33a. The image processing unit 33a performs image processing on the image data 32b to perform presence/absence determination (step S3), number estimation (step S4), activity amount estimation (step S5), illuminance estimation (step S6), walking retention determination (step S7) and motion vector calculation (step S8) are executed, and these items are sensed from the image data 32b.

これらのセンシング項目の全てを常時、同時にセンシングしても良い。または、必要に応じて個別にセンシングしてもよい。項目ごとの処理の周期は、例えばフレーム周期に同期して全ての項目で同じであっても良いし、項目ごとに異なっていても良い。 All of these sensing items may always be sensed at the same time. Or you may sense individually as needed. The cycle of processing for each item may be the same for all items in synchronization with the frame cycle, for example, or may be different for each item.

在不在については、例えば背景差分/フレーム間差分/人物認識などを用いて人物領域を抽出し、在不在を判定することができる。ゾーンがエリアに分割されていれば(エリア分割)、エリアごとに人物領域があるか否かを判定し、エリアごとの在不在を推定することができる。さらに、照明変動判定などによる誤検知抑制機能を持たせることも可能である。 As for the presence/absence of a person, it is possible to determine the presence/absence of a person by extracting a person area using, for example, background difference/inter-frame difference/person recognition. If the zone is divided into areas (area division), it is possible to determine whether or not there is a person area for each area, and to estimate the presence/absence of each area. Furthermore, it is possible to provide an erroneous detection suppression function by illumination variation determination or the like.

人数については、例えば背景差分/フレーム間差分/人物認識などを用いて人物領域を抽出し、人物領域から個人を検知して人数を推定することができる。エリア分割がある場合には、個人の位置を推定し、エリアごとに人数を推定することができる。 As for the number of people, the number of people can be estimated by extracting a person area using, for example, background difference/inter-frame difference/person recognition, and detecting individuals from the person area. If there is area division, the location of individuals can be estimated and the number of people can be estimated for each area.

活動量については、フレーム間差分などを用いて動き領域を抽出し、活動量を推定することができる。活動量を、例えば、無/小/中/大などのように複数の段階に分類しても良い。あるいはMETs(Metabolic equivalents)等の指標で活動量を表してもよい。さらに、エリア分割の設定があれば、エリアごとに動き領域を抽出し、エリアごとの活動量を推定することができる。 As for the amount of activity, it is possible to estimate the amount of activity by extracting a motion area using inter-frame differences or the like. The amount of activity may be classified into a plurality of stages such as no/small/medium/large, for example. Alternatively, an index such as METs (Metabolic equivalents) may be used to represent the amount of activity. Furthermore, if there is an area division setting, it is possible to extract a motion region for each area and estimate the amount of activity for each area.

照度については、画像データ32bと、ゲイン、露光時間などのカメラ情報に基づいて推定することができる。カメラ情報(30a)は、カメラ部31のレジスタ30から取得することができる。エリア分割の設定があれば、エリアごとに画像を分割し、分割した画像とカメラ情報からエリアごとの照度を推定することができる。 The illuminance can be estimated based on the image data 32b and camera information such as gain and exposure time. Camera information ( 30 a ) can be obtained from the register 30 of the camera section 31 . If there is an area division setting, the image can be divided into areas, and the illuminance of each area can be estimated from the divided images and camera information.

歩行滞留については、フレーム間差分などを用いて動き領域を抽出し、歩行滞留を判定することができる。エリア分割の設定があれば、エリアごとに動き領域を抽出し、エリアごとの歩行滞留を推定することができる。 With regard to walking stagnation, a moving region can be extracted using an inter-frame difference or the like, and walking stagnation can be determined. If there is a setting for area division, it is possible to extract a motion region for each area and estimate walking stagnation for each area.

動きベクトルについては、画像データ32bを画像処理して、例えばブロックマッチング法、あるいは勾配法などのアルゴリズムにより、動きベクトルを算出することができる。算出された動きベクトルは、メモリ32に蓄積される(動きベクトルデータ32d)。 A motion vector can be calculated by subjecting the image data 32b to image processing and using an algorithm such as a block matching method or a gradient method. The calculated motion vector is stored in the memory 32 (motion vector data 32d).

以上のようにして、各センシング項目のセンシングデータを得ることができる。通信部34は、これらのセンシングデータや項目の算出に係る各種のパラメータなどをセンサネットワーク101(102)経由で管理端末200に通信する(ステップS10)。 As described above, sensing data of each sensing item can be obtained. The communication unit 34 communicates these sensing data and various parameters related to item calculation to the management terminal 200 via the sensor network 101 (102) (step S10).

図6は、画像センサにおけるデータの流れの一例を示す図である。図6において、カメラ部31で取得された画像データ32bはメモリ32に一時的に記憶されたのち、プロセッサ33の画像処理部33aに送られる。画像処理部33aは、画像データ32bを画像処理して、動きベクトルデータを生成する。得られた動きベクトルデータ32dは、メモリ32に蓄積される。 FIG. 6 is a diagram showing an example of data flow in the image sensor. In FIG. 6, the image data 32b acquired by the camera section 31 is temporarily stored in the memory 32 and then sent to the image processing section 33a of the processor 33. FIG. The image processing unit 33a performs image processing on the image data 32b to generate motion vector data. The obtained motion vector data 32 d are stored in the memory 32 .

通信部34は、生成された動きベクトルデータ32dを含む各種のデータを、センサネットワーク101(102)、ゲートウェイ71(または72)、ビル内ネットワーク500経由で管理端末200やBEMSサーバ5に送信する。 The communication unit 34 transmits various data including the generated motion vector data 32 d to the management terminal 200 and the BEMS server 5 via the sensor network 101 ( 102 ), the gateway 71 (or 72 ), and the intra-building network 500 .

図7は、図3に示される管理端末200の一例を示す機能ブロック図である。計算装置の一例としての管理端末200は、CPUやMPU(Micro Processing Unit)等のプロセッサ250と、ROM(Read Only Memory)220およびRAM(Random Access Memory)230を備えるコンピュータである。管理端末200は、さらに、ハードディスクドライブ(Hard Disk Drive:HDD)などの記憶部240、光学メディアドライブ260、通信部270、および、種々の情報を表示するモニタ210を備える。 FIG. 7 is a functional block diagram showing an example of the management terminal 200 shown in FIG. The management terminal 200 as an example of a computing device is a computer including a processor 250 such as a CPU or MPU (Micro Processing Unit), a ROM (Read Only Memory) 220 and a RAM (Random Access Memory) 230 . The management terminal 200 further includes a storage unit 240 such as a hard disk drive (HDD), an optical media drive 260, a communication unit 270, and a monitor 210 that displays various information.

ROM220は、BIOS(Basic Input Output System)やUEFI(Unified Extensible Firmware Interface)などの基本プログラム、および各種の設定データ等を記憶する。RAM230は、記憶部240からロードされたプログラムやデータを一時的に記憶する。 The ROM 220 stores basic programs such as BIOS (Basic Input Output System) and UEFI (Unified Extensible Firmware Interface), various setting data, and the like. RAM 230 temporarily stores programs and data loaded from storage unit 240 .

光学メディアドライブ260は、CD-ROM280などの記録媒体に記録されたディジタルデータを読み取る。管理端末200で実行される各種プログラムは、例えばCD-ROM280に記録されて頒布される。このCD-ROM280に格納されたプログラムは光学メディアドライブ260により読み取られ、記憶部240にインストールされる。 Optical media drive 260 reads digital data recorded on a recording medium such as CD-ROM 280 . Various programs executed by the management terminal 200 are recorded on, for example, a CD-ROM 280 and distributed. The program stored in this CD-ROM 280 is read by the optical media drive 260 and installed in the storage section 240 .

通信部270は、ビル内ネットワーク500経由で画像センサ3、BEMSサーバ5等と通信するための機能を備える。管理端末200で実行される各種プログラムを、例えば通信部270を介してサーバからダウンロードし、記憶部240にインストールすることもできる。通信部270を介してクラウド600(図1)から最新のプログラムをダウンロードし、インストール済みのプログラムをアップデートすることもできる。また、管理端末200は、ビル内ネットワーク500およびゲートウェイ71,72経由で、画像センサ3に辞書データをダウンロード送信することができる。 The communication unit 270 has a function for communicating with the image sensor 3, the BEMS server 5, etc. via the intra-building network 500. FIG. Various programs to be executed by the management terminal 200 can also be downloaded from a server via the communication unit 270 and installed in the storage unit 240, for example. It is also possible to download the latest program from the cloud 600 (FIG. 1) via the communication unit 270 and update the installed program. Also, the management terminal 200 can download and transmit dictionary data to the image sensor 3 via the intra-building network 500 and the gateways 71 and 72 .

記憶部240は、プロセッサ250により実行されるプログラム240aに加えて、動きベクトルデータ240b、統計解析データ240c、設計データ240d、および、マップデータ240eを記憶する。 Storage unit 240 stores motion vector data 240b, statistical analysis data 240c, design data 240d, and map data 240e in addition to program 240a executed by processor 250. FIG.

動きベクトルデータ240bは、画像センサ3-1~3-n、3-1~3-mから収集された動きベクトルである。画像センサ3-1~3-n、3-1~3-mは、当該画像センサごとの座標系(センサ座標系と称する)で検知した動きベクトルを送信する。これを収集した管理端末200は、各センサの動きベクトルを、基準座標系における動きベクトルに変換する。基準座標系としては、例えばフロアマップ上の位置を定めるXY座標系を採ることができる。収集直後の動きベクトルデータと、変換後の動きベクトルデータの双方を、動きベクトルデータ240bに含めてもよい。 Motion vector data 240b are motion vectors collected from image sensors 3-1 to 3-n, 3-1 to 3-m. The image sensors 3-1 to 3-n and 3-1 to 3-m transmit motion vectors detected in a coordinate system (called a sensor coordinate system) for each image sensor. The management terminal 200 that collects this transforms the motion vector of each sensor into a motion vector in the reference coordinate system. As the reference coordinate system, for example, an XY coordinate system that determines the position on the floor map can be used. Both the motion vector data immediately after collection and the converted motion vector data may be included in the motion vector data 240b.

常時生成される動きベクトルデータを記憶部240に蓄積してもよいし、時間や期間を指定し、その期間だけの動きベクトルデータを蓄積してもよい。また、全ての画像データからの動きベクトルデータを蓄積してもよいし、選択された何れかのの画像データからの動きベクトルデータを蓄積してもよい。 The motion vector data that is constantly generated may be stored in the storage unit 240, or the time and period may be designated and the motion vector data for only that period may be stored. Also, motion vector data from all image data may be accumulated, or motion vector data from any selected image data may be accumulated.

統計解析データ240cは、記憶部240に蓄積された動きベクトルデータ240bを統計的に解析して生成される。 The statistical analysis data 240c is generated by statistically analyzing the motion vector data 240b accumulated in the storage unit 240. FIG.

設計データ240dは、画像センサ3-1~3-n、3-1~3-mのそれぞれの、対象空間における設置位置と、カメラ部31(あるいは魚眼レンズ31a)の指向方向等を含むデータである。つまり設計データ240dは、フロアマップ上の各位置座標と、それぞれの画像センサ3の画像データを構成する画素との対応関係を一意に決定するために用いられるデータである。
マップデータ240eは、画像センサ3ごとの割り当てエリアと、対象空間のマップとの対応関係を示すデータである。
The design data 240d is data including the installation position in the target space of each of the image sensors 3-1 to 3-n and 3-1 to 3-m, the orientation direction of the camera section 31 (or the fisheye lens 31a), and the like. . That is, the design data 240d is data used to uniquely determine the correspondence between each position coordinate on the floor map and the pixels forming the image data of each image sensor 3 .
The map data 240e is data indicating the correspondence relationship between the assigned area for each image sensor 3 and the map of the target space.

プロセッサ250は、OS(Operating System)および各種のプログラムを実行する。また、プロセッサ250は、実施形態に係る処理機能として、取得部250a、マップ作成部250b、統合処理部250c、解析部250d、動きベクトル加工部250e、予測部250f、通知部250g、および、データ加工部250hを備える。 The processor 250 executes an OS (Operating System) and various programs. In addition, the processor 250 includes, as processing functions according to the embodiment, an acquisition unit 250a, a map creation unit 250b, an integration processing unit 250c, an analysis unit 250d, a motion vector processing unit 250e, a prediction unit 250f, a notification unit 250g, and a data processing unit. A portion 250h is provided.

これらの機能ブロックは、プログラム240aがRAM230にロードされ、当該プログラムの実行の過程で生成されるプロセスとして、理解され得る。つまりプログラム240aはコンピュータである管理端末200を、取得部250a、マップ作成部250b、統合処理部250c、解析部250d、動きベクトル加工部250e、予測部250f、通知部250g、および、データ加工部250hとして動作させる。 These functional blocks can be understood as processes that the program 240a is loaded into the RAM 230 and generated during execution of the program. In other words, the program 240a operates the management terminal 200, which is a computer, as an acquisition unit 250a, a map creation unit 250b, an integration processing unit 250c, an analysis unit 250d, a motion vector processing unit 250e, a prediction unit 250f, a notification unit 250g, and a data processing unit 250h. operate as

取得部250aは、画像センサ3-1~3-n、3-1~3-mのそれぞれで検知された動きベクトルデータを取得する。取得された動きベクトルデータは、記憶部240に記憶される(動きベクトルデータ240b)。
マップ作成部250bは、設計データ240dに基づいてマップデータ240eを作成する。すなわちマップ作成部250bは、各画像センサ3の設置位置や向き、さらには、配線や通信順などのデータに基づいて、マップデータ240eを生成する。
The acquiring unit 250a acquires motion vector data detected by each of the image sensors 3-1 to 3-n and 3-1 to 3-m. The acquired motion vector data is stored in the storage unit 240 (motion vector data 240b).
The map creator 250b creates map data 240e based on the design data 240d. That is, the map creation unit 250b creates the map data 240e based on data such as the installation position and orientation of each image sensor 3, wiring, communication order, and the like.

図8は、センサ座標系と基準座標系との関係の一例を示す図である。画像センサ3A,3B,3C,3Dを例にとり、それぞれの割り当てエリアは4×4の16個のブロックで構成されるとする。図8おいて、広さ順にフロア>エリア>ブロックの関係があるとする。 FIG. 8 is a diagram showing an example of the relationship between the sensor coordinate system and the reference coordinate system. Taking the image sensors 3A, 3B, 3C, and 3D as an example, it is assumed that each allocated area is composed of 4×4=16 blocks. In FIG. 8, it is assumed that there is a relationship of floor>area>block in order of size.

図8において、画像センサ3A,3B,3C,3Dは、自らの割り当てエリアにおける動きベクトルをそれぞれのセンサ座標系で検知し、管理端末200に通知する。管理端末200は、通知された動きベクトルを統合し、全てのエリアを合わせた4×4×4=6ブロック分のフロアマップ上での動きベクトルを算出する。この算出された動きベクトルが、すなわち基準座標系で表されるものになる。 In FIG. 8, the image sensors 3A, 3B, 3C, and 3D detect motion vectors in their assigned areas in their respective sensor coordinate systems, and notify the management terminal 200 of them. The management terminal 200 integrates the notified motion vectors and calculates a motion vector on the floor map for 4×4×4=6 blocks, which is the sum of all areas. This calculated motion vector is expressed in the reference coordinate system.

画像センサ3A,3B,3C,3Dの基準座標系における位置(X,Y)、および取り付け向きθは設計データ240dに記録されているので、これらの情報に基づいて座標変換を行うことができる。画像センサ3で撮像された画像データの各画素は、各画像センサ3において、画像中心からの距離と角度で表現できる。そして、基準座標系におけるマップ上の画像センサ3の設置位置と設置向きとが分かれば、画像センサ3の各画素の位置とマップ上の位置との対応付けを行うことができる。各画素の対応位置をマップデータ240eに格納しても良いし、都度、計算しても良い。 Since the positions (X, Y) of the image sensors 3A, 3B, 3C, and 3D in the reference coordinate system and the mounting orientation θ are recorded in the design data 240d, coordinate conversion can be performed based on this information. Each pixel of the image data captured by the image sensor 3 can be represented by the distance and angle from the center of the image in each image sensor 3 . If the installation position and installation orientation of the image sensor 3 on the map in the reference coordinate system are known, the position of each pixel of the image sensor 3 can be associated with the position on the map. The corresponding position of each pixel may be stored in the map data 240e, or may be calculated each time.

統合処理部250cは、画像センサ3ごとの動きベクトルデータをマップデータ240eに基づいて統合して、対象空間における動きベクトルを計算する。すなわち統合処理部250cは、マップデータ240eに基づいて、複数の画像センサ3の動きベクトルデータをフロアマップに対応付けたマップ対応データを作成する。なお、動きベクトルの統合とは、複数の動きベクトルを単に接続するだけでなく、統計的な処理に基づく補間、あるいは補正などの処理を含んでもよい。 The integration processing unit 250c integrates motion vector data for each image sensor 3 based on the map data 240e to calculate a motion vector in the target space. That is, the integration processing unit 250c creates map correspondence data in which the motion vector data of the plurality of image sensors 3 are associated with the floor map based on the map data 240e. Note that motion vector integration may include processing such as interpolation or correction based on statistical processing as well as simply connecting a plurality of motion vectors.

また、統合処理部250cは、画像センサ同士の割り当てエリアの重複部分においては、各画像センサでそれぞれ検知された動きベクトルを互いに整合させるための処理を行う。例えば、二つの動きベクトルを1:1で均等に合成してもよいし、何れかに重みをつけてもよい。統合処理部250cは、個々の画像センサによる動きベクトルを全体として最適となるように合成し、マップ全体を対象として接続する。これにより、フロアマップ全体で整合を取りつつ、動きベクトルを合成することができる。 In addition, the integration processing unit 250c performs processing for aligning the motion vectors detected by the respective image sensors in overlapping portions of the allocated areas of the image sensors. For example, two motion vectors may be combined equally at 1:1, or weighted to one of them. The integration processing unit 250c synthesizes motion vectors from individual image sensors so as to be optimal as a whole, and connects the entire map as a target. As a result, motion vectors can be combined while matching the entire floor map.

解析部250dは、記憶部240に蓄積された動きベクトルデータ240bを統計的に解析し、統計解析データ240cを生成する。統計解析により、局所での動きベクトルからフロア全体での各種事象を判定することができる。統計解析にはリアルタイムデータ、または蓄積データのいずれを用いてもよい。解析方法としては、動きベクトルの分布を解析したり、重ね合わせてヒートマップ解析したり、動きベクトルを重ね合わせて軌跡推定したりする。例えば混雑度、群衆行動、レイアウト推定、待ち行列推定、オフィスの使用率、工場の稼働状況などの事象を定量的に求めることができる。また、対象の移動速度やその変化、移動距離などを推定し、解析することもできる。さらに、工場の設備など、稼働状況を推定してもよい。 The analysis unit 250d statistically analyzes the motion vector data 240b accumulated in the storage unit 240 and generates statistical analysis data 240c. Statistical analysis can determine various events across the floor from local motion vectors. Either real-time data or stored data may be used for statistical analysis. Analysis methods include analyzing the distribution of motion vectors, performing heat map analysis by superimposing motion vectors, and estimating a trajectory by superimposing motion vectors. For example, events such as congestion, crowd behavior, layout estimation, queue estimation, office usage rate, and factory operation status can be obtained quantitatively. In addition, it is possible to estimate and analyze the moving speed of the target, its change, the moving distance, and the like. Furthermore, you may estimate the operating conditions, such as the facilities of a factory.

動きベクトル加工部250eは、例えば統計解析データ240cを参照し、フロアマップ上での動きベクトルを補完、あるいは補正する。例えば、魚眼レンズを使用することに伴って生じる画像の歪みに対応するため、動きベクトル加工部250eは、動きベクトルを補正する。 The motion vector processing unit 250e, for example, refers to the statistical analysis data 240c to supplement or correct motion vectors on the floor map. For example, the motion vector processing unit 250e corrects the motion vector in order to cope with image distortion caused by using a fisheye lens.

予測部250fは、統計解析データ240cに基づいて、フロアにおける対象(人(HUMAN)など:図8)の動きを予測する。
通知部250gは、予測部250fによる予測の結果、エリアを跨いでの人の移動が発生することが予測されると、移動先のエリアを受け持つ画像センサにそのことを通知する。例えば図8において、画像センサ3Dのエリアにいる人が画像センサ3Bのエリアに移動することが予測されると、通知部250gは、『画像センサ3Dのエリアから人が移動してくる』ことを、画像センサ3Bに通知する。つまり、移動元エリア(画像センサ3Dのエリア)から人が移動してくることが、移動先のエリア(画像センサ3Bのエリア)を受け持つ画像センサ3Bに通知される。通知を受けた画像センサ3Bは、必要に応じて、センシング感度を可変する等の制御を行う。
The prediction unit 250f predicts the movement of an object (such as HUMAN in FIG. 8) on the floor based on the statistically analyzed data 240c.
As a result of the prediction by the prediction unit 250f, when it is predicted that a person will move across areas, the notification unit 250g notifies the image sensor responsible for the destination area. For example, in FIG. 8, when a person in the area of the image sensor 3D is predicted to move to the area of the image sensor 3B, the notification unit 250g notifies that "a person is moving from the area of the image sensor 3D." , to the image sensor 3B. That is, the image sensor 3B in charge of the destination area (area of the image sensor 3B) is notified that a person is moving from the source area (area of the image sensor 3D). The image sensor 3B that has received the notification performs control such as varying the sensing sensitivity as necessary.

このほか通知部250gは、算出された動きベクトルデータ240bをビル内ネットワーク500経由でBEMSサーバ5に送信し、例えばシステム管理者に各種の情報を通知する。また、対象空間に混雑が発生したり、人流が乱れたり、設備の動きが異常になったなどの事象が検知されると、通知部250gは、その旨を通信ネットワーク経由で管理者に通知する。 In addition, the notification unit 250g transmits the calculated motion vector data 240b to the BEMS server 5 via the intra-building network 500, and notifies the system administrator of various information, for example. Also, when an event such as congestion in the target space, disturbance in the flow of people, or abnormal movement of equipment is detected, the notification unit 250g notifies the administrator to that effect via the communication network. .

データ加工部250hは、動きベクトルデータ240bおよび統計解析データ240cのいずれか、またはその両方を加工し、出力用データを生成する。例えば、フロアにおける人の移動の様子や混雑度、あるいは動線などをカラーマップで表示するためのデータ(表示画像など)をデータ加工部250hは生成する。生成されたデータはビル内ネットワーク500経由でBEMSサーバ5等に送信される。 The data processing unit 250h processes either or both of the motion vector data 240b and the statistical analysis data 240c to generate output data. For example, the data processing unit 250h generates data (display image, etc.) for displaying the movement of people on the floor, the degree of congestion, or the line of flow in a color map. The generated data is transmitted to the BEMS server 5 or the like via the intra-building network 500 .

[作用]
図9は、管理端末200の基本的な処理手順を示すフローチャートである。図9において、管理端末200は、各画像センサ3から、それぞれの画像センサ3において個別に検知された動きベクトルデータを取得し(ステップS20)、記憶部240に蓄積する(ステップS21)。次に管理端末200は、統合処理部250cにより、上記蓄積された動きベクトルを共通の座標系にマッピングする(ステップS22)。
[Action]
FIG. 9 is a flowchart showing a basic processing procedure of the management terminal 200. As shown in FIG. 9, the management terminal 200 acquires motion vector data individually detected by each image sensor 3 from each image sensor 3 (step S20), and accumulates them in the storage unit 240 (step S21). Next, the management terminal 200 maps the accumulated motion vectors to a common coordinate system by the integration processing unit 250c (step S22).

図10(a)、および図10(b)を、それぞれ異なる画像センサにおいて検知された動きベクトルとする。これらの動きベクトルを、管理端末200はマップデータ240eに基づいて統合し、フロアマップに対応する動きベクトルデータ(図10(c))を算出する。 10(a) and 10(b) are motion vectors detected by different image sensors. The management terminal 200 integrates these motion vectors based on the map data 240e to calculate motion vector data (FIG. 10(c)) corresponding to the floor map.

図11(a),(b)に示されるように、異なる画像センサの割り当てエリアに重複部分がある場合には、統合処理部250cはそれぞれの画像センサで検知された動きベクトルを互いに整合させて合成する(図11(c))。 As shown in FIGS. 11(a) and 11(b), when there is overlap in the allocated areas of different image sensors, the integration processing unit 250c aligns the motion vectors detected by the respective image sensors. Synthesize (FIG. 11(c)).

図12(a),(b),(c)は、時系列的に変化する動きベクトルがこの順で検知されたことを示す。このような動きベクトルが観測された場合、管理端末200は、複数の画像センサの時間軸上での動きベクトルを統計的に解析し、図12(d)に示されるように、マップ全体を対象として動きベクトルを接続する。 FIGS. 12(a), (b), and (c) show that time-series-changing motion vectors are detected in this order. When such a motion vector is observed, the management terminal 200 statistically analyzes the motion vectors on the time axis of multiple image sensors, and as shown in FIG. Connect the motion vectors as

さらに管理端末200は、図9のフローチャートにおいて、統計解析データ240cに基づき、マップ全体での動きベクトルから局所的な動きベクトルを補完および/または補正する(ステップS23)。
図13(a)および(c)の間の動きベクトルが図13(c)のように欠損していたとしても、例えば統計解析データ240cを用いることで、図13(d)に示されるように動きベクトルを補完することができる。
Furthermore, in the flowchart of FIG. 9, the management terminal 200 interpolates and/or corrects local motion vectors from motion vectors of the entire map based on the statistical analysis data 240c (step S23).
Even if the motion vector between FIGS. 13(a) and (c) is lost as shown in FIG. 13(c), for example, by using the statistical analysis data 240c, as shown in FIG. Motion vectors can be interpolated.

図14(a)および(c)に着目すると、図14(b)の動きベクトルは、時系列的な関係を満たさないので誤差を含むことがわかる。そこで管理端末200は、例えば統計解析データ240cを用いて動きベクトルを補正し、図14(d)に示される補正後の動きベクトルを算出する。 Focusing on FIGS. 14(a) and 14(c), it can be seen that the motion vectors in FIG. 14(b) contain errors because they do not satisfy the time-series relationship. Therefore, the management terminal 200 corrects the motion vector using, for example, the statistical analysis data 240c, and calculates the corrected motion vector shown in FIG. 14(d).

補間および補正を経たマップ全体での動きベクトルが得られると、管理端末200は、マップ全体での動きベクトルを統計的に解析し、統計解析データを作成する。この統計解析データに基づき、管理端末200は、フロア上で発生する各種の事象を判定する(ステップS24)。 When the motion vector for the entire map through interpolation and correction is obtained, the management terminal 200 statistically analyzes the motion vector for the entire map and creates statistical analysis data. Based on this statistical analysis data, the management terminal 200 determines various events occurring on the floor (step S24).

図15に示されるように、管理端末200は、マップ全体での動きベクトルに基づいて人の移動先の位置(またはエリア)を予測する。判定された事象および予測位置は、ビル内ネットワーク500および通信ネットワーク経由で、BEMSサーバ5や管理者等に通知される。さらに管理端末200は、図16に示されるような、マップ全体での動きベクトルの見える化画像を作成する(ステップS25)。 As shown in FIG. 15, the management terminal 200 predicts the destination position (or area) of the person based on the motion vector on the entire map. The determined event and predicted position are notified to the BEMS server 5, the administrator, etc. via the intra-building network 500 and the communication network. Furthermore, the management terminal 200 creates a visualization image of motion vectors on the entire map as shown in FIG. 16 (step S25).

図16は、動きベクトルの分布、方向、密度などを色分けして示す画像(ヒートマップ)の一例を示す図である。例えば、人が良く通るエリア(動きベクトルが密)を赤色、人があまり通らないエリア(動きベクトルが疎)を黄色、その中間をオレンジなどの色分けで示すことにより(カラーマップ)、例えばフロアにおける混雑度や動線を一目で把握することができる。もちろん、動きベクトルの長さ(大きさ)や方向に応じて色分けしてもよい。この種のヒートマップは、例えばオフィスフロア、空港、あるいは駅のコンコースなどに適用することが可能である。 FIG. 16 is a diagram showing an example of an image (heat map) showing the distribution, direction, density, etc. of motion vectors in different colors. For example, areas where people pass frequently (dense motion vectors) are shown in red, areas where people do not pass very often (sparse motion vectors) are yellow, and intermediate areas are shown in orange (color map). You can grasp the degree of congestion and traffic lines at a glance. Of course, different colors may be used according to the length (magnitude) and direction of the motion vector. This kind of heat map can be applied, for example, to office floors, airports or train station concourses.

動きベクトルの解析結果を活用することで、オフィスや店舗、公共施設や工場などの現状を把握し、改善を図ることができる。例えば以下の2例が代表的である。
(1) オフィス改善の例
会議室などの利用率を分析し、利用率の低い領域を別の用途に変更する。フリーアドレスのオフィスや兼務者の領域などの在席率を推定し、不要な領域を別の用途に変更する。動線がスマートなレイアウトに変更する。
(2) 店舗改善の例
人通りの多いところに広告を表示する。動線に合わせて関連商品を配置する。
By utilizing the results of motion vector analysis, it is possible to grasp the current state of offices, stores, public facilities, factories, etc., and make improvements. For example, the following two examples are typical.
(1) Examples of office improvements
Analyze the utilization rate of a conference room, etc., and change areas with low utilization rates to other uses. Estimate the occupancy rate of free-address offices, areas of people with multiple jobs, etc., and change unnecessary areas to other uses. Change the flow line to a smart layout.
(2) Examples of store improvements
Display ads in high-traffic areas. Arrange related products according to the flow line.

あるいは、食堂などの混雑上状況をほぼリアルタイムで把握し、利用者のスマートフォンに表示する、などのアプリケーションも考えられる。
図17に示されるように、所定の空間(食堂など)のエリアごとに混雑状況を色分けし、Web経由でアクセス可能なヒートマップとして公開すれば、利用者への便宜を図ることができる。
Another conceivable application is to grasp the congestion status of a cafeteria in almost real time and display it on the user's smartphone.
As shown in FIG. 17, if the congestion status is color-coded for each area of a predetermined space (dining room, etc.) and released as a heat map that can be accessed via the Web, it is possible to improve convenience for users.

図18は、管理端末200におけるデータの流れの一例を示す図である。図18において、統合処理部250cは、記憶部240に蓄積されたマップデータ240eを読み出し、統合して、マップ上での動きベクトルデータ240bを生成する。解析部250dはこの動きベクトルデータ240bを解析し、動きベクトル加工部250eによって動きベクトルの補完、補正処理が行われる。また、データ加工部250hにより、動きベクトルに基づくヒートマップ、カラーマップ、人の移動の様子や混雑状況、動線などのデータが作成され、通信部270経由でBEMSサーバ5などに送信される。 FIG. 18 is a diagram showing an example of data flow in the management terminal 200. As shown in FIG. In FIG. 18, the integration processing unit 250c reads and integrates map data 240e accumulated in the storage unit 240 to generate motion vector data 240b on the map. The analysis unit 250d analyzes the motion vector data 240b, and the motion vector processing unit 250e performs motion vector interpolation and correction processing. The data processing unit 250h also creates data such as heat maps, color maps, movement of people based on motion vectors, congestion conditions, flow lines, etc., and transmits the data to the BEMS server 5 or the like via the communication unit 270 .

[効果]
以上説明したようにこの実施形態では、複数の画像センサ3でセンシングされた動きベクトルを管理端末200に収集/蓄積し、基準座標系における統合された動きベクトルを算出するようにした。また、このようにして得たフロアマップ上での動きベクトルを統計的に解析し、対象空間における統計解析データを生成するようにした。これにより空間全体での動線や利用率、混雑度などを推定することが可能になる。
[effect]
As described above, in this embodiment, motion vectors sensed by a plurality of image sensors 3 are collected/accumulated in the management terminal 200, and integrated motion vectors in the reference coordinate system are calculated. In addition, the motion vectors on the floor map thus obtained are statistically analyzed to generate statistical analysis data in the target space. This makes it possible to estimate the flow line, usage rate, degree of congestion, etc. in the entire space.

また実施形態では、動きベクトルの解析により得られる情報を管理者などに通知するようにした。例えば、混雑が発生した、人流が乱れた、設備の動きが異常になったなどの情報を管理者に通知することができる。
また、解析の結果から制御指示を生成し、各種機器を制御してもよい。例えば、在不在/歩行滞留/推定照度による照明制御/空調制御、推定人数/活動量による空調制御、指定人数によるエレベータ運行制御、あるいはセキュリティドアの開閉制御などに適用可能である。
これらのことから、実施形態によれば、可用性を高めた画像センサシステム、計算装置、センシング方法およびプログラムを提供することが可能になる。
Further, in the embodiment, information obtained by motion vector analysis is notified to an administrator or the like. For example, it is possible to notify the administrator of information such as the occurrence of congestion, a disordered flow of people, and abnormal movement of facilities.
Also, control instructions may be generated from the analysis results to control various devices. For example, it can be applied to lighting control/air-conditioning control based on presence/absence/walking/estimated illuminance, air-conditioning control based on estimated number of people/activity, elevator operation control based on designated number of people, or security door opening/closing control.
For these reasons, according to the embodiments, it is possible to provide an image sensor system, a computing device, a sensing method, and a program with improved availability.

なお、この発明は上記実施形態に限定されるものではない。例えば、計算装置としての管理端末200に実装した各種機能を、ゲートウェイ71,72、あるいはBEMSサーバ5に実装してもよい。 In addition, this invention is not limited to the said embodiment. For example, various functions implemented in the management terminal 200 as a computing device may be implemented in the gateways 71 and 72 or the BEMS server 5 .

また、人の移動が予測されると、移動先エリアを受け持つ画像センサにそのことを通知し、画像センサ側でセンシング感度などの制御量を決めるようにした。これに代えて、通知先の画像センサにおける制御量を管理端末200の側で計算し、得られた制御量を画像センサ側に通知するようにしてもよい。 In addition, when a person's movement is predicted, it is notified to the image sensor in charge of the destination area, and the image sensor determines the control amount such as sensing sensitivity. Alternatively, the management terminal 200 may calculate the control amount for the image sensor of the notification destination, and notify the image sensor of the obtained control amount.

本発明の実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While embodiments of the invention have been described, the embodiments are provided by way of example and are not intended to limit the scope of the invention. This novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

1…照明機器、2…空調機器、3,3-1~3-m,3-1~3-n…画像センサ、3A,3B,3C,3D…画像センサ、4…コントローラ、5…BEMSサーバ、10…ビル、15…プロセッサ、30…レジスタ、30a…カメラ情報、31…カメラ部、31a…魚眼レンズ、31b…絞り機構、31c…イメージセンサ、32…メモリ、32a…プログラム、32b…画像データ、32c…辞書データ、32d…動きベクトルデータ、33…プロセッサ、33a…画像処理部、33b…制御部、34…通信部、35…内部バス、41…空調コントローラ、42…エレベーターコントローラ、43…防犯コントローラ、44…防災コントローラ、45…照明コントローラ、70…データベース、71,72…ゲートウェイ、80…サーバ、101,102…センサネットワーク、200…管理端末、210…モニタ、220…ROM、230…RAM、240…記憶部、240a…プログラム、240b…動きベクトルデータ、240c…統計解析データ、240d…設計データ、240e…マップデータ、250…プロセッサ、250a…取得部、250b…マップ作成部、250c…統合処理部、250d…解析部、250e…動きベクトル加工部、250f…予測部、250g…通知部、250h…データ加工部、260…光学メディアドライブ、270…通信部、300…通信ネットワーク、500…ビル内ネットワーク、600…クラウド。 DESCRIPTION OF SYMBOLS 1... Lighting equipment, 2... Air conditioner, 3, 3-1~3-m, 3-1~3-n... Image sensor, 3A, 3B, 3C, 3D... Image sensor, 4... Controller, 5... BEMS server , 10... building, 15... processor, 30... register, 30a... camera information, 31... camera section, 31a... fisheye lens, 31b... aperture mechanism, 31c... image sensor, 32... memory, 32a... program, 32b... image data, 32c dictionary data 32d motion vector data 33 processor 33a image processing unit 33b control unit 34 communication unit 35 internal bus 41 air conditioning controller 42 elevator controller 43 security controller , 44... Disaster prevention controller, 45... Lighting controller, 70... Database, 71, 72... Gateway, 80... Server, 101, 102... Sensor network, 200... Management terminal, 210... Monitor, 220... ROM, 230... RAM, 240 Memory unit 240a Program 240b Motion vector data 240c Statistical analysis data 240d Design data 240e Map data 250 Processor 250a Acquisition unit 250b Map creation unit 250c Integration processing unit , 250d... analysis unit, 250e... motion vector processing unit, 250f... prediction unit, 250g... notification unit, 250h... data processing unit, 260... optical media drive, 270... communication unit, 300... communication network, 500... intra-building network , 600 . . . cloud.

Claims (17)

対象をセンシングする複数の画像センサと、
前記画像センサと通信可能な計算装置とを具備し、
前記画像センサは、
割り当てられたエリアを撮像して画像データを取得する撮像部と、
前記画像データを画像処理して前記エリアにおける動き情報を検知する画像処理部と
前記センシングの感度を可変する制御部とを備え、
前記計算装置は、
前記画像センサごとに検知された動き情報を取得する取得部と、
前記画像センサごとに割り当てられたエリアと、対象空間のマップとの対応関係を示すマップデータを記憶する記憶部と、
前記取得された動き情報を前記マップデータに基づいて統合して、前記対象空間における動き情報を計算する統合処理部と
前記取得された動き情報を蓄積する蓄積部と、
前記蓄積された動き情報を統計的に解析して統計解析データを生成する解析部と、
前記統計解析データに基づいて前記対象の動きを予測する予測部と、
前記対象の移動先エリアを割り当てられた画像センサに、前記予測の結果に基づいて当該対象の移動を通知する通知部とを備え、
前記制御部は、
前記通知に応じて前記センシングの感度を可変する、画像センサシステム。
a plurality of image sensors for sensing an object;
a computing device in communication with the image sensor;
The image sensor is
an imaging unit that captures an image of the assigned area and acquires image data;
an image processing unit that performs image processing on the image data to detect motion information in the area ;
A control unit that varies the sensitivity of the sensing ,
The computing device
an acquisition unit that acquires motion information detected by each of the image sensors;
a storage unit that stores map data indicating a correspondence relationship between the areas assigned to each of the image sensors and a map of the target space;
an integration processing unit that integrates the acquired motion information based on the map data to calculate motion information in the target space ;
an accumulation unit that accumulates the acquired motion information;
an analysis unit that statistically analyzes the accumulated motion information to generate statistical analysis data;
a prediction unit that predicts the movement of the target based on the statistical analysis data;
a notification unit that notifies an image sensor, to which the destination area of the target is assigned, of the movement of the target based on the result of the prediction;
The control unit
An image sensor system that varies the sensitivity of the sensing according to the notification .
前記制御部は、フレームレート、前記撮像部のゲインの値、および露光時間の少なくともいずれかを制御して、前記センシングの感度を可変する、請求項1に記載の画像センサシステム。 2. The image sensor system according to claim 1, wherein said control unit controls at least one of a frame rate, a gain value of said imaging unit, and an exposure time to vary said sensing sensitivity. 前記計算装置は、前記統計解析データに基づいて前記動き情報を補完および/または補正する動き情報加工部をさらに備える、請求項に記載の画像センサシステム。 2. The image sensor system according to claim 1 , wherein said computing device further comprises a motion information processor that complements and/or corrects said motion information based on said statistical analysis data. 前記解析部は、前記統計解析データに基づいて、前記対象空間における動線、利用率、混雑度、群衆行動、レイアウト推定、待ち行列推定、オフィスの使用率、および、工場の稼働状況の少なくともいずれかを推定する、請求項に記載の画像センサシステム。 Based on the statistical analysis data, the analysis unit analyzes at least one of flow line, utilization rate, congestion degree, crowd behavior, layout estimation, queue estimation, office usage rate, and factory operation status in the target space. 2. The image sensor system of claim 1 , wherein the image sensor system estimates 前記解析部は、前記動き情報の解析結果に基づいて、前記動き情報の分布、方向、および密度の少なくともいずれかを色分けして示すカラーマップを作成する、請求項に記載の画像センサシステム。 2. The image sensor system according to claim 1 , wherein said analysis unit creates a color map indicating at least one of distribution, direction, and density of said motion information in different colors based on the analysis result of said motion information. 前記計算装置は、前記動き情報または前記統計解析データの少なくともいずれか一方を加工して出力用データを生成するデータ加工部をさらに備える、請求項に記載の画像センサシステム。 2. The image sensor system according to claim 1 , wherein said computing device further comprises a data processing unit that processes at least one of said motion information and said statistical analysis data to generate output data. 前記記憶部は、
前記複数の画像センサの設置位置および前記撮像部の指向方向を含む設計データを記憶し、
前記計算装置は、前記設計データに基づいて前記マップデータを作成するマップ作成部をさらに備える、請求項1に記載の画像センサシステム。
The storage unit
storing design data including the installation positions of the plurality of image sensors and the orientation direction of the imaging unit;
2. The image sensor system according to claim 1, wherein said computing device further comprises a map generator that generates said map data based on said design data.
前記統合処理部は、
異なる画像センサに割り当てられたエリアの重複部分において、当該異なる画像センサでそれぞれ検知された動き情報を互いに整合させて前記対象空間における動き情報を計算する、請求項1に記載の画像センサシステム。
The integration processing unit
2. The image sensor system of claim 1, wherein in overlapping portions of areas assigned to different image sensors, motion information sensed by the different image sensors are aligned with each other to calculate motion information in the object space.
前記統合処理部は、
異なる画像センサで検知された前記動き情報を時系列順に接続して前記対象空間における動き情報を計算する、請求項1に記載の画像センサシステム。
The integration processing unit
2. The image sensor system of claim 1, wherein the motion information detected by different image sensors is connected in chronological order to calculate motion information in the object space.
前記動き情報は、前記対象空間における前記対象の動きの大きさを示す量である、請求項1に記載の画像センサシステム。 2. The image sensor system of claim 1, wherein the motion information is a quantity indicative of magnitude of motion of the object in the object space. 前記動き情報は、前記対象空間における前記対象の動きの方向を示す量である、請求項1に記載の画像センサシステム。 2. The image sensor system of claim 1, wherein the motion information is a quantity indicative of the direction of motion of the object in the object space. 前記動き情報は、前記対象空間における前記対象の動きの大きさおよび方向を含む動きベクトルである、請求項1に記載の画像センサシステム。 2. The image sensor system of claim 1, wherein the motion information is a motion vector containing magnitude and direction of motion of the object in the object space. 前記画像処理部は、前記対象空間における在不在、人数、活動量、照度、歩行滞留、人物認識、属性識別および前記動き情報を含むセンシング項目のうち複数のセンシング項目をセンシングする、請求項1に記載の画像センサシステム。 2. The image processing unit according to claim 1, wherein said image processing unit senses a plurality of sensing items among sensing items including presence/absence in said target space, number of people, amount of activity, illuminance, staying on foot, person recognition, attribute identification and said movement information. An image sensor system as described. 前記解析部は、前記カラーマップを、前記対象空間の領域ごとに混雑状況を色分けし、Web経由でアクセス可能なヒートマップとして公開する、請求項5に記載の画像センサシステム。6. The image sensor system according to claim 5, wherein said analysis unit color-codes the congestion state for each area of said target space and publishes said color map as a heat map accessible via the Web. 対象をセンシングして、割り当てエリアにおける動き情報を検知する複数の画像センサと通信可能な計算装置であって、A computing device capable of communicating with a plurality of image sensors for sensing objects and detecting motion information in an assigned area,
前記画像センサごとに検知された動き情報を取得する取得部と、an acquisition unit that acquires motion information detected by each of the image sensors;
前記画像センサごとに割り当てられたエリアと、対象空間のマップとの対応関係を示すマップデータを記憶する記憶部と、a storage unit that stores map data indicating a correspondence relationship between the areas assigned to each of the image sensors and a map of the target space;
前記取得された動き情報を前記マップデータに基づいて統合して、前記対象空間における動き情報を計算する統合処理部と、an integration processing unit that integrates the acquired motion information based on the map data to calculate motion information in the target space;
前記取得された動き情報を蓄積する蓄積部と、an accumulation unit that accumulates the acquired motion information;
前記蓄積された動き情報を統計的に解析して統計解析データを生成する解析部と、an analysis unit that statistically analyzes the accumulated motion information to generate statistical analysis data;
前記統計解析データに基づいて前記対象の動きを予測する予測部と、a prediction unit that predicts the movement of the target based on the statistical analysis data;
前記対象の移動先エリアを割り当てられた画像センサに、前記予測の結果に基づいて当該対象の移動を通知する通知部とを備える、計算装置。A computing device comprising: a notification unit that notifies an image sensor to which the destination area of the target is assigned, of the movement of the target based on the result of the prediction.
コンピュータにより実行されるセンシング方法であって、A computer implemented sensing method comprising:
前記コンピュータが、対象をセンシングして割り当てエリアにおける動き情報を検知する複数の画像センサから、当該画像センサごとに検知された動き情報を取得する過程と、A process in which the computer acquires motion information detected by each of a plurality of image sensors that sense the target and sense motion information in the assigned area;
前記コンピュータが、前記画像センサごとに割り当てられたエリアと対象空間のマップとの対応関係を示すマップデータに基づいて、前記取得された動き情報を統合して、前記対象空間における動き情報を計算する過程と、The computer calculates motion information in the target space by integrating the obtained motion information based on map data indicating a correspondence relationship between the areas assigned to each of the image sensors and a map of the target space. process and
前記コンピュータが、前記取得された動き情報を蓄積する過程と、the computer storing the acquired motion information;
前記コンピュータが、前記蓄積された動き情報を統計的に解析して統計解析データを生成する過程と、a process in which the computer statistically analyzes the accumulated motion information to generate statistical analysis data;
前記コンピュータが、前記統計解析データに基づいて前記対象の動きを予測する過程と、a process in which the computer predicts the movement of the target based on the statistical analysis data;
前記コンピュータが、前記対象の移動先エリアを割り当てられた画像センサに、前記予測の結果に基づいて当該対象の移動を通知する過程と、the computer notifying an image sensor assigned a destination area for the object to move the object based on the result of the prediction;
前記画像センサが、前記通知に応じて前記センシングの感度を可変する過程とを具備する、センシング方法。 and the image sensor varying the sensitivity of the sensing in response to the notification.
対象をセンシングして割り当てエリアにおける動き情報を検知する複数の画像センサと通信可能なコンピュータに、A computer capable of communicating with multiple image sensors that sense objects and detect motion information in assigned areas,
前記画像センサごとに検知された動き情報を取得する過程と、obtaining sensed motion information for each of the image sensors;
前記画像センサごとに割り当てられたエリアと対象空間のマップとの対応関係を示すマップデータに基づいて、前記取得された動き情報を統合して、前記対象空間における動き情報を計算する過程と、a step of calculating motion information in the target space by integrating the acquired motion information based on map data indicating a correspondence relationship between the areas assigned to each of the image sensors and a map of the target space;
前記取得された動き情報を蓄積する過程と、accumulating the obtained motion information;
前記蓄積された動き情報を統計的に解析して統計解析データを生成する過程と、a step of statistically analyzing the accumulated motion information to generate statistical analysis data;
前記統計解析データに基づいて前記対象の動きを予測する過程と、predicting the movement of the object based on the statistically analyzed data;
前記対象の移動先エリアを割り当てられた画像センサに、前記予測の結果に基づいて当該対象の移動を通知する過程とを実行させる、プログラム。and notifying an image sensor to which the destination area of the target is assigned to move the target based on the result of the prediction.
JP2019047005A 2019-03-14 2019-03-14 Image sensor system, computing device, sensing method, and program Active JP7254570B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019047005A JP7254570B2 (en) 2019-03-14 2019-03-14 Image sensor system, computing device, sensing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019047005A JP7254570B2 (en) 2019-03-14 2019-03-14 Image sensor system, computing device, sensing method, and program

Publications (2)

Publication Number Publication Date
JP2020149422A JP2020149422A (en) 2020-09-17
JP7254570B2 true JP7254570B2 (en) 2023-04-10

Family

ID=72430610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019047005A Active JP7254570B2 (en) 2019-03-14 2019-03-14 Image sensor system, computing device, sensing method, and program

Country Status (1)

Country Link
JP (1) JP7254570B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069346A (en) 1998-06-12 2000-03-03 Canon Inc Camera control device, its method, camera, tracking camera system, and computer-readable recording medium
JP2015049532A (en) 2013-08-29 2015-03-16 株式会社日立製作所 Video monitoring system, video monitoring method, and video monitoring system construction method
JP2018032950A (en) 2016-08-23 2018-03-01 キヤノン株式会社 Information processing unit and information processing method, and computer program
JP2018055724A (en) 2017-12-21 2018-04-05 株式会社東芝 Building facility control system and image sensor device
JP2018116692A (en) 2017-01-13 2018-07-26 キヤノン株式会社 Human flow analysis apparatus and system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069346A (en) 1998-06-12 2000-03-03 Canon Inc Camera control device, its method, camera, tracking camera system, and computer-readable recording medium
JP2015049532A (en) 2013-08-29 2015-03-16 株式会社日立製作所 Video monitoring system, video monitoring method, and video monitoring system construction method
JP2018032950A (en) 2016-08-23 2018-03-01 キヤノン株式会社 Information processing unit and information processing method, and computer program
JP2018116692A (en) 2017-01-13 2018-07-26 キヤノン株式会社 Human flow analysis apparatus and system
JP2018055724A (en) 2017-12-21 2018-04-05 株式会社東芝 Building facility control system and image sensor device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
疋田 葉留 他,複数のカメラによる耐故障性を有する自律分散人流計測システム,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2017-CVIM-205 [online],日本,情報処理学会,2017年01月12日

Also Published As

Publication number Publication date
JP2020149422A (en) 2020-09-17

Similar Documents

Publication Publication Date Title
JP6270433B2 (en) Information processing apparatus, information processing method, and information processing system
US11526161B2 (en) People flow estimation system and the failure processing method thereof
JP2008217602A (en) Suspicious behavior detection system and method
EP2971987A1 (en) Energy saving heating, ventilation, air conditioning control system
US10846538B2 (en) Image recognition system and image recognition method to estimate occurrence of an event
JP7463582B2 (en) Sensing system, maintenance terminal device, data distribution method, and image sensor
WO2017072158A1 (en) A system and method for determining the location and occupancy of workspaces
US20170276549A1 (en) System and method for monitoring abnormal behavior
JP2012128877A (en) Suspicious behavior detection system and method
WO2019087742A1 (en) Image sensor, sensing method, control system and program
JP2010206404A (en) Image monitoring device
Rajabi et al. MODES: M ulti-sensor o ccupancy d ata-driven e stimation s ystem for smart buildings
JP7254570B2 (en) Image sensor system, computing device, sensing method, and program
JP6696687B2 (en) Lighting control system, lighting control method, lighting control device, and computer program
Groß et al. Towards an occupancy count functionality for smart buildings-an industrial perspective
JP7419095B2 (en) Image sensors, computing devices, and image sensor systems
JP7156844B2 (en) Information processing method, information processing device and program
JP2007243270A (en) Video image surveillance system and method therefor
JP7237499B2 (en) Image sensor, sensing method, control system and program
JP6015756B2 (en) Position management device, position management system, position management method, and position management program
JP6696693B2 (en) Rotation deviation amount detection device, object detection sensor, rotation deviation amount detection system, rotation deviation amount detection method, and rotation deviation amount detection program
JP2022117761A (en) Sensor system, image sensor, server device, sensing method, and program
JP6524201B2 (en) Building equipment control system and image sensor device
JP7286747B2 (en) Image sensor, motion detection method, program and control system
JP7002912B2 (en) Image sensors, person detection methods, programs and control systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230329

R150 Certificate of patent or registration of utility model

Ref document number: 7254570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150