JP7254570B2 - Image sensor system, computing device, sensing method, and program - Google Patents
Image sensor system, computing device, sensing method, and program Download PDFInfo
- Publication number
- JP7254570B2 JP7254570B2 JP2019047005A JP2019047005A JP7254570B2 JP 7254570 B2 JP7254570 B2 JP 7254570B2 JP 2019047005 A JP2019047005 A JP 2019047005A JP 2019047005 A JP2019047005 A JP 2019047005A JP 7254570 B2 JP7254570 B2 JP 7254570B2
- Authority
- JP
- Japan
- Prior art keywords
- motion information
- image sensor
- data
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明の実施形態は、画像センサシステム、計算装置、センシング方法、およびプログラムに関する。 Embodiments of the present invention relate to image sensor systems, computing devices, sensing methods, and programs.
近年の画像センサは、CPU(Central Processing Unit)やメモリを備え、いわばレンズ付きの組み込みコンピュータといえる。高度な画像処理機能も有しており、撮影した画像データを分析して、例えば人間の在不在、あるいは人数などを計算することができる。この種の画像センサは、ビル管理システムと組み合わせて、快適性、居住性の向上や省エネルギー化の促進などに活用されようとしている。 A recent image sensor is equipped with a CPU (Central Processing Unit) and memory, and can be said to be a so-called built-in computer with a lens. It also has advanced image processing functions, and can analyze captured image data and calculate the presence or absence of people, or the number of people, for example. Image sensors of this type are being used in combination with building management systems to improve comfort and livability and promote energy conservation.
既存のセンサは、特定の場所の明るさや、人間の在不在などを検知できるに留まっているので、照明制御や空調などの用途ごとにセンサを設置する必要があった。このため配線が煩雑になったり、その都度、工事が必要になったりしてエンジニアリング作業の増大を招いていた。画像センサの能力を活かし、可用性を高めたシステムが要望されている。 Existing sensors can only detect the brightness of a specific location or the presence or absence of people, so it was necessary to install sensors for each application, such as lighting control and air conditioning. As a result, the wiring becomes complicated, and construction work is required each time, resulting in an increase in engineering work. There is a demand for a system that utilizes the capabilities of an image sensor and has increased availability.
そこで、目的は、可用性を高めた画像センサシステム、計算装置、センシング方法、およびプログラムを提供することにある。 Accordingly, it is an object of the present invention to provide an image sensor system, computing device, sensing method, and program with improved availability.
実施形態によれば、画像センサシステムは、対象をセンシングする複数の画像センサと、画像センサと通信可能な計算装置とを具備する。各画像センサは、撮像部と画像処理部を備える。撮像部は、割り当てられたエリアを撮像して画像データを取得する。画像処理部は、画像データを画像処理してエリアにおける動き情報を検知する。計算装置は、取得部、記憶部、および統合処理部を備える。取得部は、画像センサごとに検知された動き情報を取得する。記憶部は、画像センサごとに割り当てられたエリアと、対象空間のマップとの対応関係を示すマップデータを記憶する。統合処理部は、取得された動き情報をマップデータに基づいて統合して、対象空間における動き情報を計算する。 According to an embodiment, an image sensor system includes a plurality of image sensors for sensing an object and a computing device in communication with the image sensors. Each image sensor includes an imaging section and an image processing section. The imaging unit acquires image data by imaging the assigned area. The image processing unit performs image processing on the image data to detect motion information in the area. The computing device comprises an acquisition unit, a storage unit, and an integration processing unit. The acquisition unit acquires motion information detected by each image sensor. The storage unit stores map data indicating a correspondence relationship between an area assigned to each image sensor and a map of the target space. The integration processing unit integrates the acquired motion information based on the map data to calculate motion information in the target space.
画像センサは、人感センサ、明かりセンサあるいは赤外線センサ等に比べて多様な情報を取得することができる。魚眼レンズや超広角レンズなどを用いれば1台の画像センサで撮影可能な領域を拡大できるし、画像の歪みは計算処理で補正することができる。視野内のセンシングしたくない領域をマスク設定する機能や、学習機能を備えた画像センサも知られている。 An image sensor can acquire a wider variety of information than a human sensor, a light sensor, an infrared sensor, or the like. By using a fish-eye lens, an ultra-wide-angle lens, or the like, the area that can be captured by a single image sensor can be expanded, and image distortion can be corrected by calculation processing. Image sensors are also known that have a function of masking an area in the field of view that is not desired to be sensed, and have a learning function.
[構成]
図1は、実施形態に係る画像センサを備える画像センサシステムの一例を示す模式図である。図1において、照明機器1、空調機器2、および画像センサ3は、ビル10の例えばフロアごとに設けられ、コントローラ4と通信可能に接続される。各階のコントローラ4は、ビル内ネットワーク500を介して、例えばビル管理センタのBEMS(Building Energy Management System)サーバ5と通信可能に接続される。ビル内ネットワーク500の通信プロトコルとしてはBuilding Automation and Control Networking protocol(BACnet(登録商標))が代表的である。このほかDALI、ZigBee(登録商標)、ECHONET Lite(登録商標)等のプロトコルも知られている。
[composition]
FIG. 1 is a schematic diagram illustrating an example of an image sensor system including an image sensor according to an embodiment. In FIG. 1, a
BEMSサーバ5は、例えばTCP/IP(Transmission Control Protocol / Internet Protocol)ベースの通信ネットワーク300経由で、クラウドコンピューティングシステム(クラウド)600に接続されることができる。クラウド600は、データベース70およびサーバ80を備え、ビル管理等に関するサービスを提供する。
The BEMS server 5 can be connected to a cloud computing system (cloud) 600 via a TCP/IP (Transmission Control Protocol/Internet Protocol) based
図2に示されるように、照明機器1、空調機器2の吹き出し口、および画像センサ3は各フロアの例えば天井に配設される。画像センサ3には、それぞれのセンシング対象とするエリアが割り当てられる。図2において、エリアA1,A2がそれぞれフロアのおよそ半分をカバーしていることが示される。すべてのエリアを合わせれば、対象空間のフロアをカバーすることができる。図中ハッチングで示すように、異なる画像センサ3の割り当てエリアの一部が重なっていてもよい(重複部分)。
As shown in FIG. 2,
画像センサ3は、視野内に捕えた映像を撮影して画像データを取得する。この画像データは画像センサ3において処理され、人物情報、あるいは環境情報などが計算される。すなわち画像センサ3は、対象空間における対象を検知(センシング)して、この対象に係わる特徴量を算出する。
The
環境情報は、対象とする空間(ゾーン)の環境に関する情報であり、例えば、フロアの照度や温度等である。人物情報は、対象空間における人間に関する情報である。例えばエリア内の人数、人の行動、人の活動量、人の存在または不在を示す在不在、あるいは、人が歩いているか、または1つの場所に留まっているかを示す歩行滞留などが人物情報の例である。 The environment information is information about the environment of the target space (zone), such as the illuminance and temperature of the floor. Person information is information about a person in the target space. For example, the number of people in an area, the behavior of people, the amount of activity of people, presence or absence indicating the presence or absence of people, or walking stay indicating whether people are walking or staying in one place. For example.
近年では、人の居住環境においてこれらの情報に基づき照明機器1や空調機器2を制御することで、人の快適性や安全性等を確保することが検討されている。環境情報および人物情報を、ゾーンを複数に分割した小領域ごとに算出することも可能である。この小領域を、画像センサ3ごとの割り当てエリアに対応付けてもよい。
In recent years, it has been studied to ensure human comfort and safety by controlling the
実施形態では、対象の動きを示す動き情報に着目する。動き情報としては、対象の動きの大きさおよび方向を表す、動きベクトルが代表的である。これに代えて、対象の動きの大きさを示す量や、対象の動きの方向を示す量等のスカラー値も、動き情報として理解されることが可能である。 In the embodiment, attention is paid to motion information indicating the motion of the object. A typical example of motion information is a motion vector that represents the magnitude and direction of motion of an object. Alternatively, a scalar value, such as a quantity indicative of the magnitude of an object's movement or an amount indicative of the direction of an object's movement, can also be understood as motion information.
図3は、図1に示される画像センサシステムの一例を示すブロック図である。図3において、BEMSサーバ5の配下に、空調機器2を制御する空調コントローラ41、エレベータを制御するエレベーターコントローラ42、防犯システムを制御する防犯コントローラ43、防災システムを制御する防災コントローラ44、および、照明機器1(1-1、1-2)を制御する照明コントローラ45が、ビル内ネットワーク500経由で接続される。
FIG. 3 is a block diagram showing an example of the image sensor system shown in FIG. In FIG. 3, under the control of the BEMS server 5, there are an
また、ビル内ネットワーク500に、管理端末200、およびゲートウェイ71,72がBEMSサーバ5と通信可能に接続される。ゲートウェイ71は、複数の画像センサ3(3-1~3-n)を配下として収容する。画像センサ3-1~3-nは、センサネットワーク101により、一筆書き状に接続される(渡り配線)。同様に、画像センサ3-1~3-mが、センサネットワーク102を介してゲートウェイ72の配下に収容される。
Also, a
センサネットワーク101,102のプロトコルとしては、例えばEtherCAT(登録商標)が知られている。センサネットワーク101は、画像センサ3-1~3-nとゲートウェイ71とを通信可能に接続する。センサネットワーク102は、画像センサ3-1~3-mとゲートウェイ72とを通信可能に接続する。各ゲートウェイ71,72は、それぞれセンサネットワーク101,102とビル内ネットワーク500との間でのプロトコル変換機能を有する。これにより、BEMSサーバ5および管理端末200も、ゲートウェイ71,72経由で画像センサ3-1~3-n、3-1~3-mと相互通信することが可能である。
EtherCAT (registered trademark), for example, is known as a protocol for the
図4は、実施形態に係る画像センサ3の一例を示すブロック図である。画像センサ3は、撮像部としてのカメラ部31と、メモリ32、プロセッサ33、および通信部34を備える。これらは内部バス35を介して互いに接続される。メモリ32とプロセッサ33を備えることで、画像センサ3はコンピュータとして機能する。
FIG. 4 is a block diagram showing an example of the
カメラ部31は、魚眼レンズ31a、絞り機構31b、イメージセンサ31cおよびレジスタ30を備える。魚眼レンズ31aは、エリアを天井から見下ろす形で視野に捕え、イメージセンサ31cに結像する。魚眼レンズ31aからの光量は絞り機構31bにより調節される。イメージセンサ31cは例えばCMOS(相補型金属酸化膜半導体)センサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。この映像信号はディジタル符号化され、画像データとして出力される。
The
レジスタ30は、カメラ情報30aを記憶する。カメラ情報30aは、例えばオートゲインコントロール機能の状態、ゲインの値、露光時間などの、カメラ部31に関する情報、あるいは画像センサ3それ自体に関する情報である。
例えば、上記フレームレート、イメージセンサ31cのゲインの値、露光時間など、センシングの感度や精度に影響を及ぼすパラメータは、プロセッサ33により制御される。
The
For example, the
メモリ32は、SDRAM(Synchronous Dynamic RAM)などの半導体メモリ、またはNANDフラッシュメモリやEPROM(Erasable Programmable ROM)などの不揮発性メモリであり、実施形態に係わる各種の機能をプロセッサ33に実行させるためのプログラム32aと、カメラ部31により取得された画像データ32bを記憶する。さらにメモリ32は、辞書データ32c、および動きベクトルデータ32dを記憶する。
The
辞書データ32cは、センシング項目と特徴量とを対応づけたテーブル形式のデータであり、例えば機械学習(Machine-Learning)等の手法により生成することが可能である。辞書データ32cを用いた例えばパターンマッチング処理により、エリアにおける検出対象(人など)を識別することが可能である。
The
動きベクトルデータ32dは、プロセッサ33の画像処理部33aにより生成された、エリアにおける動きベクトルを示すデータである。動きベクトルデータ32dは、例えば予め定められた期間(一日、一週間、あるいは一ヶ月など)にわたってメモリ32に蓄積される。
The
このほか、メモリ32には、マスク設定データなどが記憶されてもよい。マスク設定データは、カメラ部31に捕えられた視野のうち、画像処理する領域(画像処理の対象領域)と、画像処理しない領域(画像処理の非対象領域)とを区別するために用いられる。
In addition, the
プロセッサ33は、メモリ32に記憶されたプログラムをロードし、実行することで、実施形態において説明する各種の機能を実現する。プロセッサ33は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。FPGA(Field Programmable Gate Array)等でプロセッサ15を構成することもできる。MPU(Micro Processing Unit)もプロセッサの一つである。
The
通信部34は、センサネットワーク101(102)に接続可能で、通信相手先(BEMSサーバ5、管理端末200、または他の画像センサ3等)とのデータの授受を仲介する。通信のインタフェースは有線でも無線でもよい。通信ネットワークのトポロジはスター型、リング型など任意のトポロジを適用できる。通信プロトコルは汎用プロトコルでも、産業用プロトコルでもよい。単独の通信方法でもよいし、複数の通信方法を組み合わせてもよい。
The
特に、通信部34は、画像センサ3によるセンシングデータや、プロセッサ33の処理結果、処理データ、パラメータ、画像データ、動きベクトルデータ、蓄積された過去の動きベクトルデータ、加工された動きベクトルデータ、統計解析データ、出力データ、パラメータ、辞書データ、ファームウェアなどを、通信ネットワークとしてのセンサネットワーク101(102)経由で送受信する。これにより、上記データや情報は、他の画像センサ3、BEMSサーバ5、および管理端末200等と、ビル内ネットワーク500等を経由して共有されることが可能である。
In particular, the
ところで、プロセッサ33は、実施形態に係る処理機能として、画像処理部33a、および制御部33bを備える。画像処理部33a、および制御部33bは、メモリ32に記憶されたプログラム32aがプロセッサ33のレジスタにロードされ、当該プログラムの進行に伴ってプロセッサ33が演算処理を実行することで生成されるプロセスとして、理解され得る。つまりプログラム32aは、画像処理プログラム、および制御プログラムを含む。
By the way, the
画像処理部33aは、画像データ32bを画像処理して、対象エリアにおける動きベクトル(オプティカルフロー)を検知する。これにより得られた動きベクトルデータは、メモリ32に蓄積される(動きベクトルデータ32d)。
The
動きベクトルの解析に際して、画像データに特有の特徴量を利用することも可能である。特徴量としては、輝度勾配方向ヒストグラム(Histograms of Oriented Gradients:HOG)、コントラスト、解像度、S/N比、および色調などがある。輝度勾配方向共起ヒストグラム(Co-occurrence HOG:Co-HOG)特徴量、Haar-Like特徴量なども特徴量として知られている。 When analyzing the motion vector, it is also possible to use feature amounts unique to the image data. The features include histograms of oriented gradients (HOG), contrast, resolution, S/N ratio, and color tone. A co-occurrence histogram (Co-occurrence HOG: Co-HOG) feature amount, a Haar-Like feature amount, and the like are also known as feature amounts.
また、画像処理部33aは、在不在、人数、活動量、照度、歩行滞留、および前記動きベクトルを含むセンシング項目のうち、いずれかまたは複数のセンシング項目をセンシングする。エリアごとに、これらの複数のセンシング項目を設定することもできる。画像処理部33aは、エリアをさらに複数に分割したブロックごとに各センシング項目をセンシングし、ブロックごとのセンシング結果を統合して、エリアごとのセンシング結果を得ることも可能である。
In addition, the
制御部33bは、管理端末200からの通知に応じてセンシングの感度を可変する。例えば、他の画像センサのエリアから自らのエリアへと人が移動してくることを通知されると、制御部33bはカメラ部31に制御信号を与えて、デフォルトの状態よりもセンシング感度を高める。センシング感度を高めるには、イメージセンサのゲインを上げたり、物体検知に係わるしきい値を低下させたり、フレームレートを高速化したりするなどの手法がある。
The
図5は、図4に示される画像処理部33aの基本的な処理手順を示すフローチャートである。図5において、カメラ部31で取得(ステップS1)された画像データ32bは、メモリ32に一時的に記憶されたのち(ステップS2)、画像処理部33aに送られる。画像処理部33aは、画像データ32bを画像処理して、在不在判定(ステップS3)、人数推定(ステップS4)、活動量推定(ステップS5)、照度推定(ステップS6)、歩行滞留判定(ステップS7)、および動きベクトル算出(ステップS8)の各処理を実行し、これらの項目を画像データ32bからセンシングする。
FIG. 5 is a flow chart showing a basic processing procedure of the
これらのセンシング項目の全てを常時、同時にセンシングしても良い。または、必要に応じて個別にセンシングしてもよい。項目ごとの処理の周期は、例えばフレーム周期に同期して全ての項目で同じであっても良いし、項目ごとに異なっていても良い。 All of these sensing items may always be sensed at the same time. Or you may sense individually as needed. The cycle of processing for each item may be the same for all items in synchronization with the frame cycle, for example, or may be different for each item.
在不在については、例えば背景差分/フレーム間差分/人物認識などを用いて人物領域を抽出し、在不在を判定することができる。ゾーンがエリアに分割されていれば(エリア分割)、エリアごとに人物領域があるか否かを判定し、エリアごとの在不在を推定することができる。さらに、照明変動判定などによる誤検知抑制機能を持たせることも可能である。 As for the presence/absence of a person, it is possible to determine the presence/absence of a person by extracting a person area using, for example, background difference/inter-frame difference/person recognition. If the zone is divided into areas (area division), it is possible to determine whether or not there is a person area for each area, and to estimate the presence/absence of each area. Furthermore, it is possible to provide an erroneous detection suppression function by illumination variation determination or the like.
人数については、例えば背景差分/フレーム間差分/人物認識などを用いて人物領域を抽出し、人物領域から個人を検知して人数を推定することができる。エリア分割がある場合には、個人の位置を推定し、エリアごとに人数を推定することができる。 As for the number of people, the number of people can be estimated by extracting a person area using, for example, background difference/inter-frame difference/person recognition, and detecting individuals from the person area. If there is area division, the location of individuals can be estimated and the number of people can be estimated for each area.
活動量については、フレーム間差分などを用いて動き領域を抽出し、活動量を推定することができる。活動量を、例えば、無/小/中/大などのように複数の段階に分類しても良い。あるいはMETs(Metabolic equivalents)等の指標で活動量を表してもよい。さらに、エリア分割の設定があれば、エリアごとに動き領域を抽出し、エリアごとの活動量を推定することができる。 As for the amount of activity, it is possible to estimate the amount of activity by extracting a motion area using inter-frame differences or the like. The amount of activity may be classified into a plurality of stages such as no/small/medium/large, for example. Alternatively, an index such as METs (Metabolic equivalents) may be used to represent the amount of activity. Furthermore, if there is an area division setting, it is possible to extract a motion region for each area and estimate the amount of activity for each area.
照度については、画像データ32bと、ゲイン、露光時間などのカメラ情報に基づいて推定することができる。カメラ情報(30a)は、カメラ部31のレジスタ30から取得することができる。エリア分割の設定があれば、エリアごとに画像を分割し、分割した画像とカメラ情報からエリアごとの照度を推定することができる。
The illuminance can be estimated based on the
歩行滞留については、フレーム間差分などを用いて動き領域を抽出し、歩行滞留を判定することができる。エリア分割の設定があれば、エリアごとに動き領域を抽出し、エリアごとの歩行滞留を推定することができる。 With regard to walking stagnation, a moving region can be extracted using an inter-frame difference or the like, and walking stagnation can be determined. If there is a setting for area division, it is possible to extract a motion region for each area and estimate walking stagnation for each area.
動きベクトルについては、画像データ32bを画像処理して、例えばブロックマッチング法、あるいは勾配法などのアルゴリズムにより、動きベクトルを算出することができる。算出された動きベクトルは、メモリ32に蓄積される(動きベクトルデータ32d)。
A motion vector can be calculated by subjecting the
以上のようにして、各センシング項目のセンシングデータを得ることができる。通信部34は、これらのセンシングデータや項目の算出に係る各種のパラメータなどをセンサネットワーク101(102)経由で管理端末200に通信する(ステップS10)。
As described above, sensing data of each sensing item can be obtained. The
図6は、画像センサにおけるデータの流れの一例を示す図である。図6において、カメラ部31で取得された画像データ32bはメモリ32に一時的に記憶されたのち、プロセッサ33の画像処理部33aに送られる。画像処理部33aは、画像データ32bを画像処理して、動きベクトルデータを生成する。得られた動きベクトルデータ32dは、メモリ32に蓄積される。
FIG. 6 is a diagram showing an example of data flow in the image sensor. In FIG. 6, the
通信部34は、生成された動きベクトルデータ32dを含む各種のデータを、センサネットワーク101(102)、ゲートウェイ71(または72)、ビル内ネットワーク500経由で管理端末200やBEMSサーバ5に送信する。
The
図7は、図3に示される管理端末200の一例を示す機能ブロック図である。計算装置の一例としての管理端末200は、CPUやMPU(Micro Processing Unit)等のプロセッサ250と、ROM(Read Only Memory)220およびRAM(Random Access Memory)230を備えるコンピュータである。管理端末200は、さらに、ハードディスクドライブ(Hard Disk Drive:HDD)などの記憶部240、光学メディアドライブ260、通信部270、および、種々の情報を表示するモニタ210を備える。
FIG. 7 is a functional block diagram showing an example of the
ROM220は、BIOS(Basic Input Output System)やUEFI(Unified Extensible Firmware Interface)などの基本プログラム、および各種の設定データ等を記憶する。RAM230は、記憶部240からロードされたプログラムやデータを一時的に記憶する。
The
光学メディアドライブ260は、CD-ROM280などの記録媒体に記録されたディジタルデータを読み取る。管理端末200で実行される各種プログラムは、例えばCD-ROM280に記録されて頒布される。このCD-ROM280に格納されたプログラムは光学メディアドライブ260により読み取られ、記憶部240にインストールされる。
Optical media drive 260 reads digital data recorded on a recording medium such as CD-
通信部270は、ビル内ネットワーク500経由で画像センサ3、BEMSサーバ5等と通信するための機能を備える。管理端末200で実行される各種プログラムを、例えば通信部270を介してサーバからダウンロードし、記憶部240にインストールすることもできる。通信部270を介してクラウド600(図1)から最新のプログラムをダウンロードし、インストール済みのプログラムをアップデートすることもできる。また、管理端末200は、ビル内ネットワーク500およびゲートウェイ71,72経由で、画像センサ3に辞書データをダウンロード送信することができる。
The
記憶部240は、プロセッサ250により実行されるプログラム240aに加えて、動きベクトルデータ240b、統計解析データ240c、設計データ240d、および、マップデータ240eを記憶する。
動きベクトルデータ240bは、画像センサ3-1~3-n、3-1~3-mから収集された動きベクトルである。画像センサ3-1~3-n、3-1~3-mは、当該画像センサごとの座標系(センサ座標系と称する)で検知した動きベクトルを送信する。これを収集した管理端末200は、各センサの動きベクトルを、基準座標系における動きベクトルに変換する。基準座標系としては、例えばフロアマップ上の位置を定めるXY座標系を採ることができる。収集直後の動きベクトルデータと、変換後の動きベクトルデータの双方を、動きベクトルデータ240bに含めてもよい。
常時生成される動きベクトルデータを記憶部240に蓄積してもよいし、時間や期間を指定し、その期間だけの動きベクトルデータを蓄積してもよい。また、全ての画像データからの動きベクトルデータを蓄積してもよいし、選択された何れかのの画像データからの動きベクトルデータを蓄積してもよい。
The motion vector data that is constantly generated may be stored in the
統計解析データ240cは、記憶部240に蓄積された動きベクトルデータ240bを統計的に解析して生成される。
The
設計データ240dは、画像センサ3-1~3-n、3-1~3-mのそれぞれの、対象空間における設置位置と、カメラ部31(あるいは魚眼レンズ31a)の指向方向等を含むデータである。つまり設計データ240dは、フロアマップ上の各位置座標と、それぞれの画像センサ3の画像データを構成する画素との対応関係を一意に決定するために用いられるデータである。
マップデータ240eは、画像センサ3ごとの割り当てエリアと、対象空間のマップとの対応関係を示すデータである。
The
The
プロセッサ250は、OS(Operating System)および各種のプログラムを実行する。また、プロセッサ250は、実施形態に係る処理機能として、取得部250a、マップ作成部250b、統合処理部250c、解析部250d、動きベクトル加工部250e、予測部250f、通知部250g、および、データ加工部250hを備える。
The
これらの機能ブロックは、プログラム240aがRAM230にロードされ、当該プログラムの実行の過程で生成されるプロセスとして、理解され得る。つまりプログラム240aはコンピュータである管理端末200を、取得部250a、マップ作成部250b、統合処理部250c、解析部250d、動きベクトル加工部250e、予測部250f、通知部250g、および、データ加工部250hとして動作させる。
These functional blocks can be understood as processes that the
取得部250aは、画像センサ3-1~3-n、3-1~3-mのそれぞれで検知された動きベクトルデータを取得する。取得された動きベクトルデータは、記憶部240に記憶される(動きベクトルデータ240b)。
マップ作成部250bは、設計データ240dに基づいてマップデータ240eを作成する。すなわちマップ作成部250bは、各画像センサ3の設置位置や向き、さらには、配線や通信順などのデータに基づいて、マップデータ240eを生成する。
The acquiring
The
図8は、センサ座標系と基準座標系との関係の一例を示す図である。画像センサ3A,3B,3C,3Dを例にとり、それぞれの割り当てエリアは4×4の16個のブロックで構成されるとする。図8おいて、広さ順にフロア>エリア>ブロックの関係があるとする。
FIG. 8 is a diagram showing an example of the relationship between the sensor coordinate system and the reference coordinate system. Taking the
図8において、画像センサ3A,3B,3C,3Dは、自らの割り当てエリアにおける動きベクトルをそれぞれのセンサ座標系で検知し、管理端末200に通知する。管理端末200は、通知された動きベクトルを統合し、全てのエリアを合わせた4×4×4=6ブロック分のフロアマップ上での動きベクトルを算出する。この算出された動きベクトルが、すなわち基準座標系で表されるものになる。
In FIG. 8, the
画像センサ3A,3B,3C,3Dの基準座標系における位置(X,Y)、および取り付け向きθは設計データ240dに記録されているので、これらの情報に基づいて座標変換を行うことができる。画像センサ3で撮像された画像データの各画素は、各画像センサ3において、画像中心からの距離と角度で表現できる。そして、基準座標系におけるマップ上の画像センサ3の設置位置と設置向きとが分かれば、画像センサ3の各画素の位置とマップ上の位置との対応付けを行うことができる。各画素の対応位置をマップデータ240eに格納しても良いし、都度、計算しても良い。
Since the positions (X, Y) of the
統合処理部250cは、画像センサ3ごとの動きベクトルデータをマップデータ240eに基づいて統合して、対象空間における動きベクトルを計算する。すなわち統合処理部250cは、マップデータ240eに基づいて、複数の画像センサ3の動きベクトルデータをフロアマップに対応付けたマップ対応データを作成する。なお、動きベクトルの統合とは、複数の動きベクトルを単に接続するだけでなく、統計的な処理に基づく補間、あるいは補正などの処理を含んでもよい。
The
また、統合処理部250cは、画像センサ同士の割り当てエリアの重複部分においては、各画像センサでそれぞれ検知された動きベクトルを互いに整合させるための処理を行う。例えば、二つの動きベクトルを1:1で均等に合成してもよいし、何れかに重みをつけてもよい。統合処理部250cは、個々の画像センサによる動きベクトルを全体として最適となるように合成し、マップ全体を対象として接続する。これにより、フロアマップ全体で整合を取りつつ、動きベクトルを合成することができる。
In addition, the
解析部250dは、記憶部240に蓄積された動きベクトルデータ240bを統計的に解析し、統計解析データ240cを生成する。統計解析により、局所での動きベクトルからフロア全体での各種事象を判定することができる。統計解析にはリアルタイムデータ、または蓄積データのいずれを用いてもよい。解析方法としては、動きベクトルの分布を解析したり、重ね合わせてヒートマップ解析したり、動きベクトルを重ね合わせて軌跡推定したりする。例えば混雑度、群衆行動、レイアウト推定、待ち行列推定、オフィスの使用率、工場の稼働状況などの事象を定量的に求めることができる。また、対象の移動速度やその変化、移動距離などを推定し、解析することもできる。さらに、工場の設備など、稼働状況を推定してもよい。
The
動きベクトル加工部250eは、例えば統計解析データ240cを参照し、フロアマップ上での動きベクトルを補完、あるいは補正する。例えば、魚眼レンズを使用することに伴って生じる画像の歪みに対応するため、動きベクトル加工部250eは、動きベクトルを補正する。
The motion
予測部250fは、統計解析データ240cに基づいて、フロアにおける対象(人(HUMAN)など:図8)の動きを予測する。
通知部250gは、予測部250fによる予測の結果、エリアを跨いでの人の移動が発生することが予測されると、移動先のエリアを受け持つ画像センサにそのことを通知する。例えば図8において、画像センサ3Dのエリアにいる人が画像センサ3Bのエリアに移動することが予測されると、通知部250gは、『画像センサ3Dのエリアから人が移動してくる』ことを、画像センサ3Bに通知する。つまり、移動元エリア(画像センサ3Dのエリア)から人が移動してくることが、移動先のエリア(画像センサ3Bのエリア)を受け持つ画像センサ3Bに通知される。通知を受けた画像センサ3Bは、必要に応じて、センシング感度を可変する等の制御を行う。
The
As a result of the prediction by the
このほか通知部250gは、算出された動きベクトルデータ240bをビル内ネットワーク500経由でBEMSサーバ5に送信し、例えばシステム管理者に各種の情報を通知する。また、対象空間に混雑が発生したり、人流が乱れたり、設備の動きが異常になったなどの事象が検知されると、通知部250gは、その旨を通信ネットワーク経由で管理者に通知する。
In addition, the
データ加工部250hは、動きベクトルデータ240bおよび統計解析データ240cのいずれか、またはその両方を加工し、出力用データを生成する。例えば、フロアにおける人の移動の様子や混雑度、あるいは動線などをカラーマップで表示するためのデータ(表示画像など)をデータ加工部250hは生成する。生成されたデータはビル内ネットワーク500経由でBEMSサーバ5等に送信される。
The
[作用]
図9は、管理端末200の基本的な処理手順を示すフローチャートである。図9において、管理端末200は、各画像センサ3から、それぞれの画像センサ3において個別に検知された動きベクトルデータを取得し(ステップS20)、記憶部240に蓄積する(ステップS21)。次に管理端末200は、統合処理部250cにより、上記蓄積された動きベクトルを共通の座標系にマッピングする(ステップS22)。
[Action]
FIG. 9 is a flowchart showing a basic processing procedure of the
図10(a)、および図10(b)を、それぞれ異なる画像センサにおいて検知された動きベクトルとする。これらの動きベクトルを、管理端末200はマップデータ240eに基づいて統合し、フロアマップに対応する動きベクトルデータ(図10(c))を算出する。
10(a) and 10(b) are motion vectors detected by different image sensors. The
図11(a),(b)に示されるように、異なる画像センサの割り当てエリアに重複部分がある場合には、統合処理部250cはそれぞれの画像センサで検知された動きベクトルを互いに整合させて合成する(図11(c))。
As shown in FIGS. 11(a) and 11(b), when there is overlap in the allocated areas of different image sensors, the
図12(a),(b),(c)は、時系列的に変化する動きベクトルがこの順で検知されたことを示す。このような動きベクトルが観測された場合、管理端末200は、複数の画像センサの時間軸上での動きベクトルを統計的に解析し、図12(d)に示されるように、マップ全体を対象として動きベクトルを接続する。
FIGS. 12(a), (b), and (c) show that time-series-changing motion vectors are detected in this order. When such a motion vector is observed, the
さらに管理端末200は、図9のフローチャートにおいて、統計解析データ240cに基づき、マップ全体での動きベクトルから局所的な動きベクトルを補完および/または補正する(ステップS23)。
図13(a)および(c)の間の動きベクトルが図13(c)のように欠損していたとしても、例えば統計解析データ240cを用いることで、図13(d)に示されるように動きベクトルを補完することができる。
Furthermore, in the flowchart of FIG. 9, the
Even if the motion vector between FIGS. 13(a) and (c) is lost as shown in FIG. 13(c), for example, by using the
図14(a)および(c)に着目すると、図14(b)の動きベクトルは、時系列的な関係を満たさないので誤差を含むことがわかる。そこで管理端末200は、例えば統計解析データ240cを用いて動きベクトルを補正し、図14(d)に示される補正後の動きベクトルを算出する。
Focusing on FIGS. 14(a) and 14(c), it can be seen that the motion vectors in FIG. 14(b) contain errors because they do not satisfy the time-series relationship. Therefore, the
補間および補正を経たマップ全体での動きベクトルが得られると、管理端末200は、マップ全体での動きベクトルを統計的に解析し、統計解析データを作成する。この統計解析データに基づき、管理端末200は、フロア上で発生する各種の事象を判定する(ステップS24)。
When the motion vector for the entire map through interpolation and correction is obtained, the
図15に示されるように、管理端末200は、マップ全体での動きベクトルに基づいて人の移動先の位置(またはエリア)を予測する。判定された事象および予測位置は、ビル内ネットワーク500および通信ネットワーク経由で、BEMSサーバ5や管理者等に通知される。さらに管理端末200は、図16に示されるような、マップ全体での動きベクトルの見える化画像を作成する(ステップS25)。
As shown in FIG. 15, the
図16は、動きベクトルの分布、方向、密度などを色分けして示す画像(ヒートマップ)の一例を示す図である。例えば、人が良く通るエリア(動きベクトルが密)を赤色、人があまり通らないエリア(動きベクトルが疎)を黄色、その中間をオレンジなどの色分けで示すことにより(カラーマップ)、例えばフロアにおける混雑度や動線を一目で把握することができる。もちろん、動きベクトルの長さ(大きさ)や方向に応じて色分けしてもよい。この種のヒートマップは、例えばオフィスフロア、空港、あるいは駅のコンコースなどに適用することが可能である。 FIG. 16 is a diagram showing an example of an image (heat map) showing the distribution, direction, density, etc. of motion vectors in different colors. For example, areas where people pass frequently (dense motion vectors) are shown in red, areas where people do not pass very often (sparse motion vectors) are yellow, and intermediate areas are shown in orange (color map). You can grasp the degree of congestion and traffic lines at a glance. Of course, different colors may be used according to the length (magnitude) and direction of the motion vector. This kind of heat map can be applied, for example, to office floors, airports or train station concourses.
動きベクトルの解析結果を活用することで、オフィスや店舗、公共施設や工場などの現状を把握し、改善を図ることができる。例えば以下の2例が代表的である。
(1) オフィス改善の例
会議室などの利用率を分析し、利用率の低い領域を別の用途に変更する。フリーアドレスのオフィスや兼務者の領域などの在席率を推定し、不要な領域を別の用途に変更する。動線がスマートなレイアウトに変更する。
(2) 店舗改善の例
人通りの多いところに広告を表示する。動線に合わせて関連商品を配置する。
By utilizing the results of motion vector analysis, it is possible to grasp the current state of offices, stores, public facilities, factories, etc., and make improvements. For example, the following two examples are typical.
(1) Examples of office improvements
Analyze the utilization rate of a conference room, etc., and change areas with low utilization rates to other uses. Estimate the occupancy rate of free-address offices, areas of people with multiple jobs, etc., and change unnecessary areas to other uses. Change the flow line to a smart layout.
(2) Examples of store improvements
Display ads in high-traffic areas. Arrange related products according to the flow line.
あるいは、食堂などの混雑上状況をほぼリアルタイムで把握し、利用者のスマートフォンに表示する、などのアプリケーションも考えられる。
図17に示されるように、所定の空間(食堂など)のエリアごとに混雑状況を色分けし、Web経由でアクセス可能なヒートマップとして公開すれば、利用者への便宜を図ることができる。
Another conceivable application is to grasp the congestion status of a cafeteria in almost real time and display it on the user's smartphone.
As shown in FIG. 17, if the congestion status is color-coded for each area of a predetermined space (dining room, etc.) and released as a heat map that can be accessed via the Web, it is possible to improve convenience for users.
図18は、管理端末200におけるデータの流れの一例を示す図である。図18において、統合処理部250cは、記憶部240に蓄積されたマップデータ240eを読み出し、統合して、マップ上での動きベクトルデータ240bを生成する。解析部250dはこの動きベクトルデータ240bを解析し、動きベクトル加工部250eによって動きベクトルの補完、補正処理が行われる。また、データ加工部250hにより、動きベクトルに基づくヒートマップ、カラーマップ、人の移動の様子や混雑状況、動線などのデータが作成され、通信部270経由でBEMSサーバ5などに送信される。
FIG. 18 is a diagram showing an example of data flow in the
[効果]
以上説明したようにこの実施形態では、複数の画像センサ3でセンシングされた動きベクトルを管理端末200に収集/蓄積し、基準座標系における統合された動きベクトルを算出するようにした。また、このようにして得たフロアマップ上での動きベクトルを統計的に解析し、対象空間における統計解析データを生成するようにした。これにより空間全体での動線や利用率、混雑度などを推定することが可能になる。
[effect]
As described above, in this embodiment, motion vectors sensed by a plurality of
また実施形態では、動きベクトルの解析により得られる情報を管理者などに通知するようにした。例えば、混雑が発生した、人流が乱れた、設備の動きが異常になったなどの情報を管理者に通知することができる。
また、解析の結果から制御指示を生成し、各種機器を制御してもよい。例えば、在不在/歩行滞留/推定照度による照明制御/空調制御、推定人数/活動量による空調制御、指定人数によるエレベータ運行制御、あるいはセキュリティドアの開閉制御などに適用可能である。
これらのことから、実施形態によれば、可用性を高めた画像センサシステム、計算装置、センシング方法およびプログラムを提供することが可能になる。
Further, in the embodiment, information obtained by motion vector analysis is notified to an administrator or the like. For example, it is possible to notify the administrator of information such as the occurrence of congestion, a disordered flow of people, and abnormal movement of facilities.
Also, control instructions may be generated from the analysis results to control various devices. For example, it can be applied to lighting control/air-conditioning control based on presence/absence/walking/estimated illuminance, air-conditioning control based on estimated number of people/activity, elevator operation control based on designated number of people, or security door opening/closing control.
For these reasons, according to the embodiments, it is possible to provide an image sensor system, a computing device, a sensing method, and a program with improved availability.
なお、この発明は上記実施形態に限定されるものではない。例えば、計算装置としての管理端末200に実装した各種機能を、ゲートウェイ71,72、あるいはBEMSサーバ5に実装してもよい。
In addition, this invention is not limited to the said embodiment. For example, various functions implemented in the
また、人の移動が予測されると、移動先エリアを受け持つ画像センサにそのことを通知し、画像センサ側でセンシング感度などの制御量を決めるようにした。これに代えて、通知先の画像センサにおける制御量を管理端末200の側で計算し、得られた制御量を画像センサ側に通知するようにしてもよい。
In addition, when a person's movement is predicted, it is notified to the image sensor in charge of the destination area, and the image sensor determines the control amount such as sensing sensitivity. Alternatively, the
本発明の実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While embodiments of the invention have been described, the embodiments are provided by way of example and are not intended to limit the scope of the invention. This novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.
1…照明機器、2…空調機器、3,3-1~3-m,3-1~3-n…画像センサ、3A,3B,3C,3D…画像センサ、4…コントローラ、5…BEMSサーバ、10…ビル、15…プロセッサ、30…レジスタ、30a…カメラ情報、31…カメラ部、31a…魚眼レンズ、31b…絞り機構、31c…イメージセンサ、32…メモリ、32a…プログラム、32b…画像データ、32c…辞書データ、32d…動きベクトルデータ、33…プロセッサ、33a…画像処理部、33b…制御部、34…通信部、35…内部バス、41…空調コントローラ、42…エレベーターコントローラ、43…防犯コントローラ、44…防災コントローラ、45…照明コントローラ、70…データベース、71,72…ゲートウェイ、80…サーバ、101,102…センサネットワーク、200…管理端末、210…モニタ、220…ROM、230…RAM、240…記憶部、240a…プログラム、240b…動きベクトルデータ、240c…統計解析データ、240d…設計データ、240e…マップデータ、250…プロセッサ、250a…取得部、250b…マップ作成部、250c…統合処理部、250d…解析部、250e…動きベクトル加工部、250f…予測部、250g…通知部、250h…データ加工部、260…光学メディアドライブ、270…通信部、300…通信ネットワーク、500…ビル内ネットワーク、600…クラウド。
DESCRIPTION OF
Claims (17)
前記画像センサと通信可能な計算装置とを具備し、
前記画像センサは、
割り当てられたエリアを撮像して画像データを取得する撮像部と、
前記画像データを画像処理して前記エリアにおける動き情報を検知する画像処理部と、
前記センシングの感度を可変する制御部とを備え、
前記計算装置は、
前記画像センサごとに検知された動き情報を取得する取得部と、
前記画像センサごとに割り当てられたエリアと、対象空間のマップとの対応関係を示すマップデータを記憶する記憶部と、
前記取得された動き情報を前記マップデータに基づいて統合して、前記対象空間における動き情報を計算する統合処理部と、
前記取得された動き情報を蓄積する蓄積部と、
前記蓄積された動き情報を統計的に解析して統計解析データを生成する解析部と、
前記統計解析データに基づいて前記対象の動きを予測する予測部と、
前記対象の移動先エリアを割り当てられた画像センサに、前記予測の結果に基づいて当該対象の移動を通知する通知部とを備え、
前記制御部は、
前記通知に応じて前記センシングの感度を可変する、画像センサシステム。 a plurality of image sensors for sensing an object;
a computing device in communication with the image sensor;
The image sensor is
an imaging unit that captures an image of the assigned area and acquires image data;
an image processing unit that performs image processing on the image data to detect motion information in the area ;
A control unit that varies the sensitivity of the sensing ,
The computing device
an acquisition unit that acquires motion information detected by each of the image sensors;
a storage unit that stores map data indicating a correspondence relationship between the areas assigned to each of the image sensors and a map of the target space;
an integration processing unit that integrates the acquired motion information based on the map data to calculate motion information in the target space ;
an accumulation unit that accumulates the acquired motion information;
an analysis unit that statistically analyzes the accumulated motion information to generate statistical analysis data;
a prediction unit that predicts the movement of the target based on the statistical analysis data;
a notification unit that notifies an image sensor, to which the destination area of the target is assigned, of the movement of the target based on the result of the prediction;
The control unit
An image sensor system that varies the sensitivity of the sensing according to the notification .
前記複数の画像センサの設置位置および前記撮像部の指向方向を含む設計データを記憶し、
前記計算装置は、前記設計データに基づいて前記マップデータを作成するマップ作成部をさらに備える、請求項1に記載の画像センサシステム。 The storage unit
storing design data including the installation positions of the plurality of image sensors and the orientation direction of the imaging unit;
2. The image sensor system according to claim 1, wherein said computing device further comprises a map generator that generates said map data based on said design data.
異なる画像センサに割り当てられたエリアの重複部分において、当該異なる画像センサでそれぞれ検知された動き情報を互いに整合させて前記対象空間における動き情報を計算する、請求項1に記載の画像センサシステム。 The integration processing unit
2. The image sensor system of claim 1, wherein in overlapping portions of areas assigned to different image sensors, motion information sensed by the different image sensors are aligned with each other to calculate motion information in the object space.
異なる画像センサで検知された前記動き情報を時系列順に接続して前記対象空間における動き情報を計算する、請求項1に記載の画像センサシステム。 The integration processing unit
2. The image sensor system of claim 1, wherein the motion information detected by different image sensors is connected in chronological order to calculate motion information in the object space.
前記画像センサごとに検知された動き情報を取得する取得部と、an acquisition unit that acquires motion information detected by each of the image sensors;
前記画像センサごとに割り当てられたエリアと、対象空間のマップとの対応関係を示すマップデータを記憶する記憶部と、a storage unit that stores map data indicating a correspondence relationship between the areas assigned to each of the image sensors and a map of the target space;
前記取得された動き情報を前記マップデータに基づいて統合して、前記対象空間における動き情報を計算する統合処理部と、an integration processing unit that integrates the acquired motion information based on the map data to calculate motion information in the target space;
前記取得された動き情報を蓄積する蓄積部と、an accumulation unit that accumulates the acquired motion information;
前記蓄積された動き情報を統計的に解析して統計解析データを生成する解析部と、an analysis unit that statistically analyzes the accumulated motion information to generate statistical analysis data;
前記統計解析データに基づいて前記対象の動きを予測する予測部と、a prediction unit that predicts the movement of the target based on the statistical analysis data;
前記対象の移動先エリアを割り当てられた画像センサに、前記予測の結果に基づいて当該対象の移動を通知する通知部とを備える、計算装置。A computing device comprising: a notification unit that notifies an image sensor to which the destination area of the target is assigned, of the movement of the target based on the result of the prediction.
前記コンピュータが、対象をセンシングして割り当てエリアにおける動き情報を検知する複数の画像センサから、当該画像センサごとに検知された動き情報を取得する過程と、A process in which the computer acquires motion information detected by each of a plurality of image sensors that sense the target and sense motion information in the assigned area;
前記コンピュータが、前記画像センサごとに割り当てられたエリアと対象空間のマップとの対応関係を示すマップデータに基づいて、前記取得された動き情報を統合して、前記対象空間における動き情報を計算する過程と、The computer calculates motion information in the target space by integrating the obtained motion information based on map data indicating a correspondence relationship between the areas assigned to each of the image sensors and a map of the target space. process and
前記コンピュータが、前記取得された動き情報を蓄積する過程と、the computer storing the acquired motion information;
前記コンピュータが、前記蓄積された動き情報を統計的に解析して統計解析データを生成する過程と、a process in which the computer statistically analyzes the accumulated motion information to generate statistical analysis data;
前記コンピュータが、前記統計解析データに基づいて前記対象の動きを予測する過程と、a process in which the computer predicts the movement of the target based on the statistical analysis data;
前記コンピュータが、前記対象の移動先エリアを割り当てられた画像センサに、前記予測の結果に基づいて当該対象の移動を通知する過程と、the computer notifying an image sensor assigned a destination area for the object to move the object based on the result of the prediction;
前記画像センサが、前記通知に応じて前記センシングの感度を可変する過程とを具備する、センシング方法。 and the image sensor varying the sensitivity of the sensing in response to the notification.
前記画像センサごとに検知された動き情報を取得する過程と、obtaining sensed motion information for each of the image sensors;
前記画像センサごとに割り当てられたエリアと対象空間のマップとの対応関係を示すマップデータに基づいて、前記取得された動き情報を統合して、前記対象空間における動き情報を計算する過程と、a step of calculating motion information in the target space by integrating the acquired motion information based on map data indicating a correspondence relationship between the areas assigned to each of the image sensors and a map of the target space;
前記取得された動き情報を蓄積する過程と、accumulating the obtained motion information;
前記蓄積された動き情報を統計的に解析して統計解析データを生成する過程と、a step of statistically analyzing the accumulated motion information to generate statistical analysis data;
前記統計解析データに基づいて前記対象の動きを予測する過程と、predicting the movement of the object based on the statistically analyzed data;
前記対象の移動先エリアを割り当てられた画像センサに、前記予測の結果に基づいて当該対象の移動を通知する過程とを実行させる、プログラム。and notifying an image sensor to which the destination area of the target is assigned to move the target based on the result of the prediction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019047005A JP7254570B2 (en) | 2019-03-14 | 2019-03-14 | Image sensor system, computing device, sensing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019047005A JP7254570B2 (en) | 2019-03-14 | 2019-03-14 | Image sensor system, computing device, sensing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020149422A JP2020149422A (en) | 2020-09-17 |
JP7254570B2 true JP7254570B2 (en) | 2023-04-10 |
Family
ID=72430610
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019047005A Active JP7254570B2 (en) | 2019-03-14 | 2019-03-14 | Image sensor system, computing device, sensing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7254570B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000069346A (en) | 1998-06-12 | 2000-03-03 | Canon Inc | Camera control device, its method, camera, tracking camera system, and computer-readable recording medium |
JP2015049532A (en) | 2013-08-29 | 2015-03-16 | 株式会社日立製作所 | Video monitoring system, video monitoring method, and video monitoring system construction method |
JP2018032950A (en) | 2016-08-23 | 2018-03-01 | キヤノン株式会社 | Information processing unit and information processing method, and computer program |
JP2018055724A (en) | 2017-12-21 | 2018-04-05 | 株式会社東芝 | Building facility control system and image sensor device |
JP2018116692A (en) | 2017-01-13 | 2018-07-26 | キヤノン株式会社 | Human flow analysis apparatus and system |
-
2019
- 2019-03-14 JP JP2019047005A patent/JP7254570B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000069346A (en) | 1998-06-12 | 2000-03-03 | Canon Inc | Camera control device, its method, camera, tracking camera system, and computer-readable recording medium |
JP2015049532A (en) | 2013-08-29 | 2015-03-16 | 株式会社日立製作所 | Video monitoring system, video monitoring method, and video monitoring system construction method |
JP2018032950A (en) | 2016-08-23 | 2018-03-01 | キヤノン株式会社 | Information processing unit and information processing method, and computer program |
JP2018116692A (en) | 2017-01-13 | 2018-07-26 | キヤノン株式会社 | Human flow analysis apparatus and system |
JP2018055724A (en) | 2017-12-21 | 2018-04-05 | 株式会社東芝 | Building facility control system and image sensor device |
Non-Patent Citations (1)
Title |
---|
疋田 葉留 他,複数のカメラによる耐故障性を有する自律分散人流計測システム,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2017-CVIM-205 [online],日本,情報処理学会,2017年01月12日 |
Also Published As
Publication number | Publication date |
---|---|
JP2020149422A (en) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6270433B2 (en) | Information processing apparatus, information processing method, and information processing system | |
US11526161B2 (en) | People flow estimation system and the failure processing method thereof | |
JP2008217602A (en) | Suspicious behavior detection system and method | |
EP2971987A1 (en) | Energy saving heating, ventilation, air conditioning control system | |
US10846538B2 (en) | Image recognition system and image recognition method to estimate occurrence of an event | |
JP7463582B2 (en) | Sensing system, maintenance terminal device, data distribution method, and image sensor | |
WO2017072158A1 (en) | A system and method for determining the location and occupancy of workspaces | |
US20170276549A1 (en) | System and method for monitoring abnormal behavior | |
JP2012128877A (en) | Suspicious behavior detection system and method | |
WO2019087742A1 (en) | Image sensor, sensing method, control system and program | |
JP2010206404A (en) | Image monitoring device | |
Rajabi et al. | MODES: M ulti-sensor o ccupancy d ata-driven e stimation s ystem for smart buildings | |
JP7254570B2 (en) | Image sensor system, computing device, sensing method, and program | |
JP6696687B2 (en) | Lighting control system, lighting control method, lighting control device, and computer program | |
Groß et al. | Towards an occupancy count functionality for smart buildings-an industrial perspective | |
JP7419095B2 (en) | Image sensors, computing devices, and image sensor systems | |
JP7156844B2 (en) | Information processing method, information processing device and program | |
JP2007243270A (en) | Video image surveillance system and method therefor | |
JP7237499B2 (en) | Image sensor, sensing method, control system and program | |
JP6015756B2 (en) | Position management device, position management system, position management method, and position management program | |
JP6696693B2 (en) | Rotation deviation amount detection device, object detection sensor, rotation deviation amount detection system, rotation deviation amount detection method, and rotation deviation amount detection program | |
JP2022117761A (en) | Sensor system, image sensor, server device, sensing method, and program | |
JP6524201B2 (en) | Building equipment control system and image sensor device | |
JP7286747B2 (en) | Image sensor, motion detection method, program and control system | |
JP7002912B2 (en) | Image sensors, person detection methods, programs and control systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221107 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7254570 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |