JP2022141274A - Image sensor, sensing method, and program - Google Patents
Image sensor, sensing method, and program Download PDFInfo
- Publication number
- JP2022141274A JP2022141274A JP2021041499A JP2021041499A JP2022141274A JP 2022141274 A JP2022141274 A JP 2022141274A JP 2021041499 A JP2021041499 A JP 2021041499A JP 2021041499 A JP2021041499 A JP 2021041499A JP 2022141274 A JP2022141274 A JP 2022141274A
- Authority
- JP
- Japan
- Prior art keywords
- space
- image
- image sensor
- processor
- space usage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 22
- 238000004891 communication Methods 0.000 claims description 27
- 238000003384 imaging method Methods 0.000 claims description 19
- 238000004422 calculation algorithm Methods 0.000 claims description 14
- 230000000694 effects Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 238000004378 air conditioning Methods 0.000 description 6
- 230000003750 conditioning effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
本発明の実施形態は、画像センサ、センシング方法、およびプログラムに関する。 Embodiments of the present invention relate to image sensors, sensing methods, and programs.
近年の画像センサは、CPU(Central Processing Unit)やメモリを備え、いわばレンズ付きの組み込みコンピュータといえる。高度な画像処理機能も有しており、撮影した画像データを分析して、視野内を動く人間等の在・不在、あるいは人数などを計算することができる。以下、画像センサの視野内を移動して検出対象になり得る物体を、動体と称する。例えば人や動物などの生物や、非生物の移動体(車両など)が動体である。 A recent image sensor is equipped with a CPU (Central Processing Unit) and memory, and can be said to be a so-called built-in computer with a lens. It also has advanced image processing functions, and can analyze the captured image data and calculate the presence/absence of people moving within the field of view, or the number of people. An object that can be detected by moving within the field of view of the image sensor is hereinafter referred to as a moving object. For example, living objects such as humans and animals, and non-living moving objects (vehicles, etc.) are moving objects.
人流データは、動体の移動する度合いをデータ化した指標である。人流データを用いれば、人の動きの激しい場所を濃い色で、動きのあまりない場所を薄い色で表現したりして、人間の目視確認に有効な情報を作成することができる(ヒートマップ)。つまり、人流データは、個々の人がどのように動いたかを蓄積して得られるデータで、人を主体として議論されるデータといえる。 The people flow data is an index that converts the degree of movement of moving bodies into data. By using people flow data, it is possible to create information that is effective for visual confirmation of people (heat map), by expressing places where there is a lot of movement of people in dark colors and places where there is little movement in light colors. . In other words, people flow data is data obtained by accumulating how individual people move, and it can be said that people are the subject of discussion.
これとは異なる観点から、動体が空間を使用している度合いを数値化したいというニーズが高まってきている。例えば、人がその場に留まっている度合いを数値として算出し、その値を空調や照明の制御システムに与えることでより快適な空間を作り出すことが考えられている。しかしながら、動体が空間を使用している度合いを数値として算出できるようにした技術は知られていない。既存の技術では密度や混雑度などの指標が知られているに過ぎず、機器に直接入力可能な、いわば動体の空間使用率と称することのできる指標を求めることはできなかった。 From a different point of view, there is an increasing need to quantify the extent to which a moving object uses space. For example, it is considered to create a more comfortable space by calculating the degree to which a person stays in place as a numerical value and applying that value to an air conditioning or lighting control system. However, there is no known technology that enables numerical calculation of the degree to which a moving object uses space. With existing technology, only indices such as density and degree of congestion are known, and indices that can be directly input to devices and can be called space utilization rates of moving objects cannot be obtained.
そこで、目的は、空間の使用率を得ることのできる画像センサ、センシング方法、およびプログラムを提供することにある。 Therefore, an object is to provide an image sensor, a sensing method, and a program capable of obtaining the utilization rate of space.
実施形態によれば、画像センサは、撮像部と、記憶部と、プロセッサとを具備する。撮像部は、対象空間を撮像して画像データを取得する。記憶部は、画像データを記憶する。プロセッサは、記憶された画像データを画像処理して、動体が対象空間を使用している度合いを場所ごとに示す指標である空間使用率を算出する。 According to an embodiment, an image sensor comprises an imaging unit, a storage unit, and a processor. The imaging unit acquires image data by imaging a target space. The storage unit stores image data. The processor performs image processing on the stored image data to calculate a space usage rate, which is an index indicating the extent to which the moving object uses the target space for each location.
画像センサは、人感センサ、明かりセンサあるいは赤外線センサ等に比べて多様な情報を取得することができる。魚眼レンズなどの広角レンズを用いれば、1台の画像センサで撮影可能な領域を拡大できる。画像の歪みは計算処理で補正することができる。視野内のセンシングしたくない領域をマスク設定する機能や、学習機能を備えた画像センサも知られている。 An image sensor can acquire a wider variety of information than a human sensor, a light sensor, an infrared sensor, or the like. By using a wide-angle lens such as a fisheye lens, the area that can be captured by a single image sensor can be expanded. Image distortion can be corrected by computational processing. Image sensors are also known that have a function of masking an area in the field of view that is not desired to be sensed, and have a learning function.
近年の画像センサは、CPU(Central Processing Unit)やメモリを備え、いわばレンズ付きの組み込みコンピュータといえる。高度な画像処理機能も有しており、撮影した画像データを分析して、例えば人間の在不在、あるいは人数などを計算することができる。通信機能を持つものもあり、IoT(Internet of Things)技術との親和性も高い。さらには、ビッグデータ解析のためのエッジデバイスとしても期待されている。魚眼カメラで撮像した画像データを処理し、精度の高いセンシングデータを得ることが重要である。以下では、画像センサを利用するソリューションの一例について説明する。 A recent image sensor is equipped with a CPU (Central Processing Unit) and memory, and can be said to be a so-called built-in computer with a lens. It also has advanced image processing functions, and can analyze captured image data and calculate the presence or absence of people, or the number of people, for example. Some have communication functions, and have a high affinity with IoT (Internet of Things) technology. Furthermore, it is also expected to be an edge device for big data analysis. It is important to process image data captured by a fisheye camera and obtain highly accurate sensing data. An example of a solution using an image sensor is described below.
[構成]
図1は、実施形態に係る画像センサを備える画像センサシステムの一例を示す模式図である。図1において、照明設備1、照明コントローラ4、および画像センサ3(3-1~3-n)は、ビル400の例えばフロアごとに設けられ、ゲートウェイ装置7と通信可能に接続される。各階のゲートウェイ装置7は、ビル内ネットワーク8を介して、例えばビル管理センタのBEMS(Building Energy Management System)サーバ5と通信可能に接続される。
[Constitution]
FIG. 1 is a schematic diagram illustrating an example of an image sensor system including an image sensor according to an embodiment. In FIG. 1,
BEMSサーバ5は、例えばTCP/IP(Transmission Control Protocol / Internet Protocol)ベースの通信ネットワーク10経由で、クラウドコンピューティングシステム(クラウド)100に接続されることができる。クラウド100は、サーバ200およびデータベース300を備え、ビル管理等に関するサービスを提供する。
The BEMS
図2は、ビル400内のフロアの一例を示す図である。図2に示されるように、照明設備1、空調機器2の吹き出し口、および画像センサ3は各フロアの例えば天井に配設される。画像センサ3には、それぞれのセンシング対象とするエリアが割り当てられる。図2において、エリアA1,A2がそれぞれフロアのおよそ半分をカバーしていることが示される。すべてのエリアを合わせれば、対象空間のフロアをカバーすることができる。図中ハッチングで示すように、異なる画像センサ3の割り当てエリアの一部が重なっていてもよい。
FIG. 2 is a diagram showing an example of floors in the
画像センサ3は、割り当てられたエリアを見下し画角で視野内に捉え、視野内を撮像して画像データを取得する。この画像データは画像センサ3において処理され、人物情報、あるいは環境情報などの、各種のセンシングデータが生成される。すなわち画像センサ3は、対象空間に係わるセンシングデータを生成する。
The
環境情報は、対象とする空間(ゾーン)の環境に関する情報であり、例えば、フロアの照度や温度等である。人物情報は、対象空間における人間に関する情報である。例えばエリア内の人数、人の行動、人の活動量、人の存在または不在を示す在不在、などが人物情報の例である。 The environment information is information about the environment of the target space (zone), such as the illuminance and temperature of the floor. Person information is information about a person in the target space. Examples of personal information include the number of people in an area, behavior of people, amount of activity of people, presence/absence indicating the presence or absence of people, and the like.
近年では、これらの情報に基づき照明機器や空調機器を制御することで、居住環境における人の快適性や安全性等を向上させることが検討されている。環境情報および人物情報を、ゾーンを複数に分割した小領域ごとに算出することも可能である。この小領域を、画像センサ3ごとの割り当てエリアに対応付けてもよい。
In recent years, it has been studied to improve the comfort and safety of people in living environments by controlling lighting equipment and air conditioning equipment based on such information. It is also possible to calculate environmental information and person information for each small area obtained by dividing a zone into a plurality of areas. This small area may be associated with the allocated area for each
実施形態では、空間使用率という量を導入し、この量を計算出力することの可能な画像センサについて説明する。ここで、空間使用率は、動体が空間を使用している度合い(使用率)を示す指標である。例えば、空間使用率は、人が留まっている度合いを場所ごとに示す指標である。 In the embodiments, an image sensor capable of introducing a quantity called space utilization and calculating and outputting this quantity will be described. Here, the space usage rate is an index indicating the degree (usage rate) of the space that the moving body uses. For example, the space utilization rate is an index that indicates the degree to which people stay in each place.
空間を使用することとは、例えば、席に座ってオフィスワークを行うことでもよい。また、空間内の通路や階段を移動することでもよい。あるいは、店舗等で売り場を歩き回ることであっても良い。 Using the space may mean, for example, sitting at a seat and doing office work. Alternatively, it may be possible to move through passages or stairs in the space. Alternatively, it may be walking around the sales floor in a store or the like.
図3は、図1に示される画像センサシステムの一例を示すブロック図である。図3において、ゲートウェイ装置7、管理端末20、BEMSサーバ5、および照明コントローラ4がビル内ネットワーク8に接続され、ビルシステムを形成する。ビル内ネットワーク8の通信プロトコルとしてはBuilding Automation and Control Networking protocol(BACnet(登録商標))が代表的である。このほかDALI、ZigBee(登録商標)、ECHONET Lite(登録商標)等のプロトコルも知られている。
FIG. 3 is a block diagram showing an example of the image sensor system shown in FIG. In FIG. 3, a
ゲートウェイ装置7は、複数の画像センサ3(3-1~3-n)を配下として収容する。画像センサ3-1~3-nは、センサネットワーク9により、一筆書き状に接続される(渡り配線)。センサネットワーク9は、画像センサ3-1~3-nとゲートウェイ装置7とを通信可能に接続する。センサネットワーク9のプロトコルとしては、例えばEtherCAT(登録商標)が知られている。
The
ゲートウェイ装置7は、センサネットワーク9とビル内ネットワーク8との間での通信プロトコルを変換する。これにより、BEMSサーバ5、および管理端末20が、画像センサ3-1~3-nと相互通信することが可能である。BEMSサーバ5は、画像センサ3-1~3-nからセンシングデータを取得してビル400の空調や照明を制御する。
The
管理端末20は、画像センサ3-1~3-nに個別にアクセスし、コマンドの投入や各種の設定を行う。照明コントローラ4は、BEMSサーバ5からの制御に基づいて照明設備1を制御する。
The
図4は、実施形態に係る画像センサ3の一例を示すブロック図である。画像センサ3は、撮像部31、メモリ32、プロセッサ33、および通信部34を備える。これらは内部バス35を介して互いに接続される。メモリ32およびプロセッサ33を備える画像センサ3は、コンピュータである。
FIG. 4 is a block diagram showing an example of the
撮像部31は、いわゆる魚眼カメラであり、広角レンズとしての魚眼レンズ31a、絞り機構31b、イメージセンサ31cおよびレジスタ30を備える。魚眼レンズ31aは、エリアを天井から見下ろす形(見下し画角)で視野内に捕え、イメージセンサ31cに結像する。魚眼レンズ31aからの光量は絞り機構31bにより調節される。イメージセンサ31cは例えばCMOS(相補型金属酸化膜半導体)センサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。この映像信号はディジタル符号化され、原画像のデータとして出力される。この画像データはメモリ32に記憶される(画像データ32b)。
The
レジスタ30は、カメラ情報30aを記憶する。カメラ情報30aは、例えばオートゲインコントロール機能の状態、フレームレート、ゲインの値、露光時間などの、撮像部31に関する情報、あるいは画像センサ3それ自体に関する情報である。
The
メモリ32は、SDRAM(Synchronous Dynamic RAM)などの半導体メモリ、またはNANDフラッシュメモリやEPROM(Erasable Programmable ROM)などの不揮発性メモリである。メモリ32は、プロセッサ33を機能させるためのプログラム32aと、撮像部31で取得された画像データ32b、パラメータ32c、およびアルゴリズム32dを記憶する。
The
プロセッサ33は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。MPU(Micro Processing Unit)、あるいはFPGA(Field Programmable Gate Array)等でプロセッサ15を構成することもできる。プロセッサ33は、内蔵レジスタ(図示せず)に読み込まれたプログラム32aを実行して、実施形態において説明する各種の機能を実現する。
The
通信部34は、センサネットワーク9に接続可能で、通信相手先(ゲートウェイ装置7、管理端末20、他の画像センサ3、あるいはBEMSサーバ5等)とのデータの授受を仲介する。通信のインタフェースは有線でも無線でもよい。通信ネットワークのトポロジはライン配線、リング配線、ツリー配線など任意のトポロジを適用できる。通信プロトコルは汎用プロトコルでも、産業用プロトコルでもよい。単独の通信方法でもよいし、複数の通信方法を組み合わせてもよい。通信の対象はリアルタイムデータ、あるいは蓄積データのいずれでもよい。さらに、常時通信や要求時通信などを選択することも可能である。
The
特に、通信部34は、画像センサ3によるセンシングデータや、プロセッサ33の処理結果、処理データ、マップ情報、画像解析に係わるパラメータ、空間使用率を算出する基となる各種画像(ヒートマップなど)、原画像、処理結果画像などの各種画像、空間使用率算出アルゴリズム、レイアウトマップなどの各種パラメータ、あるいは、その他事象用の各種パラメータ(辞書データなど)を、通信ネットワークとしてのセンサネットワーク9経由で送受信する。これにより、上記データや情報は、ゲートウェイ装置7、他の画像センサ3、BEMSサーバ5、および管理端末20等と、ビル内ネットワーク8等を経由して共有されることができる。
In particular, the
ところで、プロセッサ33は、実施形態に係る処理機能として、空間使用データ生成部33a、空間使用率算出部33b、および領域設定部33cを備える。これらの機能ブロックは、メモリ32に記憶されたプログラム32aがプロセッサ33のレジスタにロードされ、当該プログラムの進行に伴ってプロセッサ33が演算処理を実行することで生成されるプロセスとして、理解され得る。
By the way, the
空間使用データ生成部33aは、メモリ32の画像データ32bを画像処理し、複数のフレームごとに、それぞれ人物が存在する領域(人物領域)を検出する。人物領域は複数のフレームにわたって蓄積される。そして、空間使用データ生成部33aは、例えば既定の蓄積時間についてのフレーム間の平均値として、空間使用データを生成する。ここで、上記蓄積時間は例えば管理端末20から任意の値を設定することが可能で、パラメータ32cに登録される。空間使用データは、配列データとして表現されても良いし、あるいはヒートマップのように画像として表現されても良い。
The space usage
画像処理としては、背景差分やフレーム間差分、テンプレートマッチングや機械学習、あるいはディープラーニングなどの手法を適用することが可能である。人物領域の単位は、例えば、画素単位、ブロック単位、エリア単位、画像全体、あるいはこれらの混合などを任意に設定することができる。これも、例えば管理端末20から任意に可変することが可能で、設定された値はパラメータ32cに登録される。
As image processing, techniques such as background subtraction, inter-frame subtraction, template matching, machine learning, or deep learning can be applied. The unit of the person region can be arbitrarily set, for example, in pixel units, block units, area units, the entire image, or a mixture thereof. This can also be arbitrarily changed from the
パラメータは、撮像部31の視野と実空間上の面積とを対応付けるための指標であり、実施形態では、複数の種類にわたって記憶されることができる。パラメータの例としては、対象空間の天井高さや検知範囲などの数値、フロアのレイアウトマップ、あるいは領域分割されたレイアウトマップ等を挙げることができる、これらはいずれもメモリ32のパラメータ32cに登録され、プロセッサ33により適宜読み出されて使用される。
A parameter is an index for associating the field of view of the
空間使用率算出部33bは、上記生成された空間使用データに基づいて空間使用率を算出する。空間使用率は、様々に定義することができる。つまり、異なるアルゴリズム(関数)に基づいて種々の空間使用率を算出することができる。個々のアルゴリズムはメモリ32に記憶され(アルゴリズム32d)、プロセッサ33により読み出されて使用される。どのアルゴリズムにより空間使用率を算出するかは、例えば管理端末20から任意に設定することができる。
The space
例えば、空間使用率の異なる定義の例として、算出の単位を挙げることができる。つまり、画像全体を単位として空間使用率を算出するか、または、個々のエリアを単位として空間使用率を算出するかを定義することができる。エリアは、例えば各座席としてもよいし、複数のエリアをまとめた単位をエリアとして定義しても良い。エリアをどのように設定するかなどの情報は、例えば管理端末20から任意に設定することができ、パラメータ32cに登録される。
For example, a unit of calculation can be cited as an example of different definitions of space utilization. In other words, it is possible to define whether the space usage rate is calculated in units of the entire image or in units of individual areas. The area may be, for example, each seat, or may be defined as a unit in which a plurality of areas are grouped together. Information such as how to set the area can be arbitrarily set from the
また、計算式における分母と分子を異なる量に設定し、複数の空間使用率の定義とすることもできる。例えば、分母を画像上の面積、あるいは実空間上の面積とすれば、少なくとも2種類の空間使用率を定義することができる。さらに、分母を画像全体またはエリア内の、過去に人物が存在した領域の面積と定義しても良い。その際、過去1日の平均値、過去1週間の平均値、過去1か月の平均値、季節ごとの平均値、あるいは年単位での平均値というように、参照時間を定義することもできる。分母に対する参照時間は、空間使用率の算出の際の蓄積時間と同じでも、異なっていてもよい。分母に適用される量、および参照時間は例えば管理端末20から任意に設定することができ、パラメータ32cに登録される。
Also, the denominator and numerator in the calculation formula can be set to different amounts to define a plurality of space usage rates. For example, if the denominator is the area on the image or the area on the real space, at least two types of space usage rates can be defined. Furthermore, the denominator may be defined as the area of the entire image or area in which a person has existed in the past. In doing so, it is also possible to define a reference time such as the average value of the past day, the average value of the past week, the average value of the past month, the average value of each season, or the average value of a year. . The reference time to the denominator may be the same as or different from the accumulated time when calculating space utilization. The amount applied to the denominator and the reference time can be arbitrarily set from the
分子としては、例えば人物領域の面積を適用することができる。人物に一つ以上の条件付けをし、一つ以上の人物領域の面積として分子を定義することもできる。条件付けの例としては、例えば動きの大きさ(オフィスワークしていている人、歩行している人など)がある。また、姿勢(立っている人、座っている人など)、服装(制服を着ている人、スーツを着ている人など)、属性(男女、年代)なども、条件付けの例として用いることができる。さらには、視野内の個人を特定し、個人ごとの領域面積を分子として用いれば、当該個人の空間使用率を計算することができる。 As the numerator, for example, the area of the person region can be applied. One can also apply one or more conditionings to the person and define the numerator as the area of one or more person regions. Examples of conditioning include, for example, magnitude of movement (person working in an office, person walking, etc.). In addition, posture (person standing, sitting, etc.), clothing (person wearing uniform, person wearing suit, etc.), attributes (gender, age), etc. can also be used as examples of conditioning. can. Furthermore, by specifying an individual within the field of view and using the area of each individual as a numerator, it is possible to calculate the space usage rate of the individual.
さらに、プロセッサ33の領域設定部33cは、空間使用率を算出する領域を、対象空間に設定する。例えば、オフィスフロアの椅子ごとに領域を設定し、それぞれの椅子に人がどのくらいの時間座っているかを示す量(着席率)を、空間使用率として定義することができる。領域の設定には、例えばセマンティックセグメーションなどの手法を適用することができる。
Furthermore, the
図5は、画像センサ3におけるデータの流れの一例を示す図である。図5において、撮像部31で取得された画像データ32bは、メモリ32に一時的に記憶されたのち、プロセッサ33の空間使用データ生成部33aに渡される。空間使用データ生成部33aは、
画像データから空間使用データを生成して空間使用率算出部33bに渡す。
FIG. 5 is a diagram showing an example of data flow in the
Space usage data is generated from the image data and passed to the space
空間使用率算出部33bは、メモリのパラメータ32c、アルゴリズム32dを参照し、空間使用データから空間使用率を算出する。算出された空間使用率は、通信部34からセンサネットワーク9経由でゲートウェイ装置7等に送信され、空調制御、照明制御のための基礎データとして直接、利用される。
The space
[作用]
次に、上記構成における作用を説明する。
図6は、実施形態に係わる画像センサ3の処理手順の一例を示すフローチャートである。図6において、画像センサ3は、撮像部31で取得(ステップS1)した画像データ32bをメモリ32に記憶し、蓄積する(ステップS2)。記憶された画像データ32bは、空間使用データ生成部33aに渡される。
[Action]
Next, the operation of the above configuration will be described.
FIG. 6 is a flow chart showing an example of the processing procedure of the
空間使用データ生成部33aは、設定されたパラメータのもとで空間使用データを生成し(ステップS3)、空間使用率算出部33bに渡す。空間使用率算出部33bは、空間使用データに所定の計算アルゴリズム(計算式)を適用して空間使用率を算出する(ステップS4)。算出された空間使用率は、通信部34からゲートウェイ装置7経由でBEMSサーバ5に送信され、空調制御、照明制御のための基礎データとして利用される。
The space usage
図7は、撮像部31の視野内の画像の一例を示す図である。図7は、ある特定の時点を捉えた1フレームの画像を示し、この時点における人物の居場所が捉えられている。着席している人もいれば、歩行中の人物もいる。撮像部31は、時系列の画像データ(フレーム)をメモリ32に蓄積する。そして、一定の期間にわたる画像データを処理して、例えばセルごとの人物の存在期間を反映する空間使用データが生成される。
FIG. 7 is a diagram showing an example of an image within the field of view of the
図8は、空間使用データの一例を示す模式図である。対象空間に対して設定されたセル(マス目)ごとに、人物の滞在期間がグラフィカルに示される。図8においては、例えば60分を最大値とし、滞在期間が10分になるまで、例えば4ランクの濃さで着席時間が可視化される。蓄積された画像データから着席時間を可視化し、さらに分析することで、例えば(2021年MM月DD日の、9:00~10:00における[着席率]は、48%)といった値が算出される。この[着席率]が、空間使用率の一例である。 FIG. 8 is a schematic diagram showing an example of space usage data. The period of stay of a person is graphically shown for each cell (square) set in the target space. In FIG. 8, for example, the maximum value is 60 minutes, and the sitting time is visualized with, for example, 4 ranks until the length of stay reaches 10 minutes. By visualizing the sitting time from the accumulated image data and further analyzing it, for example, a value such as ([Seating rate] from 9:00 to 10:00 on DD, MM, 2021 is 48%) is calculated. be. This [seat rate] is an example of the space usage rate.
図9は、着席率に基づく自動領域分割の一例を示す模式図である。領域設定部33c(図4)は、対象空間において、空間使用率を算出する領域を設定する。例えば、演算処理の対象から除外する領域(マスク領域)を対象空間に設定することにより、それ以外の領域(演算処理の対象とする領域)に対してのみ、空間使用率を算出するように設定することができる。
FIG. 9 is a schematic diagram showing an example of automatic area division based on the seating rate. The
また、マスクされていない領域(処理対象の領域)をさらに複数に分割し、複数のエリアを設定することもできる。また、カラーマップのように画像を色塗りして領域分割することもできる。 Moreover, it is also possible to further divide the unmasked area (area to be processed) into a plurality of areas and set a plurality of areas. It is also possible to divide an image into areas by coloring it like a color map.
さらには、領域分割されたレイアウトマップから、領域分割を設定することもできる。図9はその一例を示しており、[着席率]が比較的高い領域を机エリア、[着席率]が比較的低い領域を通路エリアとして設定した状態を示す。机エリアをドット、通路エリアを斜線のハッチングで示す。このように、人物の動き分布に基づいて、自動で領域分割を行うことができる。 Furthermore, it is also possible to set the area division from the area-divided layout map. FIG. 9 shows an example of this, in which an area with a relatively high [seat rate] is set as a desk area, and an area with a relatively low [seat rate] is set as an aisle area. The desk area is indicated by dots, and the aisle area is indicated by diagonal hatching. In this way, it is possible to automatically perform region division based on the motion distribution of the person.
図10は、レイアウトマップの一例を示す模式図である。レイアウトマップは、例えばBEMSサーバ5からダウンロードされて画像センサ3のメモリ32に予め記憶される。
図11は、動き分布に基づいて分割された領域の一例を示す図である。対象空間において、人の動き分析により例えば矩形状の領域が検出されたとする。この領域とレイアウトマップとを照合することにより、領域の属性(机、通路など)を検出することができる。
FIG. 10 is a schematic diagram showing an example of a layout map. The layout map is downloaded from, for example, the
FIG. 11 is a diagram showing an example of regions divided based on motion distribution. Assume that, for example, a rectangular area is detected in the target space by human motion analysis. By comparing this area with the layout map, the attributes of the area (desk, passage, etc.) can be detected.
図12は、領域分割された対象空間の属性を示す図である。図12に示されるように、机領域と通路領域とを、画像センサ3自身のセンシング処理だけで自動で認識し、設定することが可能になる。設定された領域は、通信部34によりBEMSサーバ5等に通知される。
FIG. 12 is a diagram showing attributes of a target space divided into regions. As shown in FIG. 12, the desk area and the passage area can be automatically recognized and set only by the sensing processing of the
上記のように、領域設定部33c(図4)は、空間使用率を算出する領域を対象空間に自動で設定する。上記した人の動き分析だけでなく、例えばセマンティックセグメンテーションにより、机/床/壁などに自動で領域分割を行うこともできる。あるいは、照明の点灯区分に合わせて照明を点消灯させ、そのときの照度分布をセンシングして得られた結果に基づいて自動領域分割を行うようにしても良い。なお、各領域は、管理端末20を用いた管理者の操作により設定することもできる。
As described above, the
[効果]
以上説明したようにこの実施形態では、画像センサ3で取得された画像データから、空間使用率を算出する基となるデータとしての空間使用データを算出し、さらに、空間使用データから、機器制御のためのデータとしての空間使用率を算出するようにした。つまり、カラーマップ等の空間使用データの算出にとどまらず、制御対象の機器に直接投入することの可能な制御量を、画像センサ自身により算出できるようにした。
[effect]
As described above, in this embodiment, from the image data acquired by the
このように、サーバなどの計算リソースの介在する必要なしに、機器制御のための制御量を画像センサが直接、生成することが可能になる。これにより、ビルにおける空調制御、照明制御の自由度を飛躍的に高めることが可能になる。 In this way, it becomes possible for the image sensor to directly generate a control amount for device control without the need for intervening computational resources such as a server. This makes it possible to dramatically increase the degree of freedom in air conditioning control and lighting control in buildings.
また実施形態では、空間使用率を算出するにあたり、複数のパラメータと、複数の計算式(アルゴリズム)とを画像センサ3自身に予め登録しておき、異なるパラメータ、アルゴリズムのもとでの空間使用率を算出できるようにした。このようにしたので、対象とする空間や建物の特性に応じた空間使用率を算出することが可能になる。例えば月ごと、季節ごと等の空間使用率の傾向を利用することで、オフィスの機器レイアウトの改善に役立てることが可能になる。
Further, in the embodiment, when calculating the space utilization rate, a plurality of parameters and a plurality of calculation formulas (algorithms) are registered in the
これらのことから実施形態によれば、空間の使用率を得ることのできる画像センサ、センシング方法、およびプログラムを提供することができる。これにより、例えば、人が留まっている度合いを場所ごとに示す指標を出力できるようになり、機器制御との親和性を高めた画像センサを提供できる。 From these, according to the embodiment, it is possible to provide an image sensor, a sensing method, and a program capable of obtaining the utilization rate of the space. As a result, for example, it is possible to output an index indicating the degree to which a person stays for each location, and it is possible to provide an image sensor that is highly compatible with device control.
なお、この発明は上記実施形態に限定されるものではない。例えば、撮像部31において魚眼レンズに限定されず、鏡面を利用したいわゆるパノラマレンズなどの、他の形式の広角レンズを用いることも可能である。
In addition, this invention is not limited to the said embodiment. For example, the
また、検知の対象は人物に限定されず、人物とは異なる物体であっても良い。例えばオフィスにおける背景を検知・識別するための背景辞書、机を検知するための机辞書、椅子を検知するための椅子辞書、あるいは什器や複合機などを検知するための辞書を用いれば、人物だけでなく、様々な対象を検知することができる。 Also, the object to be detected is not limited to a person, and may be an object other than a person. For example, if you use a background dictionary for detecting and identifying the background in an office, a desk dictionary for detecting desks, a chair dictionary for detecting chairs, or a dictionary for detecting fixtures and multifunction devices, only people can be detected. Instead, it can detect various objects.
本発明の実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While embodiments of the invention have been described, the embodiments are provided by way of example and are not intended to limit the scope of the invention. This novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.
1…照明設備、2…空調機器、3(3-1~3-n)…画像センサ、4…照明コントローラ、5…BEMSサーバ、7…ゲートウェイ装置、8…ビル内ネットワーク、9…センサネットワーク、10…通信ネットワーク、15…プロセッサ、20…管理端末、30…レジスタ、30a…カメラ情報、31…撮像部、31a…魚眼レンズ、31b…絞り機構、31c…イメージセンサ、32…メモリ、32a…プログラム、32b…画像データ、32c…パラメータ、32d…アルゴリズム、33…プロセッサ、33a…空間使用データ生成部、33b…空間使用率算出部、33c…領域設定部、34…通信部、35…内部バス、100…クラウド、200…サーバ、300…データベース、400…ビル。
DESCRIPTION OF
Claims (11)
前記画像データを記憶する記憶部と、
前記記憶された画像データを画像処理して、動体が前記対象空間を使用している度合いを場所ごとに示す指標である空間使用率を算出するプロセッサとを具備する、画像センサ。 an imaging unit that captures an image of a target space and acquires image data;
a storage unit that stores the image data;
and a processor that performs image processing on the stored image data to calculate a space usage rate, which is an index indicating the extent to which a moving object uses the target space for each location.
前記画像データを画像処理して、前記対象空間における前記動体の分布を示す空間使用データを生成する空間使用データ生成部と、
前記空間使用データに基づいて、前記空間使用率を算出する空間使用率算出部とを備える、請求項1に記載の画像センサ。 The processor
a space usage data generation unit that performs image processing on the image data to generate space usage data that indicates the distribution of the moving object in the target space;
2. The image sensor according to claim 1, further comprising a space usage rate calculator that calculates said space usage rate based on said space usage data.
前記空間使用率算出部は、前記複数のパラメータの少なくともいずれかに基づいて前記空間使用率を算出する、請求項2に記載の画像センサ。 The storage unit stores a plurality of parameters that associate the field of view of the imaging unit with an area in real space,
3. The image sensor according to claim 2, wherein said space usage rate calculator calculates said space usage rate based on at least one of said plurality of parameters.
前記空間使用率算出部は、前記複数のアルゴリズムのいずれかに基づいて前記空間使用率を算出する、請求項2に記載の画像センサ。 The storage unit stores a plurality of algorithms that express the space utilization rate with different definitions,
3. The image sensor according to claim 2, wherein said space usage rate calculator calculates said space usage rate based on one of said plurality of algorithms.
前記領域設定部は、前記通信ネットワークを経由したアクセスによる前記対象空間の設定を受け付ける、請求項5に記載の画像センサ。 further comprising a communication unit that accepts access via a communication network,
6. The image sensor according to claim 5, wherein said area setting unit receives setting of said target space by access via said communication network.
前記プロセッサが、前記画像データを前記記憶部に記憶する過程と、
前記プロセッサが、前記記憶された画像データを画像処理して、前記対象空間における動体の分布を示す空間使用データを生成する過程と、
前記プロセッサが、空間使用データに基づいて、前記動体が前記対象空間を使用している度合いを場所ごとに示す指標である空間使用率を算出する過程とを具備する、センシング方法。 A sensing method executed by the processor of an image sensor comprising an imaging unit that captures an image of a target space and acquires image data, a storage unit, and a processor,
the processor storing the image data in the storage unit;
the processor image processing the stored image data to generate space usage data indicative of a distribution of moving objects in the object space;
A sensing method, wherein the processor calculates a space usage rate, which is an index indicating the extent to which the moving body uses the target space for each location, based on the space usage data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021041499A JP2022141274A (en) | 2021-03-15 | 2021-03-15 | Image sensor, sensing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021041499A JP2022141274A (en) | 2021-03-15 | 2021-03-15 | Image sensor, sensing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022141274A true JP2022141274A (en) | 2022-09-29 |
Family
ID=83402802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021041499A Pending JP2022141274A (en) | 2021-03-15 | 2021-03-15 | Image sensor, sensing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022141274A (en) |
-
2021
- 2021-03-15 JP JP2021041499A patent/JP2022141274A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6705028B2 (en) | Image sensor | |
CN108241300B (en) | Device control for predetermined spatial regions | |
US20110205366A1 (en) | Air conditioning control system and air conditioning control method | |
CN107883541A (en) | Air conditioning control method and device | |
DE102011077522A1 (en) | Method and device for detecting thermal comfort | |
US11015832B2 (en) | Thermographic sensing of human thermal conditions to improve thermal comfort | |
WO2018120962A1 (en) | Reliability management-based uncertainty elimination context awareness system and working method thereof | |
JP2022518005A (en) | Using one or more thermography cameras and one or more RGB-D sensors to detect the presence of one or more human occupants in the construction space in real time and estimate thermal comfort. | |
JP7463582B2 (en) | Sensing system, maintenance terminal device, data distribution method, and image sensor | |
JP2017003203A (en) | Estimation device, estimation method, and estimation program | |
JP7005285B2 (en) | Image sensors, sensing methods, control systems and programs | |
JP2017120167A (en) | Air-conditioning management system and program | |
CA3039375A1 (en) | Neural network combining visible and thermal images for inferring environmental data of an area of a building | |
JP2022141274A (en) | Image sensor, sensing method, and program | |
WO2017119336A1 (en) | Lighting control system, lighting control method, lighting control device, and computer program | |
JP2023023492A (en) | Image sensor system, calculation device, sensing method and program | |
US10991130B2 (en) | Systems and methods for implementing a sensor based real time tracking system | |
JP7419095B2 (en) | Image sensors, computing devices, and image sensor systems | |
JP7237713B2 (en) | Sensor system, image sensor, and sensing method | |
JP6524201B2 (en) | Building equipment control system and image sensor device | |
JP2022020297A (en) | Image sensor, sensing method and program | |
WO2019082652A1 (en) | Image sensor, person detection method, program, and control system | |
Gaonkar et al. | Comfort Management System for Smart Buildings: An Open-Source Scalable Prototype | |
JP2020048055A (en) | Image sensor, sensing method, control system, and program | |
JP7145693B2 (en) | SEAT CONDITION SENSING SYSTEM, SEAT CONDITION DETERMINATION METHOD, AND IMAGE SENSOR |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230105 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231213 |