JP7419095B2 - Image sensors, computing devices, and image sensor systems - Google Patents
Image sensors, computing devices, and image sensor systems Download PDFInfo
- Publication number
- JP7419095B2 JP7419095B2 JP2020024263A JP2020024263A JP7419095B2 JP 7419095 B2 JP7419095 B2 JP 7419095B2 JP 2020024263 A JP2020024263 A JP 2020024263A JP 2020024263 A JP2020024263 A JP 2020024263A JP 7419095 B2 JP7419095 B2 JP 7419095B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- image sensor
- unit
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 claims description 40
- 238000000034 method Methods 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 17
- 230000002159 abnormal effect Effects 0.000 claims description 16
- 230000007613 environmental effect Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 12
- 238000010801 machine learning Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 238000004148 unit process Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 27
- 238000004891 communication Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 11
- 238000007726 management method Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 230000010354 integration Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004134 energy conservation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明の実施形態は、画像センサ、計算装置、および画像センサシステムに関する。 Embodiments of the invention relate to image sensors, computing devices, and image sensor systems.
近年の画像センサは、CPU(Central Processing Unit)やメモリを備え、いわばレンズ付きの組み込みコンピュータといえる。高度な画像処理機能も有しており、撮影した画像データを分析して、例えば人間の在不在、あるいは人数などを計算することができる。この種の画像センサは、ビル管理システムと組み合わせて、快適性、居住性の向上や省エネルギー化の促進などに活用されようとしている。 Recent image sensors are equipped with a CPU (Central Processing Unit) and memory, and can be said to be a built-in computer with a lens. It also has advanced image processing functions, and can analyze captured image data to calculate, for example, the presence or absence of people or the number of people. This type of image sensor is being used in combination with building management systems to improve comfort, livability, and promote energy conservation.
セキュリティシステム等で用いられる既存の監視カメラは、斜め見下し画角で据え付けられた望遠カメラにより、異常状態の人物(倒れているなど)を検知するものであった。しかしながら斜め見下し画角で撮影された画像は汎用性に乏しく、他の用途への転用が効かない。真下見下し画角のもとで取得した画像データを解析して多様なセンシングデータを得る画像センサにおいても、例えば異常状態の人物を検知できるようにすることが望まれる。 Existing surveillance cameras used in security systems and the like detect a person in an abnormal state (such as someone falling down) using a telephoto camera installed with a diagonal downward view. However, images taken at an angle of view looking down diagonally lack versatility and cannot be used for other purposes. It is also desired that an image sensor that obtains various sensing data by analyzing image data acquired under a direct-down viewing angle be capable of detecting, for example, a person in an abnormal state.
そこで、目的は、画角によらずセンシングデータを正確に検知できるようにした画像センサ、計算装置、および画像センサシステム、を提供することにある。 Therefore, an object of the present invention is to provide an image sensor, a calculation device, and an image sensor system that can accurately detect sensing data regardless of the angle of view.
実施形態によれば、画像センサは、撮像部、記憶部、変換部、および画像処理部を備える。撮像部は、エリアを撮像して画像データを取得する。記憶部は、検知対象について予め作成された辞書データを記憶する。変換部は、取得された画像データ、または、当該画像データから抽出された特徴量を辞書データに応じて変換して変換データを作成する。画像処理部は、辞書データを用いて変換データを処理して、エリアにおけるセンシングデータを生成する。 According to the embodiment, the image sensor includes an imaging section, a storage section, a conversion section, and an image processing section. The imaging unit images the area and obtains image data. The storage unit stores dictionary data created in advance for the detection target. The converter converts the acquired image data or the feature amount extracted from the image data according to the dictionary data to create converted data. The image processing unit processes the conversion data using the dictionary data to generate sensing data in the area.
画像センサは、人感センサ、明かりセンサあるいは赤外線センサ等に比べて多様な情報を取得することができる。魚眼レンズや超広角レンズなどを用いれば1台の画像センサで撮影可能な領域を拡大できるし、画像の歪みは計算処理で補正することができる。視野内のセンシングしたくない領域をマスク設定する機能や、学習機能を備えた画像センサも知られている。 Image sensors can acquire a variety of information compared to human sensors, light sensors, infrared sensors, and the like. By using a fisheye lens or an ultra-wide-angle lens, the area that can be captured by a single image sensor can be expanded, and image distortion can be corrected through calculation processing. Image sensors are also known that have a function to mask areas within the field of view that are not desired to be sensed, and a learning function.
[構成]
図1は、実施形態に係る画像センサを備える画像センサシステムの一例を示す模式図である。図1において、照明設備1、照明コントローラ4、および画像センサ3(3-1~3-n)は、ビル400の例えばフロアごとに設けられ、ゲートウェイ装置7と通信可能に接続される。各階のゲートウェイ装置7は、ビル内ネットワーク8を介して、例えばビル管理センタのBEMS(Building Energy Management System)サーバ5と通信可能に接続される。
[composition]
FIG. 1 is a schematic diagram showing an example of an image sensor system including an image sensor according to an embodiment. In FIG. 1, lighting equipment 1, lighting controller 4, and image sensors 3 (3-1 to 3-n) are provided, for example, on each floor of building 400, and are communicably connected to gateway device 7. The gateway device 7 on each floor is communicably connected to, for example, a BEMS (Building Energy Management System) server 5 of a building management center via an in-building network 8.
BEMSサーバ5は、例えばTCP/IP(Transmission Control Protocol / Internet Protocol)ベースの通信ネットワーク10経由で、クラウドコンピューティングシステム(クラウド)100に接続されることができる。クラウド100は、サーバ200およびデータベース300を備え、ビル管理等に関するサービスを提供する。 The BEMS server 5 can be connected to a cloud computing system (cloud) 100 via a communication network 10 based on TCP/IP (Transmission Control Protocol/Internet Protocol), for example. The cloud 100 includes a server 200 and a database 300, and provides services related to building management and the like.
図2に示されるように、照明設備1、空調機器2の吹き出し口、および画像センサ3は各フロアの例えば天井に配設される。画像センサ3には、それぞれのセンシング対象とするエリアが割り当てられる。図2において、エリアA1,A2がそれぞれフロアのおよそ半分をカバーしていることが示される。すべてのエリアを合わせれば、対象空間のフロアをカバーすることができる。図中ハッチングで示すように、異なる画像センサ3の割り当てエリアの一部が重なっていてもよい(重複部分)。 As shown in FIG. 2, the lighting equipment 1, the air outlet of the air conditioner 2, and the image sensor 3 are arranged, for example, on the ceiling of each floor. Each image sensor 3 is assigned an area to be sensed. In FIG. 2, it is shown that areas A1 and A2 each cover approximately half of the floor. All areas combined can cover the entire floor of the target space. As shown by hatching in the figure, the allocated areas of different image sensors 3 may partially overlap (overlapping portion).
画像センサ3は、割り当てられたエリアを見下し画角で視野内に捉え、視野内の映像を撮影して画像データを取得する。この画像データは画像センサ3において処理され、人物情報、あるいは環境情報などが計算される。すなわち画像センサ3は、対象空間における対象を検知(センシング)して、この対象に係わるセンシングデータを算出する。 The image sensor 3 looks down on the assigned area, captures it within its field of view at an angle of view, photographs an image within its field of view, and acquires image data. This image data is processed by the image sensor 3, and human information, environmental information, etc. are calculated. That is, the image sensor 3 detects (senses) an object in the object space and calculates sensing data related to this object.
環境情報は、対象とする空間(ゾーン)の環境に関する情報であり、例えば、フロアの照度や温度等である。人物情報は、対象空間における人間に関する情報である。例えばエリア内の人数、人の行動、人の活動量、人の存在または不在を示す在不在、あるいは、人が歩いているか、または1つの場所に留まっているかを示す歩行滞留などが人物情報の例である。 The environmental information is information regarding the environment of the target space (zone), such as the illuminance and temperature of the floor. The person information is information about people in the target space. For example, person information includes the number of people in an area, people's actions, amount of people's activity, presence or absence indicating a person's presence or absence, or walking retention indicating whether a person is walking or staying in one place. This is an example.
近年では、人の居住環境においてこれらの情報に基づき照明機器や空調機器を制御することで、人の快適性や安全性等を確保することが検討されている。環境情報および人物情報を、ゾーンを複数に分割した小領域ごとに算出することも可能である。この小領域を、画像センサ3ごとの割り当てエリアに対応付けてもよい。 In recent years, studies have been conducted to ensure human comfort and safety by controlling lighting equipment and air conditioning equipment based on this information in human living environments. It is also possible to calculate the environmental information and person information for each small region obtained by dividing the zone into a plurality of regions. This small area may be associated with an allocated area for each image sensor 3.
図3は、図1に示される画像センサシステムの一例を示すブロック図である。図3において、ゲートウェイ装置7は、複数の画像センサ3(3-1~3-n)を配下として収容する。画像センサ3-1~3-nは、センサネットワーク9により、一筆書き状に接続される(渡り配線)。センサネットワーク9は、画像センサ3-1~3-nとゲートウェイ装置7とを通信可能に接続する。センサネットワーク9のプロトコルとしては、例えばEtherCAT(登録商標)が知られている。 FIG. 3 is a block diagram showing an example of the image sensor system shown in FIG. In FIG. 3, the gateway device 7 accommodates a plurality of image sensors 3 (3-1 to 3-n) as subordinates. The image sensors 3-1 to 3-n are connected in a single-stroke pattern by the sensor network 9 (crossover wiring). The sensor network 9 communicably connects the image sensors 3-1 to 3-n and the gateway device 7. As a protocol for the sensor network 9, for example, EtherCAT (registered trademark) is known.
一方、ゲートウェイ装置7は、ビル内ネットワーク8に接続される。ビル内ネットワーク8には、管理端末20、BEMSサーバ5、および照明コントローラ4が接続される。ゲートウェイ装置7は、センサネットワーク9とビル内ネットワーク8との間での通信プロトコルを変換する。これにより、BEMSサーバ5および管理端末20も、ゲートウェイ装置7経由で画像センサ3-1~3-nと相互通信することが可能である。 On the other hand, the gateway device 7 is connected to the in-building network 8 . A management terminal 20, a BEMS server 5, and a lighting controller 4 are connected to the in-building network 8. Gateway device 7 converts the communication protocol between sensor network 9 and in-building network 8 . Thereby, the BEMS server 5 and the management terminal 20 can also communicate with the image sensors 3-1 to 3-n via the gateway device 7.
ビル内ネットワーク8の通信プロトコルとしてはBuilding Automation and Control Networking protocol(BACnet(登録商標))が代表的である。このほかDALI、ZigBee(登録商標)、ECHONET Lite(登録商標)等のプロトコルも知られている。 A typical communication protocol for the in-building network 8 is Building Automation and Control Networking protocol (BACnet (registered trademark)). Other protocols such as DALI, ZigBee (registered trademark), and ECHONET Lite (registered trademark) are also known.
図4は、実施形態に係る画像センサ3の一例を示すブロック図である。画像センサ3は、撮像部31、メモリ32、プロセッサ33、および通信部34を備える。これらは内部バス35を介して互いに接続される。メモリ32とプロセッサ33を備える画像センサ3は、コンピュータとして機能する。 FIG. 4 is a block diagram showing an example of the image sensor 3 according to the embodiment. The image sensor 3 includes an imaging section 31, a memory 32, a processor 33, and a communication section 34. These are connected to each other via an internal bus 35. Image sensor 3 including memory 32 and processor 33 functions as a computer.
撮像部31は、魚眼レンズ31a、絞り機構31b、イメージセンサ31cおよびレジスタ30を備える。魚眼レンズ31aは、エリアを天井から見下ろす形で視野に捕え、イメージセンサ31cに結像する。魚眼レンズ31aからの光量は絞り機構31bにより調節される。イメージセンサ31cは例えばCMOS(相補型金属酸化膜半導体)センサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。この映像信号はディジタル符号化され、画像データとして出力される。画像データはメモリ32に記憶される(画像データ32b)。 The imaging unit 31 includes a fisheye lens 31a, an aperture mechanism 31b, an image sensor 31c, and a register 30. The fisheye lens 31a captures the area in its field of view looking down from the ceiling, and forms an image on the image sensor 31c. The amount of light from the fisheye lens 31a is adjusted by an aperture mechanism 31b. The image sensor 31c is, for example, a CMOS (complementary metal oxide semiconductor) sensor, and generates a video signal at a frame rate of, for example, 30 frames per second. This video signal is digitally encoded and output as image data. The image data is stored in the memory 32 (image data 32b).
レジスタ30は、カメラ情報30aを記憶する。カメラ情報30aは、例えばオートゲインコントロール機能の状態、ゲインの値、露光時間などの、撮像部31に関する情報、あるいは画像センサ3それ自体に関する情報である。例えば、上記フレームレート、イメージセンサ31cのゲインの値、露光時間など、センシングの感度や精度に影響を及ぼすパラメータは、プロセッサ33により制御される。 The register 30 stores camera information 30a. The camera information 30a is information regarding the imaging unit 31, such as the state of the auto gain control function, gain value, and exposure time, or information regarding the image sensor 3 itself. For example, parameters that affect the sensitivity and accuracy of sensing, such as the frame rate, the gain value of the image sensor 31c, and the exposure time, are controlled by the processor 33.
メモリ32は、SDRAM(Synchronous Dynamic RAM)などの半導体メモリ、またはNANDフラッシュメモリやEPROM(Erasable Programmable ROM)などの不揮発性メモリである。メモリ32は、プロセッサ33を機能させるためのプログラム32aと、画像データ32b、変換データ32c、および、検知対象のデータについて予め作成された辞書データ32dを記憶する。 The memory 32 is a semiconductor memory such as SDRAM (Synchronous Dynamic RAM), or a nonvolatile memory such as NAND flash memory or EPROM (Erasable Programmable ROM). The memory 32 stores a program 32a for operating the processor 33, image data 32b, conversion data 32c, and dictionary data 32d created in advance for data to be detected.
辞書データ32dは、画像データからセンシングデータを生成するために用いられるデータであり、例えばSVM(Support Vector Machine)などの機械学習(Machine-Learning)の枠組みを用いた手法により、生成することが可能である。機械学習における識別機が使用する辞書データについては、多数の文献に開示されている。辞書データ32dを用いた例えばパターンマッチング処理により、エリアにおける検出対象(人など)を識別することが可能である。なお、1つのセンシング項目に、複数の辞書データ32dを用いても良い。また、複数のセンシング項目に共通して、1つの辞書データ32dを用いても良い。 The dictionary data 32d is data used to generate sensing data from image data, and can be generated, for example, by a method using a machine-learning framework such as SVM (Support Vector Machine). It is. Dictionary data used by classifiers in machine learning are disclosed in numerous documents. For example, by pattern matching processing using the dictionary data 32d, it is possible to identify a detection target (person, etc.) in the area. Note that a plurality of dictionary data 32d may be used for one sensing item. Further, one dictionary data 32d may be used in common for a plurality of sensing items.
さらにメモリ32は、センシングデータ32e、および特徴量を32fを記憶する。このほか、メモリ32には、マスク設定データなどが記憶されてもよい。マスク設定データは、撮像部31に捕えられた視野のうち、画像処理する領域(画像処理の対象領域)と、画像処理しない領域(画像処理の非対象領域)とを区別するために用いられる。 Furthermore, the memory 32 stores sensing data 32e and feature quantities 32f. In addition, mask setting data and the like may be stored in the memory 32. The mask setting data is used to distinguish between an area to be image-processed (an image-processing target area) and an area not to be image-processed (an image-processing non-target area) out of the field of view captured by the imaging unit 31.
プロセッサ33は、メモリ32に記憶されたプログラムをロードし、実行することで、実施形態において説明する各種の機能を実現する。プロセッサ33は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。MPU(Micro Processing Unit)、あるいはFPGA(Field Programmable Gate Array)等でプロセッサ15を構成することもできる。 The processor 33 loads and executes programs stored in the memory 32, thereby realizing various functions described in the embodiments. The processor 33 is, for example, an LSI (Large Scale Integration) that includes a multi-core CPU (Central Processing Unit) and is tuned to perform image processing at high speed. The processor 15 can also be configured with an MPU (Micro Processing Unit), an FPGA (Field Programmable Gate Array), or the like.
通信部34は、センサネットワーク9に接続可能で、通信相手先(ゲートウェイ装置7、管理端末20、他の画像センサ3、あるいはBEMSサーバ5等)とのデータの授受を仲介する。通信のインタフェースは有線でも無線でもよい。通信ネットワークのトポロジはスター型、リング型など任意のトポロジを適用できる。通信プロトコルは汎用プロトコルでも、産業用プロトコルでもよい。単独の通信方法でもよいし、複数の通信方法を組み合わせてもよい。 The communication unit 34 is connectable to the sensor network 9 and mediates data exchange with a communication partner (gateway device 7, management terminal 20, other image sensor 3, BEMS server 5, etc.). The communication interface may be wired or wireless. Any topology such as a star type or a ring type can be applied to the communication network. The communication protocol may be a general purpose protocol or an industrial protocol. A single communication method may be used, or a plurality of communication methods may be combined.
特に、通信部34は、画像センサ3によるセンシングデータや、プロセッサ33の処理結果、処理データ、パラメータ、画像データ、動きベクトルデータ、蓄積された過去の動きベクトルデータ、加工された動きベクトルデータ、統計解析データ、出力データ、パラメータ、辞書データ、ファームウェアなどを、通信ネットワークとしてのセンサネットワーク9経由で送受信する。これにより、上記データや情報は、ゲートウェイ装置7、他の画像センサ3、BEMSサーバ5、および管理端末20等と、ビル内ネットワーク8等を経由して共有されることが可能である。 In particular, the communication unit 34 receives sensing data from the image sensor 3, processing results from the processor 33, processed data, parameters, image data, motion vector data, accumulated past motion vector data, processed motion vector data, and statistics. Analysis data, output data, parameters, dictionary data, firmware, etc. are transmitted and received via the sensor network 9 as a communication network. Thereby, the above data and information can be shared with the gateway device 7, other image sensors 3, BEMS server 5, management terminal 20, etc. via the in-building network 8, etc.
ところで、プロセッサ33は、実施形態に係る処理機能として、画像処理部33a、変換部33b、抽出部33c、および統合処理部33dを備える。画像処理部33a、変換部33b、抽出部33c、および統合処理部33dは、メモリ32に記憶されたプログラム32aがプロセッサ33のレジスタにロードされ、当該プログラムの進行に伴ってプロセッサ33が演算処理を実行することで生成されるプロセスとして、理解され得る。 By the way, the processor 33 includes an image processing section 33a, a conversion section 33b, an extraction section 33c, and an integration processing section 33d as processing functions according to the embodiment. The image processing section 33a, the conversion section 33b, the extraction section 33c, and the integrated processing section 33d load the program 32a stored in the memory 32 into the register of the processor 33, and the processor 33 performs arithmetic processing as the program progresses. It can be understood as a process generated by execution.
このうち抽出部33cは、画像データ32bから、当該画像データ32bの特徴量を抽出する。抽出された特徴量はメモリ32に記憶される(特徴量32f)。
変換部33bは、辞書データ32dに応じて画像データ32bを変換して、変換データ32cを作成する。また、変換部33bは、辞書データ32dに応じて特徴量32fを変換して、変換データ32cを作成する。作成された変換データは、メモリ32に記憶される(変換データ32c)。
Of these, the extraction unit 33c extracts the feature amount of the image data 32b from the image data 32b. The extracted feature amount is stored in the memory 32 (feature amount 32f).
The converter 33b converts the image data 32b according to the dictionary data 32d to create converted data 32c. Further, the converting unit 33b converts the feature amount 32f according to the dictionary data 32d to create converted data 32c. The created conversion data is stored in the memory 32 (conversion data 32c).
画像処理部33aは、辞書データ32dを用いて、例えば機械学習の識別機アルゴリズムを適用して変換データ32cを処理し、自センサに割り当てられたエリアにおけるセンシングデータを生成する。生成されたセンシングデータはメモリ32に記憶される(センシングデータ32e)。 The image processing unit 33a processes the conversion data 32c by applying, for example, a machine learning classifier algorithm using the dictionary data 32d, and generates sensing data in the area assigned to its own sensor. The generated sensing data is stored in the memory 32 (sensing data 32e).
なお、画像処理部33aは、画像データ32bを処理することによっても、センシングデータを生成することができる。ただ、変換データ32cは辞書データ32dにマッチするように生成されているので、変換データ32cを用いてセンシングデータを生成することのほうが有利である。 Note that the image processing unit 33a can also generate sensing data by processing the image data 32b. However, since the converted data 32c is generated to match the dictionary data 32d, it is more advantageous to generate sensing data using the converted data 32c.
センシングデータとして、実施形態では(通常状態の人物センシングデータ)、(環境情報)、および(異常状態の人物センシングデータ)を例として採り上げる。
(通常状態の人物センシングデータ)としては、在/不在、推定人数、歩行滞留、人物認識、動きベクトルなどがある。
(環境情報)としては、推定照度、活動量、混雑度などがある。
(異常状態の人物センシングデータ)としては、倒れている人、高齢者、車椅子に乗っている人などがある。
In the embodiment, (person sensing data in a normal state), (environmental information), and (person sensing data in an abnormal state) are taken as sensing data.
(Normal state human sensing data) includes presence/absence, estimated number of people, walking stagnation, person recognition, motion vector, etc.
(Environmental information) includes estimated illuminance, amount of activity, degree of crowding, etc.
(Sensing data on people in abnormal conditions) includes people who have collapsed, elderly people, people in wheelchairs, etc.
画像処理部33aは、これらの項目を変換データ32d(または画像データ32b)からセンシングする。全ての項目を、常時、同時にセンシングしても良いし、必要に応じで選択された項目のみをセンシングしてもよい。時刻、カレンダー、明るさ、外部からの指示などに応じて、センシングすべき項目を選択することもできる。処理の周期も、全ての項目について同じでもよいし、センシング項目ごとに異なる周期で処理してもよい。 The image processing unit 33a senses these items from the converted data 32d (or image data 32b). All items may be sensed simultaneously all the time, or only selected items may be sensed as needed. Items to be sensed can also be selected according to time, calendar, brightness, external instructions, etc. The processing cycle may be the same for all items, or may be processed at different cycles for each sensing item.
統合処理部33dは、(異常状態の人物センシングデータ)を生成する際に、(環境情報)、および(通常状態の人物センシングデータ)のいずれか一方、または双方を参照する。つまり統合処理部33dは、(異常状態の人物センシングデータ)そのものと、(環境情報)、および(通常状態の人物センシングデータ)の少なくともいずれか1つとを統合的に判定した結果に基づいて、(異常状態の人物センシングデータ)を生成し、出力する。 The integrated processing unit 33d refers to either or both of (environmental information) and (normal state human sensing data) when generating (human sensing data in an abnormal state). In other words, the integrated processing unit 33d, based on the result of integrated determination of (human sensing data in abnormal state) itself, at least one of (environmental information), and (human sensing data in normal state), ( Generate and output abnormal human sensing data).
例えば、混雑状態(環境情報)にある環境下で倒れている人(異常状態の人物センシングデータ)が検知されたとしても、それほどの緊急性は無いと言える。これに対して、人が不在の状態で(異常状態の人物センシングデータ)が検知された場合には、緊急性が高く、直ちにシステム関係者への通報を要する。統合処理部33dは、このように、複数の情報を統合的に判定した結果に基づいて、(異常状態の人物センシングデータ)を生成する。 For example, even if a collapsed person (abnormal human sensing data) is detected in a crowded environment (environmental information), it can be said that there is not that much urgency. On the other hand, if a person is detected in the absence of a person (person sensing data in an abnormal state), the situation is highly urgent and requires immediate notification to system personnel. The integrated processing unit 33d thus generates (person sensing data in an abnormal state) based on the result of integrated determination of a plurality of pieces of information.
図5は、図4に示される画像処理部33aの基本的な処理手順を示すフローチャートである。図5において、撮像部31で取得(ステップS1)された画像データ32bは、メモリ32に一時的に記憶されたのち(ステップS2)、画像処理部33aに送られる。画像処理部33aは、画像データ32bを画像処理して、通常状態の人物の検知(センシング)(ステップS3)、環境情報の推定(ステップS4)、および異常状態の人物の検知(ステップS5)の各処理を実行して、これらの項目を画像データ32bからセンシングする。 FIG. 5 is a flowchart showing the basic processing procedure of the image processing section 33a shown in FIG. In FIG. 5, image data 32b acquired by the imaging section 31 (step S1) is temporarily stored in the memory 32 (step S2), and then sent to the image processing section 33a. The image processing unit 33a performs image processing on the image data 32b to detect (sensing) a person in a normal state (step S3), estimate environmental information (step S4), and detect a person in an abnormal state (step S5). Each process is executed to sense these items from the image data 32b.
これらのセンシング項目の全てを常時、同時にセンシングしても良い。または、必要に応じて個別にセンシングしてもよい。項目ごとの処理の周期は、例えばフレーム周期に同期して全ての項目で同じであっても良いし、項目ごとに異なっていても良い。通信部34は、これらのセンシングデータや項目の算出に係る各種のパラメータ等を、センサネットワーク9経由でゲートウェイ装置7に通信する(ステップS6)。 All of these sensing items may be sensed simultaneously at all times. Alternatively, sensing may be performed individually as necessary. The processing cycle for each item may be the same for all items, for example in synchronization with the frame cycle, or may be different for each item. The communication unit 34 communicates these sensing data and various parameters related to calculation of items to the gateway device 7 via the sensor network 9 (step S6).
図6は、画像センサにおけるデータの流れの一例を示す図である。図6において、撮像部31で取得された画像データ32bはメモリ32に一時的に記憶されたのち、プロセッサ33の画像処理部33aに送られる。画像処理部33aは、メモリ32に記憶された辞書データ32dを用いて画像データ32bを画像処理し、センシングデータを生成する。通信部34は、生成されたセンシングデータを含む各種のデータを、センサネットワーク9経由でゲートウェイ装置7に送信する。 FIG. 6 is a diagram showing an example of the flow of data in the image sensor. In FIG. 6, image data 32b acquired by the imaging section 31 is temporarily stored in the memory 32, and then sent to the image processing section 33a of the processor 33. The image processing unit 33a performs image processing on the image data 32b using the dictionary data 32d stored in the memory 32, and generates sensing data. The communication unit 34 transmits various data including the generated sensing data to the gateway device 7 via the sensor network 9.
図6の流れを基本として、実施形態では、画像データ32bを辞書データ32cに応じて変換した変換データ32cに基づいて画像処理を行い、センシングデータを生成する技術について説明する。 Based on the flow shown in FIG. 6, the embodiment will describe a technique for generating sensing data by performing image processing based on converted data 32c obtained by converting image data 32b according to dictionary data 32c.
図7は、実施形態に係るゲートウェイ装置7の一例を示すブロック図である。計算装置の一例としてのゲートウェイ装置7は、CPUやMPU(Micro Processing Unit)等のプロセッサ75と、ROM(Read Only Memory)72およびRAM(Random Access Memory)73を備えるコンピュータである。ゲートウェイ装置7は、さらに、ハードディスクドライブ(Hard Disk Drive:HDD)などの記憶部74、光学メディアドライブ76、および通信部77を備える。 FIG. 7 is a block diagram showing an example of the gateway device 7 according to the embodiment. The gateway device 7 as an example of a computing device is a computer that includes a processor 75 such as a CPU or an MPU (Micro Processing Unit), a ROM (Read Only Memory) 72, and a RAM (Random Access Memory) 73. The gateway device 7 further includes a storage section 74 such as a hard disk drive (HDD), an optical media drive 76, and a communication section 77.
ROM72は、BIOS(Basic Input Output System)やUEFI(Unified Extensible Firmware Interface)などの基本プログラム、および各種の設定データ等を記憶する。RAM73は、記憶部74からロードされたプログラムやデータを一時的に記憶する。 The ROM 72 stores basic programs such as BIOS (Basic Input Output System) and UEFI (Unified Extensible Firmware Interface), various setting data, and the like. The RAM 73 temporarily stores programs and data loaded from the storage section 74.
光学メディアドライブ76は、CD-ROM78などの記録媒体に記録されたディジタルデータを読み取る。ゲートウェイ装置7で実行される各種プログラムは、例えばCD-ROM78に記録されて頒布される。このCD-ROM78に格納されたプログラムは光学メディアドライブ76により読み取られ、記憶部74にインストールされる。 The optical media drive 76 reads digital data recorded on a recording medium such as a CD-ROM 78. Various programs executed by the gateway device 7 are recorded on, for example, a CD-ROM 78 and distributed. The program stored in this CD-ROM 78 is read by the optical media drive 76 and installed in the storage section 74.
通信部77は、ビル内ネットワーク8経由で画像センサ3、BEMSサーバ5等と通信するための機能を備える。ゲートウェイ装置7で実行される各種プログラムを、例えば通信部77を介してサーバからダウンロードし、記憶部74にインストールすることもできる。通信部77を介してクラウド100(図1)から最新のプログラムをダウンロードし、インストール済みのプログラムをアップデートすることもできる。また、ゲートウェイ装置7は、センサネットワーク9を介して画像センサ3に辞書データをダウンロード送信することができる。 The communication unit 77 has a function for communicating with the image sensor 3, the BEMS server 5, etc. via the in-building network 8. Various programs to be executed by the gateway device 7 can also be downloaded from a server via the communication unit 77 and installed in the storage unit 74, for example. It is also possible to download the latest program from the cloud 100 (FIG. 1) via the communication unit 77 and update the installed program. Further, the gateway device 7 can download and transmit dictionary data to the image sensor 3 via the sensor network 9.
プロセッサ75は、OS(Operating System)および各種のプログラムを実行する。また、プロセッサ75は、実施形態に係る処理機能として、取得部75a、作成部75b、および送信部75cを備える。 The processor 75 executes an OS (Operating System) and various programs. Furthermore, the processor 75 includes an acquisition section 75a, a creation section 75b, and a transmission section 75c as processing functions according to the embodiment.
これらの機能ブロックは、記憶部74に記憶されたプログラム74aがRAM73にロードされ、当該プログラムの実行の過程で生成されるプロセスとして、理解され得る。つまりプログラム74aはコンピュータであるゲートウェイ装置7を、取得部75a、作成部75b、および送信部75cとして動作させる。 These functional blocks can be understood as processes that are generated in the process of loading the program 74a stored in the storage unit 74 into the RAM 73 and executing the program. That is, the program 74a causes the gateway device 7, which is a computer, to operate as an acquisition section 75a, a creation section 75b, and a transmission section 75c.
取得部75aは、画像センサ3-1~3-nから、それぞれの画像センサで生成された画像データを取得する。取得された画像データは記憶部74に記憶される(画像データ74b)。また、取得部75aは、画像センサ3-1~3-nにおいて画像データから抽出された特徴量を、画像センサ3-1~3-nから取得する。取得された特徴量は記憶部74に記憶される(特徴量74c)。 The acquisition unit 75a acquires image data generated by each of the image sensors 3-1 to 3-n. The acquired image data is stored in the storage unit 74 (image data 74b). Further, the acquisition unit 75a acquires the feature amounts extracted from the image data in the image sensors 3-1 to 3-n from the image sensors 3-1 to 3-n. The acquired feature amount is stored in the storage unit 74 (feature amount 74c).
作成部75bは、画像データ74bに基づいて、画像センサ3-1~3-nで用いられる辞書データを作成する。作成された辞書データは、記憶部74に記憶される(辞書データ74d)。 The creation unit 75b creates dictionary data used by the image sensors 3-1 to 3-n based on the image data 74b. The created dictionary data is stored in the storage unit 74 (dictionary data 74d).
送信部75cは、作成された辞書データ74dを、宛先の画像センサ3-1~3-nに送信する。送信された辞書データは、それぞれの画像センサ3-1~3-nにおいて記憶され、センシングデータの生成に利用される。 The transmitter 75c transmits the created dictionary data 74d to the destination image sensors 3-1 to 3-n. The transmitted dictionary data is stored in each of the image sensors 3-1 to 3-n and used to generate sensing data.
記憶部74は、プロセッサ75により実行されるプログラム74aに加えて、画像データ74b、特徴量74c、および、辞書データ74dを記憶する。 In addition to the program 74a executed by the processor 75, the storage unit 74 stores image data 74b, feature amounts 74c, and dictionary data 74d.
画像データ74bは、画像センサ3-1~3-n、3-1~3-mから取得された画像データである。特徴量74cは、画像データ74bから抽出される、この画像データ74bの特徴を示す情報である。特徴量としては、輝度勾配方向ヒストグラム(Histograms of Oriented Gradients:HOG)、コントラスト、解像度、S/N比、および色調などがある。輝度勾配方向共起ヒストグラム(Co-occurrence HOG:Co-HOG)特徴量、Haar-Like特徴量なども特徴量として知られている。 The image data 74b is image data acquired from the image sensors 3-1 to 3-n and 3-1 to 3-m. The feature quantity 74c is information extracted from the image data 74b and indicating the characteristics of this image data 74b. Features include histograms of oriented gradients (HOG), contrast, resolution, S/N ratio, and color tone. A brightness gradient direction co-occurrence histogram (Co-HOG) feature, a Haar-Like feature, and the like are also known as features.
[作用]
次に、上記構成における作用を説明する。
図8は、画像センサ3で取得された画像データの一例を示す図である。この画像データは、例えば床に倒れている人(枠で囲った部分)を含んでいるとする。この学習画像を、画像処理部33aの識別機への学習データとして用いることについて、以下に詳しく説明する。
[Effect]
Next, the operation of the above configuration will be explained.
FIG. 8 is a diagram showing an example of image data acquired by the image sensor 3. It is assumed that this image data includes, for example, a person lying on the floor (the area surrounded by a frame). The use of this learning image as learning data for the classifier of the image processing unit 33a will be described in detail below.
画像センサ3の変換部33bは、自ら取得した画像データを、辞書データ32dを用いるのに適した形態に加工する。
図9に示されるように、例えば、画像センサ3で取得された画像データの視野をパノラマ化することにより、画像の向きを揃えることができる。
The conversion unit 33b of the image sensor 3 processes the image data acquired by itself into a form suitable for using the dictionary data 32d.
As shown in FIG. 9, for example, by panoramicizing the field of view of the image data acquired by the image sensor 3, the orientation of the images can be aligned.
図10に示されるように、画像センサ3で取得された画像データを回転させることによっても、画像の向きを揃えることができる。
図11に示されるように、画像センサ3で取得された画像データを縮小することによっても、画像処理に適したデータを得ることができる。
図12に示されるように、画像センサ3で取得された画像データを拡大することによっても、画像処理に適したデータを得ることができる。この種の拡大縮小処理は、ピラミッド画像とも称して知られる。
図13に示されるように、画像センサ3の視野の歪みを補正することによっても、画像処理に適したデータを得ることができる。
図14は、特徴量に対して変換処理を施す一例を示す図である。例えば、特徴量の一つであるCoHOGに対して回転処理を施すことは、傾き方向のビンを順次入れ替えることと同様である。
As shown in FIG. 10, the orientation of the images can also be aligned by rotating the image data acquired by the image sensor 3.
As shown in FIG. 11, data suitable for image processing can also be obtained by reducing the image data acquired by the image sensor 3.
As shown in FIG. 12, data suitable for image processing can also be obtained by enlarging the image data acquired by the image sensor 3. This type of scaling process is also known as a pyramid image.
As shown in FIG. 13, data suitable for image processing can also be obtained by correcting the distortion of the field of view of the image sensor 3.
FIG. 14 is a diagram illustrating an example of performing conversion processing on feature amounts. For example, performing rotation processing on CoHOG, which is one of the feature amounts, is the same as sequentially replacing bins in the tilt direction.
画像データ32bを変換して得られた変換データ32cは、辞書データ32dを生成、更新するための学習用のデータ(学習データ)としても適用することが可能である。
図15に示されるように、画像データ内で向きの異なる学習画像ごとに、それぞれ個別に学習データとして採用することができる。すなわち辞書データは、異なる条件ごとに予め学習により作成されることができる。画像処理部33aは、異なる条件ごとの辞書データ32dを用いて変換データ32c(画像データ32b)を処理して、センシングデータ32eを生成する。
The converted data 32c obtained by converting the image data 32b can also be used as learning data (learning data) for generating and updating the dictionary data 32d.
As shown in FIG. 15, learning images with different orientations within the image data can be individually employed as learning data. That is, dictionary data can be created in advance by learning for each different condition. The image processing unit 33a processes the conversion data 32c (image data 32b) using dictionary data 32d for each different condition to generate sensing data 32e.
図16に示されるように、画像データ内でサイズの異なる学習画像ごとに、それぞれ個別に学習データとして採用することもできる。
図17に示されるように、人物の姿勢、あるいは向きごとに学習データを作成することもできる。(a)仰向け、(b)うつ伏せ、(c)右向き、(d)左向き、(e)自由な姿勢、といった複数のカテゴリにわたって、複数の姿勢の画像データを学習データとして用いて辞書データを作成することができる。
As shown in FIG. 16, learning images of different sizes within the image data can also be individually employed as learning data.
As shown in FIG. 17, learning data can also be created for each posture or orientation of a person. Dictionary data is created using image data of multiple postures as learning data across multiple categories such as (a) supine, (b) prone, (c) right facing, (d) left facing, and (e) free posture. be able to.
図18(a)に示されるように、画像データを同心円状の領域に分割し、各領域の画像ごとに学習データを作成することができる。あるいは、図18(b)に示されるように、中心から放射状に分割された領域ごとに、学習データを作成することもできる。また、図19(a)に示されるように、パノラマ画像を距離により複数の領域に分割することもできるし、図19(b)のように、パノラマ画像を角度により複数の領域に分割することもできる。 As shown in FIG. 18(a), image data can be divided into concentric areas, and learning data can be created for each image in each area. Alternatively, as shown in FIG. 18(b), learning data can be created for each area divided radially from the center. Furthermore, as shown in FIG. 19(a), a panoramic image can be divided into multiple regions based on distance, or as shown in FIG. 19(b), a panoramic image can be divided into multiple regions based on angle. You can also do it.
さらに、画像データ32bを変換部33bにより変換し、取得された画像データよりも多数の変換データを作成することも可能である。
図20に示されるように、一つの学習画像を異なる角度に回転させ(アフィン変換)、いわばデータを水増しすることができる。学習データの量が多いほど、学習により生成される辞書データの信頼度を高め、正確なセンシングを行えるようになる。
図21に示されるように、中央の教示位置の学習画像を少しずつずらすことにより、周辺位置(1)~(8)の学習画像を生成することもできる。なお、ぼかしやノイズ負荷などの画像処理をした画像により、学習データ水増ししてもよい。さらには、実際の画像でなく、CG(Computer Graphics)技術を用いた画像データにより学習画像を水増しすることもできる。
Furthermore, it is also possible to convert the image data 32b by the converter 33b and create a larger number of converted data than the acquired image data.
As shown in FIG. 20, one learning image can be rotated to different angles (affine transformation) to pad the data. The larger the amount of learning data, the more reliable the dictionary data generated through learning becomes, and the more accurate sensing can be performed.
As shown in FIG. 21, learning images at peripheral positions (1) to (8) can also be generated by shifting the learning image at the central teaching position little by little. Note that the learning data may be padded using an image that has been subjected to image processing such as blurring or noise load. Furthermore, the learning image can be padded using image data using CG (Computer Graphics) technology instead of the actual image.
以上のように、画像センサ3の変換部33bは、取得した画像データ32bを辞書データ32dに応じて変換して、変換データ32cを作成する。そして、変換データ32cに基づいて、例えばSVMを用いた識別により、画像処理部33aがセンシングデータ32eを作成する。 As described above, the converter 33b of the image sensor 3 converts the acquired image data 32b according to the dictionary data 32d to create converted data 32c. Then, based on the converted data 32c, the image processing unit 33a creates sensing data 32e by identification using, for example, SVM.
[効果]
以上説明したようにこの実施形態では、画像センサ3-1~3-nにおいて、取得された画像データを自らの辞書データ32dに適した形態に変換し、変換データを画像処理してセンシングデータを得るようにした。
[effect]
As explained above, in this embodiment, the image sensors 3-1 to 3-n convert the acquired image data into a format suitable for their own dictionary data 32d, perform image processing on the converted data, and convert the sensing data into I tried to get it.
このようにしたので、いわば生の(Raw)画像データを正規化し、正規化したデータに基づいて画像処理を行うことができる。すなわち、画像センサ3-1~3-nごとに利用される辞書データに合わせて画像データそのもの、あるいは特徴量を変換(前処理)するようにした。このようにすることで、画像センサの取り付け位置や画角によらず、正規化した画像データを取り扱えるようになり、いかなる環境においても有用な学習データを蓄積することができる。 By doing this, it is possible to normalize raw image data and perform image processing based on the normalized data. That is, the image data itself or the feature amount is converted (preprocessed) in accordance with the dictionary data used for each of the image sensors 3-1 to 3-n. By doing so, normalized image data can be handled regardless of the mounting position or viewing angle of the image sensor, and useful learning data can be accumulated in any environment.
これらのことから実施形態によれば、画角によらずセンシングデータを正確に検知することの可能な画像センサ、計算装置、および画像センサシステムを提供することができる。ひいては、異常状態にある人物を、画角によらず正確に検知することが可能になる。 For these reasons, according to the embodiment, it is possible to provide an image sensor, a calculation device, and an image sensor system that can accurately detect sensing data regardless of the angle of view. As a result, it becomes possible to accurately detect a person in an abnormal state regardless of the angle of view.
なお、この発明は上記実施形態に限定されるものではない。例えば、計算装置としてのゲートウェイ装置7に実装した各種機能を、管理端末20、あるいはBEMSサーバ5に実装してもよい。 Note that this invention is not limited to the above embodiments. For example, various functions implemented in the gateway device 7 as a computing device may be implemented in the management terminal 20 or the BEMS server 5.
あるいは、画像センサ3の機能の一部をゲートウェイ装置7に実装してもよい。例えば、ゲートウェイ装置7に変換部を実装し、画像センサから取得した画像データをこの変換部で変換して変換データを作成する。そして作成部75bにより、この変換データに基づいて各画像センサ3向けの辞書データを作成する。さらに、作成された辞書データを、送信部75dにより画像センサ3に送信するようにしてもよい。 Alternatively, some of the functions of the image sensor 3 may be implemented in the gateway device 7. For example, a converter is installed in the gateway device 7, and the converter converts image data acquired from an image sensor to create converted data. Then, the creation unit 75b creates dictionary data for each image sensor 3 based on this converted data. Furthermore, the created dictionary data may be transmitted to the image sensor 3 by the transmitter 75d.
また、各画像センサ3で得られた画像データをゲートウェイ装置7に収集/蓄積し、ゲートウェイ装置7において、学習による辞書データを生成してもよい。あるいは、画像センサ3-1~3-nにおいて抽出した特徴量をゲートウェイ装置7に収集/蓄積し、画像センサ3-1~3-nで用いられる辞書データに適した形態に特徴量を変換し、その上で学習により辞書データを生成してもよい。 Alternatively, the image data obtained by each image sensor 3 may be collected/accumulated in the gateway device 7, and the gateway device 7 may generate dictionary data through learning. Alternatively, the feature quantities extracted by the image sensors 3-1 to 3-n are collected/stored in the gateway device 7, and the feature quantities are converted into a form suitable for the dictionary data used by the image sensors 3-1 to 3-n. , and then dictionary data may be generated by learning.
実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
エリアを撮像して画像データを取得する撮像部と、
検知対象について予め作成された辞書データを記憶する記憶部と、
前記取得された画像データ、または、当該画像データから抽出された特徴量を前記辞書データに応じて変換して変換データを作成する変換部と、
前記辞書データを用いて前記変換データを処理して、前記エリアにおけるセンシングデータを生成する画像処理部とを具備する、画像センサ。
[2]
前記撮像部は、
前記エリアを見下し画角で視野内に捉える魚眼レンズと、
前記魚眼レンズから結像された像を撮像して前記画像データを生成するイメージセンサとを備える、[1]に記載の画像センサ。
[3]
前記記憶部は、異なる条件ごとに予め作成された複数の辞書データを記憶し、
前記変換部は、前記取得された画像データを前記複数の辞書データごとに応じて変換して変換データを作成し、
前記画像処理部は、前記異なる条件ごとの辞書データを用いて前記変換データを処理して前記センシングデータを生成する、[1]に記載の画像センサ。
[4]
前記変換部は、前記取得された画像データを変換して、当該取得された画像データよりも多数の変換データを作成する、[1]に記載の画像センサ。
[5]
さらに、前記変換データに基づく学習により前記辞書データを作成する作成部を具備する、[1]に記載の画像センサ。
[6]
前記センシングデータは、
前記エリアにおける異常状態の人物のセンシングデータを含む、[1]に記載の画像センサ。
[7]
前記センシングデータは、
さらに、前記エリアにおける通常状態の人物のセンシングデータ、および当該エリアの環境情報の少なくともいずれか1つを含む、[6]に記載の画像センサ。
[8]
前記異常状態の人物のセンシングデータと、前記エリアにおける通常状態の人物のセンシングデータ、および当該エリアの環境情報の少なくともいずれか1つとを統合的に判定した結果に基づいて、当該異常状態の人物のセンシングデータを生成する統合処理部をさらに具備する、[7]に記載の画像センサ。
[9]
エリアを撮像して画像データを取得する画像センサから前記画像データを取得する取得部と、
前記取得された画像データ、または、当該画像データから抽出された特徴量を前記画像センサで用いられる辞書データに応じて変換して、変換データを作成する変換部と、
前記変換データに基づいて、前記画像センサで用いられる辞書データを作成する作成部と、
前記作成された辞書データを前記画像センサに送信する送信部とを備える、計算装置。
[10]
対象をセンシングする複数の画像センサと、
前記画像センサと通信可能な計算装置とを具備し、
前記画像センサは、
エリアを撮像して画像データを取得する撮像部と、
検知対象について予め作成された辞書データを記憶する記憶部と、
前記取得された画像データ、または、当該画像データから抽出された特徴量を前記辞書データに応じて変換して変換データを作成する変換部と、
前記辞書データを用いて前記変換データを処理して、前記エリアにおけるセンシングデータを生成する画像処理部とを備え、
前記計算装置は、
前記画像センサから前記画像データを取得する取得部と、
前記画像データに基づいて、前記画像センサで用いられる辞書データを作成する作成部と、
前記作成された辞書データを前記画像センサに送信する送信部とを備える、画像センサシステム。
[11]
前記撮像部は、
前記エリアを見下し画角で視野内に捉える魚眼レンズと、
前記魚眼レンズから結像された像を撮像して前記画像データを生成するイメージセンサとを備える、[10]に記載の画像センサシステム。
[12]
前記記憶部は、異なる条件ごとに予め作成された複数の辞書データを記憶し、
前記変換部は、前記取得された画像データを前記複数の辞書データごとに応じて変換して変換データを作成し、
前記画像処理部は、前記異なる条件ごとの辞書データを用いて前記変換データを処理して前記センシングデータを生成する、[10]に記載の画像センサシステム。
[13]
前記変換部は、前記取得された画像データを変換して、当該取得された画像データよりも多数の変換データを作成する、[10]に記載の画像センサシステム。
[14]
前記作成部は、前記変換データに基づく学習により、前記画像センサで用いられる辞書データを作成する、[10]に記載の画像センサシステム。
Although an embodiment has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. This novel embodiment can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. This embodiment and its modifications are included within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.
Below, the invention described in the original claims of the present application will be added.
[1]
an imaging unit that images an area and obtains image data;
a storage unit that stores dictionary data created in advance regarding the detection target;
a conversion unit that converts the acquired image data or the feature amount extracted from the image data according to the dictionary data to create converted data;
an image processing unit that processes the conversion data using the dictionary data to generate sensing data in the area.
[2]
The imaging unit includes:
a fisheye lens that looks down on the area and captures it within the field of view;
The image sensor according to [1], further comprising an image sensor that captures an image formed from the fisheye lens and generates the image data.
[3]
The storage unit stores a plurality of dictionary data created in advance for each different condition,
The conversion unit converts the acquired image data according to each of the plurality of dictionary data to create converted data,
The image sensor according to [1], wherein the image processing unit processes the conversion data using dictionary data for each of the different conditions to generate the sensing data.
[4]
The image sensor according to [1], wherein the conversion unit converts the acquired image data to create a larger number of converted data than the acquired image data.
[5]
The image sensor according to [1], further comprising a creation unit that creates the dictionary data by learning based on the conversion data.
[6]
The sensing data is
The image sensor according to [1], including sensing data of a person in an abnormal state in the area.
[7]
The sensing data is
The image sensor according to [6], further including at least one of sensing data of a person in a normal state in the area and environmental information of the area.
[8]
Based on the result of integrated determination of the sensing data of the person in the abnormal state, the sensing data of the person in the normal state in the area, and at least one of the environmental information of the area, The image sensor according to [7], further comprising an integrated processing unit that generates sensing data.
[9]
an acquisition unit that acquires the image data from an image sensor that images an area and acquires the image data;
a conversion unit that converts the acquired image data or the feature amount extracted from the image data according to dictionary data used by the image sensor to create converted data;
a creation unit that creates dictionary data to be used in the image sensor based on the conversion data;
A computing device comprising: a transmitting unit that transmits the created dictionary data to the image sensor.
[10]
multiple image sensors that sense the target;
comprising a computing device capable of communicating with the image sensor,
The image sensor includes:
an imaging unit that images an area and obtains image data;
a storage unit that stores dictionary data created in advance regarding the detection target;
a conversion unit that converts the acquired image data or the feature amount extracted from the image data according to the dictionary data to create converted data;
an image processing unit that processes the conversion data using the dictionary data to generate sensing data in the area,
The computing device includes:
an acquisition unit that acquires the image data from the image sensor;
a creation unit that creates dictionary data to be used in the image sensor based on the image data;
An image sensor system comprising: a transmitting section that transmits the created dictionary data to the image sensor.
[11]
The imaging unit includes:
a fisheye lens that looks down on the area and captures it within the field of view;
The image sensor system according to [10], further comprising an image sensor that captures an image formed from the fisheye lens and generates the image data.
[12]
The storage unit stores a plurality of dictionary data created in advance for each different condition,
The conversion unit converts the acquired image data according to each of the plurality of dictionary data to create converted data,
The image sensor system according to [10], wherein the image processing unit processes the conversion data using dictionary data for each of the different conditions to generate the sensing data.
[13]
The image sensor system according to [10], wherein the conversion unit converts the acquired image data to create a larger number of converted data than the acquired image data.
[14]
The image sensor system according to [10], wherein the creation unit creates dictionary data used by the image sensor by learning based on the conversion data.
1…照明設備、2…空調機器、3(3-1~3-n)…画像センサ、4…照明コントローラ、5…BEMSサーバ、7…ゲートウェイ装置、8…ビル内ネットワーク、9…センサネットワーク、10…通信ネットワーク、15…プロセッサ、20…管理端末、30…レジスタ、30a…カメラ情報、31…撮像部、31a…魚眼レンズ、31b…絞り機構、31c…イメージセンサ、32…メモリ、32a…プログラム、32b…画像データ、32c…変換データ、32d…辞書データ、32e…センシングデータ、32f…特徴量、33…プロセッサ、33a…画像処理部、33b…変換部、33c…抽出部、33d…統合処理部、34…通信部、35…内部バス、72…ROM、73…RAM、74…記憶部、74a…プログラム、74b…画像データ、74c…特徴量、74d…辞書データ、75…プロセッサ、75a…取得部、75b…作成部、75c…送信部、76…光学メディアドライブ、77…通信部、100…クラウド、200…サーバ、300…データベース、400…ビル、A1,A2…エリア。 1... Lighting equipment, 2... Air conditioning equipment, 3 (3-1 to 3-n)... Image sensor, 4... Lighting controller, 5... BEMS server, 7... Gateway device, 8... In-building network, 9... Sensor network, DESCRIPTION OF SYMBOLS 10... Communication network, 15... Processor, 20... Management terminal, 30... Register, 30a... Camera information, 31... Imaging unit, 31a... Fisheye lens, 31b... Aperture mechanism, 31c... Image sensor, 32... Memory, 32a... Program, 32b...Image data, 32c...Conversion data, 32d...Dictionary data, 32e...Sensing data, 32f...Feature amount, 33...Processor, 33a...Image processing section, 33b...Conversion section, 33c...Extraction section, 33d...Integration processing section , 34...Communication unit, 35...Internal bus, 72...ROM, 73...RAM, 74...Storage unit, 74a...Program, 74b...Image data, 74c...Feature amount, 74d...Dictionary data, 75...Processor, 75a...Acquisition Department, 75b... Creation Department, 75c... Transmission Department, 76... Optical Media Drive, 77... Communication Department, 100... Cloud, 200... Server, 300... Database, 400... Building, A1, A2... Area.
Claims (12)
前記取得された画像データのCoHOG特徴量に対して回転処理を施して正規化して変換データを作成する変換部と、
前記変換データに基づく機械学習により辞書データを作成する作成部と、
前記辞書データを用いて前記変換データを処理して、前記エリアにおけるセンシングデータを生成する画像処理部とを具備する、画像センサ。 an imaging unit that images an area and obtains image data;
a conversion unit that performs rotation processing on the CoHOG feature amount of the acquired image data to normalize it and create converted data;
a creation unit that creates dictionary data by machine learning based on the converted data;
an image processing unit that processes the conversion data using the dictionary data to generate sensing data in the area.
前記エリアを見下し画角で視野内に捉える魚眼レンズと、
前記魚眼レンズから結像された像を撮像して前記画像データを生成するイメージセンサとを備える、請求項1に記載の画像センサ。 The imaging unit includes:
a fisheye lens that looks down on the area and captures it within the field of view;
The image sensor according to claim 1, further comprising an image sensor that captures an image formed from the fisheye lens and generates the image data.
前記画像処理部は、前記異なる条件ごとの辞書データを用いて前記変換データを処理して前記センシングデータを生成する、請求項1に記載の画像センサ。 The conversion unit further includes a storage unit that stores a plurality of dictionary data created in advance for each condition that the orientation is different within the image data or for each condition that the size is different within the image data, and the conversion unit is configured to perform the acquisition. converting the image data according to each of the plurality of dictionary data to create converted data;
The image sensor according to claim 1, wherein the image processing unit processes the conversion data using dictionary data for each of the different conditions to generate the sensing data.
前記エリアにおける異常状態の人物のセンシングデータを含む、請求項1に記載の画像センサ。 The sensing data is
The image sensor according to claim 1, comprising sensing data of a person in an abnormal state in the area.
さらに、前記エリアにおける通常状態の人物のセンシングデータ、および当該エリアの環境情報の少なくともいずれか1つを含む、請求項5に記載の画像センサ。 The sensing data is
The image sensor according to claim 5, further comprising at least one of sensing data of a person in a normal state in the area and environmental information of the area.
前記取得された画像データのCoHOG特徴量に対して回転処理を施して正規化して変換データを作成する変換部と、
前記変換データに基づく機械学習により辞書データを作成する作成部と、
前記作成された辞書データを前記画像センサに送信する送信部とを備える、計算装置。 an acquisition unit that acquires the image data from an image sensor that images an area and acquires the image data;
a conversion unit that performs rotation processing on the CoHOG feature amount of the acquired image data to normalize it and create converted data;
a creation unit that creates dictionary data by machine learning based on the converted data;
A computing device comprising: a transmitting unit that transmits the created dictionary data to the image sensor.
前記画像センサと通信可能な計算装置とを具備し、
前記画像センサは、
エリアを撮像して画像データを取得する撮像部と、
前記取得された画像データのCoHOG特徴量に対して回転処理を施して正規化して変換データを作成する変換部と、
検知対象について予め作成された辞書データを記憶する記憶部と、
前記辞書データを用いて前記変換データを処理して、前記エリアにおけるセンシングデータを生成する画像処理部とを備え、
前記計算装置は、
前記画像センサから前記変換データを取得する取得部と、
前記変換データに基づく機械学習により辞書データを作成する作成部と、
前記作成された辞書データを前記画像センサに送信する送信部とを備える、画像センサシステム。 multiple image sensors that sense the target;
comprising a computing device capable of communicating with the image sensor,
The image sensor includes:
an imaging unit that images an area and obtains image data;
a conversion unit that performs rotation processing on the CoHOG feature amount of the acquired image data to normalize it and create converted data;
a storage unit that stores dictionary data created in advance regarding the detection target;
an image processing unit that processes the conversion data using the dictionary data to generate sensing data in the area,
The computing device includes:
an acquisition unit that acquires the conversion data from the image sensor;
a creation unit that creates dictionary data by machine learning based on the converted data;
An image sensor system comprising: a transmitting section that transmits the created dictionary data to the image sensor.
前記エリアを見下し画角で視野内に捉える魚眼レンズと、
前記魚眼レンズから結像された像を撮像して前記画像データを生成するイメージセンサとを備える、請求項9に記載の画像センサシステム。 The imaging unit includes:
a fisheye lens that looks down on the area and captures it within the field of view;
The image sensor system according to claim 9, further comprising an image sensor that captures an image formed from the fisheye lens and generates the image data.
前記変換部は、前記取得された画像データを前記複数の辞書データごとに応じて変換して変換データを作成し、
前記画像処理部は、前記異なる条件ごとの辞書データを用いて前記変換データを処理して前記センシングデータを生成する、請求項9に記載の画像センサシステム。 The storage unit stores a plurality of dictionary data created in advance for each condition that the orientation is different within the image data or for each condition that the size is different within the image data,
The conversion unit converts the acquired image data according to each of the plurality of dictionary data to create converted data,
The image sensor system according to claim 9, wherein the image processing unit processes the conversion data using dictionary data for each of the different conditions to generate the sensing data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020024263A JP7419095B2 (en) | 2020-02-17 | 2020-02-17 | Image sensors, computing devices, and image sensor systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020024263A JP7419095B2 (en) | 2020-02-17 | 2020-02-17 | Image sensors, computing devices, and image sensor systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021128678A JP2021128678A (en) | 2021-09-02 |
JP7419095B2 true JP7419095B2 (en) | 2024-01-22 |
Family
ID=77488759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020024263A Active JP7419095B2 (en) | 2020-02-17 | 2020-02-17 | Image sensors, computing devices, and image sensor systems |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7419095B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023135726A1 (en) * | 2022-01-14 | 2023-07-20 | 日本電気株式会社 | Information processing device, information processing method, and computer-readable medium |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000322574A (en) | 1999-05-10 | 2000-11-24 | Omron Corp | Image recognizing device |
JP2008142876A (en) | 2006-12-13 | 2008-06-26 | Mitsubishi Heavy Ind Ltd | Method for determining target person of service in service system by robot and service system by robot using same method |
JP2008165496A (en) | 2006-12-28 | 2008-07-17 | Toyota Central R&D Labs Inc | Image normalization device, object detection device, object detection system and program |
JP2012083938A (en) | 2010-10-12 | 2012-04-26 | Sony Corp | Learning device, learning method, identification device, identification method, and program |
JP2015184908A (en) | 2014-03-24 | 2015-10-22 | 東芝アルパイン・オートモティブテクノロジー株式会社 | Image processor and image processing program |
JP2018182624A (en) | 2017-04-18 | 2018-11-15 | キヤノン株式会社 | Image processing apparatus, control method, and program |
JP2019087787A (en) | 2017-11-01 | 2019-06-06 | 株式会社東芝 | Image sensor, sensing method, control system, and program |
JP2019121045A (en) | 2017-12-28 | 2019-07-22 | コニカミノルタ株式会社 | Posture estimation system, behavior estimation system, and posture estimation program |
JP2020010204A (en) | 2018-07-09 | 2020-01-16 | 株式会社東芝 | Sensing system, maintenance terminal device, data distribution method, and image sensor |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3665430B2 (en) * | 1996-09-12 | 2005-06-29 | 東京電力株式会社 | Image feature amount determination apparatus and image feature amount determination method |
-
2020
- 2020-02-17 JP JP2020024263A patent/JP7419095B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000322574A (en) | 1999-05-10 | 2000-11-24 | Omron Corp | Image recognizing device |
JP2008142876A (en) | 2006-12-13 | 2008-06-26 | Mitsubishi Heavy Ind Ltd | Method for determining target person of service in service system by robot and service system by robot using same method |
JP2008165496A (en) | 2006-12-28 | 2008-07-17 | Toyota Central R&D Labs Inc | Image normalization device, object detection device, object detection system and program |
JP2012083938A (en) | 2010-10-12 | 2012-04-26 | Sony Corp | Learning device, learning method, identification device, identification method, and program |
JP2015184908A (en) | 2014-03-24 | 2015-10-22 | 東芝アルパイン・オートモティブテクノロジー株式会社 | Image processor and image processing program |
JP2018182624A (en) | 2017-04-18 | 2018-11-15 | キヤノン株式会社 | Image processing apparatus, control method, and program |
JP2019087787A (en) | 2017-11-01 | 2019-06-06 | 株式会社東芝 | Image sensor, sensing method, control system, and program |
JP2019121045A (en) | 2017-12-28 | 2019-07-22 | コニカミノルタ株式会社 | Posture estimation system, behavior estimation system, and posture estimation program |
JP2020010204A (en) | 2018-07-09 | 2020-01-16 | 株式会社東芝 | Sensing system, maintenance terminal device, data distribution method, and image sensor |
Also Published As
Publication number | Publication date |
---|---|
JP2021128678A (en) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7463582B2 (en) | Sensing system, maintenance terminal device, data distribution method, and image sensor | |
US9295141B2 (en) | Identification device, method and computer program product | |
JP7419095B2 (en) | Image sensors, computing devices, and image sensor systems | |
WO2019087742A1 (en) | Image sensor, sensing method, control system and program | |
US11575841B2 (en) | Information processing apparatus, imaging apparatus, method, and storage medium | |
US11256910B2 (en) | Method and system for locating an occupant | |
JP7002912B2 (en) | Image sensors, person detection methods, programs and control systems | |
JP7237713B2 (en) | Sensor system, image sensor, and sensing method | |
JP2022117761A (en) | Sensor system, image sensor, server device, sensing method, and program | |
JP7286747B2 (en) | Image sensor, motion detection method, program and control system | |
JP7254570B2 (en) | Image sensor system, computing device, sensing method, and program | |
JP6957374B2 (en) | Image sensors, sensing systems, sensing methods and programs | |
JP2022020297A (en) | Image sensor, sensing method and program | |
JP2023096127A (en) | Image sensor, moving body detection method, program, and control system | |
JP7353964B2 (en) | Guidance system, server, program and service provision method | |
JP6991922B2 (en) | Image sensors, identification methods, control systems and programs | |
US20210381710A1 (en) | Facility apparatus control device and facility apparatus control method | |
WO2024142791A1 (en) | Identification system, identification method, and program | |
JP2020048055A (en) | Image sensor, sensing method, control system, and program | |
JP7465644B2 (en) | Surveillance system and surveillance method | |
JP2022141274A (en) | Image sensor, sensing method, and program | |
JP2020030653A (en) | Seat state sensing system, seat state determination method, and image sensor | |
TWM553537U (en) | Surveillance camera | |
JP7183232B2 (en) | Physical condition evaluation system, server, program and method of providing physical condition evaluation service | |
WO2022230022A1 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220720 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230911 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7419095 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |