JP2020115608A - Sensor system, image sensor, and sensing method - Google Patents

Sensor system, image sensor, and sensing method Download PDF

Info

Publication number
JP2020115608A
JP2020115608A JP2019006224A JP2019006224A JP2020115608A JP 2020115608 A JP2020115608 A JP 2020115608A JP 2019006224 A JP2019006224 A JP 2019006224A JP 2019006224 A JP2019006224 A JP 2019006224A JP 2020115608 A JP2020115608 A JP 2020115608A
Authority
JP
Japan
Prior art keywords
moving body
image
information
image sensor
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019006224A
Other languages
Japanese (ja)
Inventor
峯邑 隆司
Takashi Minemura
隆司 峯邑
熱紀 貝島
Atsunori Kaijima
熱紀 貝島
大輝 平島
Daiki HIRASHIMA
大輝 平島
宏昌 白井
Hiromasa Shirai
宏昌 白井
円 奥山
Madoka Okuyama
円 奥山
基 野口
Motoi Noguchi
基 野口
陽一 杉山
Yoichi Sugiyama
陽一 杉山
朝妻 智裕
Tomohiro Asazuma
智裕 朝妻
和浩 税所
Kazuhiro Zaisho
和浩 税所
榎原 孝明
Takaaki Enohara
孝明 榎原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019006224A priority Critical patent/JP2020115608A/en
Publication of JP2020115608A publication Critical patent/JP2020115608A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

To further enhance availability of a sensor system.SOLUTION: According to an embodiment, a sensor system comprises: a plurality of image sensors; and means for transmitting feature quantity information on a moving body which is extracted from image data captured by the image sensors to other image sensors as attribute information of a target moving body. Further, each of the image sensors comprises: an imaging part for acquiring the image data; an extraction part for extracting the feature quantity information from the image data; a determination part for determining the target moving body on the basis of the feature quantity information; a data storage part for storing dictionary data relating to the determination; and a communication part for transmitting the extracted feature quantity information to the other image sensors.SELECTED DRAWING: Figure 5

Description

本発明の実施形態は、センサシステム、画像センサ、およびセンシング方法に関する。 Embodiments of the present invention relate to a sensor system, an image sensor, and a sensing method.

近年の画像センサは、CPU(Central Processing Unit)やメモリを備え、いわばレンズ付きの組み込みコンピュータといえる。高度な画像処理機能も有しており、撮影した画像データを分析して、例えば人間の在・不在、あるいは人数などを計算することができる。 The image sensor in recent years includes a CPU (Central Processing Unit) and a memory, and can be said to be an embedded computer with a lens. It also has a high-level image processing function, and can analyze photographed image data to calculate the presence/absence of a person or the number of people, for example.

古くから、画像センサによる物体認識が研究されている。特に、ロボットの目の役目を果たすロボットに搭載された画像センサを使った、移動時の障害物の発見など、近年その研究が進められている。物体の認識については、たとえばchamfer distance を用いた障害物検知の文献がある。また、画像センサを用いて検知した動体が人であることを辞書と照合して確認し、照明制御を行う方法なども提案されている。 Object recognition by image sensors has been studied for a long time. In particular, research has been advanced in recent years, such as finding obstacles during movement using an image sensor mounted on a robot that plays the role of a robot. Regarding object recognition, there is a document on obstacle detection using chamfer distance, for example. In addition, a method has also been proposed in which a moving body detected by using an image sensor is collated with a dictionary to confirm that the moving body is a person, and lighting control is performed.

対象動体に対する識別能の高い特徴量情報を抽出可能な方法として、HOG(Histgrams of Oriented Gradients)を用いた方法がある。輝度勾配方向ヒストグラムと呼ばれるこの手法は、候補領域を複数のブロックに分割して、各ブロックの輝度勾配方向をヒストグラム化する方法である。勾配の有無だけを用いることにより、明るさの変化による影響を受けにくく、形状の変化に対しても頑健であるといわれる。さらに形状識別能を高めたCoHOG(Co-occurrence HOG)という手法も開発されている。 There is a method using HOG (Histgrams of Oriented Gradients) as a method capable of extracting feature amount information having high discriminative ability with respect to a target moving object. This method called a brightness gradient direction histogram is a method of dividing the candidate region into a plurality of blocks and converting the brightness gradient direction of each block into a histogram. By using only the presence or absence of a gradient, it is said that it is less affected by changes in brightness and is robust against changes in shape. Further, a method called Co-HOG (Co-occurrence HOG), which has improved shape recognition ability, has also been developed.

特開2010−9847号公報JP, 2010-9847, A WO2016/031720WO2016/031720 WO2011/114770WO2011/114770 特許第4759988号明細書Patent No. 4759988

Lakshitha Dantanarayana*, Gamini Dissanayake, Ravindra Ranasinge, C-LOG: A Chamfer distance based algorithm for localisation in occupancy grid-maps, CAAI Transactions on Intelligence Technology 1 (2016) 272e284, http://www.journals.elsevier.com/caai-transactions-on-intelligence-technology/Lakshitha Dantanarayana*, Gamini Dissanayake, Ravindra Ranasinge, C-LOG: A Chamfer distance based algorithm for localisation in occupancy grid-maps, CAAI Transactions on Intelligence Technology 1 (2016) 272e284, http://www.journals.elsevier.com/ caai-transactions-on-intelligence-technology/ Navneet Dalal and Bill Triggs, Histograms of Oriented Gradients for Human Detection, INRIA Rh.one-Alps, 655 avenue de l'Europe, Montbonnot 38334, FranceNavneet Dalal and Bill Triggs, Histograms of Oriented Gradients for Human Detection, INRIA Rh.one-Alps, 655 avenue de l'Europe, Montbonnot 38334, France

画像センサを用いたソリューションへのニーズが年々高まってきている。例えば、撮影された画像から、老健施設からの徘徊老人の不測の外出や、体調不良で急に歩行困難になった人、酩酊した人、公共の場所での迷子、または挙動不審者のモニターなど、通常と異なる行動をする動体(人)を発見したいという要望がある。また、同じ動体でも、倉庫で稼働するフォークリフトなどの車両の動線を把握したいという要望もある。このように画像認識技術にはさまざまなニーズがあり、画像センサ、および画像センサを用いたセンサシステムへの期待は大きい。 The needs for solutions using image sensors are increasing year by year. For example, from the captured image, an unexpected outing of a wandering elderly person from a health facility, a person who suddenly has difficulty walking due to poor physical condition, a drunken person, a lost child in a public place, or a monitor of a behavior suspicious person, etc. , There is a desire to discover a moving body (person) who behaves in an unusual manner. There is also a demand for grasping the flow lines of vehicles such as forklifts operating in a warehouse even with the same moving body. As described above, the image recognition technology has various needs, and expectations for the image sensor and the sensor system using the image sensor are great.

そこで、目的は、可用性をさらに高めたセンサシステム、画像センサ、およびセンシング方法を提供することにある。 Therefore, it is an object to provide a sensor system, an image sensor, and a sensing method with higher availability.

実施形態によれば、センサシステムは、複数の画像センサと、前記画像センサにより撮像された画像データから抽出された動体に係わる特徴量情報を、対象動体の属性情報として他の画像センサに伝達する手段とを具備し、さらに、前記画像センサの各々は、前記画像データを取得する撮像部と、前記画像データから前記特徴量情報を抽出する抽出部と、前記特徴量情報に基づいて前記対象動体を判定する判定部と、前記判定に係わる辞書データを記憶するデータ保存部と、前記抽出された特徴量情報を前記他の画像センサに伝達する通信部とを備える。 According to the embodiment, the sensor system transmits the plurality of image sensors and the characteristic amount information regarding the moving body extracted from the image data captured by the image sensor to other image sensors as the attribute information of the target moving body. Further, each of the image sensors includes an imaging unit that acquires the image data, an extraction unit that extracts the characteristic amount information from the image data, and the target moving object based on the characteristic amount information. And a data storage unit that stores dictionary data relating to the determination, and a communication unit that transmits the extracted feature amount information to the other image sensor.

図1は、実施形態に係わるセンサシステム1の一例を示す図である。FIG. 1 is a diagram showing an example of a sensor system 1 according to the embodiment. 図2は、センサシステムの一例を示す機能ブロック図である。FIG. 2 is a functional block diagram showing an example of the sensor system. 図3は、画像センサの配置の一例を示す図である。FIG. 3 is a diagram showing an example of the arrangement of image sensors. 図4は、実施形態に係わるセンサシステムの一例を示す機能ブロック図である。FIG. 4 is a functional block diagram showing an example of the sensor system according to the embodiment. 図5は、実施形態に係わるセンサシステムの他の例を示す機能ブロック図である。FIG. 5 is a functional block diagram showing another example of the sensor system according to the embodiment. 図6は、画像センサ10の一例を示す機能ブロック図である。FIG. 6 is a functional block diagram showing an example of the image sensor 10. 図7は、実施形態における画像センサ間の情報伝達の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of information transmission between image sensors in the embodiment. 図8は、実施形態における画像センサ間の情報伝達の他の例を説明するための図である。FIG. 8 is a diagram for explaining another example of information transmission between image sensors in the embodiment. 図9は、図8の次の状態の一例を示す図である。FIG. 9 is a diagram showing an example of the next state of FIG. 図10は、図9の次の状態の一例を示す図である。FIG. 10 is a diagram showing an example of the next state of FIG. 9. 図11は、実施形態における画像センサ間の情報伝達の他の例を説明するための図である。FIG. 11 is a diagram for explaining another example of information transmission between image sensors in the embodiment. 図12は、実施形態における画像センサ間の情報送信先を決定する手法の一例を説明するための図である。FIG. 12 is a diagram for explaining an example of a method of determining the information transmission destination between the image sensors in the embodiment. 図13は、図12の次の状態の一例を示す図である。FIG. 13 is a diagram showing an example of the next state of FIG. 図14は、実施形態において、対象動体の特徴量情報伝達方式の一例を示すフローチャートである。FIG. 14 is a flowchart showing an example of a feature quantity information transmission system of a target moving body in the embodiment. 図15は、実施形態における対象動体の特徴量情報伝達方式の異常系のデータ処理手順を示すフローチャートである。FIG. 15 is a flowchart showing a data processing procedure of an abnormal system in the feature quantity information transmission system of the target moving object in the embodiment. 図16は、実施形態における画像センサが共有する設定情報、および、伝送する特徴量情報の一例を示す図である。FIG. 16 is a diagram showing an example of setting information shared by the image sensors and the feature amount information to be transmitted in the embodiment. 図17は、実施形態における伝送された側の画像センサが収集し、累積情報として伝送する特徴量情報の一例を示す図である。FIG. 17 is a diagram showing an example of the characteristic amount information collected by the image sensor on the transmitting side and transmitted as cumulative information in the embodiment. 図18は、モニター対象となる特定の動体に関する、対象動体属性情報の処理の一例を示すフローチャートである。FIG. 18 is a flowchart illustrating an example of processing of target moving body attribute information regarding a specific moving body to be monitored. 図19は、実施形態における簡易動き検知の一例を示す図である。FIG. 19 is a diagram illustrating an example of simple motion detection according to the embodiment. 図20は、実施形態における全体トレースマップの一例を示す図である。FIG. 20 is a diagram showing an example of the entire trace map in the embodiment. 図21は、実施形態における、動体特徴量情報を伝達する条件の一例を示す図である。FIG. 21 is a diagram showing an example of conditions for transmitting moving body feature amount information in the embodiment.

画像センサにより撮像した動体(例えば人)が移動した経路を動線として把握し、目的を持って移動している通常の人の動線か、そうでないかを知りたい場合がある。これは、例えば動体が徘徊老人かどうか、あるいは迷子かどうかを調べるために行われる。対象動体(人)が携帯電話やスマートフォンを等の発信機をもっていれば、GPS(Global Positioning System)などによる検知が可能であるが、発信機を持たない場合や、そもそも屋内ではこの方法を適用することができない。この場合、例えば建物内に設置された画像センサにより動線を把握することになる。 There is a case in which it is desired to grasp the path of movement of a moving body (for example, a person) imaged by an image sensor as a movement line and to know whether the movement line is a normal person moving with a purpose or not. This is done, for example, to check whether the moving body is a prowler or a lost child. If the target moving body (person) has a transmitter such as a mobile phone or a smartphone, it can be detected by GPS (Global Positioning System), etc. However, if the transmitter does not have a transmitter or indoors, this method is applied. I can't. In this case, for example, the flow line is grasped by the image sensor installed in the building.

老健施設からの徘徊老人の不測の外出や、体調不良で急に歩行困難になった人、酩酊した人、公共の場所での迷子、または挙動不審者のモニターなど、通常と異なる行動をする動体(人)を撮影画像から見い出したいという要望がある。また、同じ動体でも、倉庫で稼働するフォークリフトなどの車両の動線を把握したいという要望もある。 A moving body that behaves in an unusual manner, such as an unexpected outing of a wandering elderly person from an old-age facility, sudden walking difficulty due to poor physical condition, a drunken person, a lost child in a public place, or a monitor for a suspicious individual. There is a demand to find out (person) from a captured image. There is also a demand for grasping the flow lines of vehicles such as forklifts operating in a warehouse even with the same moving body.

例えば、人物の顔を検知対象として画像データを収集し、別途登録した辞書情報と比較して対象動体を特定することや、表情の細かな違いから緊張状態や、快、不快などの感情を推定する方法がある。この場合では、通常、1つの画像センサでデータ収集が可能である。その一方で、個人情報保護上、常時顔識別を実施することには課題がある。また、顔認識を含めた動体の形状認識の精度を上げるには、辞書情報への大量の学習や、撮影する動体の向きなどを考慮した多数の画像センサを設置する必要などが生じる。さらに、撮影される側は、視野の中にカメラが見えて、不快感を持つこともあり得る。解像度を下げ、服の色、形、持ち物などから動体の形状情報を収集する方法もあるが、上述の要望は必ずしも満たされない。すなわち、動体の形状情報の利用のみでは、上述の要求を満足させることはできない。 For example, image data is collected by using a person's face as a detection target, and the target moving object is specified by comparing it with separately registered dictionary information. Emotions such as tension, pleasure, and discomfort are estimated from minute differences in facial expressions. There is a way to do it. In this case, data acquisition is usually possible with one image sensor. On the other hand, there is a problem in carrying out face recognition at all times for the protection of personal information. Further, in order to improve the accuracy of shape recognition of a moving body including face recognition, it is necessary to learn a large amount of dictionary information and install a large number of image sensors in consideration of the direction of the moving body to be photographed. Further, the photographed side may feel uncomfortable because the camera is visible in the field of view. There is also a method of lowering the resolution and collecting the shape information of the moving body from the clothes color, shape, belongings, etc., but the above demands are not always satisfied. That is, the above requirements cannot be satisfied only by using the shape information of the moving body.

別な方法として、動体の動作を1つの画像センサでモニターし、例えば万引きをする前兆としての、周囲に人がいないことの素早い首振り動作による確認など発生していないか、あるいは、手の不自然な動きなど監視する方法がある。このようなケースも、通常、1つの画像センサでデータ収集が可能である。典型的な動作であれば、警告を監視者、店舗であれば店員に通知することにより、未然に防ぐあるいは、早期に万引きなどの発生を確認することができる。上述の要望すべてをカバーできるわけではないという課題がある。
実施形態では、複数の画像センサを用いて、徘徊老人や迷子、不審者、あるいは単に動体の有無などを、動線把握を加味して識別する手法について開示する。
As another method, the motion of the moving body is monitored by one image sensor, and, for example, as a sign of shoplifting, there is no confirmation by a swiveling motion that there is no person in the surroundings, or there is no hand. There is a method to monitor natural movements. In such a case, usually, data can be collected by one image sensor. In a typical operation, a warning is sent to a monitor or a store clerk in the case of a store, whereby it is possible to prevent the occurrence or confirm the occurrence of shoplifting at an early stage. There is a problem that it cannot cover all the above requests.
The embodiment discloses a method of identifying a wandering elderly person, a lost child, a suspicious person, or simply the presence or absence of a moving body by using a plurality of image sensors in consideration of the flow line grasp.

[構成]
図1は、実施形態に係わるセンサシステム1の一例を示す模式図である。センサシステム1は、対象空間4の監視をセンサを用いて実現するためのシステムである。対象空間4は、例えばビルや、店舗、オフィス等の有人の空間であってもよいし、機器の搬入/搬出を伴う工場や、サーバルーム等の無人の空間であってもよい。対象空間4の立体形状は、図示されるように直方体である必要はなく、センサが設置された任意の空間形状であってよい。また、センサシステム1が設置された建物全体を含む、多層階の略中空建築物であってもよい。
[Constitution]
FIG. 1 is a schematic diagram showing an example of a sensor system 1 according to the embodiment. The sensor system 1 is a system for realizing monitoring of the target space 4 using a sensor. The target space 4 may be, for example, a manned space such as a building, a store, an office, etc., or a factory with loading/unloading of equipment, or an unmanned space such as a server room. The three-dimensional shape of the target space 4 does not have to be a rectangular parallelepiped as shown in the figure, and may be any spatial shape in which the sensor is installed. Further, it may be a multi-story, substantially hollow building including the entire building in which the sensor system 1 is installed.

対象空間4は、例えばaからfまでのエリアに分割される。エリアa〜fのセンサによる監視は、それぞれに対応するセンサデバイス9a〜9f及び通信部20a〜20fにより実現される。例えば、各通信部20から送られた情報を中央サーバ30が収集し、処理することで、対象空間4全体での空調制御が実現される。エリアa〜fには、それぞれに共通する文字(aからf)で区別されるセンサデバイス9及び通信部20が対応する。以下、エリアa〜fを区別しない場合は単に「エリア」と記載する。 The target space 4 is divided into, for example, areas a to f. The monitoring of the areas a to f by the sensors is realized by the corresponding sensor devices 9a to 9f and the communication units 20a to 20f. For example, the central server 30 collects and processes the information sent from each communication unit 20, whereby the air conditioning control in the entire target space 4 is realized. Areas a to f correspond to the sensor device 9 and the communication unit 20, which are distinguished by the characters (a to f) common to each. Hereinafter, when the areas a to f are not distinguished, they are simply referred to as “area”.

センサシステム1は、センサデバイス9a〜9f、通信部20a〜20f及び中央サーバ30を備える。通信部20a〜20fは、それぞれセンサデバイス9a〜9fのうち共通する文字(aからf)で区別されるセンサデバイスを制御する。以下、センサデバイス9a〜9fを区別しない場合はセンサデバイス9と記載し、通信部20a〜20fを区別しない場合は通信部20と記載する。 The sensor system 1 includes sensor devices 9a to 9f, communication units 20a to 20f, and a central server 30. The communication units 20a to 20f control the sensor devices that are distinguished by the common characters (a to f) among the sensor devices 9a to 9f, respectively. Hereinafter, when the sensor devices 9a to 9f are not distinguished, they are referred to as the sensor device 9, and when the communication units 20a to 20f are not distinguished, they are referred to as the communication unit 20.

各通信部20及び中央サーバ30は通信線5で接続され、互いに通信可能に構成される。通信線5は、例えば、代表的な有線LANであるイーサネット(登録商標)でも良いし、PLC(Power Line Communication)でもよい。各通信部20及び中央サーバ30の通信は無線通信によって実現されてもよい。中央サーバ30は、各通信部20から取得される計測データに基づいて、各通信部20を全体制御する。 The communication units 20 and the central server 30 are connected by a communication line 5 and are configured to be able to communicate with each other. The communication line 5 may be Ethernet (registered trademark), which is a typical wired LAN, or PLC (Power Line Communication), for example. Communication between each communication unit 20 and the central server 30 may be realized by wireless communication. The central server 30 totally controls each communication unit 20 based on the measurement data acquired from each communication unit 20.

図2は、センサシステムの一例を示す機能ブロック図である。一例として、センサデバイス9a〜9dは、例えば室温や照度などの環境情報(センサデータ)を収集する。センサデータは、各センサデバイス9a〜9dに接続された通信部20a〜20dから、通信線5による一次通信系を介して、中央サーバ30に伝送される。 FIG. 2 is a functional block diagram showing an example of the sensor system. As an example, the sensor devices 9a to 9d collect environmental information (sensor data) such as room temperature and illuminance. The sensor data is transmitted from the communication units 20a to 20d connected to the sensor devices 9a to 9d to the central server 30 via the primary communication system via the communication line 5.

中央サーバ30は、通信部31を介して受信したセンサデータを、分析部32により分析し、判定部33により、次の処理をどうするかを判定する。判定の際、設定値との比較に加え、例えば過去データ34内にあるデータと比較することにより判定を行う。これら一連の処理は、制御・処理部のCPU35により制御される。すなわちCPU35は、通信部31を介してセンサデバイス9、またはエアコンや照明機器(図示せず)への制御命令を発行し、通知する。 The central server 30 analyzes the sensor data received via the communication unit 31 by the analysis unit 32, and determines the next processing by the determination unit 33. At the time of the determination, in addition to the comparison with the set value, the determination is made by comparing with the data in the past data 34, for example. The series of processes is controlled by the CPU 35 of the control/processing unit. That is, the CPU 35 issues a control command to the sensor device 9 or the air conditioner or lighting device (not shown) via the communication unit 31, and notifies it.

ところで、実施形態では、センサデバイス9として画像センサを適用するシステムについて説明する。画像センサは、人感センサ、明かりセンサあるいは赤外線センサ等に比べて多様な情報を取得することができる。魚眼レンズや超広角レンズなどを用いれば1台の画像センサで撮影可能な領域を拡大できるし、画像の歪みは計算処理で補正することができる。視野内のセンシングしたくない領域をマスク設定する機能や、学習機能を備えた画像センサも知られている。さらに、辞書データ対象を検知するための辞書データを更新することで、対象物の検知性能を最適化することも可能である。 By the way, in the embodiment, a system in which an image sensor is applied as the sensor device 9 will be described. The image sensor can acquire various kinds of information as compared with a human sensor, a light sensor, an infrared sensor, or the like. If a fish-eye lens or a super wide-angle lens is used, the area that can be photographed by one image sensor can be enlarged, and image distortion can be corrected by calculation processing. There is also known an image sensor having a learning function and a function of setting a mask for an area in the field of view that is not desired to be sensed. Furthermore, by updating the dictionary data for detecting the dictionary data target, it is possible to optimize the detection performance of the target object.

画像センサは、例えば対象空間4の天井部に所定の間隔で複数設けられる。各画像センサの撮像範囲は、略長方形の部屋であれば、天井の隅に置く画像センサであってもよいし、部屋の中央に置く360度周囲を撮像できる魚眼レンズなどの広視野角レンズを使った画像センサであってもよい。また、各画像センサの撮像領域は隣接する画像センサと、一部重複している場合もあるし、死角となる領域がある場合があってもよい。 A plurality of image sensors are provided, for example, on the ceiling of the target space 4 at predetermined intervals. The imaging range of each image sensor may be an image sensor placed in the corner of the ceiling in a substantially rectangular room, or a wide viewing angle lens such as a fisheye lens that can image 360 degrees around the center of the room is used. It may be an image sensor. Further, the image pickup area of each image sensor may partially overlap with an adjacent image sensor, or there may be a blind spot area.

図3は、画像センサの配置の一例を示す図である。この例では、各画像センサ10a〜10dを接続する情報経路はなく、各画像センサはそれぞれ独立して機能し、各画像センサ間でのデータ共有等は想定されない。 FIG. 3 is a diagram showing an example of the arrangement of image sensors. In this example, there is no information path connecting the image sensors 10a to 10d, each image sensor functions independently, and data sharing between the image sensors is not assumed.

図4は、実施形態に係わるセンサシステムの一例を示す機能ブロック図である。センサデバイスとして、環境センサ8a〜8d、および画像センサ10a〜10dが示される。このうち環境センサ8a〜8dは、例えば、温度、湿度、照度、風量、音量などの、対象空間の環境を測定する。赤外線などを用いたモーションセンサもこれに含まれる。環境センサ8a〜8dは、一次通信系により通信線5を介して中央サーバ30に接続される。 FIG. 4 is a functional block diagram showing an example of the sensor system according to the embodiment. Environmental sensors 8a-8d and image sensors 10a-10d are shown as sensor devices. Of these, the environment sensors 8a to 8d measure the environment of the target space such as temperature, humidity, illuminance, air volume, and volume. A motion sensor using infrared rays is also included in this. The environment sensors 8a to 8d are connected to the central server 30 via the communication line 5 by the primary communication system.

さらに、環境センサ8a〜8dとは別に、画像センサ10a〜10dが設置される。画像センサ10a〜10dは、それぞれ通信部21a〜21dを介して相互に接続され、2次通信系を形成する。つまり、環境センサに係わる通信部20a〜20d(1次通信系)が中央サーバ30に直接接続されるのに対し、通信部21a〜21d(2次通信系)は、画像センサ10a〜10d間を接続する。 Further, image sensors 10a to 10d are installed separately from the environment sensors 8a to 8d. The image sensors 10a to 10d are connected to each other via the communication units 21a to 21d to form a secondary communication system. That is, while the communication units 20a to 20d (primary communication system) related to the environment sensor are directly connected to the central server 30, the communication units 21a to 21d (secondary communication system) connect the image sensors 10a to 10d. Connecting.

2次通信系の通信方式と1次通信系の通信方式は、同じでも、異なっていてもよい。2次通信系は、イベントドリブンの無線による一時的な接続、例えばアドホック接続であってもよい。あるいは、2次通信系を1次通信系に多重してもよい。これは2次通信系への要求事項は、1つの画像センサから別の画像センサに動体の属性情報を伝送できればよいためである。 The communication method of the secondary communication system and the communication method of the primary communication system may be the same or different. The secondary communication system may be an event driven wireless temporary connection, for example, an ad hoc connection. Alternatively, the secondary communication system may be multiplexed with the primary communication system. This is because the requirement for the secondary communication system is that it is possible to transmit attribute information of a moving body from one image sensor to another image sensor.

図4において、通信部21a〜通信部21dは、相互に通信可能である。実施形態において、通信部21a〜通信部21dの通信は、画像センサ自身の判断に基づき実行される。例えば、画像センサ10aは、自ら撮像した画像から特徴量情報を抽出し、画像センサ10a内部のCPUにより、他の画像センサへの通信の可否を判断する。必要と判断されると、通信部21aを経由して、周辺の画像センサ10b、10c、および10dにそれぞれの通信部21b、21c、および21dを介して、画像センサ10aで得られた動体特徴量情報が伝達される。なお、以下の記述において、動体特徴量情報、特徴量情報、および動体情報はいずれも同様の意味を持つ。 In FIG. 4, the communication units 21a to 21d can communicate with each other. In the embodiment, the communication of the communication units 21a to 21d is executed based on the judgment of the image sensor itself. For example, the image sensor 10a extracts feature amount information from the image captured by itself, and the CPU inside the image sensor 10a determines whether or not communication with another image sensor is possible. When it is determined to be necessary, the moving object feature amount obtained by the image sensor 10a is transmitted to the peripheral image sensors 10b, 10c, and 10d via the communication unit 21a via the respective communication units 21b, 21c, and 21d. Information is transmitted. In the following description, the moving body characteristic amount information, the characteristic amount information, and the moving body information all have the same meaning.

動体特徴量情報を受信した、画像センサ10b、10c、および10dは、それぞれに備わるCPUにより、動体特徴量情報に合致する対象物が、撮像している画像内に現れないか、観測する。例えば、画像センサ10cで伝達された動体特徴量情報に合致する動体が撮像した画像上に検知された場合は、伝達された動体特徴量情報と、該当画像センサで収集した動体特徴量情報とを合わせて、累積の動体特徴量情報として、さらに周辺の画像センサ群に伝達する。このような動作により、即時性のある、対象動体の継続モニターが可能となる。 The image sensors 10b, 10c, and 10d that have received the moving body feature amount information observe whether or not an object that matches the moving body feature amount information appears in the image being captured, by the CPUs provided in the image sensors 10b, 10c, and 10d. For example, when a moving body that matches the moving body feature amount information transmitted by the image sensor 10c is detected in the captured image, the transmitted moving body feature amount information and the moving body feature amount information collected by the corresponding image sensor are detected. In addition, the accumulated moving body feature amount information is further transmitted to the peripheral image sensor group. By such an operation, it is possible to continuously monitor the target moving object with immediacy.

図5は、実施形態に係わるセンサシステムの他の例を示す機能ブロック図である。各通信部21a〜21dからのデータの授受を制御するマスター22を2次通信系に設けることによっても、中央サーバ30とは無関係に、画像センサ間の通信を実現することができる。マスター22の機能は、画像センサ間のデータ授受の制御を専用に行う機器に持たせてもよいし、いずれかの画像センサが兼用してもよい。 FIG. 5 is a functional block diagram showing another example of the sensor system according to the embodiment. Even if the master 22 that controls the transfer of data from the communication units 21a to 21d is provided in the secondary communication system, communication between the image sensors can be realized regardless of the central server 30. The function of the master 22 may be provided in a device that exclusively controls the exchange of data between the image sensors, or may be shared by any of the image sensors.

図5においても、2次通信系の接続は、優先リソース上で恒久的に維持されるものであっても、無線リソースを用いたでテンポラリなものであっても、いずれでもよい。2次通信系の通信方式は、画像センサで伝送すべき状況を検知した場合にのみ通信を開始する、イベントドリブンのアドホック通信方式であってもよい。また、2次通信系の通信トポロジーは、リング型、ツリー型、メッシュ型など、特に限定されるものではない。故障や災害により、いずれか1つの画像センサの通信部に故障が発生しても、う回路を形成可能なトポロジーを用いれば、センサネットワークを構成する他の画像センサ群との接続を維持することができる。事前に通信相手先とのヘルシーチェックを行ってもよい。 Also in FIG. 5, the connection of the secondary communication system may be either one that is permanently maintained on the priority resource or one that is temporary by using the wireless resource. The communication system of the secondary communication system may be an event driven ad hoc communication system in which communication is started only when the image sensor detects a situation to be transmitted. The communication topology of the secondary communication system is not particularly limited, such as ring type, tree type, and mesh type. Even if a communication unit of any one of the image sensors fails due to a failure or a disaster, if the topology that can form the circuit is used, the connection with the other image sensor groups that form the sensor network can be maintained. You can A health check with the communication partner may be performed in advance.

図5の構成においても、動体特徴量情報を画像センサ間で伝達していくことにより、画像センサにおいて累積特徴量情報を生成し、動体判定に係わる最終的な判定をすることが可能となる。 In the configuration of FIG. 5 as well, by transmitting the moving body feature amount information between the image sensors, it is possible to generate cumulative feature amount information in the image sensors and make a final determination regarding the moving body determination.

なお、図4、図5の画像センサ間では時刻同期の仕組みを設けておくことが必要である。これは、動線把握の処理のために、座標情報と時刻情報とを伝達するためである。座標情報については、各画像センサの相対座標(カメラ座標)を有するが、最終的には、動線トレースのため、全体トレースマップを作成するので、絶対座標(システム座標)を必要とする。各画像センサが絶対座標への変換をしてから、伝達情報として次の画像センサに渡すようにしてもよい。これにより、最終の全体トレースマップの作成を容易に、かつどの画像センサ内でも行うことができる。 It is necessary to provide a mechanism for time synchronization between the image sensors shown in FIGS. This is because the coordinate information and the time information are transmitted for the process of grasping the flow line. Regarding coordinate information, it has relative coordinates (camera coordinates) of each image sensor, but in the end, since an entire trace map is created for tracing a flow line, absolute coordinates (system coordinates) are required. Each image sensor may be converted into absolute coordinates and then passed to the next image sensor as transmission information. As a result, the final whole trace map can be easily created in any image sensor.

図6は、画像センサ10の一例を示す機能ブロック図である。画像センサ10は、画像撮像用カメラ11と、2次通信系に接続される通信部21とを備える。画像撮像用カメラ11で取得された画像データは、画像前処理部12により前処理(preprocessing)され、判定しやすい画像に変換される。次いで、前処理された画像データから特徴量情報抽出部13により特徴量情報が抽出され、判定部14により動体が判定される。このとき、データ保存部に記憶される辞書データ16が参照される。全体の制御はCPU15により行われる。判定後の撮像データや抽出した特徴量情報は、必要に応じて、保存部17に保存される。次に、上記構成における作用を説明する。 FIG. 6 is a functional block diagram showing an example of the image sensor 10. The image sensor 10 includes an image capturing camera 11 and a communication unit 21 connected to a secondary communication system. The image data acquired by the image capturing camera 11 is preprocessed by the image preprocessing unit 12 and converted into an image that is easy to determine. Next, the feature amount information extraction unit 13 extracts the feature amount information from the preprocessed image data, and the determination unit 14 determines the moving body. At this time, the dictionary data 16 stored in the data storage unit is referred to. The entire control is performed by the CPU 15. The imaged data after the determination and the extracted feature amount information are stored in the storage unit 17 as necessary. Next, the operation of the above configuration will be described.

[作用]
図7は、実施形態における画像センサ間の情報伝達の一例を説明するための図である。伝達される情報は、画像データから生成された特徴量情報であるとする。図7に示されるように多数の画像センサが、異なる空間的な位置を撮像するように配置されているとする。図7に示されるレイアウトは、例えば、1つのフロアに配置されている画像センサ群を表す。各々の画像センサ10に、互いを識別するための番号が付与される。図7では、xy座標で表現可能な、空間的な位置に基づく番号付けの例が示される。
[Action]
FIG. 7 is a diagram for explaining an example of information transmission between image sensors in the embodiment. It is assumed that the transmitted information is feature amount information generated from image data. As shown in FIG. 7, it is assumed that a large number of image sensors are arranged so as to capture images at different spatial positions. The layout shown in FIG. 7 represents an image sensor group arranged on one floor, for example. A number for identifying each other is given to each image sensor 10. FIG. 7 shows an example of numbering based on spatial position, which can be represented by xy coordinates.

動体特徴量情報の伝達方法には、幾つかのやりかたが考えられる。先ず、或る画像センサで発見され、伝達すべきと判断された動体特徴量情報を、図7の全ての画像センサに同時に伝達する方法がある。この方法は、各画像センサの隣接関係が既知の情報として登録されている場合に利用できる、
ここでは、この方法に代えて、より伝達範囲を狭めることで、ネットワーク負荷および画像センサの処理負荷を低減する手法について順次開示する。
1つ目には、動体を検知した画像センサ(例えば中央の画像センサ10F41)から、周辺の画像センサに動体特徴量情報を同心円状に伝達していく方法が考えられる。この方法は、画像センサ10F41を中心として、同心円の半径方向に動体が直線的に移動していく場合に適用できる。しかしながら、対象動体の動線が直線状でない場合には、この方法はマッチしない。次に、動線が自在に曲がっている場合にも適用可能な手法について説明する。
There are several possible methods for transmitting the moving body feature amount information. First, there is a method of simultaneously transmitting the moving body feature amount information found by a certain image sensor and determined to be transmitted to all the image sensors in FIG. This method can be used when the adjacent relationship of each image sensor is registered as known information,
Here, instead of this method, a method of further reducing the transmission range to reduce the network load and the processing load of the image sensor will be sequentially disclosed.
Firstly, a method of concentrically transmitting moving body feature amount information from an image sensor that detects a moving body (for example, the central image sensor 10F41) to peripheral image sensors is conceivable. This method can be applied when the moving body moves linearly in the radial direction of the concentric circles with the image sensor 10F41 as the center. However, this method does not match when the flow line of the target moving body is not linear. Next, a method applicable even when the flow line is freely bent will be described.

図8〜図10は、実施形態における画像センサ間の情報伝達の他の例を説明するための図である。図8が最初の状態で、この状態から図9、図10の順で時間が経過する。先ず、図8の画像センサ群のうち中央の画像センサ10F41で撮像した画像から抽出した動体特徴量情報が、所定の閾値を超えた場合を考える。すなわち、画像センサ10F41を、最初に対象動体を検知した画像センサA1とする。 8 to 10 are diagrams for explaining another example of information transmission between the image sensors in the embodiment. 8 is the first state, and time elapses from this state in the order of FIGS. 9 and 10. First, consider a case where the moving body feature amount information extracted from the image captured by the central image sensor 10F41 of the image sensor group in FIG. 8 exceeds a predetermined threshold value. That is, the image sensor 10F41 is the image sensor A1 that first detects the target moving body.

[手順(1)]
閾値を超える特徴量情報を検知すると(特徴量情報 > 閾値が成立)、対応する動体を継続監視するために、画像センサA1は周辺画像センサ群B1〜B6に通知する。次に、図9の手順(2)が実施される。
[Procedure (1)]
When the feature amount information that exceeds the threshold is detected (feature amount information>threshold is satisfied), the image sensor A1 notifies the peripheral image sensor groups B1 to B6 to continuously monitor the corresponding moving body. Next, the procedure (2) of FIG. 9 is implemented.

[手順(2)]
動体特徴量情報を注意フラグとして、画像センサA1から、所定の周辺画像センサ群B1〜B6に伝送する。図9に示されるように、画像センサA1から画像センサB1〜B6に動体特徴量情報が伝達されたとする。注意フラグを受信した画像センサB1〜B6は、受信した動体情報をもとに、対象の動体が画像上に在るかモニターする。所定時間内に対象動体が検知できない場合は、検知できないことを示す情報を、伝達対象となる画像センサB1〜B6およびA1に伝達共有してもよい。ここでは、画像センサB1〜B6で、対象動体を検知したとする。
[Procedure (2)]
The moving body feature amount information is transmitted as a caution flag from the image sensor A1 to the predetermined peripheral image sensor groups B1 to B6. As shown in FIG. 9, it is assumed that the moving body feature amount information is transmitted from the image sensor A1 to the image sensors B1 to B6. The image sensors B1 to B6 that have received the caution flag monitor whether or not the target moving body is on the image based on the received moving body information. When the target moving body cannot be detected within a predetermined time, information indicating that the target moving body cannot be detected may be transmitted and shared to the image sensors B1 to B6 and A1 to be transmitted. Here, it is assumed that the image sensors B1 to B6 detect the target moving body.

[手順(3)]
受信した注意フラグ情報に合致する動体が存在しないことを画像センサB6およびA1が検知し、所定の周辺画像センサ群B1〜B6およびA1(ただし、発信する画像センサを除く)に伝送する。ここでは、対象の動体が画像センサB2で検知されたとする。
[Procedure (3)]
The image sensors B6 and A1 detect that there is no moving object that matches the received attention flag information, and transmit it to the predetermined peripheral image sensor groups B1 to B6 and A1 (excluding the image sensor for transmission). Here, it is assumed that the target moving body is detected by the image sensor B2.

[手順(4)]
受信した注意フラグ情報に合致する動体が視野内に存在することを、画像センサB2が検知したとする。画像センサB2で対象動体を検知した場合、画像センサA1から受け取った動体特徴量情報に、画像センサB2に収集分析した動体特徴量情報を、経時的情報として加えて、累積特徴量情報を生成する。
[Procedure (4)]
It is assumed that the image sensor B2 detects that a moving object that matches the received attention flag information is present in the visual field. When the target moving body is detected by the image sensor B2, the moving body characteristic amount information collected and analyzed by the image sensor B2 is added to the moving body characteristic amount information received from the image sensor A1 as temporal information to generate cumulative characteristic amount information. ..

複数の画像センサを経由して収集した動線情報を用いれば、判定精度をより高くできることが期待される。そこで、累積特徴量情報の判定には、累積閾値を定義し、その値を用いて閾値判定を行う。累積特徴量情報の伝達先は、手順(3)で通知した画像センサB1〜B6およびA1ではなく、画像センサB2を中心とする新たな画像センサを決定する。その際、伝送する情報は、累積した特徴量情報を含む、対象動体の情報となる。 It is expected that the determination accuracy can be further increased by using the flow line information collected via a plurality of image sensors. Therefore, for the determination of the cumulative feature amount information, a cumulative threshold value is defined, and the threshold value determination is performed using the value. The transmission destination of the accumulated characteristic amount information is not the image sensors B1 to B6 and A1 notified in the procedure (3), but a new image sensor centered on the image sensor B2 is determined. At that time, the information to be transmitted becomes the information of the target moving body including the accumulated characteristic amount information.

[手順(5)]
図10に示されるように、画像センサB2を中心とする新たな周辺画像センサ群C1〜C4に、動体特徴量情報とともに累積特徴量情報を通知する。すなわち、画像センサB2を中心として、周辺の画像センサC1〜C4が選択され、注意フラグが送信される。例えば画像センサC1は画像センサ10F23、同様に、C2は10F53、C3は10F41、C4は10F22の画像センサがそれぞれ対応している。
[Procedure (5)]
As shown in FIG. 10, the new peripheral image sensor groups C1 to C4 centering on the image sensor B2 are notified of the cumulative feature amount information together with the moving body feature amount information. That is, the peripheral image sensors C1 to C4 are selected around the image sensor B2, and the caution flag is transmitted. For example, the image sensor C1 corresponds to the image sensor 10F23, similarly, C2 corresponds to 10F53, C3 corresponds to 10F41, and C4 corresponds to 10F22.

最新の時刻に対象動体を検知した画像センサ(この場合は、B2)を中心に周辺の画像センサを決定する。対象動体がどちらの方向に移動するか不明なため、もとの画像センサA1に戻る方向の画像センサ10F41も、新たに、画像センサC3として伝送先に選ばれている。例えば、画像センサC4で対象動体を検知し、累積特徴量情報を画像センサC2内のCPUにより計算する。 The peripheral image sensors are determined around the image sensor (B2 in this case) that has detected the target moving object at the latest time. Since it is unknown in which direction the target moving body moves, the image sensor 10F41 in the direction returning to the original image sensor A1 is also newly selected as the transmission destination as the image sensor C3. For example, the image sensor C4 detects the target moving object, and the CPU in the image sensor C2 calculates the cumulative feature amount information.

[手順(6)]
受信した注意フラグ情報に合致する動体が存在したこと、さらに、(累積特徴量情報>累積最終閾値)の判定がYesであり、累積最終閾値を超えている動体があることを管理者あるいは対象通知先に通知する。例えば、中央サーバ30を備えるシステムで、当該中央サーバ30が画像センサに接続されていれば、中央サーバ30を対象通知先としてもよい。この場合、中央サーバ30を介して監視者に情報が通知される。
[Procedure (6)]
There is a moving object that matches the received attention flag information, and the judgment of (cumulative feature amount information> cumulative final threshold value) is Yes, and there is a moving object that exceeds the cumulative final threshold value. Notify me first. For example, in a system including the central server 30, if the central server 30 is connected to the image sensor, the central server 30 may be the target notification destination. In this case, the supervisor is informed of the information via the central server 30.

別の方法としては、画像センサ群の全てに最終閾値を超えた累積特徴量情報を有する動体が存在することを通知してもよい。そして、画像センサと接続される、有線、無線ネットワークにより、そのような動体の現れたことを通知してもよい。または、LEDの点灯や音によっても、通知を行うことが可能である。画像センサ間で動体情報を伝達するタイミングと、その送る先を限定する方法についてさらに説明する。 As another method, it may be notified that all of the image sensor groups include a moving object having cumulative feature amount information that exceeds the final threshold value. Then, the appearance of such a moving body may be notified by a wired or wireless network connected to the image sensor. Alternatively, the notification can be made by lighting the LED or making a sound. The timing of transmitting moving body information between image sensors and the method of limiting the destination will be further described.

図11は、図8の画像センサA1における撮影領域(検知する平面空間)の一例を示す図である。撮影領域は、例えば正方形で、さらにその正方形を格子状に分割することができる。説明を簡単にするために、図では、4×4の正方形状に空間が仕切られているとする。これにより計16個のマスのいずれで動体が検知されたのか、識別することができる。 FIG. 11 is a diagram showing an example of a photographing region (a plane space to be detected) in the image sensor A1 of FIG. The photographing region is, for example, a square, and the square can be further divided into a lattice shape. In order to simplify the explanation, in the figure, it is assumed that the space is partitioned into a 4×4 square shape. Thus, it is possible to identify which of the 16 squares the moving body is detected.

画像センサA1の撮像領域の縁部(Edge)および角部に相当するマスに符号e1〜e12を付し、縁部から離れた撮像領域の中央部(Center)のマスに番号c1〜c4を付して示す。どのマスで動体が検知されたかを継続的に観測することで、画像センサ間で動体情報を伝達するタイミングと送る先を決めることができる。 The masses corresponding to the edges (edges) and corners of the imaging area of the image sensor A1 are denoted by reference numerals e1 to e12, and the masses in the center (Center) of the imaging area away from the edges are assigned numbers c1 to c4. And show it. By continuously observing in which square the moving body is detected, the timing and destination of transmitting the moving body information between the image sensors can be determined.

伝達するタイミングを決める第1の方法は、e1〜e12のいずれかで動体が検知された時点を、伝達のタイミングとする方法である。すなわち、特定のマス上で動体が検知された場合である。これは、外側のマスe1〜e12で検知されると、動体が画像センサA1の視野外に出てしまう可能性があるからである。 The first method of determining the transmission timing is to set the timing at which the moving body is detected in any of e1 to e12 as the transmission timing. That is, this is a case where a moving body is detected on a specific mass. This is because the moving body may be out of the visual field of the image sensor A1 when detected by the outer masses e1 to e12.

伝達するタイミングを決める第2の方法は、中央部(c1〜c4)から縁部(e1〜e12)方向に動体が動いた時点を、伝達のタイミングとする方法である。この場合も、動体が画像センサの撮像視野外に出る可能性が高いからである。これは、動体の移動方向、すなわち動体ベクトルの向きを基準に伝達タイミングを決める方法である。なお第1及び第2の方法を兼ねて、特定の方向に移動しており、かつ特定のマス上に動体がきたときを伝達するタイミングとしてもよい。このようにすれば精度の向上を期待できる。
伝達するタイミングを決める第3の方法として、画像センサの視野外に動体が移動してしまい、動体の検知ができなくなった時点以降を、伝達のタイミングとしてもよい。次に、動体情報の送信宛先の決定手法について説明する。
The second method of determining the timing of transmission is to set the timing of transmission as the time when the moving body moves from the central portion (c1 to c4) toward the edges (e1 to e12). Even in this case, the moving body is likely to go out of the imaging visual field of the image sensor. This is a method of determining the transmission timing based on the moving direction of the moving body, that is, the direction of the moving body vector. It should be noted that the timing of transmitting the time when the moving body is moving in a specific direction and the moving body comes on a specific mass may be used in combination with the first and second methods. By doing so, improvement in accuracy can be expected.
As a third method of determining the transmission timing, the transmission timing may be set after the time point when the moving body moves out of the visual field of the image sensor and the moving body cannot be detected. Next, a method of determining the transmission destination of the moving body information will be described.

動体情報の送信先を決める第1の方法は、対象空間内の全ての画像センサに動体特徴量情報を送る方法である。
動体情報の送信先を決める第2の方法は、例えば図8〜図10に示されるように、動体を検知している画像センサを中心として同心円状に(360°方向に)送信先を決める方法である。
The first method for determining the destination of the moving body information is to send the moving body feature amount information to all the image sensors in the target space.
A second method of determining the transmission destination of the moving body information is, for example, as shown in FIGS. 8 to 10, a method of determining the transmission destination concentrically (in the 360° direction) around the image sensor detecting the moving body. Is.

動体情報の送信先を決める第3の方法は、図11において、画像センサA1の撮像範囲のどの縁部に動体がいるかに応じて、その縁部方向の画像センサに向けて動体情報を送る方法である。例えば、撮像領域が方形をしていて、撮像領域の縁部であるe5またはe6に動体が検知された場合、縁部側の画像センサである10F33および10F53に動体情報を伝送する。このようにすれば、より動体の出現の確率の高いセンサに限って動体情報を送ることができ、伝送帯域の節約などの面からも効率が良い。 A third method of determining the transmission destination of the moving body information is to send the moving body information toward the image sensor in the edge direction depending on which edge of the imaging range of the image sensor A1 in FIG. Is. For example, when the imaging area is rectangular and a moving object is detected at the edge e5 or e6 of the imaging area, the moving object information is transmitted to the edge side image sensors 10F33 and 10F53. By doing so, the moving body information can be sent only to the sensor having a higher probability of appearance of the moving body, which is efficient in terms of saving the transmission band.

また、画像センサA1のe4に動体が検知された場合には、角部に相当するため、画像センサ10F22および10F33に動体情報を伝送する。e7に動体が検知された場合には、10F53および10F62に動体情報を伝送する。 When a moving body is detected by e4 of the image sensor A1, the moving body information is transmitted to the image sensors 10F22 and 10F33 because it corresponds to a corner. When the moving body is detected at e7, the moving body information is transmitted to 10F53 and 10F62.

なお、画像センサの撮像範囲が、隣接する画像センサと縁部同士で重なる場合もある。この場合は、動体情報を伝達するタイミングまたは送信先を、送信先の画像センサがなんらかの動体を検知した時点以降にまで待ってもよい。詳しくは後述する。 In addition, the imaging range of the image sensor may overlap with the adjacent image sensor at the edges. In this case, the timing of transmitting the moving body information or the transmission destination may be waited until after the time when the image sensor of the transmission destination detects some moving body. Details will be described later.

図12は、画像センサA1の角部e4に動体が検知された場合に、伝送範囲を限定することを模式的に示す図である。図12の状況下では、10F22(画像センサB1)および10F33(画像センサB2)が動体を検知すると想定される。そこで、これらの画像センサに動体情報を伝送している。例えば、画像センサA1の角部e4から到着しうる画像センサB2のマスは、e8〜e12である。 FIG. 12 is a diagram schematically showing that the transmission range is limited when a moving body is detected at the corner e4 of the image sensor A1. In the situation of FIG. 12, it is assumed that 10F22 (image sensor B1) and 10F33 (image sensor B2) detect a moving body. Therefore, the moving body information is transmitted to these image sensors. For example, the mass of the image sensor B2 that can arrive from the corner e4 of the image sensor A1 is e8 to e12.

画像センサB2で動体を検知する第1の方法は、上記のマスで動体が、画像センサA1から動体情報が送られてから所定時間内に検知されれば、同一の動体であろうとする、簡易的な検知方法である。 The first method of detecting a moving body by the image sensor B2 is that the moving body is the same moving body if the moving body is detected within a predetermined time after the moving body information is sent from the image sensor A1 by the above-mentioned mass. Detection method.

動体を検知する第2の方法は、図6における、各画像センサがもつ辞書情報または過去の撮像データおよび特徴量情報を用いて、動体の形状にかかわる情報、例えば人であることを最初に識別する方法である。 A second method for detecting a moving body is to first identify information relating to the shape of the moving body, for example, a person, by using the dictionary information of each image sensor in FIG. 6 or the past imaging data and feature amount information. Is the way to do it.

動体を検知する第3の方法は、画像センサA1から送られてきた動体情報のうち、動体の形状にかかわる情報、例えばHOG情報またはCoHOG情報をもとに、同一の動体であることを検知し、そのうえで動線を把握する方法である。これら3つの動体検知方法を組み合わせて用いてもよい。このようにして動体を検知、または、対象動体の同定が可能になる。 A third method for detecting a moving object is to detect that the same moving object is detected based on the information related to the shape of the moving object in the moving object information sent from the image sensor A1, for example, HOG information or CoHOG information. , And it is a method to grasp the flow line. You may use combining these three moving body detection methods. In this way, the moving body can be detected or the target moving body can be identified.

なお、画像センサB2の撮像範囲内で、対象動体が移動した時間経過後、縁部に達した対象動体が、縁部e5およびe6で検知されたとする。縁部からの移動先となる画像センサは、10F23および10F63とする。このような場合に、さらに検索範囲を広げて、10F53を動体情報の伝送先に加えてもよい。 In addition, it is assumed that the target moving body that has reached the edge portion is detected at the edge portions e5 and e6 after the elapse of the time when the target moving body has moved within the imaging range of the image sensor B2. The image sensors to which the image is moved from the edge are 10F23 and 10F63. In such a case, the search range may be further expanded and 10F53 may be added to the transmission destination of the moving body information.

図13は、図12の次の状態の一例を示す。図13においては、画像センサB2の縁部e5およびe6で動体が検知された場合に、伝送先として画像センサ群C1、C2、およびC3が選択されることが示される。例えば画像センサC1では、e1、e10、e11およびe12から動体が出現すると想定される。画像センサC1で対象動体が検知されると、画像センサA1からの特徴量情報を加えた、画像センサB2からの累積特徴量情報に、画像センサC1の特徴量情報を加味することにより、受信した対象動体情報に合致する動体が存在したことが検知される。さらに、(累積特徴量情報>累積最終閾値)の判定がYesであり、累積最終閾値を超えている動体があることが、管理者あるいは対象通知先に通知される。この際、最新の時刻において、対象とする動体がどのマス内にいるかという情報を加えて送ってもよい。この場合は例えば画像センサC1のマスC3内に動体がいることが、示される。 FIG. 13 shows an example of the next state of FIG. FIG. 13 shows that the image sensor groups C1, C2, and C3 are selected as transmission destinations when a moving body is detected at the edges e5 and e6 of the image sensor B2. For example, in the image sensor C1, it is assumed that moving bodies appear from e1, e10, e11, and e12. When the target moving object is detected by the image sensor C1, it is received by adding the feature amount information of the image sensor C1 to the accumulated feature amount information from the image sensor B2 to which the feature amount information from the image sensor A1 is added. It is detected that there is a moving body that matches the target moving body information. Further, the judgment of (cumulative characteristic amount information>cumulative final threshold value) is Yes, and the fact that there is a moving object exceeding the cumulative final threshold value is notified to the administrator or the target notification destination. At this time, at the latest time, the information indicating in which square the target moving body is located may be sent. In this case, for example, it is indicated that there is a moving body in the mass C3 of the image sensor C1.

累積最終閾値による判定のYesかNoかに拘わらず、動体情報には、タイムスタンプと、どの画像センサに動体情報が送られたのかが履歴として残っている。画像センサ内のデータを確実に削除するため、不要となった動体情報の削除指示を、この画像センサC1経由で送信してもよい。または、累積最終閾値による判定がYesの場合に、画像データを保存または所定の場所に収集する指示後に、削除指示を出すようにしてもよい。あるいは、保存開始から所定時間経過した場合に、各画像センサは、撮像した画像自体を含む動体情報を削除対象として優先的に削除するという一律の処理ルールとしてもよい。これらいずれかの処理をすることにより、画像センサ内の限られた保存容量を有効に活用しつづけることができる。 Regardless of whether the determination based on the cumulative final threshold value is Yes or No, the moving object information has a history of the time stamp and which image sensor the moving object information was sent to. In order to surely delete the data in the image sensor, a deletion instruction of unnecessary moving body information may be transmitted via the image sensor C1. Alternatively, if the determination by the cumulative final threshold value is Yes, the deletion instruction may be issued after the instruction to store the image data or to collect the image data in a predetermined location. Alternatively, a uniform processing rule may be adopted in which, when a predetermined time has elapsed from the start of storage, each image sensor preferentially deletes moving object information including the captured image itself as a deletion target. By performing any one of these processes, the limited storage capacity in the image sensor can be effectively utilized.

図14は、実施形態において、対象動体の特徴量情報伝達方式の一例を示すフローチャートである。任意の画像センサを主体としてこのフローチャートが実行される。図14において、S101は、このフローチャートにおけるデータ収集の元となるステップである。S101で、他の画像センサからの動体特徴量情報を含めた、所設定情報収集を行う。これには、アップデートされた閾値や、画像センサ群の位置関係、および画像のプリプロセスなどの、画像センサ間で共通に保持しておく共通情報と、各画像センサが動的に収集している動体特徴量情報の受信情報が含まれている。また、この画像センサ自体が撮像した画像データがあれば、その情報も含む。 FIG. 14 is a flowchart showing an example of a feature quantity information transmission system of a target moving body in the embodiment. This flowchart is executed mainly by an arbitrary image sensor. In FIG. 14, S101 is a step which is a source of data collection in this flowchart. In S101, location setting information including moving body feature amount information from other image sensors is collected. This includes common information that is commonly held between image sensors, such as updated thresholds, the positional relationship of image sensor groups, and image preprocessing, and each image sensor dynamically collects information. The reception information of the moving body feature amount information is included. If there is image data captured by the image sensor itself, the information is also included.

次に、S102において、この画像センサが収集した画像情報が、収集画像より異常系のデータの検知ありか否かを判断する。S102においてNOすなわち、収集画像は正常であると判断した場合、次のS103のステップに進む。 Next, in S102, it is determined whether or not the image information collected by this image sensor is detected from the collected image as abnormal system data. If NO in S102, that is, if it is determined that the collected image is normal, the process proceeds to the next step S103.

S103では、転送されてきた動体特徴量情報はあるか否かの判断を行う。転送されてきた情報がなければ、Noとなり、S210に進む。転送されてきた情報がある場合、Yesとなり、処理手順は次のステップS104に移る。 In S103, it is determined whether or not there is the transferred moving body feature amount information. If there is no transferred information, the result is No and the process proceeds to S210. If there is the transferred information, the result is Yes, and the processing procedure moves to the next step S104.

S104では、特徴量情報抽出のための画像収集を開始する。これは、この画像センサで画像を収集するステップである。S105において、収集画像のpre processingを行う。これは、収集した画像から、特徴量情報を抽出するための、画像への前処理であり、画像から不要な情報を削除する、フィルタリング等が行われる。 In S104, image collection for feature amount information extraction is started. This is the step of collecting images with this image sensor. In S105, pre-processing of the acquired image is performed. This is a pre-process for an image in order to extract feature amount information from the collected image, and unnecessary information is deleted from the image, filtering or the like is performed.

次にS106のステップで、画像解析による特徴量情報抽出が行われる。画像から、輝度勾配方向ヒストグラムの生成や、動体か否かの判断をするための画像間の差分処理などが行われ、特徴量情報としてデータ化される。この特徴量情報には、顔画像が残っているようなことはなく、同一の動体であることは判断がついても、誰というようなことは通常わからない情報である。また、ステップS103において、転送されてきた動体特徴量情報があることから、ステップS106で生成する情報は、転送されてきた動体特徴量情報と合わせて累積動体特徴量情報とできるよう、後述するフォーマットに揃えておく。 Next, in step S106, feature amount information extraction is performed by image analysis. From the images, a brightness gradient direction histogram is generated, difference processing between images for determining whether or not a moving body is performed, and the like is converted into data as feature amount information. In this feature amount information, there is no face image remaining, and even if it is determined that they are the same moving body, it is information that does not usually know who. Further, since there is the transferred moving body feature amount information in step S103, the information generated in step S106 can be combined with the transferred moving body feature amount information so as to be cumulative moving body feature amount information, which will be described later. Be prepared.

S107では、この画像センサによる画像データ中に、対象動体は収集画像中に発見されたか否かの判断を行う。Yesであれば、対象動体が発見されたことになるので、所定時間の画像収集を行う。 In S107, it is determined whether or not the target moving object is found in the collected image in the image data obtained by the image sensor. If the answer is Yes, it means that the target moving object has been discovered, so the images are collected for a predetermined time.

S108では、転送されてきた動体特徴量情報に、この画像センサにより生成した動体特徴量情報を、時間軸情報とともに、累積特徴量情報として生成する。
S109では、累積特徴量情報が、累積閾値を超えているか否かの判断を行う。累積閾値を超えている場合は、Yesとなる。
S110で、累積特徴量情報が、累積最終閾値を超えているか否かの判断を行う。超えていれば次のS111のステップに移行する。
S111では、累積最終閾値を超えている動体があることを管理者/通知対象機器に通知する。これにより、動体情報を累積していくことにより、例えば対象動体が、徘徊行動や迷子等、正常行動による動線を形成していないことが通知できる。
S112は、対象動体に対する一連の累積特徴量情報の生成、判定および通知が完了した後のプロセスで、後処理(削除指示等)を行う。対象動体に関する各画像センサ上の情報に対する削除指示を出す。削除指示は、本処理プロセスで出す場合もあるし、通知先からでる場合もあってよい。さらに、上述のように、対象動体の画像情報を収集を完了した各画像センサ内のタイマによる所定時間経過後、削除指示がなくても削除対象とする、自律的な処理であってもよい。
In S108, the moving body characteristic amount information generated by this image sensor is generated as the accumulated characteristic amount information together with the time axis information in the transferred moving body characteristic amount information.
In S109, it is determined whether the cumulative feature amount information exceeds the cumulative threshold value. If the cumulative threshold is exceeded, the result is Yes.
In S110, it is determined whether the cumulative feature amount information exceeds the cumulative final threshold value. If it exceeds, the process proceeds to the next step S111.
In S111, the administrator/notification target device is notified that there is a moving object that exceeds the cumulative final threshold. Thus, by accumulating the moving body information, it can be notified that the target moving body does not form a flow line due to normal behavior such as wandering behavior or lost child.
S112 is a process after the generation, determination, and notification of a series of cumulative feature amount information for the target moving object is completed, and post-processing (deleting instruction, etc.) is performed. A deletion instruction is issued for information on each image sensor regarding the target moving object. The deletion instruction may be issued in this processing process or may be issued from the notification destination. Further, as described above, it may be an autonomous process in which the image information of the target moving object is targeted for deletion without a deletion instruction after a predetermined time has elapsed by the timer in each image sensor.

次に、Yes/Noの選択肢を含む判定処理について説明する。S102において、システム異常などにより、収集画像より異常系のデータの検知ありと判断した場合、Yesとなり、S220およびS221のステップにおいて、異常系処理を行う。異常系の処理がおわれば、S221の異常系処理ENDとなり、その後、S101に戻る。S220〜S221の間の異常系の処理の詳細については、後述の図で説明する。 Next, the determination process including the Yes/No option will be described. When it is determined in S102 that abnormal system data is detected from the collected image due to system abnormality or the like, the determination result is Yes, and abnormal system processing is performed in steps S220 and S221. When the abnormal system processing ends, the abnormal system processing END of S221 is performed, and then the process returns to S101. Details of the abnormal system processing between S220 and S221 will be described later with reference to the drawings.

S103において、転送されてきた動体特徴量情報がない場合、Noとなり、S210以下の処理を行う。
S210では、特徴量情報抽出のための画像収集を開始する。
S211では、収集画像 pre processing を行う。
S212では、画像解析による特徴量情報抽出を行う。
S213では、特徴量情報が閾値を超えているか否かの画像センサ内の1次判断を行う。閾値を超えている場合、Yesとなり、次のS214に移行する。閾値を超えていない場合は、他の画像センサ群への通知の必要はないとして、Noとなり、S101に戻る。
In S103, if there is no transferred moving body feature amount information, the determination result is No, and the processes from S210 are performed.
In S210, image collection for feature amount information extraction is started.
In S211, acquisition image pre-processing is performed.
In S212, feature amount information extraction is performed by image analysis.
In S213, the primary determination in the image sensor whether the feature amount information exceeds the threshold value is performed. If it exceeds the threshold value, the determination result is Yes, and the process proceeds to the next S214. If it does not exceed the threshold value, it is determined that there is no need to notify other image sensor groups, and the determination is No, and the process returns to S101.

S214では、動体特徴量情報を所定の画像センサ群に通知する。この所定の画像センサ群は、S101のステップで収集しておいた、設定情報からあらかじめ画像センサごとに決まっている値である。通知後、初期状態のステップS101に戻る。
S107において、対象動体は収集画像中に発見されたか否かの判断を行う。対象動体が発見されない場合は、Noとなり、S215に移行する。
In S214, the moving image feature amount information is notified to a predetermined image sensor group. This predetermined image sensor group is a value that is determined in advance for each image sensor from the setting information collected in step S101. After the notification, the process returns to step S101 in the initial state.
In S107, it is determined whether the target moving object is found in the collected image. If the target moving object is not found, the determination is No and the process proceeds to S215.

S215では、転送されてきた動体特徴量情報を有する動体が検知されていないことを、所定の画像センサ群に通知する処理を行う。この処理のあと、S101に戻る。
S109において、累積特徴量情報が、累積閾値を超えているか否かの判断を行う。累積閾値を超えていない場合は、Noとなり、S230に移行する。
S230では、対象動体は検知されたが、累積閾値は超えておらず、対象動体から削除する指示を所定の画像センサ群に通知する。他の画像センサ内の一次判断により、転送されてきた対象動体の動体特徴量情報であるが、この画像センサでの累積閾値による判定により、継続モニターの必要性がないと対象動体であると判断している。それにより、対象動体から外す、削除指示を所定の画像センサ群に通知するプロセスである。S230の処理後、S101に戻る。
In step S215, a process of notifying a predetermined image sensor group that the moving body having the transferred moving body feature amount information is not detected is performed. After this process, the process returns to S101.
In S109, it is determined whether the cumulative feature amount information exceeds the cumulative threshold value. If the cumulative threshold is not exceeded, the determination is No and the process proceeds to S230.
In S230, the target moving object is detected, but the cumulative threshold value is not exceeded, and an instruction to delete from the target moving object is notified to a predetermined image sensor group. Although it is the moving object feature amount information of the target moving object that has been transferred by the primary judgment in the other image sensor, it is judged as the target moving object if there is no need for continuous monitoring by the judgment by the cumulative threshold value in this image sensor. doing. This is a process of notifying a predetermined image sensor group of a deletion instruction to remove from the target moving object. After the process of S230, the process returns to S101.

S110において、累積特徴量情報が、累積最終閾値を超えているか否かの判断を行う。超えていない場合は、Noとなり、次のS240のステップに移行する。
S240では、対象動体の動体特徴量情報、および画像データ情報の削除指示を他の所定の画像センサ群に送信する。最終判断であり、対象動体の関連情報および画像が各画像センサに残っていれば、それも削除することを指示する。
図14における一連の手順に従って、各画像センサが動作する。これにより、本実施形態における、各画像センサ内における1次判断により、動体特徴量情報の他の画像センサへの伝達がなされる。動体特徴量情報を受信した画像センサは、自らの(この画像センサ内での)動体特徴量情報の作成と、累積特徴量情報の生成とを行う。また、累積特徴量情報が十分長い時間蓄積していれば、累積最終閾値による、最終判断を行い、管理者/通知対象機器に通知する。さらに、1次判断後、他の画像センサで累積閾値を超えていない、すなわち、対象動体としてモニターを続ける必要がないと判断されれば、動体情報の削除指示が送出されて、CPUや保存媒体のリソースが開放される。これにより、継続的な監視が可能となる。
In S110, it is determined whether the cumulative feature amount information exceeds the cumulative final threshold value. If not exceeded, the determination is No and the process proceeds to the next step S240.
In S240, the moving body feature amount information of the target moving body and the deletion instruction of the image data information are transmitted to another predetermined image sensor group. This is the final determination, and if the relevant information and the image of the target moving object remain in each image sensor, it is also instructed to delete them.
Each image sensor operates according to a series of procedures in FIG. Accordingly, the moving body feature amount information is transmitted to another image sensor by the primary determination in each image sensor in the present embodiment. The image sensor that has received the moving body feature amount information creates its own moving body feature amount information (within this image sensor) and generates cumulative feature amount information. Further, if the accumulated characteristic amount information is accumulated for a sufficiently long time, a final judgment is made based on the accumulated final threshold value and the manager/notification target device is notified. Further, if it is determined that the cumulative threshold is not exceeded by another image sensor after the primary determination, that is, if it is determined that it is not necessary to continue monitoring as the target moving object, a moving object information deletion instruction is sent, and the CPU or the storage medium is sent. Resources are released. This allows continuous monitoring.

図15は、実施形態における対象動体の特徴量情報伝達方式の異常系のデータ処理手順を示すフローチャートである。図14のS102においてYESの場合に、この異常系処理になる。ステップS220において、異常系処理が開始されると、S10では、他の画像センサからの動体特徴量情報を含む、所設定情報収集を行う。これにより、この画像センサで撮像した画像データ、および、他の画像センサからの動体特徴量情報を含む、一連のデータを、異常系のデータとして判断してよいか、最新の判断基準が取得される。 FIG. 15 is a flowchart showing a data processing procedure of an abnormal system in the feature quantity information transmission system of the target moving object in the embodiment. If YES in S102 of FIG. 14, this abnormal system processing is performed. When the abnormal system process is started in step S220, in S10, the location setting information including the moving body feature amount information from another image sensor is collected. As a result, a series of data including the image data captured by this image sensor and the moving body feature amount information from other image sensors may be judged as abnormal system data, or the latest judgment standard is acquired. It

S11では、異常系データとして処理してよいか否かの判断を行う。YESの場合は、次のS12に移行する。YESとなる異常とは、例えば以下の4つのケースである。
異常系データによる現象:
(1) 対象動体が2手に分かれた。
(2) 壁、床などの、画像センサに通常映る静止画像を定点観測し、所定の範囲内の特徴量情報となることを確認しているが、観測時は、何らかの理由で正常の範囲を超える特徴量情報となった。
(3) 輪郭抽出の結果が異常値となっている。
(4) 対象動体が、別な画像センサで検知できず、見失う。
In S11, it is determined whether the abnormal data may be processed. If YES, the process proceeds to the next S12. The abnormalities that result in YES are, for example, the following four cases.
Phenomena caused by abnormal data:
(1) The target moving object was divided into two hands.
(2) We have observed fixed images such as walls and floors that are usually reflected on the image sensor, and confirmed that the amount of feature information is within the specified range. The feature amount information exceeds.
(3) The result of contour extraction is an abnormal value.
(4) The target moving object cannot be detected by another image sensor and loses sight.

異常系データとしての処理:
(1) 同じID(IDentification)の動体があると区別ができなくなるため、改めてそれぞれに独立したID番号を与える。
(2) 画像センサの故障や、照度の著しい低下などにより異常値が観測されたとして、画像センサや照明の状態を確認する。データは特異的な異常値として、無視する。または、管理者に報告をする。
(3) 室内の明るさの差の影響を受けにくいため、輝度勾配ヒストグラムを特徴量情報として算出する。既に、輝度勾配ヒストグラムを利用していれば、画像センサ故障等として管理者に通知する。
(4) なんらかの理由により対象動体を検知できなくなったとして、所定時間後、対象動体の蓄積情報は削除する。
S12では、異常系データとして処理をする。処理方法は、該当する動体の動体特徴量情報を含む削除を、対象画像センサに対して指示する。または、指示発行前に、管理者/通知対象機器に通知し、管理者側からの指示を受けてから、画像センサのON/OFF処理あるいは、該当動体情報の削除処理を行う方法であってもよい。
Processing as abnormal data:
(1) If there are moving objects with the same ID (IDentification), they cannot be distinguished.
(2) Assuming that an abnormal value is observed due to a failure of the image sensor or a significant decrease in illuminance, check the state of the image sensor and lighting. The data are ignored as specific outliers. Or report to the administrator.
(3) The brightness gradient histogram is calculated as feature amount information because it is unlikely to be affected by the difference in indoor brightness. If the brightness gradient histogram has already been used, the administrator is notified as an image sensor failure or the like.
(4) If the target moving object cannot be detected for some reason, the accumulated information of the target moving object is deleted after a predetermined time.
In S12, the abnormal system data is processed. The processing method instructs the target image sensor to delete the moving body feature amount information of the corresponding moving body. Alternatively, a method of notifying the administrator/notification target device before issuing the instruction and performing the ON/OFF processing of the image sensor or the deletion processing of the corresponding moving body information after receiving the instruction from the administrator side Good.

S11において、Noの場合、すなわち異常系データとしての処理をしない場合には、S13にて、同一動体に対して所定回数以上、S220に始まる異常系処理に入っているか否かが判断される。Noの場合は、異常系データとしての処理をせず、S221に移行する。YESの場合は、何らかの理由で異常系に入っていることから、いったん正常データとしての処理を継続させる。すなわち、図15のS103の処理に移行する。
S221では、異常系処理を終了し、図14にS101に戻る。
In S11, in the case of No, that is, when the process as abnormal system data is not performed, it is determined in S13 whether the abnormal system process starting in S220 has been performed a predetermined number of times or more for the same moving body. In the case of No, the process as abnormal system data is not performed, and the process proceeds to S221. In the case of YES, the abnormal system is in the abnormal system for some reason, and therefore the process as the normal data is once continued. That is, the processing shifts to S103 of FIG.
In S221, the abnormal system process is terminated, and the process returns to S101 in FIG.

図16は、実施形態における画像センサが共有する設定情報、および、伝送する特徴量情報の一例を示す図である。図14のS101で収集する情報のフォーマットの一例を示す。図16の上段の画像センサ共有設定情報は、各画像センサ10が、共通で記憶しておくべき情報である。画像センサ共有設定情報1は、各画像センサの位置関係、通知対象となる周辺画像センサ、閾値情報、辞書情報、管理者/通知対象機器を含む。画像センサ共有設定情報2は、更新変更した各情報を含む。中央サーバ情報は、中央サーバに接続している場合に追加される、中央サーバのアドレス等の情報である。 FIG. 16 is a diagram showing an example of setting information shared by the image sensors and the feature amount information to be transmitted in the embodiment. An example of the format of the information collected in S101 of FIG. 14 is shown. The image sensor sharing setting information in the upper part of FIG. 16 is information that each image sensor 10 should commonly store. The image sensor sharing setting information 1 includes a positional relationship among the image sensors, a peripheral image sensor to be notified, threshold information, dictionary information, and a manager/notification target device. The image sensor sharing setting information 2 includes each updated and changed information. The central server information is information such as the address of the central server, which is added when the central server is connected.

図16下段の画像センサ間のリアルタイム伝送情報(画像センサA1)は、対象動体のなる動体を最初に発見した画像センサA1が持つ情報となる。図8〜図10の手順または、図11〜図13の手順で伝送される動体特徴量情報のフォーマットとなる。1行目に各項目が示されている。項目は、各画像センサ固有のプロセスIDにはじまり、他の画像センサに伝達すべきか否かを示す注意フラグ有無、画像センサA1が撮像した画像中にある対象動体に、画像センサA1が与えた対象動体番号である。 The real-time transmission information (image sensor A1) between the image sensors in the lower part of FIG. 16 is information possessed by the image sensor A1 that first discovers the moving body that is the target moving body. The format of the moving body feature amount information is transmitted in the procedure of FIGS. 8 to 10 or the procedure of FIGS. 11 to 13. Each item is shown in the first line. Items start with a process ID unique to each image sensor, whether or not there is a caution flag indicating whether or not it should be transmitted to another image sensor, the target given by the image sensor A1 to the target moving object in the image captured by the image sensor A1. It is a moving body number.

2行目から4行目に、時間経過とともに履歴が記録されている。ここでは、M0021およびM0022という2つの動体が撮像されていることがわかる。2行目では、最初は動体M0021が検知されている。M0021については正常動作の範囲にあり、閾値を超えていないので、注意フラグは「無」となる。従って、右の欄にある伝達すべき情報欄にはデータがない。 The history is recorded over time from the second line to the fourth line. Here, it can be seen that two moving objects M0021 and M0022 are imaged. In the second line, the moving body M0021 is initially detected. Since M0021 is in the normal operation range and does not exceed the threshold value, the caution flag is "absent". Therefore, there is no data in the information column to be transmitted in the right column.

次いで、3行目で、M0021とは異なる、動体M0022が検知される。最初は、閾値を超える動作がないために、注意フラグは「無」となっている。しかし時間経過後、4行目において、M0022が閾値を超える動体特徴量情報を持ったために、注意フラグが「有」となる。 Then, in the third line, a moving body M0022 different from M0021 is detected. At first, since there is no operation that exceeds the threshold value, the caution flag is “none”. However, after the lapse of time, in the fourth line, the caution flag becomes “present” because M0022 has moving object feature amount information that exceeds the threshold value.

周囲画像センサ群に伝達する情報は、1行目の項目として記載されている。画像センサの撮像時間に関する情報の発信先の場所に関する情報、伝達先(この場合はB群)に関する情報に関する情報である。この画像センサA1が算出した、対象動体の属性情報に関する情報が含まれている。この属性情報には、動体形状にかかわる情報、動体の細かな動きに係る情報、動体の形成する大きな動きすなわち動体動線に係る情報である。この動体動線に係る情報については、後述の図19に示す、相対座標に関する情報であっても良い。 The information transmitted to the surrounding image sensor group is described as the item on the first line. It is information about the place of the transmission destination of the information regarding the imaging time of the image sensor, and information regarding the transmission destination (in this case, the group B). Information about the attribute information of the target moving object calculated by the image sensor A1 is included. The attribute information includes information about the shape of the moving body, information about a fine movement of the moving body, and information about a large movement formed by the moving body, that is, a moving line of the moving body. The information regarding the moving body flow line may be information regarding relative coordinates shown in FIG. 19 described later.

図16の下段の表では、周辺画像センサ情報として、1つの画像センサについて例を示している。画像センサA1が伝達すべき動体特徴量情報を収集した段階(=時刻)では、まだ、周辺画像センサであるB1〜B6には、対象とする動体の対象動体属性情報はない。画像センサA1が、前出のフローチャートに従い、周辺画像センサ群B1〜B6に、対象動体属性情報他を送る。 The table in the lower part of FIG. 16 shows an example of one image sensor as the peripheral image sensor information. At the stage (=time) at which the image sensor A1 collects the moving object feature amount information to be transmitted, the peripheral image sensors B1 to B6 do not yet have the target moving object attribute information of the moving object. The image sensor A1 sends the target moving object attribute information and the like to the peripheral image sensor groups B1 to B6 according to the above-mentioned flowchart.

図17は、実施形態における伝送された側の画像センサが収集し、累積情報として伝送する特徴量情報の一例を示す図である。図16は、最初に対象動体を検知した画像センサA1内のデータを示しているのに対し、図17は、特徴量情報を伝送された周辺画像センサ群側のデータを示している。すなわち図17のデータのフォーマットは、例えば、対象動体を検知した画像センサB4内の、動体特徴量情報を受け取るまでと、受け取って次の画像センサ群C1〜C4に渡すデータを収集、伝送するまでの時間経緯とともに変わる情報を示している。 FIG. 17 is a diagram showing an example of the characteristic amount information collected by the image sensor on the transmitting side and transmitted as cumulative information in the embodiment. 16 shows the data in the image sensor A1 that first detects the target moving object, while FIG. 17 shows the data on the peripheral image sensor group side to which the feature amount information is transmitted. That is, the data format of FIG. 17 is, for example, until the moving body feature amount information in the image sensor B4 that has detected the target moving body is received and until the data that is received and passed to the next image sensor group C1 to C4 is collected and transmitted. It shows information that changes over time.

図17において、1行目は図16と同様であるが、画像センサ情報(B4)となっており、周辺画像センサ情報は、特徴量情報を送付した画像センサA1となっている。2行目から4行目までは、画像センサB4は、M0001、M0002の動体を検知しているが、注意フラグを立てる動体の動きでなかったため、データ欄はN/A(Not/Available)となっている。 In FIG. 17, the first line is the same as in FIG. 16, but the image sensor information (B4) is provided, and the peripheral image sensor information is the image sensor A1 that has sent the feature amount information. From the 2nd line to the 4th line, the image sensor B4 detects the moving body of M0001 and M0002, but since the moving body of the warning flag is not set, the data field is N/A (Not/Available). Is becoming

4行目では、動体が検知されなかったために、対象動体ID番号はN/Aとなっている。5行目で、先ほどの画像センサA1から転送されてきたい対象動体属性情報を受信し、その情報が周辺画像センサ情報(A1)として記録された。次いで、6行目以降、動体ID番号M0022の情報について記載している。6行目では、動体ID番号M0022を検知したために、画像センサB4の対象動体属性情報の欄が記入された。7行目では、動体ID番号M0022は、周辺画像センサ群C1〜C4での継続モニターを必要とする、累積閾値を超える動体特徴量情報であることがわかり、伝達すべき、動体特徴量情報として、画像センサA1の情報および画像センサB4の情報を時間順に記録した情報となっている。これは複数の画像センサで追尾した結果である累積特徴量情報となっており、累積閾値より値が大きいために、次の周辺画像センサ群C1〜C4に伝送するデータとなっている。 In the 4th line, since the moving body is not detected, the target moving body ID number is N/A. In the fifth line, the target moving object attribute information to be transferred is received from the image sensor A1 and the information is recorded as the peripheral image sensor information (A1). Next, from the sixth line onward, the information of the moving body ID number M0022 is described. In the sixth line, since the moving body ID number M0022 is detected, the column of the target moving body attribute information of the image sensor B4 is filled. In the seventh line, the moving body ID number M0022 is found to be moving body feature amount information that requires continuous monitoring in the peripheral image sensor groups C1 to C4 and exceeds the cumulative threshold, and should be transmitted as moving body feature amount information. , Information of the image sensor A1 and information of the image sensor B4 are recorded in time order. This is cumulative feature amount information that is the result of tracking by a plurality of image sensors, and since the value is larger than the cumulative threshold value, it is data to be transmitted to the next peripheral image sensor group C1 to C4.

図18は、モニター対象となる特定の動体に関する、対象動体属性情報の処理の一例を示すフローチャートである。S20において、他の画像センサから受信した対象動体属性情報の処理が開始される。 FIG. 18 is a flowchart illustrating an example of processing of target moving body attribute information regarding a specific moving body to be monitored. In S20, processing of the target moving body attribute information received from another image sensor is started.

S21では、他の画像センサからの対象動体属性情報の受信情報の受信をする。
S22では、情報を受信した本画像センサによる撮像、および、対象動体属性情報の計算を実施する。
S23では、受信した動体形状情報と、この画像センサにより撮像した画像中の動体との同定はできたか否かの判断を行う。同じ動体でない場合には、Noとなり、S22の撮像、および対象動体属性情報の計算を継続する。YESの場合は、S24に移行する。
In S21, the reception information of the target moving object attribute information is received from another image sensor.
In S22, imaging by the main image sensor that has received the information and calculation of the target moving body attribute information are performed.
In S23, it is determined whether the received moving body shape information and the moving body in the image captured by this image sensor have been identified. If they are not the same moving body, the determination is No, and the image capturing in S22 and the calculation of the target moving body attribute information are continued. If YES, the process proceeds to S24.

S24では、受信した動体動線情報と、この画像センサにより撮像した画像中の動線情報は整合(連続)するか否かを判断する。ここで、整合とは、対象動体の2つの画像センサにより得られた動線がおおよそ連続線となっているか、断絶があり、位置がぴったりは合わないかの判断をすることである。合わない場合は、Noとなり、S25に移行する。 In S24, it is determined whether or not the received moving body flow line information and the flow line information in the image picked up by this image sensor are matched (continuous). Here, the matching means determining whether the flow lines obtained by the two image sensors of the target moving body are approximately continuous lines or there is a break and the positions do not match exactly. If they do not match, the determination is No and the process proceeds to S25.

S25では、伝送情報に、コメントを付与する(軌跡の連続性に(1)若干/(2)大きなずれあり)。そして、S27に移行する。 In S25, a comment is added to the transmission information (the continuity of the locus is (1) slightly/(2) greatly deviated). Then, the process proceeds to S27.

S24で、動線情報が整合する場合、YESとなり、S26に移行する。
S26では、受信した動体動き情報と、この画像センサにより撮像した動体動き情報を、累積特徴量情報として保存するか否かを決定する。あらかじめ保存するか否かを設定しておいてもよいし、閾値により決めてもよい。保存しない場合は、S29の対象動体属性情報の処理ENDに移行する。保存する場合は、YESとなり、S27に移行する。
S27では、累積特徴量情報の生成を行う。
S28では、累積特徴量情報の保存をするか、または、判定部結果により、周辺画センサへの対象動体属性情報の伝達を行う。このような一連の処理により、対象動体属性情報の伝送ができる。なお、動体動き情報は、動線ではなく、対象動体のくせや意図的なわずかな動きの有無を検知する情報であり、対象動体が意図した動きであることが多い。通常動線把握には、通常必要とされない情報である。
When the flow line information is matched in S24, YES is determined and the process proceeds to S26.
In S26, it is determined whether or not the received moving body motion information and the moving body motion information captured by this image sensor are stored as the accumulated feature amount information. Whether or not to save may be set in advance, or may be determined by a threshold value. If it is not saved, the process proceeds to S29 of processing the target moving object attribute information. If it is to be saved, YES is obtained and the process proceeds to S27.
In S27, cumulative feature amount information is generated.
In S28, the cumulative feature amount information is stored, or the target moving object attribute information is transmitted to the peripheral image sensor according to the determination unit result. By such a series of processing, the target moving object attribute information can be transmitted. It should be noted that the moving body movement information is not a flow line but information for detecting the presence or absence of a habit of the target moving body or a slight intentional movement, and is often the movement intended by the target moving body. This is information that is not normally required for grasping the normal flow line.

図19は、実施形態における簡易動き検知を示す図である。上述したように、動体特徴量情報を画像センサで共有し、累積動体特徴量情報を生成するのが、動体の識別をしながら動線を把握していく上で適した方法である。これとは別に、より簡易的な方法として、対象動体の形状情報を伴わず、かつ各画像センサで動体を検知した場合に、それを管理者/通知対象機器に通知する方法もある。同じ動体であるか否かを調べていないが、画像センサが動きを検知した場合にそれを通知することで、より簡易的なシステムで、より迅速に注意を喚起することが可能となる。 FIG. 19 is a diagram showing simple motion detection in the embodiment. As described above, sharing the moving body feature amount information among the image sensors and generating the cumulative moving body feature amount information is a method suitable for grasping the flow line while identifying the moving body. Apart from this, as a simpler method, there is also a method of notifying the administrator/notification target device when the moving object is detected by each image sensor without being accompanied by the shape information of the target moving object. Although it is not checked whether or not they are the same moving body, by notifying when the image sensor detects the movement, it becomes possible to call attention more quickly with a simpler system.

図19では、表の縦軸が時間経緯、横軸がセンサ名、検知した動体の座標、検知対象として動きのみを検知したことを表している。複数の画像センサで検知した動きから、累積した特徴量情報が得られている。 In FIG. 19, the vertical axis of the table represents the time history, the horizontal axis represents the sensor name, the coordinates of the detected moving body, and the fact that only the motion is detected as the detection target. The accumulated feature amount information is obtained from the movements detected by the plurality of image sensors.

図20は、実施形態における全体トレースマップの一例を示す図である。図17の表に従い、画像センサA0、A1、B2、B3、C1、C3それぞれから形成されるマップをつなぎ合わせた全体トレースマップを示す。 FIG. 20 is a diagram showing an example of the entire trace map in the embodiment. According to the table of FIG. 17, there is shown an overall trace map in which maps formed from the image sensors A0, A1, B2, B3, C1 and C3 are connected.

1つの画像センサの視野が、例えば4×4のエリアに区分されているとする。最初に画像センサA1で検知された動体は、座標x0、y0を起点として移動し、最終的に、画像センサC1に達したことが示される。移動経路を動線として一筆書きでなぞったものになる。この蛇行している動線の特徴は、正常な動きの範囲を超えた動体特徴量情報を有していることが、例えば報告を受けた管理者側で判断可能である。 It is assumed that the field of view of one image sensor is divided into 4×4 areas, for example. It is shown that the moving body first detected by the image sensor A1 moves with the coordinates x0 and y0 as the starting points and finally reaches the image sensor C1. It will be traced in one stroke with the movement route as the flow line. For example, the administrator who received the report can determine that the characteristic of the meandering flow line has the moving body feature amount information that exceeds the range of normal movement.

このように、各画像センサ内で1次判断をせず、動体の動線を追っていくだけで、特定の1つの動体が、図20に示す動線をたどっていることを、ある程度の精度で判断することができるようになる。この場合、動線を追うだけなので、特徴量情報を判定する閾値を必要とせず、簡易に動線のトレースが可能となる。 In this way, it is possible to determine to a certain degree that one particular moving object follows the moving line shown in FIG. 20 by only following the moving line of the moving object without making the primary judgment in each image sensor. You will be able to judge. In this case, since the flow line is only followed, a threshold line for determining the feature amount information is not required, and the flow line can be traced easily.

また、画像センサA1の撮像範囲の縁部に動体がきた場合に、画像センサA1内で特徴量情報を計算し、他の画像センサにその動体形状情報を伝送することにより、例えば、画像センサB2において、同一の動体であることを確認したうえで動線をトレースすることが可能になる。 Further, when a moving body comes to the edge of the image pickup range of the image sensor A1, the feature amount information is calculated in the image sensor A1 and the moving body shape information is transmitted to another image sensor, so that, for example, the image sensor B2. In, it is possible to trace the flow line after confirming that they are the same moving body.

図21は、画像センサA1と、動体の特徴量情報の伝達先である画像センサB2の撮像エリアとが一部重なっている場合と、重なっていない場合を示す。伝達先への送信のタイミングは、動体が、画像センサA1の縁部で検知された場合を想定してもよいし、前記縁部での検知であり、かつ動体の移動方向が外向きである場合を加味してもよい。 FIG. 21 shows a case where the image sensor A1 partially overlaps with the imaging area of the image sensor B2, which is the transmission destination of the feature amount information of the moving body, and a case where they do not overlap. As for the timing of transmission to the transmission destination, it may be assumed that the moving body is detected at the edge of the image sensor A1, or the detection is performed at the edge and the moving direction of the moving body is outward. You may add the case.

さらに、撮像エリアが一部重なっている場合は、画像センサA1に撮像領域の縁部に動体がきた時点で、いったん注意フラグを送付し、前記特徴量情報の伝達先である画像センサB2での動体検知の通知を待ってから、画像センサA1で検知された、最終的な動体の特徴量情報を伝送するようにしてもよい。画像センサA1で収集する動体の特徴量情報を最長時間とすることで、画像センサA1と画像センサB2での重複する観測時間が長くなり、マス内に動体がいつ現れ、いつ消失したかという出現/消失時刻の一致度から、同一動体であることを確定することができる。 Further, when the image pickup areas partially overlap each other, when the moving object comes to the edge of the image pickup area in the image sensor A1, the caution flag is sent once, and the image sensor B2, which is the destination of the characteristic amount information, transmits the caution flag. The final feature amount information of the moving body detected by the image sensor A1 may be transmitted after waiting for the notification of the moving body detection. By setting the feature amount information of the moving body collected by the image sensor A1 as the longest time, the overlapping observation time of the image sensor A1 and the image sensor B2 becomes long, and the appearance of when the moving body appears in the mass and when it disappears. / It is possible to determine that they are the same moving body from the coincidence of the disappearance times.

図21(a)では、画像センサA1で動体検知を検知した場合例を示している。1)〜3)の順で観測し、3)の条件を満たした時に、画像センサA1で収集した動体特徴量情報を画像センサB2に伝達する。
1)T1:動体が分割したエリアの中で検知された時刻
2)T2:動体が縁部で検知された時刻で、T1より後の時刻
3)動体が縁部におり、かつ移動が外向きであることが確定した時刻。この時刻において、画像センサB2に、動体の特徴量情報を伝達する。
In FIG. 21A, an example in which the moving image is detected by the image sensor A1 is shown. Observing in the order of 1) to 3), and when the condition of 3) is satisfied, the moving body feature amount information collected by the image sensor A1 is transmitted to the image sensor B2.
1) T1: the time when the moving body is detected in the divided area 2) T2: the time when the moving body is detected at the edge, and the time after T1 3) The moving body is at the edge and the movement is outward The time when it was confirmed to be. At this time, the feature amount information of the moving body is transmitted to the image sensor B2.

図21(b)では、画像センサA1および画像センサB2の両方で動体を検知したタイミングで、動体特徴量情報を伝達する。 In FIG. 21B, the moving body feature amount information is transmitted at the timing when the moving body is detected by both the image sensor A1 and the image sensor B2.

画像センサA1で動体検知
1)T1:動体が分割したエリアの中で検知された時刻。
2)T2:動体が縁部で検知された時刻で、T1より後の時刻。
3)画像センサA1および画像センサB2の両方で動体検知した時刻。この時刻において、画像センサB2に、動体の特徴量情報を伝達する。
Motion detection with image sensor A1
1) T1: Time when the moving body is detected in the divided area.
2) T2: the time when the moving body is detected at the edge, which is a time after T1.
3) The time when the moving object is detected by both the image sensor A1 and the image sensor B2. At this time, the feature amount information of the moving body is transmitted to the image sensor B2.

[効果]
以上述べたように、実施形態では、動線把握には複数の画像センサからの情報がより望ましい制約条件下での、リアルタイム監視、トレースを可能にする。画像センサ内のCPUにより1次判定を行い、必要であれば通知する。次いで、周辺画像センサに動体特徴量情報を伝送する。伝送先の画像センサでは、対象動体の有無を通知する。通知を受けたいずれかの画像センサが対象動体を検知すれば、その動体特徴量情報を算出し、時系列で累積していく動体特徴量情報により、最終判定をしていく。動体の移動先を中心として、通知対象の画像センサを切り替えていけば最小の通信量で、動線把握がリアルタイムで可能となる。通信対象は、画像センサ群であっても、管理者であってもよく、通信内容に特徴量情報を含まない単純な動体の有無のみを通知する簡易的な方法を選択することもできる。通信経路上に肖像権の課題を含む画像データが常時流れていることがない。数値化された動体の特徴量情報で動線把握ができ、個人情報保護上も安全性が高い。通信量をまかなうためのシステムコストが安くすみ、画像センサ間のみで動線把握ができるため、災害時でも動作する。
[effect]
As described above, in the embodiment, real-time monitoring and tracing are possible under constraint conditions in which information from a plurality of image sensors is more desirable for grasping a flow line. The CPU in the image sensor makes a primary determination and notifies it if necessary. Then, the moving body feature amount information is transmitted to the peripheral image sensor. The image sensor at the transmission destination notifies the presence or absence of the target moving object. If any of the image sensors that have received the notification detects the target moving body, the moving body characteristic amount information is calculated, and the final determination is made based on the moving body characteristic amount information accumulated in time series. If the image sensor to be notified is switched around the moving destination of the moving body, the movement line can be grasped in real time with the minimum communication amount. The communication target may be an image sensor group or an administrator, and it is possible to select a simple method of notifying only the presence or absence of a moving body that does not include the feature amount information in the communication content. Image data including the subject of portrait right does not always flow on the communication path. The flow line can be grasped by the digitized feature amount information of the moving body, and it is highly safe in terms of personal information protection. The system cost to cover the communication volume is low, and the flow line can be grasped only between the image sensors, so it can operate even in the event of a disaster.

以下に、実施形態における効果を列挙する。 The effects of the embodiment are listed below.

(1) センサシステムは、複数の画像センサと、前記画像センサにより撮像された画像データから抽出された動体に係わる特徴量情報を、対象動体の属性情報として他の画像センサに伝達する手段とを具備する。 (1) The sensor system includes a plurality of image sensors and means for transmitting characteristic amount information relating to a moving body extracted from image data captured by the image sensor to other image sensors as attribute information of the target moving body. To have.

このようにすることで、中央サーバでの画像の集計なしに、複数の画像センサを用いた、対象動体の特徴量情報に基づく継続的な撮像が可能となる。 By doing so, it is possible to continuously capture images based on the feature amount information of the target moving body using a plurality of image sensors without the central server collecting the images.

(2) (1)のセンサシステムにおいて、前記画像センサの各々は、前記画像データを取得する撮像部と、前記画像データから前記特徴量情報を抽出する抽出部と、前記特徴量情報に基づいて前記対象動体を判定する判定部と、前記判定に係わる辞書データを記憶するデータ保存部と、前記抽出された特徴量情報を前記他の画像センサに伝達する通信部とを備える。これにより、画像センサで、特徴量情報抽出および画像センサでの1次判定を行うことが可能なる。 (2) In the sensor system according to (1), each of the image sensors is based on an image capturing unit that acquires the image data, an extracting unit that extracts the feature amount information from the image data, and the feature amount information. A determination unit that determines the target moving object, a data storage unit that stores dictionary data related to the determination, and a communication unit that transmits the extracted feature amount information to the other image sensor. As a result, the image sensor can perform feature amount information extraction and primary determination by the image sensor.

(3) (2)のセンサシステムにおいて、前記通信部は、前記対象動体の前記属性情報を蓄積した累積特徴量情報を他の画像センサに伝達する。このように、複数の画像センサが対象動体の属性情報をもつことで、時間経過とともに累積した累積特徴量情報を画像センサ間で伝達していくことができる。 (3) In the sensor system of (2), the communication unit transmits the accumulated feature amount information in which the attribute information of the target moving body is accumulated to another image sensor. In this way, since the plurality of image sensors have the attribute information of the target moving body, it is possible to transmit the accumulated characteristic amount information accumulated over time between the image sensors.

(4) (3)のセンサシステムにおいて、前記画像センサの各々は、前記累積特徴量情報の蓄積に応じて前記判定部における判定基準を変化させる。累積特徴量情報の蓄積にあわせて判定基準を変えていくことで、対象動体の動線が延びるにつれて、より正確な判定が可能になる。 (4) In the sensor system according to (3), each of the image sensors changes the determination standard in the determination unit according to the accumulation of the accumulated feature amount information. By changing the determination criterion in accordance with the accumulation of the accumulated feature amount information, more accurate determination can be performed as the flow line of the target moving object extends.

(5) (3)のセンサシステムにおいて、前記画像センサの各々は、前記累積特徴量情報の蓄積に応じて、前記対象動体の動線を一筆書きで接続可能とすべく経路マップを累積する。これにより、複数の画像センサによりカバーされる全体マップを形成し、対象動体の動線の移動経路を生成することができる。 (5) In the sensor system according to (3), each of the image sensors accumulates a route map so that the flow line of the target moving body can be connected with one stroke in accordance with the accumulation of the accumulated feature amount information. As a result, it is possible to form the entire map covered by the plurality of image sensors and generate the movement path of the flow line of the target moving body.

(6) (2)のセンサシステムにおいて、前記判定部により通知対象となる閾値を超える値と判断された場合に、前記通信部は、所定の情報提示先に前記特徴量情報を通知する。このように個々の画像センサが1次判断を行い、それぞれが独立に通知することで、動体特徴量情報の伝達がなくても、動体の移動範囲をリアルタイムで知ることができる。 (6) In the sensor system of (2), when the determination unit determines that the value exceeds the threshold value to be notified, the communication unit notifies the predetermined information presentation destination of the characteristic amount information. In this way, each image sensor makes a primary determination and notifies each independently, so that the moving range of the moving body can be known in real time even without transmission of the moving body feature amount information.

(7) (2)のセンサシステムにおいて、前記対象動体の属性情報は、前記画像センサ内で生成された特徴量情報である。これにより、対象動体の属性情報が特徴量情報を、各画像センサで生成することができる。 (7) In the sensor system according to (2), the attribute information of the target moving object is feature amount information generated in the image sensor. Thereby, the attribute information of the target moving body can generate the feature amount information in each image sensor.

(8) (2)のセンサシステムにおいて、前記画像センサの各々は、前記対象動体の属性情報として、対象動体の動線形成に係わる座標情報を画像内の相対座標から、さらに当該画像センサの空間的な配置を示す絶対座標として変換する手段を有する。各画像センサの相対座標による動線把握と、各画像センサの空間的位置を示す絶対座標とを組み合わせることで、複数の画像センサにより形成される全体マップを、各画像センサ内であっても形成することができる。 (8) In the sensor system according to (2), each of the image sensors has, as attribute information of the target moving body, coordinate information relating to flow line formation of the target moving body from relative coordinates in the image, and further, a space of the image sensor. It has a means for converting it as an absolute coordinate indicating a physical arrangement. By combining the flow line grasp based on the relative coordinates of each image sensor and the absolute coordinates indicating the spatial position of each image sensor, an overall map formed by a plurality of image sensors is formed even within each image sensor. can do.

(9) (3)のセンサシステムにおいて、前記累積特徴量情報が累積最終閾値を超えていない場合に、前記通信部は、前記対象動体の動体特徴量情報、および前記対象動体の画像データ情報の削除指示を他の少なくとも一つの画像センサに送信する。このように、モニター対象となっていた動体が、累積最終閾値を超えないことから、モニター対象からはずれた際に、動体属性情報を削除することで、リソースを開放し、継続的な動作を可能とする。 (9) In the sensor system according to (3), when the cumulative feature amount information does not exceed a cumulative final threshold value, the communication unit includes the moving subject feature amount information of the target moving body and the image data information of the target moving body. The deletion instruction is transmitted to at least one other image sensor. In this way, since the moving object that was the monitoring target does not exceed the cumulative final threshold value, when it is removed from the monitoring target, by deleting the moving object attribute information, resources are released and continuous operation is possible. And

(10) (2)のセンサシステムにおいて、前記属性情報は、前記複数の画像センサにおける撮像時刻情報を含む。このように、周辺の画像センサ群に伝達する際、各画像センサの撮像時刻に係る情報も併せて伝送することで、経時的な動体の移動経路を知ることができる。 (10) In the sensor system according to (2), the attribute information includes image pickup time information of the plurality of image sensors. In this way, when the information is transmitted to the peripheral image sensor group, the information regarding the imaging time of each image sensor is also transmitted, so that the moving path of the moving body over time can be known.

(11) (2)のセンサシステムにおいて、前記画像センサの各々は、前記属性情報が所定の閾値範囲を超えている場合に、異常系のデータとして異常系処理を実施する。このようにすれば、属性情報が所定の閾値を超えている場合に、異常系のデータとして処理することができる。 (11) In the sensor system of (2), each of the image sensors performs abnormal system processing as abnormal system data when the attribute information exceeds a predetermined threshold range. In this way, when the attribute information exceeds the predetermined threshold value, it can be processed as abnormal data.

(12) (2)のセンサシステムにおいて、前記属性情報は、前記対象動体の動線を含む。動体の属性情報を動線とすることで、複数の画像センサにわたる対象動体の動線を得ることができる。 (12) In the sensor system according to (2), the attribute information includes a flow line of the target moving body. By using the attribute information of the moving body as the flow line, it is possible to obtain the flow line of the target moving body across a plurality of image sensors.

(13) (2)のセンサシステムにおいて、前記通信部は、前記対象動体が検知されたという情報と、前記対象動体が検知されていないという情報との少なくともいずれか一方を前記他の画像センサに伝達する。対象動体を検知したという情報だけでなく、対象動体を検知していないという情報を画像センサ群で共有することで、より妥当な動線把握が可能となる。 (13) In the sensor system according to (2), the communication unit causes at least one of the information that the target moving body has been detected and the information that the target moving body has not been detected to the other image sensor. introduce. By sharing not only the information that the target moving body has been detected but also the information that the target moving body has not been detected by the image sensor group, it is possible to more appropriately grasp the flow line.

(14) (2)のセンサシステムにおいて、前記画像センサの各々は、前記対象動体の前記特徴量情報を前記他の画像センサに伝達し、前記対象動体の画像データを自らに保存する、または、所定の宛先に伝送する。対象動体の画像データも含む属性情報を集めることで、最終的に対象動体と判断された場合に、必要な画像情報の収集を、情報の喪失なく収集することができる。 (14) In the sensor system according to (2), each of the image sensors transmits the feature amount information of the target moving body to the other image sensor and stores the image data of the target moving body in itself, or It is transmitted to a predetermined destination. By collecting the attribute information that also includes the image data of the target moving object, the necessary image information can be collected without loss of information when the target moving object is finally determined.

(15) (2)のセンサシステムにおいて、前記通信部は、前記対象動体の前記特徴量情報、および撮像した前記画像データを前記複数の画像センサに伝達する。対象動体の特徴量情報として、分析後の統計データだけでなく、撮像した画像データも伝達することで、集計、再計算を容易にするという効果がある。 (15) In the sensor system according to (2), the communication unit transmits the characteristic amount information of the target moving body and the captured image data to the plurality of image sensors. By transmitting not only the statistical data after analysis but also the captured image data as the feature amount information of the target moving object, there is an effect of facilitating aggregation and recalculation.

(16) (2)のセンサシステムにおいて、前記画像センサの各々は、前記対象動体を検知できなくなった場合に、そのことを他の画像センサに伝達し、前記対象動体の前記特徴量情報を累積した累積特徴量情報と、前記対象動体の画像データとを取得する。これにより、累積特徴量情報を生成するとともに、画像データも集計することができる。 (16) In the sensor system according to (2), each of the image sensors transmits the fact to another image sensor when the target moving body cannot be detected, and accumulates the feature amount information of the target moving body. The accumulated feature amount information and the image data of the target moving body are acquired. As a result, the accumulated feature amount information can be generated and the image data can be totaled.

(17) (2)のセンサシステムにおいて、前記画像センサの各々は、前記対象動体を検知したのち、時間の経過とともに、前記対象動体の前記属性情報の保存の優先順位を低下させる。このように、対象動体を検知してから所定時間経過すると保存優先順位を下げることで、画像センサのCPUや保存媒体のリソースを開放可能にすることができる。 (17) In the sensor system according to (2), each of the image sensors lowers the priority of saving the attribute information of the target moving body with the passage of time after detecting the target moving body. In this way, the resources of the CPU of the image sensor and the resources of the storage medium can be released by lowering the storage priority when a predetermined time has elapsed after detecting the target moving object.

(18) (2)のセンサシステムにおいて、前記画像センサの各々は、前記画像センサの視野外に前記対象動体が移動した場合に、前記対象動体の属性情報を、前記通信部を介して伝達する。これにより、画像センサが対象動体の情報を伝達するタイミングを、前記画像センサの視野から離れるときに設定することができる。 (18) In the sensor system of (2), each of the image sensors transmits the attribute information of the target moving body via the communication unit when the target moving body moves outside the visual field of the image sensor. .. This makes it possible to set the timing at which the image sensor transmits the information about the target moving object when the image sensor moves away from the visual field of the image sensor.

(19) (2)のセンサシステムにおいて、前記画像センサの各々は、所定のエリア内にある他の画像センサに接続要求を伝達後、前記画像センサからの応答が所定時間を経過しても得られない場合に、前記所定のエリアを拡大して再度接続要求を送信する。前記対象動体の属性情報を伝達する先の画像センサへの接続要求による確認により、伝達先の画像センサの動作可能な状態か否かを知ることにより、対象送信範囲を変えることができ、より信頼性の高い動線把握が可能となる。 (19) In the sensor system according to (2), each of the image sensors obtains a response from the image sensor even after a predetermined time elapses after transmitting a connection request to another image sensor in a predetermined area. If not, the predetermined area is expanded and the connection request is transmitted again. The target transmission range can be changed by knowing whether or not the image sensor of the transmission destination is in an operable state by the confirmation by the connection request to the image sensor of the transmission destination of the attribute information of the target moving object, and thus more reliable. It is possible to grasp the flow line with high flexibility.

(20) (2)のセンサシステムにおいて、前記画像センサの各々は、他の画像センサからの消去指示を受信するまで、前記伝達された前記属性情報を前記データ保存部に保持する。対象動体の画像情報を、消去指示が届くまで一定期間、撮像した各画像センサ内で保存しておくことで、後で時間経緯と伴う画像群として収集することが可能となる。 (20) In the sensor system according to (2), each of the image sensors holds the transmitted attribute information in the data storage unit until receiving an erasing instruction from another image sensor. By storing the image information of the target moving object in each image sensor that has been imaged for a certain period until the deletion instruction arrives, it becomes possible to collect it later as an image group accompanied by the time history.

(21) (2)のセンサシステムにおいて、前記画像センサの各々は、う回路を形成可能な通信トポロジーで互いを接続し、通信に先立って相手先との事前動作確認のための通信を行う。各画像センサにより形成したセンサネットワークにおいて、1つの画像センサが災害や故障などにより、故障しても、他の画像センサからの情報を収集できる、ネットワーク構成を有することで、信頼性を高めることができるという利点がある。 (21) In the sensor system according to (2), each of the image sensors is connected to each other in a communication topology capable of forming a hollow circuit, and performs communication for confirming a pre-operation with a partner before communication. In the sensor network formed by each image sensor, even if one image sensor fails due to a disaster or failure, it has a network configuration that can collect information from other image sensors, thereby improving reliability. There is an advantage that you can.

(22) (2)のセンサシステムにおいて、前記画像センサの各々は、互いの時刻同期をとる手段を備える。各画像センサ内タイマの時刻同期をとることで、同一の時刻基準をもとに、タイムスタンプを含む動体特徴量情報の伝達、累積ができるようになる。 (22) In the sensor system according to (2), each of the image sensors includes a unit that synchronizes time with each other. By synchronizing the time of the timers in each image sensor, it becomes possible to transmit and accumulate the moving body feature amount information including the time stamp based on the same time reference.

(23) (6)のセンサシステムにおいて、前記判定部は、撮像エリアのする所定の範囲内への前記動体の進入を検知した場合、または、前記動体の形状情報が所定の形状情報に一致する場合に、前記閾値を超えたことを判定する。対象動体を同定する方法として、想定される範囲に動体が入ってきたことを判定基準とする方法と、動体の形状情報をもとに判定基準とする方法を利用できる。 (23) In the sensor system according to (6), the determination unit detects that the moving body has entered the predetermined range of the imaging area, or the shape information of the moving body matches the predetermined shape information. In this case, it is determined that the threshold is exceeded. As a method of identifying the target moving object, a method of using a moving object as a criterion for judgment and a method of using the shape information of the moving object as a criterion can be used.

(24) (2)のセンサシステムにおいて、前記画像センサの各々は、累積閾値を超えたことを検知した画像センサからの通知、または、保存期間が既定値を超えた場合に、前記伝達された属性情報を削除する。対象動体が次々に見つかる場合に、センサ内の限られた保存容量をオーバフローさせることなく、優先順位をつけて削除し、機能を維持することができる。 (24) In the sensor system according to (2), each of the image sensors is notified when the notification from the image sensor detecting that the cumulative threshold is exceeded or the storage period exceeds a predetermined value is transmitted. Delete attribute information. When the target moving objects are found one after another, they can be prioritized and deleted and the function can be maintained without overflowing the limited storage capacity in the sensor.

(25) (2)のセンサシステムにおいて、前記画像センサの各々は、固有のカメラ座標、または、システム座標を前記属性情報とともに他の画像センサに伝達し、対象動体の動線をトレースした画像センサ群から取得した前記属性情報に基づいて全体トレースマップを再構成する。複数の画像センサによる動線を形成する際に、カメラ座標からシステム座標に変換する手段を有することで、動線全体のトレースをした、全体トレースマップを生成することができる。 (25) In the sensor system of (2), each of the image sensors transmits its own camera coordinates or system coordinates to another image sensor together with the attribute information, and traces the flow line of the target moving object. The entire trace map is reconstructed based on the attribute information acquired from the group. By providing a means for converting camera coordinates to system coordinates when forming a flow line by a plurality of image sensors, it is possible to generate an overall trace map that traces the entire flow line.

(26) (2)のセンサシステムにおいて、前記画像センサの各々は、前記属性情報の発信元である前記画像センサの有する撮像エリアのうちの縁部に対象動体が現れた時点で前記属性情報を伝達する。対象動体の属性情報を伝達するタイミングを、観測中の画像センサによる撮像エリアの縁部に設定することで、複数の画像センサによる継続的な動線把握が可能となる。 (26) In the sensor system according to (2), each of the image sensors outputs the attribute information at the time when the target moving object appears at the edge of the imaging area of the image sensor that is the source of the attribute information. introduce. By setting the timing of transmitting the attribute information of the target moving object at the edge of the imaging area by the image sensor under observation, it becomes possible to continuously grasp the flow line by the plurality of image sensors.

(27) (26)のセンサシステムにおいて、前記画像センサの各々は、前記動体の移動方向が、前記撮像エリアの中央から縁部に向かっていることを検知した時点で前記属性情報を伝達する。対象動体の属性情報を伝達するタイミングを、観測中の画像センサによる撮像エリアの縁部に動体が達するとともに、前記撮像エリア内の動体の軌跡が、画像センサの視野外に向かっている場合に、対象動体の属性情報を伝達するタイミングとすることで、継続的な動線把握が可能となる。 (27) In the sensor system according to (26), each of the image sensors transmits the attribute information when it is detected that the moving direction of the moving body is from the center of the imaging area toward the edge. The timing of transmitting the attribute information of the target moving body, while the moving body reaches the edge of the imaging area by the image sensor under observation, when the trajectory of the moving body in the imaging area is out of the field of view of the image sensor, By setting the timing of transmitting the attribute information of the target moving body, it is possible to continuously grasp the flow line.

(28) (27)のセンサシステムにおいて、前記画像センサの各々は、前記対象動体の属性情報を、前記縁部からの延長線方向のエリア内に配置されている画像センサを送信先とする。観測中の画像センサのどの縁部に対象動体が存在するかという情報をもとに、前記属性情報を転送する、転送先となる画像センサを正確に選択することができるようになる。 (28) In the sensor system according to (27), each of the image sensors sets the attribute information of the target moving body to an image sensor arranged in an area in the extension line direction from the edge. It becomes possible to accurately select the image sensor to which the attribute information is transferred, based on the information indicating which edge of the image sensor under observation the target moving object exists.

(29) (1)のセンサシステムにおいて、前記属性情報は、前記画像データの輝度勾配情報を含む。輝度勾配情報を特徴量情報としてもつことで、照度の異なる位置に配置された画像センサからの特徴量情報であっても一律に扱うことができ、数値データなので転送量が少なくネットワークへの負荷低減、ならびに肖像権を含む個人情報、セキュリティの観点からの利点がある。 (29) In the sensor system according to (1), the attribute information includes brightness gradient information of the image data. By using brightness gradient information as feature amount information, even feature amount information from image sensors placed at different illuminances can be handled uniformly, and since it is numerical data, the transfer amount is small and the load on the network is reduced. , And personal information including portrait rights, there are advantages from the viewpoint of security.

これらのことから実施形態によれば、可用性をさらに高めたセンサシステム、画像センサ、およびセンシング方法を提供することにある。 From these things, according to an embodiment, there exists in providing a sensor system, an image sensor, and a sensing method which raised availability further.

本発明の実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiment of the present invention has been described, the embodiment is presented as an example and is not intended to limit the scope of the invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. This embodiment and its modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the scope equivalent thereto.

1…センサシステム、4…対象空間、5…通信線、8…環境センサ、9a〜9f…センサデバイス、10a〜10d…画像センサ、11…画像撮像用カメラ、12…画像前処理部、13…特徴量情報抽出部、14…判定部、15…CPU、16…辞書データ、17…保存部、20…通信部、20a〜20d…通信部、20a〜20f…通信部、22…マスター、30…中央サーバ、31…通信部、32…分析部、33…判定部、34…過去データ、35…CPU、A0…画像センサ、A1…画像センサ、B1〜B6…画像センサ、C1〜C4…画像センサ、a〜f…エリア、e4…角部、e5…縁部。 DESCRIPTION OF SYMBOLS 1... Sensor system, 4... Target space, 5... Communication line, 8... Environment sensor, 9a-9f... Sensor device, 10a-10d... Image sensor, 11... Image capturing camera, 12... Image pre-processing part, 13... Feature amount information extraction unit, 14... Judgment unit, 15... CPU, 16... Dictionary data, 17... Storage unit, 20... Communication unit, 20a-20d... Communication unit, 20a-20f... Communication unit, 22... Master, 30... Central server, 31... Communication unit, 32... Analysis unit, 33... Judgment unit, 34... Past data, 35... CPU, A0... Image sensor, A1... Image sensor, B1-B6... Image sensor, C1-C4... Image sensor , A to f... Area, e4... Corner, e5... Edge.

Claims (31)

複数の画像センサと、
前記画像センサにより撮像された画像データから抽出された動体に係わる特徴量情報を、対象動体の属性情報として他の画像センサに伝達する手段とを具備する、センサシステム。
Multiple image sensors,
A sensor system, comprising means for transmitting characteristic amount information relating to a moving body extracted from image data picked up by the image sensor to another image sensor as attribute information of the target moving body.
前記画像センサの各々は、
前記画像データを取得する撮像部と、
前記画像データから前記特徴量情報を抽出する抽出部と、
前記特徴量情報に基づいて前記対象動体を判定する判定部と、
前記判定に係わる辞書データを記憶するデータ保存部と、
前記抽出された特徴量情報を前記他の画像センサに伝達する通信部とを備える、請求項1に記載のセンサシステム。
Each of the image sensors is
An imaging unit for acquiring the image data,
An extraction unit that extracts the feature amount information from the image data,
A determination unit that determines the target moving object based on the feature amount information,
A data storage unit that stores dictionary data relating to the determination,
The sensor system according to claim 1, further comprising a communication unit that transmits the extracted feature amount information to the other image sensor.
前記通信部は、前記対象動体の前記属性情報を蓄積した累積特徴量情報を他の画像センサに伝達する、請求項2に記載のセンサシステム。 The sensor system according to claim 2, wherein the communication unit transmits, to another image sensor, accumulated characteristic amount information in which the attribute information of the target moving body is accumulated. 前記画像センサの各々は、前記累積特徴量情報の蓄積に応じて前記判定部における判定基準を変化させる、請求項3に記載のセンサシステム。 The sensor system according to claim 3, wherein each of the image sensors changes a determination criterion in the determination unit according to the accumulation of the accumulated feature amount information. 前記画像センサの各々は、前記累積特徴量情報の蓄積に応じて、前記対象動体の動線を一筆書きで接続可能とすべく経路マップを累積する、請求項3に記載のセンサシステム。 The sensor system according to claim 3, wherein each of the image sensors accumulates a route map so that the flow line of the target moving body can be connected with a single stroke in accordance with the accumulation of the accumulated feature amount information. 前記判定部により通知対象となる閾値を超える値と判断された場合に、前記通信部は、所定の情報提示先に前記特徴量情報を通知する、請求項2に記載のセンサシステム。 The sensor system according to claim 2, wherein when the determination unit determines that the value exceeds a threshold value to be notified, the communication unit notifies a predetermined information presentation destination of the characteristic amount information. 前記対象動体の属性情報は、前記画像センサ内で生成された特徴量情報である、請求項2に記載のセンサシステム。 The sensor system according to claim 2, wherein the attribute information of the target moving object is feature amount information generated in the image sensor. 前記画像センサの各々は、前記対象動体の属性情報として、対象動体の動線形成に係わる座標情報を画像内の相対座標から、さらに当該画像センサの空間的な配置を示す絶対座標として変換する手段を有する、請求項2に記載のセンサシステム。 Each of the image sensors converts, as attribute information of the target moving body, coordinate information relating to the flow line formation of the target moving body from relative coordinates in the image to absolute coordinates indicating a spatial arrangement of the image sensor. The sensor system according to claim 2, comprising: 前記累積特徴量情報が累積最終閾値を超えていない場合に、前記通信部は、前記対象動体の動体特徴量情報、および前記対象動体の画像データ情報の削除指示を他の少なくとも一つの画像センサに送信する、請求項3に記載のセンサシステム。 When the cumulative feature amount information does not exceed the cumulative final threshold value, the communication unit instructs the at least one other image sensor to delete the moving body feature amount information of the target moving body and the image data information of the target moving body. The sensor system according to claim 3, which transmits. 前記属性情報は、前記複数の画像センサにおける撮像時刻情報を含む、請求項2に記載のセンサシステム。 The sensor system according to claim 2, wherein the attribute information includes image capturing time information of the plurality of image sensors. 前記画像センサの各々は、前記属性情報が所定の閾値範囲を超えている場合に、異常系のデータとして異常系処理を実施する、請求項2に記載のセンサシステム。 The sensor system according to claim 2, wherein each of the image sensors performs abnormal system processing as abnormal system data when the attribute information exceeds a predetermined threshold range. 前記属性情報は、前記対象動体の動線を含む、請求項2に記載のセンサシステム。 The sensor system according to claim 2, wherein the attribute information includes a flow line of the target moving body. 前記通信部は、前記対象動体が検知されたという情報と、前記対象動体が検知されていないという情報との少なくともいずれか一方を前記他の画像センサに伝達する、請求項2に記載のセンサシステム。 The sensor system according to claim 2, wherein the communication unit transmits at least one of information that the target moving body is detected and information that the target moving body is not detected to the other image sensor. .. 前記画像センサの各々は、
前記対象動体の前記特徴量情報を前記他の画像センサに伝達し、前記対象動体の画像データを自らに保存する、または、所定の宛先に伝送する請求項2に記載のセンサシステム。
Each of the image sensors is
The sensor system according to claim 2, wherein the characteristic amount information of the target moving body is transmitted to the other image sensor, and the image data of the target moving body is stored in itself or transmitted to a predetermined destination.
前記通信部は、前記対象動体の前記特徴量情報、および撮像した前記画像データを前記複数の画像センサに伝達する、請求項2に記載のセンサシステム。 The sensor system according to claim 2, wherein the communication unit transmits the feature amount information of the target moving body and the captured image data to the plurality of image sensors. 前記画像センサの各々は、
前記対象動体を検知できなくなった場合に、そのことを他の画像センサに伝達し、前記対象動体の前記特徴量情報を累積した累積特徴量情報と、前記対象動体の画像データとを取得する、請求項2に記載のセンサシステム。
Each of the image sensors is
When the target moving body cannot be detected, the fact is transmitted to another image sensor, and accumulated feature amount information obtained by accumulating the feature amount information of the target moving body and image data of the target moving body are acquired, The sensor system according to claim 2.
前記画像センサの各々は、
前記対象動体を検知したのち、時間の経過とともに、前記対象動体の前記属性情報の保存の優先順位を低下させる、請求項2に記載のセンサシステム。
Each of the image sensors is
The sensor system according to claim 2, wherein after the target moving object is detected, the priority of saving the attribute information of the target moving object is lowered with the lapse of time.
前記画像センサの各々は、
前記画像センサの視野外に前記対象動体が移動した場合に、前記対象動体の属性情報を、前記通信部を介して伝達する、請求項2に記載のセンサシステム。
Each of the image sensors is
The sensor system according to claim 2, wherein when the target moving body moves outside the visual field of the image sensor, the attribute information of the target moving body is transmitted via the communication unit.
前記画像センサの各々は、
所定のエリア内にある他の画像センサに接続要求を伝達後、前記画像センサからの応答が所定時間を経過しても得られない場合に、前記所定のエリアを拡大して再度接続要求を送信する、請求項2に記載のセンサシステム。
Each of the image sensors is
After transmitting the connection request to another image sensor in the predetermined area, if the response from the image sensor is not obtained even after the predetermined time has passed, the predetermined area is expanded and the connection request is transmitted again. The sensor system according to claim 2, wherein
前記画像センサの各々は、
他の画像センサからの消去指示を受信するまで、前記伝達された前記属性情報を前記データ保存部に保持する、請求項2に記載のセンサシステム。
Each of the image sensors is
The sensor system according to claim 2, wherein the transmitted attribute information is held in the data storage unit until a deletion instruction is received from another image sensor.
前記画像センサの各々は、う回路を形成可能な通信トポロジーで互いを接続し、通信に先立って相手先との事前動作確認のための通信を行う、請求項2に記載のセンサシステム。 3. The sensor system according to claim 2, wherein each of the image sensors is connected to each other in a communication topology capable of forming a circuit and performs communication for confirming a pre-operation with the other party prior to the communication. 前記画像センサの各々は、互いの時刻同期をとる手段を備える、請求項2に記載のセンサシステム。 The sensor system according to claim 2, wherein each of the image sensors includes a unit that synchronizes time with each other. 前記判定部は、撮像エリアのする所定の範囲内への前記動体の進入を検知した場合、または、前記動体の形状情報が所定の形状情報に一致する場合に、前記閾値を超えたことを判定する、請求項6に記載のセンサシステム。 The determination unit determines that the threshold value has been exceeded when detecting the entry of the moving body within a predetermined range of the imaging area, or when the shape information of the moving body matches the predetermined shape information. The sensor system according to claim 6, wherein 前記画像センサの各々は、累積閾値を超えたことを検知した画像センサからの通知、または、保存期間が既定値を超えた場合に、前記伝達された属性情報を削除する、請求項2に記載のセンサシステム。 The said each image sensor deletes the said transmitted attribute information, when the notification from the image sensor which detected that the accumulation threshold was exceeded, or when the retention period exceeded a predetermined value. Sensor system. 前記画像センサの各々は、固有のカメラ座標、または、システム座標を前記属性情報とともに他の画像センサに伝達し、対象動体の動線をトレースした画像センサ群から取得した前記属性情報に基づいて全体トレースマップを再構成する、請求項2に記載のセンサシステム。 Each of the image sensors transmits a unique camera coordinate or system coordinate to the other image sensor together with the attribute information, and based on the attribute information acquired from the image sensor group tracing the flow line of the target moving object, the entire image sensor. The sensor system according to claim 2, which reconstructs a trace map. 前記画像センサの各々は、前記属性情報の発信元である前記画像センサの有する撮像エリアのうちの縁部に対象動体が現れた時点で前記属性情報を伝達する、請求項2に記載のセンサシステム。 The sensor system according to claim 2, wherein each of the image sensors transmits the attribute information when a target moving object appears at an edge of an imaging area of the image sensor that is a source of the attribute information. .. 前記画像センサの各々は、
前記動体の移動方向が、前記撮像エリアの中央から縁部に向かっていることを検知した時点で前記属性情報を伝達する、請求項26に記載のセンサシステム。
Each of the image sensors is
27. The sensor system according to claim 26, wherein the attribute information is transmitted when it is detected that the moving direction of the moving body is from the center of the imaging area toward the edge.
前記画像センサの各々は、
前記対象動体の属性情報を、前記縁部からの延長線方向のエリア内に配置されている画像センサを送信先とする、請求項27に記載のセンサシステム。
Each of the image sensors is
28. The sensor system according to claim 27, wherein the attribute information of the target moving object is set to an image sensor arranged in an area in the extension line direction from the edge portion as a transmission destination.
前記属性情報は、前記画像データの輝度勾配情報を含む、請求項1に記載のセンサシステム。 The sensor system according to claim 1, wherein the attribute information includes brightness gradient information of the image data. 複数の画像センサを具備するセンサシステムに適用される前記画像センサにおいて、画像データから抽出された動体に係わる特徴量情報を、対象動体の属性情報として他の画像センサに伝達する手段と、
前記画像データを取得する撮像部と、
前記画像データから前記特徴量情報を抽出する抽出部と、
前記特徴量情報に基づいて前記対象動体を判定する判定部と、
前記判定に係わる辞書データを記憶するデータ保存部と、
前記抽出された特徴量情報を前記他の画像センサに伝達する通信部とを備える、画像センサ。
In the image sensor applied to a sensor system including a plurality of image sensors, means for transmitting characteristic amount information relating to a moving body extracted from image data to another image sensor as attribute information of the target moving body,
An imaging unit for acquiring the image data,
An extraction unit that extracts the feature amount information from the image data,
A determination unit that determines the target moving object based on the feature amount information,
A data storage unit that stores dictionary data relating to the determination,
An image sensor, comprising: a communication unit that transmits the extracted feature amount information to the other image sensor.
複数の画像センサを具備するセンサシステムに適用されるセンシング方法であって、各画像センサで撮像された画像データから抽出された動体に係わる特徴量情報を、対象動体の属性情報として他の画像センサに伝達する過程を含む、センシング方法。 A sensing method applied to a sensor system including a plurality of image sensors, wherein feature amount information about a moving body extracted from image data captured by each image sensor is used as another image sensor as attribute information of the target moving body. A sensing method, including a process of transmitting to.
JP2019006224A 2019-01-17 2019-01-17 Sensor system, image sensor, and sensing method Pending JP2020115608A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019006224A JP2020115608A (en) 2019-01-17 2019-01-17 Sensor system, image sensor, and sensing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019006224A JP2020115608A (en) 2019-01-17 2019-01-17 Sensor system, image sensor, and sensing method

Publications (1)

Publication Number Publication Date
JP2020115608A true JP2020115608A (en) 2020-07-30

Family

ID=71778783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019006224A Pending JP2020115608A (en) 2019-01-17 2019-01-17 Sensor system, image sensor, and sensing method

Country Status (1)

Country Link
JP (1) JP2020115608A (en)

Similar Documents

Publication Publication Date Title
JP6870584B2 (en) Relief systems and methods, as well as the servers and programs used for them.
US11151864B2 (en) System and method for monitoring a property using drone beacons
US9740207B2 (en) Navigating semi-autonomous mobile robots
JP4478510B2 (en) Camera system, camera, and camera control method
WO2019223608A1 (en) Service providing method and apparatus
EP3437078B1 (en) Theft prevention monitoring device and system and method
KR101866974B1 (en) An Action Pattern Collecting Apparatus, System and Method using the same
US20200089943A1 (en) Living body search system
CN106341661B (en) Patrol robot
JP7052305B2 (en) Relief systems and methods, as well as the servers and programs used for them.
US20200057891A1 (en) Image recognition system and image recognition method
JP2011128911A (en) Target detection system, target detection method, target detecting apparatus and mobile information acquisition device
US20220139199A1 (en) Accurate digital security system, method, and program
JP2010066854A (en) Sensor device, sensing information collection system, and method and program of alternative to sensing function
CN202306582U (en) System for searching for persons in public place
CN109788245A (en) Animal rescue system, animal rescue mode and its used server
US20200387716A1 (en) Automated surveillance system and method therefor
Irfan et al. Crowd analysis using visual and non-visual sensors, a survey
JP6812325B2 (en) Robot management system
JP2020115608A (en) Sensor system, image sensor, and sensing method
CN111462436A (en) Internet security protection monitored control system
CN108566535A (en) Intelligent mobile camera and intelligent mobile monitoring system
JP6390015B2 (en) Biological search system
KR102587427B1 (en) Moving object location generation and movement trajectory generation system
JP2020188325A (en) Leading support system