JP7353875B2 - Sensor system and sensing method - Google Patents

Sensor system and sensing method Download PDF

Info

Publication number
JP7353875B2
JP7353875B2 JP2019161251A JP2019161251A JP7353875B2 JP 7353875 B2 JP7353875 B2 JP 7353875B2 JP 2019161251 A JP2019161251 A JP 2019161251A JP 2019161251 A JP2019161251 A JP 2019161251A JP 7353875 B2 JP7353875 B2 JP 7353875B2
Authority
JP
Japan
Prior art keywords
information
data
moving object
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019161251A
Other languages
Japanese (ja)
Other versions
JP2021039592A (en
Inventor
隆司 峯邑
宏幸 会津
孝明 榎原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019161251A priority Critical patent/JP7353875B2/en
Publication of JP2021039592A publication Critical patent/JP2021039592A/en
Application granted granted Critical
Publication of JP7353875B2 publication Critical patent/JP7353875B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明の実施形態は、センサシステム、およびセンシング方法に関する。 Embodiments of the present invention relate to sensor systems and sensing methods.

IoT(Internet of Things)機器としての画像センサに注目が集まっている。近年の画像センサはメモリおよびプロセッサ(CPU(Central Processing Unit)あるいはMPU(Micro Processing Unit)等)を備え、いわばレンズ付きの組込みコンピュータといえる。AI(Artificial Intelligence)技術との親和性も高く、撮影した画像データを分析して、人間の在・不在、あるいは人数などを計算することができる。例えば、chamfer distanceを用いた障害物検知について解説する文献がある。画像センサを用いて検知した動体が人であることを辞書と照合して確認し、照明制御を行う方法なども提案されている。 Image sensors as IoT (Internet of Things) devices are attracting attention. Recent image sensors are equipped with a memory and a processor (CPU (Central Processing Unit), MPU (Micro Processing Unit), etc.), and can be said to be an embedded computer with a lens. It is also highly compatible with AI (Artificial Intelligence) technology, and can analyze captured image data to calculate the presence/absence of people, as well as the number of people. For example, there is a literature that explains obstacle detection using chamfer distance. A method has also been proposed in which lighting is controlled by checking a dictionary to confirm that a moving object detected by an image sensor is a person.

画像センサにより検知した動体が人であることを辞書に照合して確認し、照明制御を行う技術が知られている。対象人物を2方向から撮像し、少なくとも3方向からの撮像により事前に得られた画像の特徴と比較して人物同定をする方法も知られている。 A technique is known in which lighting is controlled by checking a dictionary to confirm that a moving object detected by an image sensor is a person. A method is also known in which a target person is imaged from two directions and the person is identified by comparing the images with features of images obtained in advance by imaging from at least three directions.

対象動体に対する識別能の高い特徴量情報を抽出可能な方法として、HOG(Histgrams of Oriented Gradients)を用いた方法がある。輝度勾配方向ヒストグラムと呼ばれるこの手法は、候補領域を複数のブロックに分割して、各ブロックの輝度勾配方向をヒストグラム化する方法である。勾配の有無だけを用いることにより、明るさの変化による影響を受けにくく、形状の変化に対しても頑健であるといわれる。さらに形状識別能を高めたCoHOG(Co-occurrence HOG)という手法も開発されている。 A method using HOG (Histograms of Oriented Gradients) is available as a method capable of extracting feature information with high discriminative ability for a target moving object. This method, called brightness gradient direction histogram, is a method in which a candidate region is divided into a plurality of blocks and the brightness gradient direction of each block is created into a histogram. By using only the presence or absence of a gradient, it is said to be less susceptible to changes in brightness and robust to changes in shape. Furthermore, a method called CoHOG (Co-occurrence HOG), which has improved shape recognition ability, has also been developed.

特開2010-9847号公報Japanese Patent Application Publication No. 2010-9847 特開2016-1447号公報Unexamined Japanese Patent Publication No. 2016-1447 特開2017-169768号公報JP 2017-169768 Publication 特表2015-504616号公報Special table 2015-504616 publication

Lakshitha Dantanarayana*, Gamini Dissanayake, Ravindra Ranasinge, C-LOG: A Chamfer distance based algorithm for localisation in occupancy grid-maps, CAI Transactions on Intelligence Technology 1 (2016) 272e284, http://www.journals.elsevier.com/cai-transactions-on-intelligence-technology/Lakshitha Dantanarayana*, Gamini Dissanayake, Ravindra Ranasinge, C-LOG: A Chamfer distance based algorithm for localization in occupancy grid-maps, CAI Transactions on Intelligence Technology 1 (2016) 272e284, http://www.journals.elsevier.com/ cai-transactions-on-intelligence-technology/ Navneet Dalal and Bill Triggs, Histograms of Oriented Gradients for Human Detection, INRIA Rh.one-Alps, 655 avenue de l'Europe, Montbonnot 38334, FranceNavneet Dalal and Bill Triggs, Histograms of Oriented Gradients for Human Detection, INRIA Rh.one-Alps, 655 avenue de l'Europe, Montbonnot 38334, France

画像センサを用いた画像認識や、機械学習(Machine-Learning)に関する課題の1つは、教師データ(トレーニングデータ)を用いた継続的な学習である。つまり、画像センサを現場に据え付けた後では、教師データを作成することはもはや困難である。教師データを作成することには、人手による大量の作業を要するからである。このため、画像センサに搭載される認識/判定のためのデータ(以下、判定モデルと称する)の学習を積み重ね、性能を向上させてゆくことが難しいという課題があった。 One of the challenges related to image recognition using image sensors and machine learning is continuous learning using teacher data (training data). In other words, it is no longer difficult to create training data after the image sensor is installed at the site. This is because creating training data requires a large amount of manual work. Therefore, there has been a problem in that it is difficult to improve the performance by accumulating learning of data for recognition/judgment (hereinafter referred to as a determination model) installed in the image sensor.

そこで、目的は、継続的に性能を高めることの可能なセンサシステム、およびセンシング方法を提供することにある。 Therefore, an object is to provide a sensor system and a sensing method that can continuously improve performance.

実施形態によれば、センサシステムは、建物に配設される複数の画像センサと、解析部と、状態判定部とを具備する。解析部は、画像センサにより撮像された画像データを解析して、対象動体の動体情報を取得する。状態判定部は、教師データを用いた機械学習により生成される判定モデルに基づいて、動体情報から対象動体の状態を判定する。 According to the embodiment, the sensor system includes a plurality of image sensors disposed in a building, an analysis section, and a state determination section. The analysis unit analyzes image data captured by the image sensor and obtains moving object information about a target moving object. The state determination unit determines the state of the target moving object from the moving object information based on a determination model generated by machine learning using teacher data.

図1は、実施形態に係わるセンサシステム1の一例を示す図である。FIG. 1 is a diagram showing an example of a sensor system 1 according to an embodiment. 図2は、中央サーバ30の一例を示す機能ブロック図である。FIG. 2 is a functional block diagram showing an example of the central server 30. As shown in FIG. 図3は、実施形態に係わるシステムの処理手順の一例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of the processing procedure of the system according to the embodiment. 図4は、実施形態に係わるシステムの処理手順の一例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of the processing procedure of the system according to the embodiment. 図5は、実施形態に係わるシステムの処理手順の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of the processing procedure of the system according to the embodiment. 図6は、ステップS102における処理の一例を示すフローチャートである。FIG. 6 is a flowchart showing an example of the process in step S102. 図7は、ステップS114における処理の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the process in step S114. 図8は、ステップS109における処理の一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of the process in step S109. 図9は、ステップS109における処理の一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of the process in step S109. 図10は、判定モデルの評価に利用可能な真偽表の一例を示す図である。FIG. 10 is a diagram illustrating an example of a truth table that can be used to evaluate a determination model. 図11は、判定モデルに関して図10の分類を当てはめた場合に得られる結果の一例を示すグラフである。FIG. 11 is a graph showing an example of the results obtained when the classification of FIG. 10 is applied to the determination model. 図12は、PR曲線の例を示す図である。FIG. 12 is a diagram showing an example of a PR curve. 図13は、PR曲線の例を示す図である。FIG. 13 is a diagram showing an example of a PR curve. 図14は、真偽表を現実の系に当てはめた場合の一例を示す図である。FIG. 14 is a diagram showing an example of applying the truth table to an actual system. 図15は、画像センサで撮像される動体の一例を示す図である。FIG. 15 is a diagram showing an example of a moving object imaged by an image sensor. 図16は、画像センサで撮像される動体の一例を示す図である。FIG. 16 is a diagram illustrating an example of a moving object imaged by an image sensor. 図17は、画像センサで撮像される動体の一例を示す図である。FIG. 17 is a diagram illustrating an example of a moving object imaged by an image sensor. 図18は、画像センサで撮像される動体の一例を示す図である。FIG. 18 is a diagram showing an example of a moving object imaged by an image sensor. 図19は、動線の一例を示す図である。FIG. 19 is a diagram showing an example of a flow line. 図20は、動線の一例を示す図である。FIG. 20 is a diagram showing an example of a flow line. 図21は、動線の一例を示す図である。FIG. 21 is a diagram showing an example of a flow line. 図22は、動線の一例を示す図である。FIG. 22 is a diagram showing an example of a flow line. 図23は、画像センサ10a~10fの一例を示す機能ブロック図である。FIG. 23 is a functional block diagram showing an example of the image sensors 10a to 10f.

次に、発明の実施の形態について図面を参照しながら説明する。
画像センサを用いたソリューションへのニーズが年々高まってきている。例えば、撮影された画像から、老健施設からの徘徊老人の不測の外出や、体調不良で急に歩行困難になった人、酩酊した人、公共の場所での迷子、あるいは挙動不審者を早期に検知するなど、通常と異なる行動をする動体(人)を発見したいという要望がある。また、同じ動体でも、倉庫で稼働するフォークリフトなどの車両の動線を把握したいという要望もある。このように画像認識技術にはさまざまなニーズがあり、画像センサ、および画像センサを用いたセンサシステムへの期待は大きい。
Next, embodiments of the invention will be described with reference to the drawings.
The need for solutions using image sensors is increasing year by year. For example, from the images taken, we can quickly identify the unexpected departure of a wandering elderly person from a nursing home, a person who suddenly has difficulty walking due to poor health, an inebriated person, a lost child in a public place, or a person whose behavior is suspicious. There is a desire to detect moving objects (people) that exhibit unusual behavior. There is also a desire to understand the flow lines of vehicles such as forklifts operating in warehouses, even if they are the same moving objects. As described above, there are various needs for image recognition technology, and there are high expectations for image sensors and sensor systems using image sensors.

対象動体(人や車両等)が携帯電話やスマートフォン等の発信機を所持していれば、GPS(Global Positioning System)などによる検知が可能である。しかし、発信機を持たない場合や、そもそも屋内ではこの方法を適用することができない。この場合、例えば建物内に設置された画像センサにより、判定モデルを用いた計算処理によって動線を把握することになる。 If the target moving object (person, vehicle, etc.) has a transmitter such as a mobile phone or smartphone, it can be detected using GPS (Global Positioning System) or the like. However, this method cannot be applied when the user does not have a transmitter or indoors. In this case, the flow line will be grasped through calculation processing using a determination model using, for example, an image sensor installed in the building.

判定モデルを改善するための学習は、教師無し学習と、教師あり学習とに大別される。教師無し学習は、将棋や囲碁のように、ルールや目標とする状態が明確である場合に有効である。例えば勝ち状態とは、相手玉を取ること、または自陣の囲う面積(領土)が広いこと、などのように明確である。目標がはっきりしていれば、判定モデルが改善されたか否かを判断することが可能になる。この手法は強化学習とも称され、環境への働きかけの結果からトライ&エラーを重ねて学習する手法である。因みに、データを用いた機械学習により得られるモデルは、学習済みモデルと称される。実施形態に係わる判定モデルも学習済みモデルの一例である。 Learning for improving decision models is broadly classified into unsupervised learning and supervised learning. Unsupervised learning is effective when the rules and target state are clear, such as in Shogi or Go. For example, a winning state is clear, such as capturing the opponent's ball or having a large area (territory) covered by one's own team. If the goal is clear, it will be possible to determine whether the decision model has been improved. This method is also called reinforcement learning, and is a method of learning through repeated trial and error from the results of actions on the environment. Incidentally, a model obtained by machine learning using data is called a learned model. The determination model according to the embodiment is also an example of a trained model.

クラスタリングも教師無し学習の一つである。クラスタリングとは、与えられたデータから規則性を発見し、学習する手法であり、データの背後にある本質的な構造、タイプを抽出することができる。トライ&エラーによるアプローチであることから、大量のデータの蓄積を経て初めて判定モデルとして改善できる状態になる。データに依存する傾向が強く、どちらかというと恣意的な結果となることから、必ずしも期待する結果に直ちに結びつかない扱いにくさを伴う場合がある。 Clustering is also a type of unsupervised learning. Clustering is a method that discovers and learns regularities from given data, and can extract the essential structure and type behind the data. Since it is a trial-and-error approach, the decision model can only be improved after a large amount of data has been accumulated. Since it tends to be highly dependent on data and produces rather arbitrary results, it may be difficult to handle and does not necessarily lead to the expected results immediately.

実施形態で想定される、対象動体を継続的にモニタするようなケースでは、教師あり学習で想定通りの判定モデル出力を再現させるアプローチが効率的であり、また、効果的である。 In a case where a target moving object is continuously monitored, which is assumed in the embodiment, an approach that uses supervised learning to reproduce the expected judgment model output is efficient and effective.

判定モデルの改善に教師データが必要になるのは、判定モデルが改善したのか否かが、誰かに教えられなければ分からない場合である。教師データとは、何が正解なのかが予め分かっているデータである。教師データを用いれば、或るデータを用いた判定モデルによる推定結果が実際とマッチするか否かを判別できることになる。このような教師データは、トレーニングデータとして使うこともできるし、過去に学習したことのないサンプルであれば、テストデータとして、判定モデルの現在の精度を知る手段としても用いることができる。 Teacher data is needed to improve a decision model when it is impossible to know whether the decision model has been improved unless someone tells it. Teacher data is data in which the correct answer is known in advance. By using training data, it is possible to determine whether or not the estimation result based on a judgment model using certain data matches the actual result. Such teacher data can be used as training data, and if it is a sample that has not been studied in the past, it can be used as test data as a means to know the current accuracy of the judgment model.

実施形態で説明するアプリケーションでは、施設・ビル等での人の動き、動線トレース、あるいは、部屋にいる人の人数等のデータを画像センサで収集する。ある部屋における未来の人数は、隣接する部屋までの動線を把握することで効果的に予測できる。これらの収集データは、目標値があるわけでもなく、判定モデルに従って人の流れを制御するといった、環境への働きかけを積極的に行うわけでもない。従って、このような場合の判定モデルの改善に最も有効なのは、教師あり学習である。すなわち、どのクラスに識別すればよいか予め正解が分かっているデータ(教師データ)により学習し、判定モデルの判定精度を改善させる方法である。 In the application described in the embodiment, data such as movement of people in a facility, building, etc., tracing of flow lines, or the number of people in a room is collected using an image sensor. The future number of people in a certain room can be effectively predicted by understanding the flow lines to adjacent rooms. These collected data do not have target values, nor do they actively influence the environment, such as controlling the flow of people according to a judgment model. Therefore, supervised learning is the most effective way to improve the decision model in such cases. That is, this is a method of learning which class should be identified using data (teacher data) for which the correct answer is known in advance, and improving the judgment accuracy of the judgment model.

このようなトレーニングデータとして使えるデータを現場で収集できれば、撮像される画像にローカルフィットした判定モデルを作成し、最適化していくことができる。実施形態では、画像センサを現場に据え付けた後でも、疑似的な教師データにより、自動/半自動で判定モデルの改善を継続可能とする技術について説明する。 If such data that can be used as training data can be collected on-site, it is possible to create and optimize a decision model that locally fits the captured image. In the embodiment, a technique will be described that allows automatic/semi-automatic improvement of a determination model to be continued using pseudo training data even after an image sensor is installed at a site.

例えば、設置された画像センサ群により対象動体の動線把握をする際に、対象とする個人または個人の属する社会的、組織上のグループを同定できれば、教師データとして利用できる場合がある。例えば、その建物に入ってきた人が毎日通勤してくる従業員であれば、その人の動線情報は、普通の人のそれと判断して差し支えない。対象動体の、個人または個人の属するグループを同定するには、その人が携帯するカード情報からの収集情報や、例えば、深層学習による顔認証判定モデルを利用して、登録された情報との照合、判定を行う。ちなみに現在では、オープンソース化された多くの顔認証判定モデルが公開されている。 For example, when grasping the flow line of a target moving object using a group of installed image sensors, if the target individual or the social or organizational group to which the individual belongs can be identified, this may be used as training data. For example, if the person who enters the building is an employee who commutes to work every day, it is safe to judge that the person's flow line information is that of an ordinary person. In order to identify an individual or a group to which an individual belongs to a target moving object, information collected from the card information carried by the person or, for example, a facial recognition judgment model based on deep learning, can be used to match registered information. , makes a judgment. Incidentally, there are currently many open source facial recognition recognition models available.

このようにして個人または個人の属するグループを同定した情報と、現場に据え付けられた画像センサ群による動線情報とを対応付けることができれば、教師ありの動線情報(すなわち、普通の人かそうでないかが予め分かっているデータ)を現場で得ることができる。すなわち、画像センサの現場への据え付け後であっても効果的な教師データの収集を継続し、動線から普通の人か否かの判断をする判定モデルの改善を継続することができる。 If it is possible to correlate information that identifies an individual or the group to which the individual belongs in this way with flow line information obtained from a group of image sensors installed at the site, supervised flow line information (i.e., whether it is an ordinary person or It is possible to obtain on-site data (data that is known in advance). In other words, even after the image sensor is installed at the site, it is possible to continue to collect effective training data and continue to improve the judgment model that determines whether a person is an ordinary person based on the flow line.

なお、グループとは、個人の属する社会的集団を意味する。例えば、所属する組織や分類として主に携帯電子情報から収集されるものと、対象動体の生体情報から得られる年齢層、性別、服装といった情報から推定される所属グループ等がある。 Note that a group means a social group to which an individual belongs. For example, there are organizational affiliations and classifications that are mainly collected from mobile electronic information, and affiliation groups that are estimated from information such as age group, gender, and clothing obtained from the biological information of the target moving object.

さらに、対象動体の一連の動作が、教師データとして利用可能か判断する判定モデルに、真偽率を加えてもよい。真偽率とは、既に収集した画像データに基づき予測されたクラスと実際のクラスとの間の真偽を、比率で表す量である。対象とする一連の動作が、誤認識をする確率が高いと真偽率から判断されれば、その部分は教師データとしては採用しないという判断を加えることができる。 Furthermore, a truth rate may be added to a determination model that determines whether a series of movements of a target moving object can be used as training data. The truth rate is a quantity that expresses the truth or falsity between a predicted class based on already collected image data and an actual class as a ratio. If it is judged from the truth/false rate that the target sequence of actions has a high probability of being misrecognized, it can be decided not to use that part as training data.

[実施形態]
実施形態では、対象動体の一つの特徴を表す動体情報に着目する。動体情報は、画像センサで取得された画像データを解析して得られる情報の一例である。動体情報としては、対象情報の位置をトレースして得られる動線情報が代表的である。また、対象動体の動きの大きさおよび方向を表す情報(動きベクトル)や、移動方向およびその速さを示す情報(速度ベクトル)等も、動体情報の一例である。また、対象動体の動きの大きさを示す量や、対象の動きの方向を示す量等のスカラー値も、動体情報として理解されることが可能である。また、画像センサシステムにより収集された生体/機器情報(人の情報やフォークリフトの情報)等も動体情報の一例である。
さらに、停止している対象動体の形状を表す形状情報も、動体情報の一例である。形状情報としては、HOG(Histogram of Oriented Gradients)や、CoHOG(Co-occurrence Histogram of Oriented Gradients)が知られている。
[Embodiment]
In the embodiment, attention is paid to moving object information representing one feature of a target moving object. Moving object information is an example of information obtained by analyzing image data acquired by an image sensor. A typical example of moving object information is flow line information obtained by tracing the position of target information. Furthermore, information indicating the magnitude and direction of movement of a target moving object (motion vector), information indicating the direction of movement and its speed (velocity vector), etc. are also examples of moving object information. Furthermore, scalar values such as a quantity indicating the magnitude of movement of a target moving body and a quantity indicating the direction of movement of the target can also be understood as moving body information. Further, living body/device information (person information, forklift information), etc. collected by the image sensor system is also an example of moving body information.
Furthermore, shape information representing the shape of a stopped target moving object is also an example of moving object information. As shape information, HOG (Histogram of Oriented Gradients) and CoHOG (Co-occurrence Histogram of Oriented Gradients) are known.

(構成)
図1は、実施形態に係わるセンサシステム1の一例を示す模式図である。センサシステム1は、対象空間4の監視をセンサを用いて実現するためのシステムである。対象空間4は、例えばビルなどの建物や、店舗、オフィス等の有人の空間であってもよいし、機器の搬入/搬出を伴う工場や、サーバルーム等の無人の空間であってもよい。対象空間4の立体形状は直方体に限らず、センサが設置された任意の形状の空間であってよい。また、センサシステム1が設置された建物全体を含む、多層階の略中空建築物であってもよい。
(composition)
FIG. 1 is a schematic diagram showing an example of a sensor system 1 according to an embodiment. The sensor system 1 is a system for realizing monitoring of the target space 4 using sensors. The target space 4 may be, for example, a building such as a building, a manned space such as a store or an office, or an unmanned space such as a factory where equipment is brought in/out, or a server room. The three-dimensional shape of the target space 4 is not limited to a rectangular parallelepiped, but may be a space of any shape in which a sensor is installed. Alternatively, the sensor system 1 may be a multi-story, substantially hollow building including the entire building in which the sensor system 1 is installed.

対象空間4は、例えばaからfまでのエリアに分割される。エリアa~fのセンサによる監視は、それぞれに対応する画像センサ10a~10f及び通信部20a~20fにより実現される。例えば、各通信部20から送られた情報を中央サーバ30が収集し、処理することで、対象空間4全体での空調制御が実現される。エリアa~fには、それぞれに共通する文字(aからf)で区別される画像センサ10及び通信部20が対応する。以下、エリアa~fを区別しない場合は単に「エリア」と記載する。 The target space 4 is divided into areas a to f, for example. Sensor monitoring of areas a to f is realized by corresponding image sensors 10a to 10f and communication units 20a to 20f, respectively. For example, the central server 30 collects and processes information sent from each communication unit 20, thereby realizing air conditioning control in the entire target space 4. The image sensor 10 and the communication unit 20, which are distinguished by common letters (a to f), correspond to the areas a to f. Hereinafter, when areas a to f are not distinguished, they will simply be referred to as "area".

センサシステム1は、画像センサ10a~10f、通信部20a~20f及び中央サーバ30を備える。通信部20a~20fは、それぞれ画像センサ10a~10fのうち共通する文字(aからf)で区別される画像センサを制御する。以下、画像センサ10a~10fを区別しない場合は画像センサ10と記載し、通信部20a~20fを区別しない場合は通信部20と記載する。 The sensor system 1 includes image sensors 10a to 10f, communication units 20a to 20f, and a central server 30. The communication units 20a to 20f respectively control image sensors 10a to 10f that are distinguished by common letters (a to f). Hereinafter, when the image sensors 10a to 10f are not distinguished, they are referred to as the image sensor 10, and when the communication units 20a to 20f are not distinguished, they are referred to as the communication unit 20.

各通信部20及び中央サーバ30はネットワーク5で接続され、互いに通信可能に構成される。ネットワーク5は、建物全体に配置された画像センサ、および他の情報収集手段、既設システム等からのデータを転送/収集するとともに、各センサを制御するため通信路である。ネットワーク5は、例えば、代表的な有線LANであるイーサネット(登録商標)でも良いし、PLC(Power Line Communication)でもよい。各通信部20及び中央サーバ30の通信は無線通信によって実現されてもよい。中央サーバ30は、各通信部20から取得される計測データに基づいて、各通信部20を全体制御する。 Each communication unit 20 and central server 30 are connected via a network 5 and configured to be able to communicate with each other. The network 5 is a communication path for transmitting/collecting data from image sensors arranged throughout the building, other information collecting means, existing systems, etc., and controlling each sensor. The network 5 may be, for example, Ethernet (registered trademark), which is a typical wired LAN, or PLC (Power Line Communication). Communication between each communication unit 20 and the central server 30 may be realized by wireless communication. The central server 30 performs overall control of each communication unit 20 based on measurement data acquired from each communication unit 20 .

対象空間4に隣接するエリア6に、顔認証センサ7aと、入退出ゲート8aとが設置される。顔認証センサ7aは生体情報センサの一例であり、入退出ゲート8aは、電子情報読み取り手段の一例である。いずれも、既設システムの一例である。顔認証センサ7aにより、対象動体の生体情報、すなわち顔の情報が収集される。入退出ゲート8aは、対象動体個人、または、対象動体の属する(社会的)グループの固有の電子情報を収集する。例えば、従業員カードや入退出カードが、固有の電子情報を提供する。これらの情報は、ネットワークを構成する通信路9aおよび9bを介して、中央サーバ30、または、近くの(例えば画像センサ10c)に伝達される。 A face authentication sensor 7a and an entrance/exit gate 8a are installed in an area 6 adjacent to the target space 4. The face authentication sensor 7a is an example of a biological information sensor, and the entrance/exit gate 8a is an example of electronic information reading means. Both are examples of existing systems. The face authentication sensor 7a collects biological information of the target moving object, that is, face information. The entrance/exit gate 8a collects electronic information unique to the target moving object individual or the (social) group to which the target moving object belongs. For example, employee cards and entry/exit cards provide unique electronic information. This information is transmitted to the central server 30 or nearby (for example, the image sensor 10c) via communication paths 9a and 9b forming a network.

管理者入力情報入手部11aは、管理者/ユーザが、収集した画像情報が、教師データとして利用可能か否かを入力した場合の情報を収集する。収集された情報は、通信部21aから中央サーバ30に送信される。この情報は、撮像した画像情報から得られた特徴量/動線情報が教師データとして利用可能か否か、を判断するための一つの材料として利用可能である。なおこの場合、中央サーバ30は、既設システムの一部であるとともに、センサシステム1の情報を収集/制御する機能も有する。 The administrator input information acquisition unit 11a collects information when the administrator/user inputs whether or not the collected image information can be used as teacher data. The collected information is transmitted to the central server 30 from the communication unit 21a. This information can be used as one material for determining whether the feature amount/flow line information obtained from the captured image information can be used as teacher data. In this case, the central server 30 is part of the existing system and also has a function of collecting/controlling information on the sensor system 1.

顔認識センサ、顔認証センサ等の、個人特定に用いられるセンサの情報量は、天井部に据え付けられた画像センサによる動体トレース用のデータ量に較べて格段に(数倍以上)大きいのが普通である。従って、顔認証センサのような大量のデータ処理を必要とする画像センサを施設・建築物内全体に配置する場合(ケース1)と、エリア6等の特定の場所だけに顔認証センサを配置し、その他は動体の動線把握や、部屋の中の人の混雑度を把握するための画像センサを配置する場合(ケース2)とで、必要なリソースの総量(ハードウェアリソース、ソフトウェアリソース、ネットワークトラフィック等)は大きく異なる。実施形態はケース2に相当し、より少ない通信/計算リソースで構成可能である。 The amount of information from sensors used to identify individuals, such as face recognition sensors and facial recognition sensors, is usually much larger (several times or more) than the amount of data for tracing moving objects using image sensors installed on the ceiling. It is. Therefore, there are cases in which image sensors such as face recognition sensors that require large amounts of data processing are placed throughout the facility/building (Case 1), and cases in which face recognition sensors are placed only in specific locations such as Area 6. In other cases, the total amount of resources required (hardware resources, software resources, network traffic, etc.) vary greatly. The embodiment corresponds to case 2 and can be configured with fewer communication/computation resources.

生体情報、携帯する電子媒体の情報の収集手段としては、種々考えられる。例えば、
(A)入場者が制限されるドア23を通過できるグループに、対象動体が属している。
(B)画像センサ10fに対応するメッシュ状の分割エリア24の特定の場所25に、対象動体がいるか否か。これは、自席に着席したなどのアクションにより発生する情報である。
(C)この特定の場所の照明のON/OFF操作をしたか否か。
(D)モバイルPCなどの情報端末26に対象動体がアクセスしたか否か。など。
個人、または個人の属するグループを特定するための種々の方法がある。そして、その多くは、施設の中の特定の場所であり、施設のマップ情報を介して、対象動体の特徴量情報を教師データとして利用できるか否かの判断を助ける情報となる。
Various methods can be considered for collecting biological information and information on portable electronic media. for example,
(A) The target moving object belongs to a group that can pass through the door 23 where visitors are restricted.
(B) Whether or not there is a target moving object in a specific location 25 of the mesh-like divided area 24 corresponding to the image sensor 10f. This is information generated by an action such as taking a seat at one's own seat.
(C) Whether or not the lighting in this specific location was turned on/off.
(D) Whether or not the target moving object has accessed the information terminal 26 such as a mobile PC. Such.
There are various methods for identifying an individual or a group to which an individual belongs. Most of the information is specific locations within the facility, and becomes information that helps determine whether or not the feature amount information of the target moving object can be used as training data via the map information of the facility.

図2は、中央サーバ30の一例を示す機能ブロック図である。センサシステムに備わる画像センサ10a~10fは、例えば室温や照度などの環境情報(センサデータ)を収集する。センサデータは、各画像センサ10a~10fに接続された通信部20a~20fから中央サーバ30に向け伝送され、通信部31により受信される。 FIG. 2 is a functional block diagram showing an example of the central server 30. As shown in FIG. Image sensors 10a to 10f included in the sensor system collect environmental information (sensor data) such as room temperature and illuminance. The sensor data is transmitted to the central server 30 from the communication units 20a to 20f connected to each of the image sensors 10a to 10f, and is received by the communication unit 31.

管理者/ユーザによって管理者入力情報入手部11aに入力された情報は、通信部21aを介して中央サーバ30に伝達される。顔認証センサ7a、および/または入退出ゲート8aは、電子情報読み取り手段の一例である。いずれも、既設システムの一例である。顔認証センサ7aにより、対象動体の生体情報、すなわち顔の情報が収集される。入退出ゲート8aにより収集された対象動体の情報は、識別情報入手部12aを経由して、通信部22aから中央サーバ30に伝達される。 Information input by the administrator/user into the administrator input information acquisition section 11a is transmitted to the central server 30 via the communication section 21a. The face authentication sensor 7a and/or the entrance/exit gate 8a are examples of electronic information reading means. Both are examples of existing systems. The face authentication sensor 7a collects biological information of the target moving object, that is, face information. Information on the target moving object collected by the entrance/exit gate 8a is transmitted from the communication section 22a to the central server 30 via the identification information acquisition section 12a.

管理者入力情報入手部11a、顔認証センサ7a、入退出ゲート8aは、既設システムの一例であり、それぞれで収集した収集データを中央サーバ30に伝送する。既設システムは、データ収集システムの一例である。 The administrator input information acquisition unit 11a, the face authentication sensor 7a, and the entrance/exit gate 8a are examples of existing systems, and each of them transmits the collected data to the central server 30. The existing system is an example of a data collection system.

実施形態では、対象動体の日常または通常の行動である、セキュリティ・ゲートの通過、所定の場所への移動、施設の機器の利用といった本来の目的を有する行為によって収集可能となった情報を、既設システムからの収集データとして含む。 In the embodiment, information that can be collected through activities that have the original purpose, such as passing through a security gate, moving to a predetermined location, and using facility equipment, which are the daily or normal actions of the target moving object, is collected using existing equipment. Included as collected data from the system.

センサシステムで取得されたセンサデータと、既設システムで収集された収集データは、中央サーバ30に集められる。中央サーバ30は通信部31を介して、これらのデータを受信する。このうちセンサシステムから収集したセンサデータは、制御部46の特徴量抽出部32により、センサデータから判定モデルの作成に必要な情報を抽出する。 Sensor data acquired by the sensor system and collected data collected by the existing system are collected in the central server 30. The central server 30 receives these data via the communication unit 31. Among the sensor data collected from the sensor system, the feature amount extraction section 32 of the control section 46 extracts information necessary for creating a determination model from the sensor data.

抽出後、判定部33により画像データの判定が行われる。判定部33は、所定条件を満足した画像データであるか、教師データ判断部40に送ってよいデータであるかなどの判定を行う。判定の際は、記憶部34に記憶される画像データ34a、特徴量34b、および記憶部35の辞書データ35aを用いてもよい。 After extraction, the determination unit 33 determines the image data. The determining unit 33 determines whether the image data satisfies predetermined conditions and whether the data can be sent to the teacher data determining unit 40. At the time of determination, the image data 34a and feature amount 34b stored in the storage section 34, and the dictionary data 35a of the storage section 35 may be used.

特徴量を抽出後、特徴量および画像データは、画像データ34a、特徴量34bとして記憶部34に保存されてもよい。これらの制御および処理はCPU36により実行される。こうして得られた画像センサからの情報は、教師データ判断部40に送られる。 After extracting the feature amount, the feature amount and image data may be stored in the storage unit 34 as image data 34a and feature amount 34b. These controls and processes are executed by the CPU 36. The information obtained from the image sensor in this way is sent to the teacher data determination section 40.

一方、既設システムにより収集された収集データは、中央サーバ30に送られ、中央サーバ30内の通信部31を介して制御部46に送られる。収集データが顔認証センサ7aからのデータであれば、特徴量抽出部32に送られ、特徴量が抽出される。判定部33は、所定条件を満たすデータであるか、教師データ判断部40に送ってよいデータかなどの判定を行う。判定の際は、画像データ34a、特徴量34bおよび辞書データ35aを用いてもよい。また、抽出された特徴量および画像データは、画像データ34a、特徴量34bとして記憶部34に保存されてもよい。これらの制御および処理はCPU36により行われる。 On the other hand, the collected data collected by the existing system is sent to the central server 30 and sent to the control unit 46 via the communication unit 31 within the central server 30. If the collected data is data from the face authentication sensor 7a, it is sent to the feature amount extraction unit 32, where the feature amount is extracted. The determining unit 33 determines whether the data satisfies predetermined conditions or whether the data may be sent to the teacher data determining unit 40. When making a determination, the image data 34a, the feature amount 34b, and the dictionary data 35a may be used. Further, the extracted feature amount and image data may be stored in the storage unit 34 as image data 34a and feature amount 34b. These controls and processes are performed by the CPU 36.

収集データが入退出ゲート8aからのデータであれば、生体情報と異なり、特徴量を抽出する必要がない。よってこの種のデータに対しては、判定部33にて利用可能な情報か判断される。この制御および処理はCPU36により実施される。この情報は、教師データ判断部40に送られる。 If the collected data is data from the entry/exit gate 8a, unlike biometric information, there is no need to extract feature amounts. Therefore, for this type of data, the determination unit 33 determines whether the information is usable. This control and processing is performed by the CPU 36. This information is sent to the teacher data determination section 40.

教師データ判断部40は、センサシステムからのセンサデータ(画像データ等)と、既設システムからの収集データとを、情報連携部41により関連付ける。関連付けの基準としては、データのタイムスタンプなどの時刻情報、および/または、センサの置かれている場所、撮像範囲等の場所に係る情報、さらには、カードの読み取り動作、撮像される動作などの対象動体の動作情報を参照することができる。 The teacher data determining unit 40 associates sensor data (image data, etc.) from the sensor system with collected data from the existing system using the information linking unit 41. The criteria for association includes time information such as data time stamps, and/or location information such as the location of the sensor and the imaging range, as well as information such as card reading operations, imaged operations, etc. It is possible to refer to the motion information of the target moving object.

関連付けられたデータは、採否判定部42により、教師データとして採用することが可能か否かが判定される。判定に際しては、教師データデータベース(DB)44に既に記憶されている教師データとの対比をしてもよい。判定の結果、「教師データ」と判定された場合は、教師データDB44に保存される。 The associated data is determined by the acceptance/rejection determining unit 42 as to whether or not it can be employed as teacher data. When making the determination, comparison may be made with teacher data already stored in the teacher data database (DB) 44. As a result of the determination, if it is determined that the data is "teacher data", it is saved in the teacher data DB 44.

これらの一連の制御は、中央サーバ30を統括的に制御するCPU43により行われる。図2においては、採否判定部42を制御するCPU43が、図2に示した各ブロック図の機能を含めた、連携システム全体を制御も実施するとして示す。 A series of these controls is performed by the CPU 43, which controls the central server 30 in an overall manner. In FIG. 2, the CPU 43 that controls the acceptance/rejection determination unit 42 is shown to also control the entire cooperative system, including the functions of each block diagram shown in FIG.

さらに図2の中央サーバは、既設システムDB37、個人情報DB38、39、通知/宛先DB45を備える。 Furthermore, the central server in FIG. 2 includes an existing system DB 37, personal information DBs 38 and 39, and a notification/destination DB 45.

図3~図5は、実施形態に係わるシステムの処理手順の一例を示すフローチャートである。図3において、教師データ判断部40は、ステップS101で対象動体を選定する。対象動体が無ければ、以下の手順は開始されない。次に教師データ判断部40は、ステップS102で別の識別情報の有無を判定する。 3 to 5 are flowcharts showing an example of the processing procedure of the system according to the embodiment. In FIG. 3, the teacher data determination unit 40 selects a target moving object in step S101. If there is no target moving object, the following procedure will not start. Next, the teacher data determining unit 40 determines the presence or absence of another identification information in step S102.

ステップS102は、対象動体の動体情報と別の識別情報とが同一の個体から発出したものかを確認するプロセスを含む。すなわち、時間による判定、例えば動体情報の撮像時刻と同時刻のデータ収集か否かが判定される。次に、場所による判定、例えば、同じまたは近接した場所でのデータ収集となっているか否かを確認する。さらに、動体の動作情報から、例えば入退出ゲートの通過画像からの、通過時刻と、カードからの電子情報収集時刻が、一致するか否かなどにより判定される。 Step S102 includes a process of confirming whether the moving body information of the target moving body and another identification information are issued from the same individual. That is, it is determined based on time, for example, whether data is collected at the same time as the imaging time of the moving object information. Next, it is determined based on location, for example, whether data is collected at the same or close location. Furthermore, it is determined based on the motion information of the moving object, for example, whether or not the passing time from the passing image of the entrance/exit gate matches the electronic information collection time from the card.

ステップS102で、(Yes)すなわち、同一の動体に対する別の識別情報が得られた場合、次のステップS103で教師データ判断部40は、別の識別情報により、対象動体は、教師データとして利用できるか否かを判断する。別の識別情報を利用して教師データとして利用できる場合には、(Yes)となり、教師データ判断部40は、ステップS104で、センサシステムからの情報(データ)と、既設システムからの情報(データ)を関連付ける。次に、教師データ判断部40は、ステップS105で、関連付け処理したデータを一時的に保存する。なお、ステップS102で(No)、またはステップS103で(No)の場合には、図5のフローチャートに至る。 In step S102, (Yes), that is, if different identification information for the same moving object is obtained, in the next step S103, the teacher data determination unit 40 determines that the target moving object can be used as teaching data based on the different identification information. Determine whether or not. If it can be used as teacher data using another identification information (Yes), the teacher data judgment unit 40, in step S104, uses information (data) from the sensor system and information (data) from the existing system. ). Next, in step S105, the teacher data determining unit 40 temporarily stores the data that has been subjected to the association processing. Note that in the case of (No) in step S102 or (No) in step S103, the flow chart of FIG. 5 is reached.

次のステップS106およびステップS107、ならびにステップS112およびステップS113は、対象動体の正常/異常診断通知に関するものである。これらの手順は、異常診断されるデータ数が少ないなど、実運用の際にデータに偏りがある場合に教師データを得るための有効な手段となる。 The next steps S106 and S107, as well as steps S112 and S113, are related to notification of normality/abnormality diagnosis of the target moving object. These procedures are an effective means of obtaining training data when data is biased during actual operation, such as when the amount of data for abnormality diagnosis is small.

例えば、正常診断と異常診断の実運用時の割合が例えば10000対1である場合を考える。貴重な教師データとなる可能性のある異常値を示す動体情報が得られた時点で直ちに通知対象者/宛先への通知をすることにより、注意を喚起することができる。以降の動体の追跡監視を、人手を介して行うこと、あるいはセンサ系およびデータ処理系のリソースを、異常値を示した対象動体に重点配分する自動処理により、時間、空間分解能の高いリアルタイム追跡などの処置をすることが可能となり、より有効な教師データの収集が可能となる。また、不審者らしき行動パターン、自動運転機器の故障、あるいは人のふらつき/昏倒など、直ちに対処をする必要がある動体の動きが検知された場合の迅速な通知は、施設管理/運用上必要な措置でもある。 For example, consider a case where the ratio of normal diagnosis to abnormal diagnosis during actual operation is, for example, 10,000:1. At the time when moving object information indicating an abnormal value that may become valuable training data is obtained, it is possible to immediately notify the notification target/destination to alert them. Subsequent tracking and monitoring of moving objects can be performed manually, or automatic processing that allocates sensor system and data processing system resources to focus on target moving objects that show abnormal values enables real-time tracking with high temporal and spatial resolution. This makes it possible to collect more effective teacher data. In addition, prompt notification is necessary for facility management/operation when a movement that requires immediate attention is detected, such as a behavioral pattern of a suspicious person, a malfunction of automated driving equipment, or a person becoming unsteady or unconscious. It is also a measure.

ステップS106では、教師データ判断部40は、対象動体の正常/異常診断の通知要否判断を行う。ここでいう「正常」は、普通の人が通常の行動をした場合を意味する。「異常」は、対象動体の移動軌跡が正常な動線の範囲を辿っていない場合で、自動運転機器、徘徊者、迷子、不審者、歩いていて具合の悪くなった人、酩酊者などであり、普通の人とは異なる特徴をもつ場合を指している。これらの多くは、対象動体の形状情報および速度ベクトル情報から得られた、経時情報である動線情報により診断可能である。 In step S106, the teacher data determining unit 40 determines whether notification of normal/abnormal diagnosis of the target moving object is required. "Normal" here means normal behavior of a normal person. "Abnormal" is when the movement trajectory of the target moving object does not follow the normal range of movement, such as automatic driving equipment, wandering people, lost children, suspicious people, people who become sick while walking, and drunk people. This refers to cases in which people have characteristics that are different from those of ordinary people. Many of these can be diagnosed using flow line information, which is time-lapse information, obtained from shape information and velocity vector information of the target moving object.

診断結果により、所定の管理者あるいは、宛先への通知を必要とする場合、ステップS106で(Yes)となり、教師データ判断部40は、ステップS107で「通知対象者/宛先への通知」を行う。通知の必要のない(No)の場合は、ステップS107の処理を行わず次のステップS108(図4)の処理を行う。なお、ステップS103において教師データとして利用できることが判明した後も、実施形態では対象動体の追跡を行う。そして、例えば複数の画像センサからの画像データより合成した対象動体の動線情報を加味した上で、ステップS108での「動線にエラーがなく、教師データとして使える範囲にある」か否かを判定する。 If the diagnosis result requires notification to a predetermined administrator or destination, the result is (Yes) in step S106, and the teacher data judgment unit 40 performs "notification to notification target/destination" in step S107. . If the notification is not necessary (No), the process of step S107 is not performed and the process of the next step S108 (FIG. 4) is performed. Note that even after it is determined in step S103 that the target moving object can be used as training data, the target moving object is tracked in the embodiment. Then, for example, after taking into consideration the flow line information of the target moving object synthesized from image data from multiple image sensors, it is determined whether "the flow line has no errors and is within the range that can be used as training data" in step S108. judge.

図4のステップS108で(Yes)であれば、教師データ判断部40は、次のステップS109で、教師データとして登録/学習を行う。なお、新たに収集できた教師データにより、判定モデルが、所定の指標値で比較した場合に改善するか否かを調べた上で、教師データとして登録する方法をとってもよい。このように判定モデル改善への効果度を含む教師データとすることで、教師データの効果度の順番付けをすることが可能となる。 If (Yes) in step S108 of FIG. 4, the teacher data determination unit 40 performs registration/learning as teacher data in the next step S109. Note that a method may be adopted in which the newly collected teacher data is used to check whether the judgment model is improved when compared with a predetermined index value, and then registered as the teacher data. By using the teacher data including the degree of effectiveness for improving the judgment model in this way, it becomes possible to order the degree of effectiveness of the teacher data.

ステップS108で、教師データ判断部40は、教師データとして所定の閾値を満足するデータかを確認する。ここでは、収集した対象動体の特徴量から得た動線が、一筆書きができること、所定の時間と距離を経ていること等が確認される。教師データとして耐え得るデータであれば、(Yes)となる。 In step S108, the teacher data determining unit 40 checks whether the data satisfies a predetermined threshold value as the teacher data. Here, it is confirmed that the flow line obtained from the collected feature values of the target moving object can be drawn with one stroke, and that it has passed a predetermined time and distance. If the data can withstand as teaching data, the result is (Yes).

教師データ判断部40は、ステップS109で、教師データとして登録/学習の処理を行う。登録される情報は、現画像認識のための判定モデルによる正常/異常診断結果を含む。情報の保存先は、過去の教師データ/テストデータが保存されている記録媒体である(ステップS110)。ステップS108で、教師データとして今回の動線情報が使えない場合には(No)、本対象動体に対する処理を終了する(END)。 The teacher data determination unit 40 performs registration/learning processing as teacher data in step S109. The registered information includes normal/abnormal diagnosis results based on a judgment model for current image recognition. The information storage destination is a recording medium in which past teacher data/test data is stored (step S110). In step S108, if the current flow line information cannot be used as teacher data (No), the process for the target moving object is ended (END).

図3のステップS102で(No)であれば、データ収集が完了する前に対象動体に対する別の識別情報が無いことになるので、教師データ判断部40は、ステップS111でデータの一時保存を行う。次に教師データ判断部40は、図5のステップS112で対象動体の正常/異常判断、通知要否判定を行う。この判断に用いる判定モデルは、実サイトにおける教師データの蓄積とともに、より高い精度での判定が可能となっていくことが期待される。これは、ステップS106の「対象動体の正常/異常判断、通知要否判定」でも同様である。 If (No) in step S102 of FIG. 3, it means that there is no other identification information for the target moving object before data collection is completed, so the teacher data determination unit 40 temporarily stores the data in step S111. . Next, in step S112 of FIG. 5, the teacher data determining unit 40 determines whether the target moving object is normal or abnormal and determines whether notification is necessary. It is expected that the judgment model used for this judgment will be able to make judgments with higher accuracy as training data from actual sites accumulates. The same applies to "determination of normality/abnormality of target moving object and determination of notification necessity" in step S106.

図5のステップS112の結果、通知要となれば(Yes)となり、教師データ判断部40は、ステップS113で通知対象者/宛先への通知を行う。ステップS112の結果、通知不要となれば(No)となり、処理手順はステップS114に移る。教師データ判断部40は、ステップS114で(データ収集後の正常/異常判定入力あり?)の判断を行う。 If the result of step S112 in FIG. 5 is that notification is required (Yes), the teacher data determining unit 40 notifies the notification target person/destination in step S113. If the result of step S112 is that notification is not required (No), the processing procedure moves to step S114. The teacher data determining unit 40 determines (Is there a normal/abnormal determination input after data collection?) in step S114.

これは、データ収集中またはデータ収集後に、新たな情報が加味される場合である。対象動体の正常/異常判定は、人がデータあるいは画像を目視した上での判定の結果でもよいし、別途計算機、例えばハードウェア/ソフトウェアのリソースがよりリッチな計算機に搭載された判定モデルにより判定した結果を入力してもよい。この判定した結果の入力があれば(Yes)となり、教師データとして利用できるか否かの判断を行うため、処理手順はステップS103に戻る。こうした別の識別情報の入力がなければ、ステップS114で(No)となり、対象動体に対する一連の処理は終了(END)する。 This is the case when new information is added during or after data collection. The normality/abnormality determination of the target moving object may be determined by a human being who visually inspects the data or images, or by a determination model installed in a separate computer, such as a computer with richer hardware/software resources. You can also enter the results. If the result of this determination is input (Yes), the processing procedure returns to step S103 in order to determine whether or not it can be used as teacher data. If such other identification information is not input, the result is (No) in step S114, and the series of processing for the target moving object ends (END).

図6は、ステップS102における処理の一例を示すフローチャートである。ステップS102の処理が開始(START)されると、教師データ判断部40は、ステップS102bで「別の識別情報が対象動体のものと確認できたか?」の判断を実施する。確認の基準としては、(1)タイムスタンプ、(2)場所、(3)画像データによる動作/動線確認、などがある。 FIG. 6 is a flowchart showing an example of the process in step S102. When the process in step S102 is started (START), the teacher data determining unit 40 determines in step S102b, "Was the other identification information confirmed to be that of the target moving object?" Confirmation criteria include (1) time stamp, (2) location, and (3) movement/flow line confirmation using image data.

(1)タイムスタンプによる場合、画像センサと、識別情報入手部12aとのそれぞれが動体の情報の収集/入手を開始した時刻を比較することにより、両者が同一動体からの情報であることが確定する。 (1) When using time stamps, by comparing the times at which the image sensor and the identification information acquisition unit 12a each start collecting/obtaining information on a moving object, it is determined that both information is from the same moving object. do.

(2)場所による場合、識別情報入手部12aの配置された位置と、それにもっとも近い画像センサとの位置関係より、対象動体が同定される。図1であれば、顔認証センサ7aまたは入退出ゲート8aの置かれた場所と、それに最も近い、動体トレース用の画像センサ10cとが場所が最も近接しており、利用される。 (2) In the case of location, the target moving object is identified based on the positional relationship between the location of the identification information acquisition unit 12a and the image sensor closest thereto. In FIG. 1, the location where the face authentication sensor 7a or the entry/exit gate 8a is placed and the closest image sensor 10c for moving body tracing are located closest to each other and are used.

(3)画像データによる動作/動線確認では、図1における顔認証センサ7aに近接する動線が確認できたか、または入退出ゲート8aを通過する動作または動線が確認できたかにより、画像センサ10cで撮像した動体と、別の認識情報入手手段により得られた動体情報とが、同一の個人かを確認することができる。対象動体であることをより確かなものとするには、(1)、(2)、および(3)を組み合わせて対象動体であるかを同定してもよいことはもちろんである。 (3) In the movement/flow line confirmation using image data, the image sensor It can be confirmed whether the moving object imaged by 10c and the moving object information obtained by another recognition information obtaining means are the same individual. Of course, in order to make it more certain that the object is the target moving object, it is possible to identify whether it is the target moving object by combining (1), (2), and (3).

ステップS102bで別の識別情報が対象動体のものであると確認された場合、すなわち(Yes)の場合は、教師データ判断部40は、ステップS102cで(対象動体の生体情報からの情報か?)を判断する。生体情報は、顔認証、音声認識、指紋、光彩、静脈パターンなど、多くの手段により得られる。生体情報である場合は、ステップS102cで(Yes)となり、教師データ判断部40は、収集した生体情報またはそれを加工した情報をステップS102eでDBと照合する。照合先は、別途蓄積登録されている、個人の固有情報DB(生体情報)となる(ステップS102g)。 If it is confirmed in step S102b that the other identification information is that of the target moving object, that is, in the case of (Yes), the teacher data determination unit 40 determines (Is the information from the biological information of the target moving object?) in step S102c. to judge. Biometric information can be obtained through many means, including facial recognition, voice recognition, fingerprints, glow, and vein patterns. If it is biometric information, the result is (Yes) in step S102c, and the teacher data determining unit 40 compares the collected biometric information or information obtained by processing the collected biometric information with the DB in step S102e. The comparison destination is the individual's unique information DB (biometric information) that is stored and registered separately (step S102g).

照合後、教師データ判断部40は、ステップS102fで「DBとの一致度判定OK>閾値」の判断を行う。閾値を超えていれば(Yes)となり、別の識別情報が、対象動体のそれであると判断される。すなわち、ステップS102(図3)で「別の識別情報あり」を意味するYes判定がなされ(ステップS102i)、処理手順は図3のステップS103にジャンプする。
一方、ステップS102fで(No)であれば、両者の情報は一致しないことになる。つまり、ステップS102(図3)で「別の識別情報なし」を意味するNo判定がなされ(ステップS102k)、処理手順は図3を経由して図5のステップS111にジャンプする。
After the comparison, the teacher data determination unit 40 determines "degree of match determination with DB OK>threshold" in step S102f. If it exceeds the threshold value (Yes), it is determined that another identification information is that of the target moving object. That is, a Yes determination is made in step S102 (FIG. 3) that means "another identification information exists" (step S102i), and the processing procedure jumps to step S103 in FIG. 3.
On the other hand, if (No) in step S102f, the two pieces of information do not match. That is, a No determination is made in step S102 (FIG. 3) that means "there is no other identification information" (step S102k), and the processing procedure jumps to step S111 in FIG. 5 via FIG. 3.

なお、ステップS102cで、別の識別情報が生体情報でない場合は(No)となり、教師データ判断部40は、次のステップS102d「対象動体または対象動体の属するグループの固有の電子情報か?」の判定を行う。ステップS102cと同様にして、別の識別情報が電子情報の場合は(Yes)となり、「DBとの照合」にて個人の固有情報DB(電子媒体情報)に予め登録された情報との照合を行う(ステップS102h)。照合後、ステップS102jの「DBとの一致度判定>閾値」にて、整合がとれていれば(Yes)となる。ステップS102jでYesであれば、Yes判定がなされ(ステップS102i)、処理手順は図3のステップS103にジャンプする。ステップS102jで閾値に満たない場合は、電子情報では、同定できなかったとして(No)となり、No判定となって(ステップS102k)、処理手順は図3を経由して図5のステップS111にジャンプする。 Note that in step S102c, if the other identification information is not biometric information (No), the teacher data determining unit 40 determines whether the other identification information is unique electronic information of the target moving object or the group to which the target moving object belongs in the next step S102d. Make a judgment. Similarly to step S102c, if the other identification information is electronic information (Yes), check with the information registered in advance in the personal unique information DB (electronic media information) in "Verification with DB". (Step S102h). After the comparison, if there is a match in step S102j, "matching degree determination with DB>threshold", the result is (Yes). If YES in step S102j, a YES determination is made (step S102i), and the processing procedure jumps to step S103 in FIG. 3. If the threshold value is not met in step S102j, it is determined that the electronic information cannot be identified (No), the determination is No (step S102k), and the processing procedure jumps to step S111 in FIG. 5 via FIG. 3. do.

また、ステップS102dで、照合できる電子情報でない場合には(No)となり、これもNo判定となって(ステップS102k)、処理手順は図3のステップS111にジャンプする。これは、別の識別情報として得られた生体情報または電子情報のいずれも、対象とする動体の個人または個人の属するグループを同定することができなかったことを意味する。なお、対象動体(個人)の属するグループとは、社会的なグループを意味し、対象とする施設に係る団体や会社に所属すること、ビジターとして施設にはいってきていること等を意味し、所属するグループにより動線情報が、統計的にあるいは蓄積データ上、正常か異常か、予め推定ができるグループをいう。 Further, in step S102d, if the electronic information is not collatable, the result is (No), this also becomes a No determination (step S102k), and the processing procedure jumps to step S111 in FIG. 3. This means that neither the biological information nor the electronic information obtained as separate identification information could identify the individual of the target moving body or the group to which the individual belongs. The group to which the target object (individual) belongs refers to a social group, including belonging to an organization or company related to the target facility, or entering the facility as a visitor. A group that can be estimated in advance whether the flow line information is normal or abnormal based on statistics or accumulated data.

図7は、ステップS114における処理の一例を示すフローチャートである。ステップS114bにおいて、教師データ判断部40は、管理者/ユーザが、設定値を入力していた場合には、その設定をロードする。管理者/ユーザは、最初の1回目の処理において設定値を決定し、その後、自動処理を設定していれば以降操作をしなくても、教師データの抽出が継続して実施される。一旦自動処理を選択しても、その後、変更をしたければ、設定値ロード中に、例えばキー操作をすれば、自動処理が中断し、フローに従った手入力画面に戻ることができる。説明を簡単にするために、以下では、初期設定時、または自動設定をキー入力により解除した状態での操作について説明する。 FIG. 7 is a flowchart showing an example of the process in step S114. In step S114b, the teacher data determining unit 40 loads the settings if the administrator/user has input the settings. The administrator/user determines the setting values in the first process, and then, if automatic processing is set, the extraction of teacher data will continue without any further operation. Even if automatic processing is selected once, if you wish to change it afterwards, for example, by operating a key while loading the setting values, automatic processing will be interrupted and you can return to the manual input screen according to the flow. To simplify the explanation, below, operations will be described at the time of initial setting or when automatic setting is canceled by key input.

ステップS114bにて設定値がロードされると、教師データ判断部40は、ステップS114cにおいて、管理者、および/または、所定の宛先へ通知をしたか?を判定する。ここでは、観測期間においてWarning対象となる動体が観測され、その旨が通知されたか否かが判定される。 When the set value is loaded in step S114b, the teacher data determination unit 40 determines whether the administrator and/or a predetermined destination has been notified in step S114c. Determine. Here, it is determined whether a moving object that is a warning target has been observed during the observation period and a notification to that effect has been received.

通知が無ければ、Warning対象動体がないことになり、処理手順はステップS114dの「入力期間について判定ステータスが異常値に近い順に表示するか?」に移る。ステップS114cで通知があった場合は、(Yes)となり、教師データ判断部40は、ステップS114hの「通知したリストを表示するか?」にて、表示の有無を決める。ここで(Yes)であれば、ステップS114i「通知リストを表示」する処理を行い、次のステップS114eの処理に移る。 If there is no notification, it means that there is no warning target moving object, and the processing procedure moves to step S114d, ``Should the determination status be displayed in order of the abnormal value for the input period?''. If there is a notification in step S114c, (Yes), the teacher data determining unit 40 determines whether to display the notified list in step S114h. If (Yes) here, the process of "displaying the notification list" is performed in step S114i, and the process moves to the next step S114e.

ステップS114hで(No)であれば、教師データ判断部40は、ステップS114dの処理を行う。ステップS114cで通知をしていない場合は、(No)となり、ステップS114dの処理をする。ステップS114dで(Yes)であれば、ステップS114j「所定期間の一覧表示」を実施した後、ステップS114eに移る。 If (No) in step S114h, the teacher data determining unit 40 performs the process of step S114d. If the notification has not been made in step S114c, the result is (No), and the process of step S114d is performed. If (Yes) in step S114d, the process moves to step S114e after performing step S114j "list display for a predetermined period".

ステップS114dで(No)の場合も、教師データ判断部40は、ステップS114e「教師データ候補として選択するデータはあるか?」の判断を実施する。ここで(Yes)であれば、教師データ判断部40は、ステップS114k「所定期間の一覧で、教師データ候補を入力」にて、管理者/ユーザが表示されている候補にチェックをつけるなどして候補となるデータを選択する。 Even in the case of (No) in step S114d, the teacher data determination unit 40 performs the determination in step S114e "Is there any data to be selected as a teacher data candidate?". If (Yes) here, the teacher data judgment unit 40 allows the administrator/user to check the displayed candidates in step S114k "Input teacher data candidates in list for predetermined period". to select candidate data.

次に教師データ判断部40は、ステップS114fで「自動選出時に設定する閾値はあるか?」を判断し、ステップS114l「閾値を入力」を実施するか否かを決定する。次に教師データ判断部40は、ステップS114gの「所定の入力期間について、同様なフローで自動処理するか?」にて、閾値を満たすデータであれば同様の処理をするか否かを決定する。ここでNoであればそのままYes判定に至り(ステップS114n)、図3の「別の識別情報あり」が成立して処理手順はステップS103(図3)にジャンプする。ステップS114gでここでYesであれば、所定の設定値が入力されたのち(ステップS114m)、同様にYes判定からステップS103にジャンプする。
なお、ステップS114eで(No)であれば、教師データが無いので、No判定となる(ステップS114o)。ステップS114でのNo判定により、処理手順は終了する(図5のEND)。
Next, the teacher data determining unit 40 determines in step S114f, "Is there a threshold value to be set at the time of automatic selection?", and determines whether or not to perform step S114l, "input threshold value." Next, the teacher data judgment unit 40 determines whether or not to perform similar processing if the data satisfies the threshold in step S114g, "Do you want to automatically process the same flow for a predetermined input period?" . If the answer is No here, a YES determination is made (step S114n), and "another identification information exists" in FIG. 3 is established, and the processing procedure jumps to step S103 (FIG. 3). If YES in step S114g, a predetermined setting value is input (step S114m), and then the process similarly jumps from the YES determination to step S103.
Note that if the result in step S114e is (No), there is no teacher data, so the determination is No (step S114o). With the No determination in step S114, the processing procedure ends (END in FIG. 5).

図8、および図9は、ステップS109における処理の一例を示すフローチャートである。ここでは、ステップS109における保存/登録の処理を、管理者/ユーザがインタラクティブにDBへの登録データを決めていく手順、および、自動処理するプロセスについて説明する。 FIGS. 8 and 9 are flowcharts showing an example of the process in step S109. Here, the storage/registration process in step S109 will be described with respect to a procedure in which the administrator/user interactively decides data to be registered in the DB, and a process in which the process is automatically processed.

図8において、手順が開始されると、教師データ判断部40は、ステップS109b「設定値ロード」により、デフォルト値、あるいは、管理者/ユーザが設定した設定値をロードする。次に、教師データ判断部40は、ステップS109c「今回の対象となる教師データのリストを表示」にて、今回の期間の間で収集することができた、教師データのリストを表示する。 In FIG. 8, when the procedure is started, the teacher data determining unit 40 loads the default value or the setting value set by the administrator/user in step S109b "load setting value". Next, the teacher data determination unit 40 displays a list of teacher data that could be collected during the current period in step S109c "Display list of teacher data to be targeted this time."

次に、教師データ判断部40は、ステップS109d「教師データ追加分による判定モデルのローカルフィットを実施するか?」にて、収集した教師データを判定モデル改善用のトレーニングデータとして利用するか否かを判断する。利用する場合は(Yes)となり、ステップS109eに処理手順は移行する。トレーニングデータとして利用しない場合は、(No)となり、教師データ判断部40は、ステップS109kでの「教師データとして判定モデルの性能評価をするか?」の判断を行う。 Next, the teacher data judgment unit 40 determines whether or not to use the collected teacher data as training data for improving the judgment model in step S109d "Do you want to perform local fitting of the judgment model using the additional teaching data?" to judge. If it is to be used (Yes), the processing procedure moves to step S109e. If the training data is not used as training data (No), the teacher data judgment unit 40 makes a judgment in step S109k as to whether to evaluate the performance of the determination model as the teacher data.

すなわち、得られた教師データは、トレーニングデータとして利用することもできるし、現行判定モデルの評価に用いるテストデータとして用いることもできる。テストデータとして用いたデータであっても、その後トレーニングデータとして再利用することはもちろん可能である。 That is, the obtained teacher data can be used as training data, or as test data used to evaluate the current judgment model. Even data used as test data can of course be reused as training data.

なお、ステップS109dにおいて、収集した教師データによりローカルフィット(学習)を行うのであれば(Yes)となり、処理手順はステップS109e「判定モデル改善に適用した教師データを選択したか?」に移る。ここでは、教師データ判断部40は、収集した教師データのうち、使用するものを選択する。1つでもデータが選択されていれば(Yes)となり、ステップS109fの処理に移る。教師データ判断部40は、ステップS109f「ローカルフィット前後の判定モデル性能評価値と改善量を表示(改善量>0で改善)」にて、現行の判定モデルによる評価値と、収集した教師データを追加し、学習をさせた上での変更後判定モデルの評価値とを比較する。 Note that in step S109d, if local fitting (learning) is to be performed using the collected teacher data (Yes), the processing procedure moves to step S109e "Have you selected the teacher data applied to improve the judgment model?". Here, the teacher data determining unit 40 selects the teacher data to be used from among the collected teacher data. If at least one data is selected (Yes), the process moves to step S109f. The teacher data judgment unit 40 displays the evaluation value of the current judgment model and the collected teacher data in step S109f "Display the judgment model performance evaluation value and the amount of improvement before and after local fitting (improved when the amount of improvement > 0"). Compare the evaluation value of the changed judgment model after adding and learning.

この比較には、別途用意した、学習用としては使用していない教師データを用いてもよい。改善量が正の値(改善量>0)の場合は判定モデル追加による改善の効果があったことを示す。教師データ判断部40は、ステップS109gにて、「改善量>0であり、ローカルフィット結果を反映し、判定モデルのバージョンアップを実施するか?」の判断を行う。改善量<0の場合は、デフォルトで(No)となり、ステップS109mの処理に移る。 For this comparison, separately prepared teacher data that is not used for learning may be used. If the amount of improvement is a positive value (amount of improvement>0), it indicates that the addition of the determination model had an effect of improvement. In step S109g, the teacher data determining unit 40 determines, "Since the amount of improvement is >0, should the local fit result be reflected and the version of the determination model be updated?" If the amount of improvement is <0, the default is (No) and the process moves to step S109m.

改善量>0であり、判定モデルの改善を行うのであれば、(Yes)となる。正の値の閾値を設けて、改善量>閾値の場合にのみ、判定モデルの改善(バージョンアップ)を自動的に行う設定値としてもよい。 If the amount of improvement is >0 and the determination model is to be improved, the result is (Yes). A positive threshold value may be provided, and the determination model may be automatically improved (updated) only when the amount of improvement>threshold value.

判定モデルのバージョンアップを行う場合は、(Yes)となり、教師データ判断部40は、ステップS109h「教師データ/テストデータDBをアップデート」にて、収集した教師データをDBに追加する。次に、教師データ判断部40は、ステップS109i「ローカルフィットした判定モデル実装処理」にて、バージョンアップした判定モデルの実装を行う。 If the determination model is to be upgraded (Yes), the teacher data judgment unit 40 adds the collected teacher data to the DB in step S109h "Update teacher data/test data DB". Next, the teacher data judgment unit 40 implements the upgraded judgment model in step S109i "locally fitted judgment model implementation process".

教師データ判断部40は、図9のステップS109o「今回の処理フローを踏襲するため、設定として保存し、次回から自動処理をするか?」の判断を行う。自動処理とする場合には、(Yes)となり、ステップS109p「今回の処理フローを設定値として保存」にて、今回のフローチャートと同じ流れの場合には、次回より自動処理を行えるよう、設定値として保存する。 The teacher data determining unit 40 determines in step S109o in FIG. 9, "In order to follow the current processing flow, do you want to save it as a setting and perform automatic processing from next time?" If automatic processing is to be performed, the answer is (Yes), and in step S109p "Save current processing flow as setting values", if the flow is the same as the current flowchart, the setting values will be set so that automatic processing can be performed from next time. Save as.

収集したデータがないなど、フローが異なる場合は、入力後、設定値として保存することにより、起こりうるパターンをそれぞれ設定値として保存することができる。これにより、管理者/ユーザが操作しなくても、自動処理されていくことになる。自動処理を解除する際には、図8のステップS109b「設定値ロード」またはステップS109c「今回の対象となる教師データのリストを表示」中に、管理者/ユーザからの特定のキー入力により、自動処理を解除することができるようにしてもよい。 If the flows are different, such as when there is no collected data, you can save each possible pattern as a setting value by saving it as a setting value after inputting it. This allows the process to be performed automatically without any operation by the administrator/user. To cancel automatic processing, the administrator/user inputs a specific key during step S109b "Load setting value" or step S109c "Display list of current target teacher data" in FIG. It may also be possible to cancel automatic processing.

一方、図8のステップS109dにて(No)の場合、すなわちローカルフィットを実施しない場合は、教師データ判断部40は、図9のステップS109k「教師ありテストデータとして判定モデルの性能評価をするか?/終了するか?」の処理を行う。ここでは、教師データ判断部40は、今回収集した教師データにより現行判定モデルのテストを行うか否かを判断する。 On the other hand, in the case of (No) in step S109d of FIG. 8, that is, if local fitting is not performed, the teacher data determination unit 40 determines in step S109k of FIG. ?/Do you want to end?". Here, the teacher data determining unit 40 determines whether or not to test the current determination model using the currently collected teacher data.

性能評価を実施する場合は(Yes)となり、教師データ判断部40は、ステップS109i「現行判定モデルの性能評価値を表示」にて、収集した教師データをテストデータとして用いて、現行判定モデルの評価を行う。 If performance evaluation is to be performed (Yes), the teacher data judgment unit 40 uses the collected teacher data as test data to evaluate the current judgment model in step S109i "Display performance evaluation value of current judgment model". Evaluate.

ステップS109eにて(No)すなわち、判定モデル改善用のトレーニングデータを1つも選択しなかった場合は、教師データ判断部40は、図9のステップS109mの「トレーニングデータ/テストデータDBへのデータ追加をするか?」の判断を行う。ここで(Yes)であれば、教師データ判断部40は、ステップS109nの「教師データ/テストデータDBのアップデート」により、収集した教師データをDBに追加する。追加が完了すると、処理手順はステップS109oに移る。 In step S109e (No), that is, if no training data for improving the judgment model is selected, the teacher data judgment unit 40 performs the "data addition to training data/test data DB" step S109m in FIG. Make a decision as to whether to do so or not. If (Yes) here, the teacher data determination unit 40 adds the collected teacher data to the DB by "updating the teacher data/test data DB" in step S109n. When the addition is completed, the processing procedure moves to step S109o.

図8のステップS109gにて(No)すなわち、判定モデルのバージョンを行わない場合には、図9のステップS109mに移る。ステップS109mでDBへのデータ追加をしない場合は(No)となり、ステップS109oの処理に移る。このようにして、デフォルトの設定のまま自動化することもできるし、いったん辿った手順を再び実行するときは、手動の設定、選択を反映して自動化処理を行うこともできる。 In step S109g of FIG. 8, if (No), that is, the version of the determination model is not to be performed, the process moves to step S109m of FIG. If data is not added to the DB in step S109m (No), the process moves to step S109o. In this way, it is possible to automate the process using the default settings, or when re-executing the steps once followed, it is also possible to perform the automation process by reflecting the manual settings and selections.

対象動体に係わる情報は、顔認証センサ7aおよび/または入退出ゲート8aにより収集され、識別情報入手部12aを経由して、通信部22aから中央サーバ30に伝達される。実施形態では、対象動体の日常または通常の行動である、セキュリティ・ゲートの通過、所定の場所への移動、施設の機器の利用といった本来の目的を有する行為によって収集可能となった情報を、既設システムからの情報として含む。また、管理者/ユーザにより、管理者入力情報入手部11aに情報が入力され、通信部21aを介して中央サーバ30に情報が伝達される。少なくとも自動処理/半自動処理の設定をするまでは、センサシステムおよび既設システムとは独立の人手などにより、対象動体の情報が入力される。 Information related to the target moving object is collected by the face authentication sensor 7a and/or the entrance/exit gate 8a, and is transmitted from the communication unit 22a to the central server 30 via the identification information acquisition unit 12a. In the embodiment, information that can be collected through activities that have the original purpose, such as passing through a security gate, moving to a predetermined location, and using facility equipment, which are the daily or normal actions of the target moving object, is collected using existing equipment. Included as information from the system. Further, the administrator/user inputs information to the administrator input information acquisition section 11a, and the information is transmitted to the central server 30 via the communication section 21a. At least until automatic processing/semi-automatic processing is set, information on the target moving object is input manually, independently from the sensor system and the existing system.

図10~図12を参照して、判定モデルがどの程度良いものであるかを判断する評価指標について、説明する。例えば、図10に示される真偽表に基づき、エラーとして検知されやすい動作である場合には教師データとして採用しないといった判定を行える。また、この評価指標を用いて、判定モデルの改善の程度を評価することができる。 With reference to FIGS. 10 to 12, evaluation indicators for determining how good a determination model is will be described. For example, based on the truth table shown in FIG. 10, it can be determined that if an action is likely to be detected as an error, it will not be adopted as training data. Furthermore, the degree of improvement of the determination model can be evaluated using this evaluation index.

図10において、判定モデルにより予測されたクラスを、陽(Positive)と陰(Negative)との2つに分類する例を示す。そして、実際のクラスがどうであったかにより、「真」の場合と「偽」の場合とに分ける。「真」は、予測が正しかった場合であり、「偽」は、予測が間違っていた場合である。このように成績を分類しておくことによって、モデルの推定精度を知るための一つの手がかりが得られる。分類は、TP、FN、FP、TNの4つである。 FIG. 10 shows an example in which the classes predicted by the determination model are classified into two, ie, positive and negative. Then, depending on the actual class, it is divided into "true" cases and "false" cases. "True" is when the prediction was correct, and "false" is when the prediction was wrong. Classifying grades in this way provides a clue to the estimation accuracy of the model. There are four classifications: TP, FN, FP, and TN.

(TP)予想されたクラス(陽性:P)に対して実際のクラスが正しく推定できており、真(True)である。この場合を、TPと表記する。
(FP)予想されたクラス(陽性:P)に対して実際のクラスが間違って推定されており、偽(False)である。この場合を、FPと表記する。
(TN)予想されたクラス(陰性:N)に対して実際のクラスが正しく推定できており、真(True)である。この場合を、TNと表記する。
(FN)予想されたクラス(陰性:N)に対して実際のクラスが間違って推定されており、偽(False)である。この場合を、FNと表記する。
(TP) The actual class has been correctly estimated for the predicted class (positive: P), and is true. This case is written as TP.
(FP) The actual class is incorrectly estimated for the expected class (Positive: P) and is False. This case is written as FP.
(TN) The actual class has been correctly estimated for the predicted class (negative: N), and is true. This case is written as TN.
(FN) The actual class is incorrectly estimated for the expected class (Negative: N) and is False. This case is expressed as FN.

対象動体のアクション(動作)が、この4つの分類のいずれかに属する場合、別途与えた閾値以下の場合には、推定の信頼性が低いとして、この判定モデルの適用をしないなどの操作が可能となる。
対象動体のアクション(TP, FP, TN, FN のいずれか) > 閾値(TP/FP/TN/FN)
の場合: モデルを適用する。
対象動体のアクション(TP, FP, TN, FN のいずれか) < 閾値(TP/FP/TN/FN)
の場合: モデルを適用しない。
If the action (behavior) of the target moving object belongs to one of these four categories, if it is below a separately given threshold, it is possible to perform operations such as not applying this judgment model as the estimation reliability is low. becomes.
Action of target moving object (TP, FP, TN, FN) > Threshold (TP/FP/TN/FN)
If: Apply the model.
Action of target moving object (TP, FP, TN, FN) < Threshold (TP/FP/TN/FN)
If: Do not apply the model.

図11は、判定モデルに関して図10の分類を当てはめた場合に得られる結果の一例を示すグラフである。図10に示される分類に従って判定モデルの性能を評価することができる。例えば、調査母数100のサンプルについて、真偽の値が図11のようになったとする。このとき、判定の手段としては種々の方法がある。最も基本的な方法は以下の2つである。 FIG. 11 is a graph showing an example of the results obtained when the classification of FIG. 10 is applied to the determination model. The performance of the decision model can be evaluated according to the classification shown in FIG. For example, assume that the truth values for a sample with a research population of 100 are as shown in FIG. At this time, there are various methods for making the determination. The two most basic methods are as follows.

適合率:本当に陽性であるケースのうち、何%を陽性と判定することができたかを示す。
適合率(精度、precision)= TP/(FP + TP)
再現率:実際の陽性のデータのうち、陽性と予測できたものの割合を表す。
再現率(recall )= TP/(FN + TP)
これらの値は、陰陽の判定の境目となる値、すなわち設定する閾値によって、変化する。変化の仕方は、主に以下の2通りである。
(1)適合率が高く、再現率が低い状態。この状態は、無駄は少ないが、取りこぼしの多い判定になっている状態である。
(2)適合率が低く、再現率が高い状態。この状態は、取りこぼしは少ないが、無駄の多い判定となっている状態である。
このように適合率と再現率はトレードオフの関係にある。どちらが適しているかは用途によって変わる。間違ってもいいから、指摘しておいたほうがよいのか、指摘漏れがあってもよいができる限り正確なほうがいいかという選択肢になる。
Precision rate: Indicates what percentage of cases were determined to be positive among cases that were actually positive.
Precision = TP/(FP + TP)
Recall rate: Represents the percentage of data that was predicted to be positive out of the actual positive data.
Recall rate (recall)= TP/(FN + TP)
These values change depending on the boundary value for determining Yin and Yang, that is, the threshold value to be set. There are two main ways of change:
(1) A state where the precision rate is high and the recall rate is low. This state is a state in which there is little waste, but there are many missed decisions.
(2) A state where the precision rate is low and the recall rate is high. This state is a state in which there are few missed decisions, but there is a lot of wasteful determination.
In this way, precision and recall are in a trade-off relationship. Which one is suitable depends on the application. The choices are whether you should point it out, even if you make a mistake, or whether you should be as accurate as possible, even if you omit it.

なお、母集団に偏りがある場合には、適合率、再現率ともに、そのままでは必ずしも使いやすいとは言えない。図11に示されるように適合率、再現率とも使いにくい場合が多い。そこで、実際には、F値を利用する方法が考えられる。
F値=2x(適合率x再現率)/(適合率+再現率)
F値は、上記の式で表される。
Note that if the population is biased, it is not necessarily easy to use with both precision and recall. As shown in FIG. 11, both precision and recall are often difficult to use. Therefore, in practice, a method using the F value may be considered.
F value = 2x (precision rate x recall rate) / (precision rate + recall rate)
The F value is expressed by the above formula.

例えば、図13に示すように、PR曲線によるブレークイーブンポイント(BEP)に基づくモデル評価が考えられる。また、PR曲線からBEP値を求めることで、モデルの良否を判断する方法がある。 For example, as shown in FIG. 13, model evaluation based on the break-even point (BEP) using a PR curve can be considered. Furthermore, there is a method of determining the quality of the model by determining the BEP value from the PR curve.

他の方法は、適合率と再現率がトレードオフの関係であることから、PR(Precision-Recall)曲線を描き、そこからBEP(Break Even Point)を算出する。PR曲線を描くには、判定モデルの設定閾値を変更しながら、再現率、適合率が変わっていく様子をプロットすればよい。プロットの過程で、再現率が最大となる閾値、適合率が最大となる閾値、および、再現率と適合率が一致する点、すなわちBEP値が求められる。このBEP値により、モデルの良否を判定する方法である。 In other methods, since precision and recall are in a trade-off relationship, a PR (Precision-Recall) curve is drawn and a BEP (Break Even Point) is calculated from it. To draw a PR curve, it is sufficient to plot how the recall rate and precision rate change while changing the set threshold of the judgment model. In the process of plotting, a threshold value at which the recall rate is maximum, a threshold value at which the precision rate is maximum, and a point at which the recall rate and the precision rate match, that is, the BEP value, are determined. This is a method of determining the quality of the model based on this BEP value.

BEP値の閾値を設けることにより、良好なモデルであることを確認した上で、モデルによる判断を採用するという手法がとれることになる。これらの評価基準を用いることにより、判定モデルの改善の有無を定量的に把握することができる。機械学習の性能を判定するための指標としては、PR曲線のほかに、RoC(Receiver Operator Characteristic)がある。陽性例と陰性例で、数に偏りがある、すなわち歪みが大きいデータの分析では、陰性例が多い場合、PR曲線が適している。この他に種々の評価指標があり、判定モデルの改善度の判定に用いられている。 By setting a threshold value for the BEP value, it is possible to adopt a method of making a judgment based on the model after confirming that it is a good model. By using these evaluation criteria, it is possible to quantitatively understand whether or not the determination model has been improved. In addition to the PR curve, there is RoC (Receiver Operator Characteristic) as an index for determining the performance of machine learning. When analyzing data where the number of positive and negative cases is biased, that is, the data is highly distorted, the PR curve is suitable when there are many negative cases. There are various other evaluation indicators, which are used to judge the degree of improvement of the judgment model.

実施形態における適用では、対象動体の動線から、迷子、不審者、体調不調など、通常行動でない動線を示した場合を、Positive(陽)、正常行動(普通の人が、目的のある通常の行動をした場合)をNegative(陰)とする。大多数がNegative(陰)として、PR曲線から判定モデルの良否を判断する手法が適用可能である。 In the application of the embodiment, cases where the movement line of the target moving object shows a movement line that is not normal, such as a lost child, a suspicious person, a person in poor health, etc. ) is considered negative. If the majority is negative, it is possible to apply a method of determining the quality of the judgment model from the PR curve.

図12、図13はPR曲線の例を示す図である。図12は、計算された再現率、適合率を表形式で示す。10点のデータについて判定モデルにより予測した値を大きい順に並べ、再現率、適合率を式に従い計算した例を示す。予測した値1.00を表に追記し、式より計算している。同一の判定モデルに対して、予測した値を閾値としたときの再現率、適合率を算出している。この計算には、実際の真偽値が必要となる。すなわち教師データを使用する必要がある。 12 and 13 are diagrams showing examples of PR curves. FIG. 12 shows the calculated recall rate and precision rate in a table format. An example is shown in which the values predicted by the judgment model for 10 data points are arranged in descending order, and the recall rate and precision rate are calculated according to the formula. The predicted value of 1.00 is added to the table and calculated using the formula. For the same judgment model, the recall rate and precision rate are calculated when the predicted value is used as the threshold. This calculation requires actual truth values. In other words, it is necessary to use training data.

図13は、PR曲線の一例を示す図である。図12の表をグラフとしてプロットすると図13の曲線を得る。BEP値のほかに、判定モデルの性能を図る1つの指標として、原点を含むa~kで囲まれる面積を用いてもよい。 FIG. 13 is a diagram showing an example of a PR curve. When the table of FIG. 12 is plotted as a graph, the curve of FIG. 13 is obtained. In addition to the BEP value, the area surrounded by a to k including the origin may be used as an index for evaluating the performance of the determination model.

図14は、真偽表を現実の系に当てはめた場合の一例を示す図である。例えば、離席、着席の真偽表について考える。着席を陽、離席を陰とした場合、100回の試行のうち、着席した(陽)にもかかわらず、着席していないと判断するケース偽陽性(FP)が40回発生したとする。一方、着席した(陽)ときに正しく着席したと判断した場合が20回あったとする。この場合の例えば適合率を計算すると、
着席適合率(精度、precision)= TP/(FP + TP) = 20/(20 + 40) = 0.33
となる。
FIG. 14 is a diagram showing an example of applying the truth table to an actual system. For example, consider the truth table for leaving and sitting. Suppose that when a person is seated (positive) and a person leaves a seat as negative, false positives (FP) occur 40 times out of 100 trials in which it is determined that the person is not seated even though he or she is seated (positive). On the other hand, suppose that there were 20 cases in which it was determined that the user was seated correctly when the user took a seat (positive). For example, when calculating the precision in this case,
Seated precision = TP/(FP + TP) = 20/(20 + 40) = 0.33
becomes.

逆に、離席したにも関わらず、離席していないと判断する場合(FN)は10回発生したとする。離席し正しく判断した(TN)は、30回発生した。従い、離席についての適合率は、
離席適合率 = TN/(FN + TN) = 30/(10 + 30) = 0.75
となる。
On the other hand, it is assumed that the case where it is determined that the user has not left the seat even though the user has left the seat (FN) occurs 10 times. The correct decision to leave the seat (TN) occurred 30 times. Therefore, the precision rate for leaving seats is
Away precision rate = TN/(FN + TN) = 30/(10 + 30) = 0.75
becomes.

同様に、再現率およびF値を計算すると、
着席再現率= TP/(FN + TP) =20/(10 + 20) = 0.66
離席再現率= TN/(FP+TN) =30/(40 + 30) = 0.43
着席F値 = 2 x (適合率x再現率) / (適合率+再現率)
= 2 x (0.33 x 0.66) / (0.33 + 0.66) = 0.44
離席F値 = 2x (0.75x 0.43) / (0.75+0.43) = 0.54
となる。
Similarly, when calculating recall and F-measure,
Seated recall = TP/(FN + TP) = 20/(10 + 20) = 0.66
Away recall rate = TN/(FP+TN) = 30/(40 + 30) = 0.43
Seated F value = 2 x (precision rate x recall rate) / (precision rate + recall rate)
= 2 x (0.33 x 0.66) / (0.33 + 0.66) = 0.44
Away F value = 2x (0.75x 0.43) / (0.75+0.43) = 0.54
becomes.

例えば、F値の閾値を0.50とした場合、着席F値は0.44で誤認識が大きく、教師データとして採用できない。離席F値は閾値を超えており、教師データとして採用条件を満たしていることになる。 For example, when the F value threshold is set to 0.50, the seated F value is 0.44, which causes a large false recognition and cannot be used as training data. The absentee F value exceeds the threshold, which means that it satisfies the conditions for inclusion as teacher data.

図15~図18は、画像センサで撮像される動体の一例を示す図である。図15は、建物の天井部に配置した画像センサにより撮像された動体の一例を示す。例えば図1における画像センサ10cで撮像した例と考えてもよい。図16は、図1の顔認証センサ7aを用いて撮像された画像の例を示す。両者を比較すると、撮像方向の違いから、得られる情報量も大きく異なることがわかる。 15 to 18 are diagrams showing examples of moving objects imaged by an image sensor. FIG. 15 shows an example of a moving object imaged by an image sensor placed on the ceiling of a building. For example, it may be considered that the image is captured by the image sensor 10c in FIG. FIG. 16 shows an example of an image captured using the face authentication sensor 7a of FIG. 1. Comparing the two, it can be seen that the amount of information obtained also differs greatly depending on the imaging direction.

図17は、単数または複数の画像センサにより動線をトレースした場合に、動体が正常と判断される場合の例である。実際には図15と同様の画像が得られる。例えば、図17の挙動を示す動体は建物内の職員であることが分かっていれば、正常行動をする人の動線として、教師データとして収集した動線情報を判定モデル改善に使用する。 FIG. 17 is an example of a case where a moving object is determined to be normal when a flow line is traced using one or more image sensors. In reality, an image similar to that shown in FIG. 15 is obtained. For example, if it is known that the moving object exhibiting the behavior shown in FIG. 17 is a staff member in a building, flow line information collected as teacher data is used to improve the determination model as the flow line of a person behaving normally.

図18は、異常と判断される場合の例を示す。把握した動線情報から、徘徊老人、迷子である可能性をリストアップする。建物内に当日そのような訪問者がいたかを施設管理者が確認し、端末よりその情報を入力する。該当者がおり、動線情報も取得できていれば、異常行動をする人の動線として、教師データとして、収集した動線情報を判定モデル改善に使用する。 FIG. 18 shows an example of a case where it is determined that there is an abnormality. Based on the information on the movement line that has been grasped, a list of possible elderly people wandering or lost children is created. The facility manager confirms whether there were any such visitors in the building on that day, and enters that information from the terminal. If there is a relevant person and flow line information has been obtained, the collected flow line information is used as the flow line of the person who behaves abnormally and as training data to improve the judgment model.

図19~図22は、動線の一例を示す図である。
図19の動線は、図1の画像センサ10a、10b、および10cの撮像空間を対象動体が辿った動線を並べて描かれる。対象動体は略直線状に移動しており、この範囲では正常動作をしている動体と判断できる。
19 to 22 are diagrams showing examples of flow lines.
The flow lines in FIG. 19 are drawn by arranging the flow lines that the target moving object traced through the imaging spaces of the image sensors 10a, 10b, and 10c in FIG. The target moving object is moving approximately in a straight line, and within this range it can be determined that the moving object is operating normally.

図20の動線は、図1における画像センサ10a~10fの撮像空間を対象動体が辿った動線である。やはり直線状に移動しているので、正常動作の範囲内と判断される。 The flow line in FIG. 20 is the flow line followed by the target moving object in the imaging space of the image sensors 10a to 10f in FIG. Since it is still moving in a straight line, it is determined that it is within the normal operating range.

図21は、10a~10fの撮像空間を辿った例であるが、直線状の動きではなく、異常と判断される可能性の高い動線である。しかし、この対象動体は、図の「〇」印の場所を一度ずつ辿っている。そこで、この対象動体は「〇」印の位置に興味があったであろうことが推測される。対象動体を同定する手段により、例えば従業員証の情報が付与されている場合には、例えば「〇」印の位置に置いてある消火器の有効期限の定期点検をしていたであろうことが推測できる。 FIG. 21 is an example of tracing the imaging spaces 10a to 10f, but the movement is not linear, but is a flow line that is likely to be judged as abnormal. However, this target moving object traces the locations marked with "○" in the diagram once. Therefore, it is inferred that this target moving object was interested in the position of the "○" mark. If the target moving object had been identified by means of identification, such as information on an employee ID card, for example, the expiration date of the fire extinguisher placed at the "〇" mark would have been periodically checked. can be inferred.

図22は、10a~10fの撮像空間を辿った例を示す。ここで、この動体を同定するための情報が、ビジターカードの情報しかなく、個人の詳細までは不明であるとする。また、過去にこの施設に入ったことはないことが、ビジターカードの情報からわかるとする。動線は10bのエリアで前後に戻っている。10dや10fでは、円弧を描くなど、明確な意図が感じられない動きである。移動にかかる時間も平均より長く、結果的に10aに戻るなど、明確な目的場所があったとは思えない動きである。この場合は、動体同定のための付加情報の有無にかかわらず、異常な動線と判断できるケースである。 FIG. 22 shows an example of tracing the imaging spaces 10a to 10f. Here, it is assumed that the information for identifying this moving object is only the information on the visitor card, and the details of the individual are unknown. Also, assume that the information on the visitor card shows that the user has never entered this facility in the past. The flow line goes back and forth in area 10b. In 10d and 10f, the movement does not seem to have a clear intention, such as drawing an arc. The travel time was longer than average, and as a result, it returned to 10a, making it hard to believe that there was a clear destination. In this case, it can be determined that the flow line is abnormal, regardless of the presence or absence of additional information for identifying the moving object.

以上のように、既設システムからの情報と動線情報との組み合わせにより、種々の応用が考えられる。例えばテーマパークにおいて、迷子を画像センサにより検出することを考える。入退室ゲートでの、パスカードから得られる情報から、対象動体の年齢層がわかる。迷子となる確率の高い、幼児や小学生、または年配者が含まれていた場合、優先的にモニタする対象動体を絞ることができる。加えて、入退出ゲートを通過する際は、複数人であったが、途中でその優先的にモニタする対象動体が所定の時間以上、一人でいる場合、迷子になっている可能性が高いと判断する。これにより、施設の監視員への通知を行うことができる。他には、お店の動線設計をするための情報収集が可能となる。 As described above, various applications can be considered by combining information from existing systems and flow line information. For example, consider detecting a lost child using an image sensor at a theme park. The age group of the target moving object can be determined from the information obtained from the pass card at the entrance/exit gate. If infants, elementary school students, or the elderly, who are likely to get lost, are included, it is possible to narrow down the target moving objects to be monitored with priority. In addition, if there are multiple people passing through the entrance/exit gate, but the target moving object is alone for a predetermined period of time, there is a high possibility that the object has gotten lost. to decide. This allows notification to be sent to the facility monitor. In addition, it is possible to collect information for designing the store's flow line.

解決策として、画像センサ稼働中に収集するデータのなかから、教師データとして使えると想定される、個人、または個人に属するグループを別情報(例えば入退出時に使用するカード情報、毎日出勤している施設の従業員であれば、迷子行動をするとは考えにくいため)から入手し、センサにより収集した動体情報と紐づけるという方法が考えられる。別情報は、例えば、1日の終わりに、今日は、迷子はいませんでしたという情報を施設管理人が入力する形でもよい。別な方法として、別情報等により信頼度を高め、教師データとして使えそうな候補データを用いて、認識/判断のための判定モデルに入力することにより、真偽表に基づく判定モデルの評価値の改善の有無をもって判断することも可能である。このようにして、集められた教師データにより、判定モデルの継続的改善を自動/半自動で行うことができるようになる。 As a solution, from among the data collected during image sensor operation, individuals or groups belonging to individuals, which can be used as training data, are collected using separate information (for example, card information used when entering and exiting, information on the number of people who come to work every day, etc.). One possible method would be to obtain the information from a facility employee (because it is unlikely that the child would act as a lost child) and link it to the motion information collected by sensors. For example, the other information may be in the form of a facility manager inputting information that there were no lost children today at the end of the day. Another method is to increase the reliability using other information, etc., and input the candidate data that can be used as training data into the judgment model for recognition/judgment, thereby increasing the evaluation value of the judgment model based on the truth table. It is also possible to judge based on the presence or absence of improvement. In this way, the collected training data allows automatic/semi-automatic continuous improvement of the decision model.

1つの画像センサの視野では、トレースする範囲が狭く、より正確な判断をするには、複数の画像センサからの画像情報を収集する必要がある。この場合、各画像センサで収集した画像を中央サーバに送り、そこで複数の画像センサに映っている同一人物の動線を時系列的に辿る。これにより十分長いトレース距離において、正常、異常を判断する動線の辞書と比較して、対象動体が例えば迷子であることを知ることができる。 With the field of view of one image sensor, the range to be traced is narrow, and in order to make more accurate judgments, it is necessary to collect image information from multiple image sensors. In this case, the images collected by each image sensor are sent to a central server, where the flow line of the same person captured by multiple image sensors is traced in chronological order. As a result, in a sufficiently long tracing distance, it can be determined that the target moving object is, for example, a lost child by comparing it with a dictionary of movement lines that determine whether it is normal or abnormal.

顔の検知を常にして画像収集し、別途登録した辞書情報と比較して対象動体を特定することや、表情の細かな違いから緊張状態や、快、不快などの感情を推定する方法がある。通常1つの画像センサでデータ収集が可能である。 There are methods to constantly detect faces and collect images and compare them with separately registered dictionary information to identify the target moving object, and to estimate emotions such as tension, pleasure, and displeasure from minute differences in facial expressions. . Data collection is usually possible with one image sensor.

施設内のカメラすべてが、顔認証が可能な分解能で撮影する方法も考えられるが、個人情報保護上、常時顔識別を実施することには、撮影される側は、視野の中にカメラが見えて、不快感をもつこともある。対象動体の進行方向に常に画像センサを置いて、顔を撮影しつづけることには、空間配置上無理がある。敢えてするには、顔認識を含めた動体の形状認識の精度を上げるには、辞書情報への大量の学習や、撮影する動体の向きなどを考慮した多数の画像センサを設置する必要などが生じる。 One option is to have all the cameras in the facility capture images at a resolution that allows facial recognition, but for the sake of personal information protection, it is difficult to constantly perform facial recognition because the person being photographed must be able to see the camera within their field of view. You may feel uncomfortable. It is unreasonable in terms of spatial arrangement to always place an image sensor in the direction of movement of a target moving object and continuously photograph its face. In order to improve the accuracy of shape recognition of moving objects, including face recognition, it is necessary to learn a large amount of dictionary information and install a large number of image sensors that take into account the orientation of the moving object being photographed. .

通常と異なる行動をする動体(人)を撮影画像から見いだしたいという要望を満たすには、広い範囲で、対象動体の動線を把握する方法が考えられる。この場合の撮像した画像データから、動線から判定する精度を高めるには、ローカルフィット、すなわち、据え付けた現場での撮像した画像データに対する前処理を含めた、判定モデルの調整が必要という課題がある。しかし、現場でこのような調整を行うことは、人手や、大量のデータを必要とするなど、実現できていない。 In order to satisfy the desire to find moving objects (people) that behave in unusual ways in photographed images, it is possible to consider a method of understanding the movement line of the target moving object over a wide range. In this case, in order to improve the accuracy of judgment based on the flow line from the captured image data, there is an issue that requires local fitting, that is, adjustment of the judgment model including preprocessing of the image data captured at the installation site. be. However, it has not been possible to make such adjustments on-site, as it requires manpower and large amounts of data.

対象動体の動線の把握が精度よくできるようになると、人の流れがつかめることにより、執務室などの部屋の室温の設定の際、部屋にいる現在の人数把握だけでなく、周辺の位置からの移動中の情報も加味することにより、このあとの部屋にくると想定される人数も把握できるようになる。 Once the flow line of the target moving object can be accurately grasped, the flow of people can be grasped, and when setting the room temperature of a room such as an office, it is possible to not only grasp the current number of people in the room, but also to check the surrounding position. By taking into account information about when the person is moving, it becomes possible to grasp the number of people who are expected to come to the room after that.

これらのことから実施形態によれば、現場への据え付け後も学習を継続させることができる。従って、実施形態によれば、継続的に性能を高めることの可能なセンサシステム、およびセンシング方法を提供することが可能となる。 For these reasons, according to the embodiment, learning can be continued even after installation at the site. Therefore, according to the embodiment, it is possible to provide a sensor system and a sensing method that can continuously improve performance.

なお、この発明は上記の形態に限定されるものではない。例えば画像センサに備わるプロセッサ(CPUやMPU)の能力に応じて、特徴量抽出部などの機能ブロックを備えていてもよい。 Note that this invention is not limited to the above embodiment. For example, the image sensor may include a functional block such as a feature extraction unit depending on the capabilities of a processor (CPU or MPU) included in the image sensor.

図23は、画像センサ10a~10f(まとめて符号10を付す)の一例を示す機能ブロック図である。画像センサ10は、撮像部としてのカメラ部310と、メモリ320、プロセッサ330、および通信部20を備える。これらは内部バス350を介して互いに接続される。メモリ320とプロセッサ330を備えることで、画像センサ10はコンピュータとして機能する。 FIG. 23 is a functional block diagram showing an example of image sensors 10a to 10f (collectively designated by the reference numeral 10). The image sensor 10 includes a camera section 310 as an imaging section, a memory 320, a processor 330, and a communication section 20. These are connected to each other via an internal bus 350. By including the memory 320 and the processor 330, the image sensor 10 functions as a computer.

カメラ部310は、魚眼レンズ31a、絞り機構31b、イメージセンサ31cおよびレジスタ300を備える。魚眼レンズ31aは、エリアを天井から見下ろす形で視野に捕え、イメージセンサ31cに結像する。魚眼レンズ31aからの光量は絞り機構31bにより調節される。イメージセンサ31cは例えばCMOS(相補型金属酸化膜半導体)センサであり、例えば毎秒30フレームのフレームレートの映像信号を生成する。この映像信号はディジタル符号化され、画像データとして出力される。 The camera section 310 includes a fisheye lens 31a, an aperture mechanism 31b, an image sensor 31c, and a register 300. The fisheye lens 31a captures the area in its field of view looking down from the ceiling, and forms an image on the image sensor 31c. The amount of light from the fisheye lens 31a is adjusted by an aperture mechanism 31b. The image sensor 31c is, for example, a CMOS (complementary metal oxide semiconductor) sensor, and generates a video signal at a frame rate of, for example, 30 frames per second. This video signal is digitally encoded and output as image data.

レジスタ300は、カメラ情報30aを記憶する。カメラ情報30aは、例えばオートゲインコントロール機能の状態、ゲインの値、露光時間などの、カメラ部310に関する情報、あるいは画像センサ3それ自体に関する情報である。
例えば、上記フレームレート、イメージセンサ31cのゲインの値、露光時間など、センシングの感度や精度に影響を及ぼすパラメータは、プロセッサ330により制御される。
Register 300 stores camera information 30a. The camera information 30a is information regarding the camera section 310, such as the state of the auto gain control function, gain value, and exposure time, or information regarding the image sensor 3 itself.
For example, parameters that affect the sensitivity and accuracy of sensing, such as the frame rate, the gain value of the image sensor 31c, and the exposure time, are controlled by the processor 330.

メモリ320は、SDRAM(Synchronous Dynamic RAM)などの半導体メモリ、またはNANDフラッシュメモリやEPROM(Erasable Programmable ROM)などの不揮発性メモリであり、実施形態に係わる各種の機能をプロセッサ330に実行させるためのプログラム32aと、カメラ部310により取得された画像データ32bを記憶する。さらにメモリ320は、辞書データ32c、および判定モデル32dを記憶する。 The memory 320 is a semiconductor memory such as an SDRAM (Synchronous Dynamic RAM), or a non-volatile memory such as a NAND flash memory or an EPROM (Erasable Programmable ROM), and stores a program for causing the processor 330 to execute various functions related to the embodiment. 32a and image data 32b acquired by the camera unit 310. Furthermore, the memory 320 stores dictionary data 32c and a determination model 32d.

辞書データ32cは、センシング項目と特徴量とを対応づけたテーブル形式のデータであり、例えば機械学習等の手法により生成することが可能である。辞書データ32cを用いた例えばパターンマッチング処理により、エリアにおける検出対象(人など)を識別することが可能である。 The dictionary data 32c is data in a table format in which sensing items and feature amounts are associated with each other, and can be generated by, for example, a method such as machine learning. For example, by pattern matching processing using the dictionary data 32c, it is possible to identify a detection target (such as a person) in the area.

判定モデル32dは、中央サーバ30における機械学習により生成された、学習済みモデルである。判定モデル32dは、中央サーバ30から送信され、メモリ320に記憶される。 The determination model 32d is a learned model generated by machine learning in the central server 30. The decision model 32d is sent from the central server 30 and stored in the memory 320.

このほか、メモリ320には、マスク設定データなどが記憶されてもよい。マスク設定データは、カメラ部310に捕えられた視野のうち、画像処理する領域(画像処理の対象領域)と、画像処理しない領域(画像処理の非対象領域)とを区別するために用いられる。 In addition, mask setting data and the like may be stored in the memory 320. The mask setting data is used to distinguish between an area to be image-processed (a target area for image processing) and an area not to be image-processed (a non-target area for image processing) in the field of view captured by the camera unit 310.

プロセッサ330は、メモリ320に記憶されたプログラムをロードし、実行することで、実施形態において説明する各種の機能を実現する。プロセッサ330は、例えばマルチコアCPU(Central Processing Unit)を備え、画像処理を高速で実行することについてチューニングされたLSI(Large Scale Integration)である。FPGA(Field Programmable Gate Array)等でプロセッサ330を構成することもできる。MPU(Micro Processing Unit)もプロセッサの一つである。 The processor 330 loads and executes programs stored in the memory 320, thereby realizing various functions described in the embodiments. The processor 330 is, for example, an LSI (Large Scale Integration) that includes a multi-core CPU (Central Processing Unit) and is tuned to perform image processing at high speed. The processor 330 can also be configured with an FPGA (Field Programmable Gate Array) or the like. MPU (Micro Processing Unit) is also one of the processors.

通信部20は、ネットワーク5に接続可能で、通信相手先(中央サーバ30、または他の画像センサ等)とのデータの授受を仲介する。通信のインタフェースは有線でも無線でもよい。通信ネットワークのトポロジはスター型、リング型など任意のトポロジを適用できる。通信プロトコルは汎用プロトコルでも、産業用プロトコルでもよい。単独の通信方法でもよいし、複数の通信方法を組み合わせてもよい。 The communication unit 20 is connectable to the network 5 and mediates data exchange with a communication partner (central server 30, other image sensor, etc.). The communication interface may be wired or wireless. Any topology such as a star type or a ring type can be applied to the communication network. The communication protocol may be a general purpose protocol or an industrial protocol. A single communication method may be used, or a plurality of communication methods may be combined.

特に、通信部20は、画像センサ10によるセンシングデータや、プロセッサ330の処理結果、処理データ、パラメータ、画像データ、動きベクトルデータ、蓄積された過去の動きベクトルデータ、加工された動きベクトルデータ、統計解析データ、出力データ、パラメータ、辞書データ、ファームウェアなどを、通信ネットワークとしてのネットワーク5経由で送受信する。 In particular, the communication unit 20 receives sensing data from the image sensor 10, processing results from the processor 330, processed data, parameters, image data, motion vector data, accumulated past motion vector data, processed motion vector data, and statistics. Analysis data, output data, parameters, dictionary data, firmware, etc. are transmitted and received via the network 5 as a communication network.

ところで、プロセッサ330は、実施形態に係る処理機能として、特徴量抽出部33a、動体判定部33b、および動線情報算出部33cを備える。特徴量抽出部33a、動体判定部33b、および動線情報算出部33cは、メモリ320に記憶されたプログラム32aがプロセッサ330のレジスタにロードされ、当該プログラムの進行に伴ってプロセッサ330が演算処理を実行することで生成されるプロセスとして、理解され得る。つまりプログラム320aは、特徴量抽出プログラム、動体判定プログラム、および動線情報算出プログラムを含む。 By the way, the processor 330 includes a feature extraction section 33a, a moving object determination section 33b, and a flow line information calculation section 33c as processing functions according to the embodiment. The feature extraction unit 33a, the moving object determination unit 33b, and the flow line information calculation unit 33c load the program 32a stored in the memory 320 into the register of the processor 330, and the processor 330 performs arithmetic processing as the program progresses. It can be understood as a process generated by execution. That is, the program 320a includes a feature amount extraction program, a moving object determination program, and a flow line information calculation program.

特徴量抽出部33aは、画像データ32bを画像処理して、対象エリアにおける対象動体の特徴量情報を算出する。得られた特徴量情報は、中央サーバ30に送信されるのに加え、メモリ320に記憶されてもよい。動体判定部33bは、特徴量情報に基づいて、対象動体が何(例えば人、フォークリフトや自動搬送車等の移動体)であるかを判定する。動線情報算出部33cは、対象動体の動線情報を算出する。 The feature extraction unit 33a performs image processing on the image data 32b to calculate feature information of the target moving object in the target area. The obtained feature amount information may be stored in the memory 320 in addition to being sent to the central server 30. The moving object determination unit 33b determines what the target moving object is (for example, a person, a moving object such as a forklift, an automatic guided vehicle, etc.) based on the feature amount information. The flow line information calculation unit 33c calculates flow line information of the target moving object.

なお、特徴量抽出部33aは、在不在、人数、活動量、照度、歩行滞留、および動きベクトル等をセンシングすることもできる。エリアごとに、これらの複数のセンシング項目を設定することもできる。特徴量抽出部33aは、エリアをさらに複数に分割したブロックごとに各センシング項目をセンシングし、ブロックごとのセンシング結果を統合して、エリアごとのセンシング結果を得ることも可能である。 Note that the feature extraction unit 33a can also sense presence/absence, number of people, amount of activity, illuminance, walking retention, motion vectors, and the like. These multiple sensing items can also be set for each area. The feature extraction unit 33a can also obtain sensing results for each area by sensing each sensing item for each block that further divides the area into a plurality of blocks, and integrating the sensing results for each block.

本発明の実施形態を説明したが、この実施形態は例として提示するものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although an embodiment of the invention has been described, this embodiment is presented by way of example and is not intended to limit the scope of the invention. This novel embodiment can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. This embodiment and its modifications are included within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.

以下に付記的事項を記載する。
[1]
実施形態のシステムは、
動体の動体情報を収集するセンサを備えるセンサシステムと、
センサシステムのセンシング範囲において、動体に関する電子情報を収集する情報収集システムと、
判断のための判定モデルを実行する計算部と、
動体情報と電子情報とを連携させ、動体情報を判定モデルに対する正解付きの教師データとするか否かを判断する情報連携部とを具備する、システムである。
[1]のシステムによれば、センサシステムで収集した動体情報(人の情報やフォークリフトの情報)と、情報収集システムとから得られる情報とを連携させることで、動体または動体の属するグループについての付加情報を得られる。付加情報を用いて、正解付きの教師データとみなせるか否かを判断することが可能となる。
[2]
実施形態のシステムは、[1]のシステムにおいて、判定モデルにより、教師データを計算した結果と、正解との比較に基づき、判定モデルの修正の実施の有無を決定する手段をさらに具備する、システムである。
[2]のシステムによれば、正解付きの教師データを得られた場合に、判定モデルの修正の実施の有無を決定することができる。また、判定モデルを修正した場合には、判定モデルの改善ができる。
[3]
実施形態のシステムは、[2]のシステムにおいて、正解付き教師データとするか否かの判断、または、判定モデルの修正の実施の有無を決定する方法として、教師データを用いて判定モデルの修正を実施した場合、判定モデルがより所望の状態に近づいているかを、教師データの一部をテストデータとして用い、結果として得られる真偽率をもとに算出した指標値により決定する、システムである。
[3]のシステムによれば、教師データをテストデータとして用いることで、判定モデルの真偽率が得られ、これに基づいた指標値として適合率、再現率、F値などが得られる、さらに、判定モデルの閾値を変えていくことで得られた真偽率に基づく指標値としてのBEP値が得られる。これらの指標を用いて判定モデルが改善しているかを判断することができる。これにより、教師データとして採用してよいか、さらに判定モデルの修正を実施したほうがよいかの判断が可能となる。
[4]
実施形態のシステムは、[1]乃至[3]のいずれかのシステムにおいて、動体情報は、動体の形状情報と、当該動体の移動方向およびその速さを示す速度ベクトル情報とを含む、システムである。
[4]のシステムによれば、動体の移動方向から、動体の向きが判断される。これにより、動体の向きにより動体の形状情報が大きく変化することに、対応できる。また、2つの動体が重なって撮影されたとき、速度ベクトル情報あるいは動線情報(速度ベクトル情報を時系列的に累積加算したもの)から、単一の個体か、または複数の個体かを区別できることも多い。よって、動体の形状情報と速度ベクトル情報とをセットにして使うことで、動体の識別/同定がより容易になる。これにより、いわば素性のはっきりした動体の動体情報となり、より信頼性の高い教師データを選別することができるという効果がある。
[5]
実施形態のシステムは、[1]乃至[3]のいずれかのシステムのセンサが、動体を撮像する画像センサであるシステムである。
[5]のシステムによれば、画像センサにより、動体の動体情報が収集される。
[6]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、電子情報は、施設への入退室用の携帯用機器の記録媒体に記憶される。
[6]のシステムによれば、例えば従業員証、ビジターカード、スマートフォン、埋め込みRFIDなど、日々の入退室管理情報を電子情報として利用することができる。
[7]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、電子情報は、個人用、または個人の属するグループに割り当てられた情報機器の記録媒体に記憶される。
[7]のシステムによれば、個人用、または個人の属するグループ用に用意されたPC、タブレット、スマートフォン、あるいは施設に据え付けられた操作盤などから取得される情報を、電子情報として利用することができる。すなわち、アクセス制限のかけられた機器から取得した情報を、電子情報とすることができる。
[8]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、特定の場所に設置された器具の操作履歴情報に基づいて、電子情報が、個人または個人の属するグループからの情報として認識するシステムである。
[8]のシステムによれば、例えば特定の場所や部屋の照明の点灯/消灯、ドアの開閉、施設内の特定の場所にある器具や装置の操作履歴情報に基づいて、個人または個人の属するグループを特定することができる。
[9]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、情報収集システムの特定の場所に動体が到着したことを、動体の個人または個人の属するグループの情報が得られたこととする、システムである。
[9]のシステムによれば、例えば、割り当てられた座席(特定の場所)に着席したとみなせる場所に動体が到着、停止したことをもって、個人または個人の属するグループを特定することができる。
[10]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、情報連携部は、センサシステムと情報収集システムのとの間の時刻差を検知し、動体情報のタイムスタンプと、電子情報のタイムスタンプとの時刻差を補正する機能をさらに具備するシステムである。
[10]のシステムによれば、センサシステムと、情報収集システムとの間の時刻差が補正されるので、対象動体の特定が容易になる。
[11]
実施形態のシステムは、[4]のシステムにおいて、速度ベクトル情報が閾値以上の速さであれば、対象動体の移動方向が正面方向であると判定する。
[11]のシステムによれば、速度ベクトル情報から対象動体の移動方向がわかり、それが閾値以上の速さであれば、移動方向が対象動体の正面方向であると判定される。従って、教師データとして用いることができるか否かを判断するための情報が得られる。
[12]
実施形態のシステムは、[11]のシステムにおいて、正面方向と判断した場合の、形状情報および速度ベクトル情報のタイムスタンプ以降の時刻における対象動体の向きについて、形状情報が閾値となる形状情報変化率を超えない場合に、対象動体が正面方向を維持していると判断する。
[12]のシステムによれば、形状情報の変化率が閾値を超えない場合に、姿勢を維持しているとみなされる。対象動体の向きが維持されている判断することで、教師データとして用いることができるか否かを判断するための情報が得られる。
[13]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、センサが計算部を内蔵する。
[13]のシステムによれば、中央サーバにデータをアップロードすることなしに、センサ内で決められた判定モデルの処理をタイムリーに実施することができる。これにより、教師データとするか否かの判断を迅速に行える。
[14]
実施形態のシステムは、[4]のシステムにおいて、動体の速度ベクトル情報の累積により動線を形成し、特定のパターンの動線への一致の有無に基づいて判定モデルの修正の実施の有無を決定する。
[14]のシステムによれば、1つまたは複数のセンサの速度ベクトル情報から、動線を形成することにより、特徴的な、管理者への通知を必要とする動きか否かを判断することができる。また、異常値の場合の、教師データを抽出する上の参考情報となる利点もある。
[15]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、判定モデルが、さらに、過去データをもとに予測されたクラスと実際のクラスとの間の真偽率に基づいて、教師データとしての利用の可否を判断する。
[15]のシステムによれば、過去収集したデータにおける、真偽率に基づく判定モデルの判定精度が低い場合には、教師データとして利用しないようにする。これによって判定モデルの改善に役立てることができる。例えば、椅子に座るという動作の場合、実際には人が着席していないにもかかわらず着席したというように判定してしまう、誤判定率が高いとした場合、この動作については、教師データとしての採用をしない。逆に、離席する動作の場合、離席したにもかかわらず、在席のままであると判定してしまう誤判定率は低いとして、教師データ、テストデータとしての候補にする。このようにして、精度の高い教師データを選択、収集することができるという効果がある。
[16]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、センサは、画像センサであり、画像センサの各々は、
画像データを取得する撮像部と、
画像データから動体情報を抽出する抽出部と、
画像識別用の判定モデルによる処理部と、
動体情報に基づいて対象動体を判定する判定部と、
を備える。
[17]
実施形態のシステムは、[4]のシステムにおいて、形状情報が、HOG(Histogram of Oriented Gradients)または、CoHOG(Co-occurrence Histogram of Oriented Gradients)により計算される。
[17]のシステムによれば、HOG/CoHOG系の画像処理情報を、形状情報として利用できる効果がある。
[18]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、判定モデルが、CNN(Convolutional Neural Network)またはDNN(Deep Neural Network)による深層学習に基づいて作成される。
[18]のシステムによれば、画像処理のための判定モデルが、CNNまたはDNNにより作成される。これにより、より高い精度で教師データとして利用可能か否かを判定することができる。
[19]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、電子情報が一定期間にわたり既定の閾値を超える異常値を発生していないこと、または特定の日時場所で異常値が発生したことを確認入力するという情報により、教師データとして確定される。
[19]のシステムによれば、動体を同定する手段として、例えば管理者/ユーザが異常値の発生の有無を、動体情報の収集中または収集後に確認する。これにより、管理者またはユーザの意思により、動体情報を教師データまたはテストデータとして確定させることができる。
[20]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、教師データとして判断されたデータを、判定モデル用のトレーニングデータ、またはテストデータとして利用する。
[20]のシステムによれば、得られた教師データを、判定モデルの学習用のトレーニングデータとしてまたは、判定モデルの性能評価のためのテストデータとして利用することができる。これにより、学習の自動化/半自動化を実現できる。
[21]
実施形態のシステムは、[1]乃至[3]のいずれかのシステムにおいて、
教師データとして判断された1つまたは複数のデータを、判定モデルの学習に用いる。さらに、真偽率に基づく学習後の判定モデルの評価値と合わせて教師データとして保存するか否かを判定する。
[21]のシステムによれば、判定モデルが、指標値を用いて比較した場合に改善するか否かを調べた上で、教師データとして登録する方法により、判定モデル改善への効果度を含む教師データとして保存するか否かを決めることができる。このようにして保存された教師データは、その効果度の順番付けをすることが可能となる。
[22]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、判定モデルで処理する前の所定の処理(前処理)を変更するか否かを、動体情報および電子情報に基づいて判断する。
[22]のシステムによれば、実運用環境における教師データを用いて、前処理の諸パラメータを変更して判定精度が改良するか否かを確認し、ローカルフィットした前処理にすることができる。判定モデルの精度の多くの部分は、収集した画像の前処理の良否に依存するからである。よって、以降の教師データの品質が向上し、収集/判断が容易になる効果がある。
なお、前処理とは、判定モデルに入力する前の画像処理プロセスであり、例えば、(1)カラー(RGB)かモノクロ(白黒)か、(2)画像データのフォーマット(保存形式)、(3)透過データの処理、(4)トリミング、リサイズ、(5)回転/反転処理、(6)色調変換/色反転処理、(7)ガンマ係数調整/輝度調整、(8)閾値処理(2値化)、(9)マスキング、(10)ノイズ除去、などの処理のことである。
[23]
実施形態のシステムは、[1]乃至[4]のいずれかのシステムにおいて、センサシステムにおけるセンサが画像センサであり、画像センサにより複数のセルに分割された撮像領域が一意に決定され、複数あるセルの少なくとも1つのセルに対象動体が映っている場合に、
1つのセルで撮像された、形状情報と速度ベクトル情報から、1つのセルからの対動体の移動量を速度ベクトル情報から計算し、
移動前後の形状情報の変化率を計算する一方、撮像領域内の1つのセルの相対位置情報および移動量から予め求めておいた形状情報の許容変化率と比較し、
形状情報の変化率が形状情報の許容率を超えた場合に、対象動体の向き、姿勢、服装、装着物を含む形状情報が有意に変わったと判断する判定モデルを、教師データとして利用可能か否かを判断する判定モデルの一部として含む。
[23]のシステムによれば、画像センサでは、カバーエリアが相対的に広いために、周辺と中央で、同一の動体を撮影してもその形状情報は異なる。例えば、天井部に配置された魚眼レンズ型の撮像カメラの場合、周辺のセルでは、顔側あるいは背中側が映り、カメラの直下では頭頂部が映ることになる。これら3つの形状情報は異なっている。よって画像センサにより分割された複数のセルのうちのどのセルで撮像し、どちら向きにどれだけ移動したかにより、同一動体であっても、その形状情報の変化量は異なる。同一動体における形状変化率を、セルの相対位置情報および移動量の関数として求め、形状情報の許容変化率として予め求めておく。これにより、対象動体の形状情報が有意に変わったかを判断可能となる。例えば対象動体の向きの変化から、転倒、昏倒などの変化を判断可能な、教師データとしての利用可能か否かを確認することができる。
Additional notes are listed below.
[1]
The system of the embodiment is
a sensor system including a sensor that collects motion information of a moving body;
an information collection system that collects electronic information about a moving object within a sensing range of the sensor system;
a calculation unit that executes a judgment model for judgment;
The system includes an information linking unit that links moving body information and electronic information and determines whether or not the moving body information is to be used as training data with correct answers for a determination model.
According to the system [1], by linking the moving object information (person information and forklift information) collected by the sensor system with the information obtained from the information collection system, information about the moving object or the group to which the moving object belongs can be obtained. Additional information can be obtained. Using the additional information, it is possible to judge whether or not it can be regarded as teaching data with correct answers.
[2]
The system of the embodiment is the system of [1], further comprising means for determining whether or not to modify the judgment model based on a comparison between the result of calculating the teaching data using the judgment model and the correct answer. It is.
According to the system [2], when training data with correct answers is obtained, it can be determined whether or not to modify the judgment model. Further, when the judgment model is modified, the judgment model can be improved.
[3]
In the system of [2], the system of the embodiment corrects the judgment model using the teaching data as a method for determining whether to use the teaching data with correct answers or determining whether to correct the judgment model. When implementing this, the system uses part of the training data as test data to determine whether the judgment model is closer to the desired state using an index value calculated based on the resulting truth rate. be.
According to the system in [3], by using training data as test data, the truth rate of the judgment model can be obtained, and based on this, precision rate, recall rate, F value, etc. can be obtained as index values. , a BEP value is obtained as an index value based on the truth rate obtained by changing the threshold value of the judgment model. Using these indicators, it is possible to judge whether the decision model has improved. This makes it possible to judge whether the data can be adopted as training data or whether it is better to further modify the judgment model.
[4]
The system of the embodiment is the system according to any one of [1] to [3], wherein the moving object information includes shape information of the moving object and velocity vector information indicating the moving direction and speed of the moving object. be.
According to the system [4], the orientation of the moving object is determined from the moving direction of the moving object. With this, it is possible to cope with the fact that the shape information of the moving object changes greatly depending on the direction of the moving object. In addition, when two moving objects are photographed overlapping each other, it is possible to distinguish between a single individual and multiple individuals based on velocity vector information or flow line information (time-series cumulative addition of velocity vector information). There are also many. Therefore, by using the shape information and velocity vector information of the moving object as a set, the identification/identification of the moving object becomes easier. This provides moving object information of a moving object with a clear identity, so to speak, and has the effect of making it possible to select more reliable training data.
[5]
The system of the embodiment is a system in which the sensor of any one of the systems [1] to [3] is an image sensor that images a moving object.
According to the system [5], moving body information about a moving body is collected by an image sensor.
[6]
In the system of the embodiment, in any one of [1] to [4], electronic information is stored in a recording medium of a portable device for entering and leaving a facility.
According to the system [6], daily entry/exit management information such as employee identification cards, visitor cards, smartphones, and embedded RFIDs can be used as electronic information.
[7]
In the system of the embodiment, in any one of [1] to [4], electronic information is stored in a recording medium of an information device for personal use or assigned to a group to which the individual belongs.
According to the system [7], information obtained from PCs, tablets, smartphones prepared for individuals or groups to which individuals belong, or control panels installed in facilities can be used as electronic information. I can do it. That is, information acquired from a device to which access is restricted can be made into electronic information.
[8]
The system of the embodiment is the system according to any one of [1] to [4], in which electronic information is transmitted as information from an individual or a group to which the individual belongs, based on operation history information of equipment installed at a specific location. It is a recognition system.
According to the system in [8], for example, based on the turning on/off of lights in a specific place or room, the opening/closing of a door, and the operation history information of appliances and devices in a specific place in the facility, the Groups can be identified.
[9]
In the system according to any one of [1] to [4], the system of the embodiment can detect that a moving object has arrived at a specific location in the information collection system by obtaining information about the individual of the moving object or the group to which the individual belongs. It is a system.
According to the system of [9], for example, the individual or the group to which the individual belongs can be identified based on the fact that the moving object arrives and stops at a location where it can be assumed that the individual is seated in the assigned seat (specific location).
[10]
In the system of the embodiment, in any one of [1] to [4], the information cooperation unit detects a time difference between the sensor system and the information collection system, and collects the time stamp of the moving object information and the electronic information. This system further includes a function to correct the time difference between the information and the time stamp.
According to the system [10], since the time difference between the sensor system and the information collection system is corrected, it becomes easy to identify the target moving object.
[11]
In the system of [4], the system of the embodiment determines that the moving direction of the target moving object is the front direction if the velocity vector information is faster than the threshold value.
According to the system in [11], the moving direction of the target moving object can be determined from the velocity vector information, and if the speed is greater than or equal to a threshold value, it is determined that the moving direction is in the front direction of the target moving object. Therefore, information for determining whether or not it can be used as teaching data can be obtained.
[12]
In the system of [11], the system of the embodiment calculates the shape information change rate at which the shape information becomes a threshold for the orientation of the target moving object at a time after the timestamp of the shape information and velocity vector information when it is determined that the direction is the front direction. If the distance does not exceed , it is determined that the target moving object is maintaining its front direction.
According to the system in [12], if the rate of change in shape information does not exceed a threshold, it is considered that the posture is maintained. By determining whether the orientation of the target moving object is maintained, information for determining whether or not it can be used as teacher data can be obtained.
[13]
In the system of the embodiment, in any one of [1] to [4], the sensor has a built-in calculation unit.
According to the system of [13], it is possible to timely process the determination model determined within the sensor without uploading data to a central server. Thereby, it is possible to quickly determine whether or not to use the data as teacher data.
[14]
In the system of [4], the system of the embodiment forms a flow line by accumulating velocity vector information of a moving object, and determines whether or not to modify the judgment model based on whether or not a specific pattern matches the flow line. decide.
According to the system of [14], it is possible to determine whether or not the movement is characteristic and requires notification to the administrator by forming a movement line from the velocity vector information of one or more sensors. I can do it. It also has the advantage of serving as reference information for extracting training data in the case of abnormal values.
[15]
The system of the embodiment is the system according to any one of [1] to [4], in which the determination model is further based on the truth rate between the predicted class based on past data and the actual class. , determine whether or not it can be used as training data.
According to the system in [15], if the judgment accuracy of the judgment model based on the truth rate in data collected in the past is low, the data is not used as training data. This can be used to improve the decision model. For example, in the case of the action of sitting on a chair, if there is a high rate of misjudgment in which a person is judged to be seated even though the person is not actually seated, then this action can be interpreted as training data. Not hiring. On the other hand, in the case of an action of leaving the seat, the erroneous determination rate of determining that the person is still present even though the person has left the seat is considered to be low, and is therefore used as a candidate for teacher data or test data. In this way, there is an effect that highly accurate training data can be selected and collected.
[16]
In the system of the embodiment, in any one of [1] to [4], the sensor is an image sensor, and each of the image sensors is
an imaging unit that acquires image data;
an extraction unit that extracts moving object information from image data;
a processing unit using a judgment model for image identification;
a determination unit that determines a target moving object based on the moving object information;
Equipped with
[17]
In the system of the embodiment [4], the shape information is calculated by HOG (Histogram of Oriented Gradients) or CoHOG (Co-occurrence Histogram of Oriented Gradients).
According to the system of [17], HOG/CoHOG-based image processing information can be used as shape information.
[18]
In the system of the embodiment, in any one of [1] to [4], the determination model is created based on deep learning using a CNN (Convolutional Neural Network) or a DNN (Deep Neural Network).
According to the system in [18], a decision model for image processing is created using CNN or DNN. Thereby, it is possible to determine with higher accuracy whether or not the data can be used as teaching data.
[19]
In the system of the embodiment, in any of the systems [1] to [4], the electronic information does not have an abnormal value exceeding a predetermined threshold for a certain period of time, or an abnormal value occurs at a specific date and time. By confirming and inputting the information, the information is confirmed as teacher data.
According to the system of [19], as a means for identifying a moving object, for example, an administrator/user checks whether an abnormal value has occurred during or after collecting moving object information. Thereby, the moving object information can be determined as teacher data or test data according to the intention of the administrator or the user.
[20]
The system of the embodiment uses data determined as teacher data in any of the systems [1] to [4] as training data or test data for a determination model.
According to the system of [20], the obtained teacher data can be used as training data for learning the decision model or as test data for evaluating the performance of the decision model. This makes it possible to achieve automation/semi-automation of learning.
[21]
The system of the embodiment includes any one of [1] to [3],
One or more pieces of data determined as training data are used for learning the determination model. Furthermore, it is determined whether or not to save as teacher data together with the evaluation value of the learned judgment model based on the truth rate.
According to the system in [21], after checking whether the judgment model improves when compared using index values, it is registered as training data, including the degree of effectiveness in improving the judgment model. You can decide whether to save it as training data or not. The teacher data stored in this way can be ordered in terms of effectiveness.
[22]
In the system of any one of [1] to [4], the system of the embodiment determines whether or not to change a predetermined process (preprocessing) before processing with the judgment model based on the moving object information and the electronic information. to decide.
According to the system in [22], it is possible to use training data in an actual operational environment to check whether the judgment accuracy improves by changing various parameters of preprocessing, and to achieve local fit preprocessing. . This is because a large part of the accuracy of the determination model depends on the quality of the preprocessing of the collected images. This has the effect of improving the quality of subsequent teacher data and making collection/judgment easier.
Note that preprocessing is an image processing process before inputting to the judgment model, and includes, for example, (1) color (RGB) or monochrome (black and white), (2) image data format (storage format), (3) ) Transparent data processing, (4) Trimming, resizing, (5) Rotation/reversal processing, (6) Tone conversion/color reversal processing, (7) Gamma coefficient adjustment/brightness adjustment, (8) Threshold processing (binarization) ), (9) masking, and (10) noise removal.
[23]
In the system of the embodiment, in any one of [1] to [4], the sensor in the sensor system is an image sensor, and the image sensor uniquely determines an imaging area divided into a plurality of cells. When the target moving object is reflected in at least one cell,
From the shape information and velocity vector information captured in one cell, calculate the amount of movement of the moving object from one cell from the velocity vector information,
While calculating the rate of change in the shape information before and after the movement, it is compared with the allowable rate of change in the shape information determined in advance from the relative position information of one cell in the imaging area and the amount of movement,
Is it possible to use a judgment model as training data that determines that the shape information, including the orientation, posture, clothing, and attachments of the target moving object, has changed significantly when the rate of change in shape information exceeds the allowable rate of shape information? It is included as part of the decision model that determines whether
According to the system of [23], since the image sensor has a relatively wide coverage area, even if the same moving object is photographed at the periphery and at the center, the shape information will be different. For example, in the case of a fisheye lens-type imaging camera placed on the ceiling, the peripheral cells will show the face or back side, and the top of the head will be seen directly below the camera. These three types of shape information are different. Therefore, the amount of change in the shape information of the same moving object varies depending on which cell among the plurality of cells divided by the image sensor is used to capture the image and in which direction and how far the object moves. The shape change rate for the same moving object is determined as a function of relative position information and movement amount of the cell, and is determined in advance as the allowable change rate of the shape information. This makes it possible to determine whether the shape information of the target moving object has changed significantly. For example, it is possible to check whether or not the data can be used as training data that can determine changes such as falls and stupor based on changes in the orientation of the target moving object.

1…センサシステム、2…ケース、3…画像センサ、4…対象空間、5…ネットワーク、6…エリア、7…生体情報センサ、7a…顔認証センサ、8a…入退出ゲート、9a…通信路、10a~10f(10)…画像センサ、11a…管理者入力情報入手部、12a…識別情報入手部、16…CPU、20…通信部、20a~20f(20)…通信部、21a…通信部、22…通信部、23…ドア、24…分割エリア、25…場所、26…情報端末、30…中央サーバ、30a…カメラ情報、31…通信部、31a…魚眼レンズ、31b…絞り機構、31c…イメージセンサ、32…特徴量抽出部、32a…プログラム、32b…画像データ、32c…辞書データ、32d…判定モデル、33…判定部、33a…特徴量抽出部、33b…動体判定部、33c…動線情報算出部、34…記憶部、34a…画像データ、34b…特徴量、35…記憶部、35a…辞書データ、36…CPU、40…教師データ判断部、41…情報連携部、42…採否判定部、43…CPU、44…教師データデータベース、46…制御部、300…レジスタ、310…カメラ部、320…メモリ、320a…プログラム、330…プロセッサ、350…内部バス、37…既設システムDB、38…個人情報DB、44…教師データDB、45…通知/宛先DB、a~f…エリア。 DESCRIPTION OF SYMBOLS 1... Sensor system, 2... Case, 3... Image sensor, 4... Target space, 5... Network, 6... Area, 7... Biometric information sensor, 7a... Face authentication sensor, 8a... Entry/exit gate, 9a... Communication path, 10a to 10f (10)...Image sensor, 11a...Administrator input information acquisition unit, 12a...Identification information acquisition unit, 16...CPU, 20...Communication unit, 20a to 20f (20)...Communication unit, 21a...Communication unit, 22... Communication department, 23... Door, 24... Divided area, 25... Location, 26... Information terminal, 30... Central server, 30a... Camera information, 31... Communication department, 31a... Fisheye lens, 31b... Aperture mechanism, 31c... Image Sensor, 32...Feature amount extraction unit, 32a...Program, 32b...Image data, 32c...Dictionary data, 32d...Determination model, 33...Determination unit, 33a...Feature amount extraction unit, 33b...Moving object determination unit, 33c...Flow line Information calculation unit, 34...Storage unit, 34a...Image data, 34b...Feature amount, 35...Storage unit, 35a...Dictionary data, 36...CPU, 40...Teacher data judgment unit, 41...Information linkage unit, 42...Acceptance/rejection determination Unit, 43...CPU, 44...Teacher data database, 46...Control unit, 300...Register, 310...Camera unit, 320...Memory, 320a...Program, 330...Processor, 350...Internal bus, 37...Existing system DB, 38 ...Personal information DB, 44...Teacher data DB, 45...Notification/destination DB, a to f...Area.

Claims (5)

建物に配設される複数の画像センサと、
前記画像センサにより撮像された画像データを解析して、対象動体の動体情報を取得する解析部と、
教師データを用いた機械学習により生成される判定モデルに基づいて、前記動体情報から前記対象動体の状態を判定する状態判定部と
前記建物のデータ収集システムと連携し、当該データ収集システムにより収集された収集データと前記画像データとを時刻情報を基準として関連付ける情報連携部と、
前記動体情報を、前記機械学習のための正解付き教師データとして採用することの可否を前記収集データに基づいて判定する採否判定部と
を具備する、センサシステム。
Multiple image sensors installed in the building,
an analysis unit that analyzes image data captured by the image sensor to obtain moving object information of a target moving object;
a state determining unit that determines the state of the target moving body from the moving body information based on a determination model generated by machine learning using training data ;
an information linking unit that cooperates with the data collection system of the building and associates the collected data collected by the data collection system with the image data based on time information;
an acceptance/rejection determination unit that determines whether or not the moving object information can be adopted as teaching data with correct answers for the machine learning, based on the collected data;
A sensor system comprising:
前記画像センサの各々は、
前記画像データを取得する撮像部と、
前記画像データから前記対象動体の特徴量情報を抽出する特徴量抽出部と、
前記特徴量情報に基づいて前記対象動体を判定する動体判定部と、
前記対象動体の動線情報を算出する動線情報算出部と、
前記動線情報を前記状態判定部に送信する送信部と
を具備する、請求項1に記載のセンサシステム。
Each of the image sensors includes:
an imaging unit that acquires the image data;
a feature extraction unit that extracts feature information of the target moving object from the image data;
a moving object determination unit that determines the target moving object based on the feature amount information;
a flow line information calculation unit that calculates flow line information of the target moving object;
The sensor system according to claim 1, further comprising: a transmitting section that transmits the flow line information to the state determining section.
前記画像センサの各々は、
前記判定モデルを記憶する記憶部をさらに具備し、
前記動体判定部は、前記判定モデルに基づいて、前記動線情報から前記対象動体の状態を判定する、請求項2に記載のセンサシステム。
Each of the image sensors includes:
further comprising a storage unit that stores the determination model,
The sensor system according to claim 2, wherein the moving object determination unit determines the state of the target moving object from the flow line information based on the determination model.
前記採否判定部は、前記判定モデルの性能評価指標値を算出し、前記動体情報を前記機械学習のための教師データとして採用することの可否を前記当該性能評価指標値に基づいて判定する、請求項1に記載のセンサシステム。 The acceptance/rejection determination unit calculates a performance evaluation index value of the determination model, and determines whether or not the moving object information can be adopted as training data for the machine learning based on the performance evaluation index value. The sensor system according to item 1. 建物に配設される複数の画像センサを具備するセンサシステムに適用されるセンシング方法であって、A sensing method applied to a sensor system equipped with a plurality of image sensors installed in a building, the method comprising:
コンピュータが、各画像センサにより撮像された画像データを解析して対象動体の動体情報を取得する過程と、a process in which a computer analyzes image data captured by each image sensor to obtain moving object information of a target moving object;
前記画像センサが、教師データを用いた機械学習により生成される判定モデルに基づいて、前記動体情報から前記対象動体の状態を判定する過程と、a step in which the image sensor determines the state of the target moving body from the moving body information based on a determination model generated by machine learning using teacher data;
前記コンピュータが、前記建物のデータ収集システムと連携し、当該データ収集システムにより収集された収集データと前記画像データとを時刻情報を基準として関連付ける過程と、a step in which the computer cooperates with the data collection system of the building and associates the collected data collected by the data collection system with the image data based on time information;
前記コンピュータが、前記動体情報を、前記機械学習のための正解付き教師データとして採用することの可否を前記収集データに基づいて判定する過程とを含む、センシング方法。A sensing method including a step in which the computer determines whether or not the moving body information can be employed as teaching data with correct answers for the machine learning, based on the collected data.
JP2019161251A 2019-09-04 2019-09-04 Sensor system and sensing method Active JP7353875B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019161251A JP7353875B2 (en) 2019-09-04 2019-09-04 Sensor system and sensing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019161251A JP7353875B2 (en) 2019-09-04 2019-09-04 Sensor system and sensing method

Publications (2)

Publication Number Publication Date
JP2021039592A JP2021039592A (en) 2021-03-11
JP7353875B2 true JP7353875B2 (en) 2023-10-02

Family

ID=74847157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019161251A Active JP7353875B2 (en) 2019-09-04 2019-09-04 Sensor system and sensing method

Country Status (1)

Country Link
JP (1) JP7353875B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023209757A1 (en) * 2022-04-25 2023-11-02 三菱電機株式会社 Mobile body monitoring service operation supervising device, mobile body monitoring service control device, and mobile body monitoring service operation system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018088157A (en) 2016-11-29 2018-06-07 マクセル株式会社 Detection recognizing system
JP2019036167A (en) 2017-08-17 2019-03-07 キヤノン株式会社 Image processing apparatus and image processing method
WO2019111932A1 (en) 2017-12-08 2019-06-13 日本電気株式会社 Model learning device, model learning method, and recording medium
JP2019096179A (en) 2017-11-27 2019-06-20 ホーチキ株式会社 Behavior monitoring system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018088157A (en) 2016-11-29 2018-06-07 マクセル株式会社 Detection recognizing system
JP2019036167A (en) 2017-08-17 2019-03-07 キヤノン株式会社 Image processing apparatus and image processing method
JP2019096179A (en) 2017-11-27 2019-06-20 ホーチキ株式会社 Behavior monitoring system
WO2019111932A1 (en) 2017-12-08 2019-06-13 日本電気株式会社 Model learning device, model learning method, and recording medium

Also Published As

Publication number Publication date
JP2021039592A (en) 2021-03-11

Similar Documents

Publication Publication Date Title
US11394933B2 (en) System and method for gate monitoring during departure or arrival of an autonomous vehicle
JP6905850B2 (en) Image processing system, imaging device, learning model creation method, information processing device
KR20100124309A (en) Dynamic object classification
CN106951889A (en) Underground high risk zone moving target monitoring and management system
CN110136832B (en) Cognitive ability assessment system and method based on daily behaviors of old people
JP2018032078A (en) Device for tracking object in consideration for image area of other object, program therefor and method therefor
US11954990B2 (en) Artificial intelligence (AI)-based security systems for monitoring and securing physical locations
US20150077550A1 (en) Sensor and data fusion
US20220083782A1 (en) Item monitoring for doorbell cameras
CN112163497B (en) Construction site accident prediction method and device based on image recognition
US11735017B2 (en) Artificial intelligence (AI)-based security systems for monitoring and securing physical locations
US20220415138A1 (en) Artificial Intelligence (AI)-Based Security Systems for Monitoring and Securing Physical Locations
JP7353875B2 (en) Sensor system and sensing method
CN115620175A (en) On-spot management system based on unmanned aerial vehicle is automatic to be patrolled and examined
Tan et al. Online activity recognition and daily habit modeling for solitary elderly through indoor position-based stigmergy
US20210271217A1 (en) Using Real Time Data For Facilities Control Systems
CN116862740A (en) Intelligent prison management and control system based on Internet
Kanthaseelan et al. CCTV Intelligent Surveillance on Intruder Detection
US20220101066A1 (en) Reducing false detections for night vision cameras
KR101340287B1 (en) Intrusion detection system using mining based pattern analysis in smart home
KR102341715B1 (en) Apparatus and method for livestock monitoring
US11550276B1 (en) Activity classification based on multi-sensor input
CN117423210B (en) Nursing is with disease anti-drop intelligent response alarm system
KR102601051B1 (en) Livestock disease real-time surveillance technology and intelligent quarantine and sanitation system
CN117376535B (en) Intelligent campus security control method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220615

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230920

R150 Certificate of patent or registration of utility model

Ref document number: 7353875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150