JP2019169011A - Symptom detection system and program - Google Patents

Symptom detection system and program Download PDF

Info

Publication number
JP2019169011A
JP2019169011A JP2018057336A JP2018057336A JP2019169011A JP 2019169011 A JP2019169011 A JP 2019169011A JP 2018057336 A JP2018057336 A JP 2018057336A JP 2018057336 A JP2018057336 A JP 2018057336A JP 2019169011 A JP2019169011 A JP 2019169011A
Authority
JP
Japan
Prior art keywords
predictive
time
data
sign
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018057336A
Other languages
Japanese (ja)
Other versions
JP7107498B2 (en
Inventor
鐵兵 中野
Teppei Nakano
鐵兵 中野
小川 哲司
Tetsuji Ogawa
哲司 小川
哲則 小林
Tetsunori Kobayashi
哲則 小林
祐典 沖本
Yusuke Okimoto
祐典 沖本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intelligence Flamework Kenkyusho kk
Waseda University
Original Assignee
Intelligence Flamework Kenkyusho kk
Waseda University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intelligence Flamework Kenkyusho kk, Waseda University filed Critical Intelligence Flamework Kenkyusho kk
Priority to JP2018057336A priority Critical patent/JP7107498B2/en
Publication of JP2019169011A publication Critical patent/JP2019169011A/en
Priority to JP2022108700A priority patent/JP7313610B2/en
Application granted granted Critical
Publication of JP7107498B2 publication Critical patent/JP7107498B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Alarm Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a symptom detection system which can precisely grasp various fluctuation of states related to a symptom and can easily collect data for learning.SOLUTION: A symptom detection system 10 is arranged by providing state data acquiring means 40 for continuously or repeatedly acquiring perception data which can be recognized with human sense as a state data of a symptom detection object on which any event may occur, a symptom feature extracting device 50 for, by using the acquired state data, carrying out pattern recognition for outputting whether or not the state of the symptom detection object falls within a specific state related to a symptom or its degree and for extracting symptom data obtained by this pattern recognition, a symptom detecting device 60 for carrying out time-series pattern recognition by using the extracted time-series feature data and for carrying out processing for outputting a score indicating degree of existence or absence of any symptom.SELECTED DRAWING: Figure 1

Description

本発明は、イベントの発生前に生じる予兆を検知する予兆検知システムおよびプログラムに係り、例えば、家畜の分娩、独房内の囚人の自殺、鬱病の発症、事故や危険行為の発生、トンネルの崩落、河川の氾濫、火山の噴火等の災害の発生、窃盗等の犯罪やテロの発生等についての予兆を検知する場合に利用できる。   The present invention relates to a sign detection system and program for detecting signs that occur before the occurrence of an event, such as livestock delivery, prisoner suicide in a cell, the onset of depression, the occurrence of an accident or dangerous behavior, the collapse of a tunnel, It can be used to detect signs of river floods, disasters such as volcanic eruptions, crimes such as theft and terrorist attacks.

一般に、世の中で発生する各種の特徴的な事象(イベント)について、発生時の損害やリスク等を減らすため、様々な方法でその予兆検知が行われている。例えば、肉牛の繁殖農家において、分娩時の子牛の死産は大損害であるため、分娩の予兆を検知し、死産を回避することは重要である。このため、近年では、牛の分娩予兆検知システムの開発が行われ、その販売も進んできている。   In general, signs of various characteristic events (events) that occur in the world are detected by various methods in order to reduce damage and risk at the time of occurrence. For example, in beef cattle breeding farmers, calving stillbirth at delivery is a major loss, so it is important to detect signs of calving and avoid stillbirth. For this reason, in recent years, a system for detecting signs of calving of cows has been developed, and its sales are also progressing.

ところで、従来から使用されている牛の分娩予兆検知システムは、接触型センサを牛に装着することにより、牛の状態を検出する構成のものが一般的である。しかし、このような接触型センサによる分娩予兆検知システムは、高価であり、侵襲性(生体の内部環境の恒常性を乱すような刺激を与えてしまう可能性)が高く、センサ設置時の危険をも伴うものである。   By the way, the bovine parturition sign detection system conventionally used is generally configured to detect the state of the cow by attaching a contact sensor to the cow. However, such a delivery sensory detection system using a contact sensor is expensive and highly invasive (possibly giving a stimulus that disturbs the homeostasis of the internal environment of the living body). Is also accompanied.

従って、非接触で牛の状態を検出することができれば、侵襲性の問題を解消することができ、設置時の危険も回避することができ、さらに、カメラを使って牛の状態を検出することができれば、比較的安価な予兆検知システムとすることができる。   Therefore, if the condition of the cow can be detected without contact, the invasive problem can be solved, the danger at the time of installation can be avoided, and furthermore, the condition of the cow can be detected using a camera. If it is possible, a relatively inexpensive sign detection system can be obtained.

なお、カメラを使用して状態の検出を行うという観点では、例えば、浴室内の異常を検知する浴室異常検知装置が知られている(特許文献1参照)。また、牛の分娩に限らず、予兆を検知するという観点では、複数のセンサの測定データを用いた状態変化の予兆検知において、データの参照期間を適切に決定できるようにした予兆検知装置が知られている(特許文献2参照)。   From the viewpoint of detecting a state using a camera, for example, a bathroom abnormality detection device that detects an abnormality in a bathroom is known (see Patent Document 1). In addition to cattle delivery, from the standpoint of detecting signs, there is a known sign detection device that can appropriately determine the data reference period in detecting signs of state change using measurement data from multiple sensors. (See Patent Document 2).

さらに、本発明で利用するベクトル化技術としては、例えば、i−vectorに関する技術が知られている(非特許文献1参照)。   Furthermore, as a vectorization technique used in the present invention, for example, a technique related to i-vector is known (see Non-Patent Document 1).

特開2017−40989号公報JP 2017-40989A 特開2017−204017号公報Japanese Patent Laid-Open No. 2017-204017

福地佑介、俵直弘、小川哲司、小林哲則、“i−vectorに基づく発話類似度を用いた非負値行列分解と話者クラスタリングへの適用”、情報処理学会研究報告、2012年7月20日、Vol.2012−SLP−92、No.8Keisuke Fukuchi, Naohiro Tsuji, Tetsuji Ogawa, Tetsunori Kobayashi, "Non-negative matrix decomposition using utterance similarity based on i-vector and application to speaker clustering", Information Processing Society of Japan Research Report, July 20, 2012 Vol. 2012-SLP-92, no. 8

前述したように、カメラを使用して非接触で牛の状態を検出すれば、比較的安価で、非侵襲性であり、かつ、設置時の危険も少ない牛の分娩予兆検知システムを実現することができる。   As mentioned above, if a cow is used to detect the state of a cow without contact, a cow delivery sign detection system that is relatively inexpensive, non-invasive, and has little risk during installation can be realized. Can do.

しかし、牛の分娩前の状態変動は多様であり、平常時の状態は分娩前にも観測され、その平常時に観測される状態が予兆と関連している。換言すれば、予兆を示すものとして捉えることができる牛の状態の中には、平常時も含め(平常時であるか、予兆時であるかに関わりなく)、常時出現する可能性のある状態が含まれている。   However, the state changes before calving in cows are various, and the normal state is observed even before the calving, and the state observed in the normal state is related to the sign. In other words, the cattle states that can be considered as signs are those that may appear at all times, including normal (regardless of whether they are normal or predictive). It is included.

従って、カメラを使用して牛の状態を検出し、検出した画像を用いて単純にパターン認識処理による状態監視を行ったとしても、少なくとも効果的な牛の分娩の予兆検知を行うことはできない。イベントの発生時期に近づいてきて初めて出現する状態を捉えるのであれば、その状態がイベントの発生まで散発的または断続的に出現する場合、あるいはイベントの発生に向けて徐々に状態が変化していく場合のいずれの場合であっても、カメラ画像を用いた単純なパターン認識処理による状態監視でよいが、予兆時だけではなく平常時も含めて常時出現する可能性のある状態を捉えて予兆検知を行うとなると、従来のような単純なパターン認識処理による状態監視では、その状態が予兆として出現しているのか否かを明確に判別することが困難だからである。   Therefore, even if the state of the cow is detected using the camera and the state monitoring is simply performed by the pattern recognition process using the detected image, at least effective prediction of the calving of the cow cannot be performed. If you capture the state that appears for the first time when the event occurs, the state will change sporadically or intermittently until the event occurs, or the state will gradually change toward the event occurrence In any case, simple pattern recognition processing using camera images can be used to monitor the state, but not only when it is a sign but also when there is a possibility that it will always appear, including sign detection This is because it is difficult to clearly determine whether or not the state appears as a sign by the conventional state monitoring by simple pattern recognition processing.

また、時間的な要素を加味したパターン認識を行えば、常時出現する可能性のある状態を捉えることでも予兆検知が可能であると考え、従来のような単純なパターン認識処理を一歩進め、時間的な要素を加味すべく、複数の時刻に取得された状態データを、パターン認識器に同時に入力することも考えられる。しかし、予兆検知が可能となる程の時間長に渡る大量の状態データを、パターン認識器に入力することは、膨大な処理量になり、現実的ではない。   In addition, if pattern recognition that takes into account temporal factors is considered, it is possible to detect signs even by capturing a state that may appear at all times. In order to take into account such elements, it is also conceivable to simultaneously input state data acquired at a plurality of times to the pattern recognizer. However, it is not practical to input a large amount of state data over a length of time that can detect the sign into the pattern recognizer because of the enormous amount of processing.

なお、本願明細書において「平常時」というときは、予兆を検知しようとしているターゲットのイベントについての予兆時以外の時という意味で使うものとする。従って、例えば、死に至るような特定の大病がターゲットのイベントであるときに、その大病の予兆として「咳や鼻水が出る状態」が出現すると仮定すると、軽い風邪を患っているに過ぎないときに、咳や鼻水が出ていれば、それは平常時に出現している「咳や鼻水が出る状態」ということになる。軽い風邪を患っているときが、平常時であると考えるのは、社会通念からは乖離しているが、軽い風邪が、ターゲットのイベントとされているわけではなく、あくまでも特定の大病がターゲットのイベントとされているので、軽い風邪のときの咳や鼻水は、ターゲットのイベントについての予兆時以外の時(すなわち、本願明細書でいう平常時)に出現している「咳や鼻水が出る状態」ということになる。   In the specification of the present application, the term “normal” is used to mean a time other than the predictive time for the target event for which the predictor is to be detected. Thus, for example, when a specific major illness that leads to death is the target event, assuming that a “cough or runny nose” appears as a predictor of the major illness, you are only suffering from a mild cold. If you have a cough or runny nose, it means “a cough or runny nose” that appears in normal times. When we have a mild cold, we think that it is normal to think that it is normal, but mild cold is not the target event. Since it is considered as an event, cough and runny nose when a mild cold occurs, it is appearing at a time other than the predictive time of the target event (that is, normal in the present specification) "It turns out that.

また、パターン認識処理を行うには、学習を行ってモデルを用意する必要があるが、牛の分娩というのは、頻繁に起きるものではなく、また、都合の良いときに強制的に発生させることができるものでもないので、学習のためのデータ収集が困難であるという問題もある。このことは、モデルの更新を頻繁に行うことはできないことを意味するので、パターン認識器の性能向上を早期に図ること、あるいは速いスピードで段階的に向上させていくことが困難であるということに繋がる。   In order to perform pattern recognition processing, it is necessary to prepare a model by learning, but cow calving is not a frequent occurrence and should be forced to occur at a convenient time. However, there is also a problem that it is difficult to collect data for learning. This means that the model cannot be updated frequently, so it is difficult to improve the performance of the pattern recognizer at an early stage or to improve it step by step at high speed. It leads to.

そして、以上のような問題は、牛の分娩の予兆検知に限らず、様々なイベントの発生前に生じる予兆を検知する場合にも、同様に生じ得る問題である。   The above-described problems are not limited to the detection of cattle calving signs, but can occur in the same way when detecting signs that occur before the occurrence of various events.

本発明の目的は、予兆に関連する多様な状態変動を的確に捉えることができ、かつ、学習のためのデータ収集を容易に行うことができる予兆検知システムおよびプログラムを提供するところにある。   An object of the present invention is to provide a sign detection system and a program that can accurately grasp various state fluctuations related to a sign and can easily collect data for learning.

<発明の基本構成>   <Basic configuration of the invention>

本発明は、イベントの発生前に生じる予兆を検知する予兆検知システムであって、
イベントの発生の可能性がある予兆検知対象についての状態を示す状態データとして、人の知覚で認識可能な知覚データを含むデータを継続的にまたは繰り返し取得する状態データ取得手段と、
この状態データ取得手段により取得した状態データを用いて、予兆検知対象の状態が、予兆に関連し、かつ、常時出現する可能性のある特定の状態を含む予兆に関連する予め定められた少なくとも1つの特定の状態に該当するか否かまたは当該特定の状態に対する類似の程度を示すデータを出力するパターン認識処理を実行し、このパターン認識処理で得られる特徴データを抽出する処理を繰り返し実行する予兆特徴抽出器と、
この予兆特徴抽出器により抽出した時系列の特徴データを用いて、時系列パターン認識処理を実行し、予兆の有無または存否の程度を示すスコアを出力する予兆検知器と
を備えたことを特徴とするものである。
The present invention is a sign detection system for detecting a sign that occurs before the occurrence of an event,
State data acquisition means for continuously or repeatedly acquiring data including perceptual data that can be recognized by human perception as state data indicating a state of a sign detection target that may cause an event;
Using the state data acquired by the state data acquisition means, the state of the detection target is at least a predetermined one related to the predictor and related to the predictor including a specific state that is likely to appear at all times. An indication that a pattern recognition process that outputs data indicating whether or not one of the specific states corresponds or a degree of similarity to the specific state is executed, and a process of extracting feature data obtained by the pattern recognition process is repeatedly executed A feature extractor;
A predictive detector that performs time-series pattern recognition processing using the time-series feature data extracted by the predictive feature extractor and outputs a score indicating the presence / absence of presence / absence of a sign. To do.

ここで、「イベント」とは、特徴的な事象のことであり、例えば、牛の分娩の予兆を検知するシステムの場合には、牛の分娩であり、「予兆検知対象」とは、牛であり、「特定の状態」とは、例えば、牛の起立状態、牛の尾の挙上状態(牛の尾の挙上角度のような連続値またはその連続値が属する範囲は、閾値や範囲で定められた牛の尾の挙上状態に対する類似の程度を示すデータである。)、牛の尿膜・羊膜の露出状態、牛の立ち座り状態(所定の短時間内に、立ったり、座ったりするという状態)、牛の片足を軸にした回転状態、牛の鳴き声についての特徴的な状態等である。なお、牛の立ち座り状態や、牛の片足を軸にした回転状態は、短時間で検出可能な動作を示す状態であり、「特定の状態」には、このような短時間内の動作を示す状態が含まれる。詳細は、[発明を実施するための形態]において後述する。   Here, an “event” is a characteristic event. For example, in the case of a system that detects a sign of cattle delivery, it is cow delivery, and “a sign detection target” is a cow. Yes, the “specific state” means, for example, a standing state of a cow, a raised state of a cow's tail (a continuous value such as the raising angle of a cow's tail or a range to which the continuous value belongs is a threshold value or a range. It is data showing the degree of similarity to the raised state of the cow's tail.), The exposed state of the cow's allanum / amniotic membrane, and the standing state of the cow (standing or sitting within a predetermined short time) State of rotation) around a cow's leg, a characteristic state of cow's cry, etc. In addition, the standing state of the cow and the rotating state with the one leg of the cow as the axis indicate the state that can be detected in a short time. The state shown is included. Details will be described later in [Description of Embodiments].

また、「状態データ取得手段」における「人の知覚で認識可能な知覚データを含むデータ」という記載中の「知覚データ」とは、主として人の視覚で認識できる画像データ(サーモグラフィデータや、エッジ画像のような加工画像データ等も含む。)、または人の聴覚で認識できる音データであるが、その他に、例えば、臭いデータ等であってもよい。さらに、「知覚データを含むデータ」というのは、知覚データだけを「予兆特徴抽出器」でのパターン認識処理に使用するのではなく、例えば温度センサや加速度センサ等の出力データのような知覚データ以外のデータを合わせてパターン認識処理に使用してもよい趣旨である。   In addition, “perception data” in the description “data including perceptual data recognizable by human perception” in “state data acquisition means” refers to image data (thermographic data or edge image) that can be recognized mainly by human vision. Processed image data, etc.), or sound data that can be recognized by human hearing, but may also be, for example, odor data. Furthermore, “data including perceptual data” does not use only perceptual data for pattern recognition processing by “predictive feature extractor”, but perceptual data such as output data from temperature sensors, acceleration sensors, etc. Data other than that may be used for pattern recognition processing.

また、「予兆特徴抽出器」における「予兆に関連し、かつ、常時出現する可能性のある特定の状態を含む予兆に関連する予め定められた少なくとも1つの特定の状態」という記載中の「予兆に関連」は、経験上または統計上、予兆として出現することが判明している特定の状態という意味であり、「常時出現する可能性のある」は、予兆時であるか否かに関わらず、いつでも出現し得る特定の状態という意味である。「予め定められた」とは、システムを構築するにあたり、予め選定されている特定の状態という意味であり、従って、パターン認識のための学習時には、学習に用いる状態データに対し、その特定の状態に関するタグ付けが行われていることになる。   In addition, in the “predictive feature extractor”, “predictive at least one specific state related to the predictor including a specific state that is related to the predictor and may always appear” `` Related to '' means a specific state that has been found empirically or statistically to appear as a sign, and `` may appear at all times '' means whether it is a sign or not , Meaning a specific state that can appear at any time. “Predetermined” means a specific state selected in advance when constructing the system. Therefore, when learning for pattern recognition, the specific state is used for the state data used for learning. The tagging about is done.

さらに、「少なくとも1つの特定の状態」であるから、予兆検知に使用する「特定の状態」は1つでもよく、複数でもよく、1つの場合には、その1つの特定の状態は、「予兆に関連し、かつ、常時出現する可能性のある特定の状態」ということになる。特定の状態が、たとえ「常時出現する可能性のある」状態であったとしても、その状態の出現の頻度の変化がある場合や、出現間隔について特徴的なパターン(例えば、何秒か置いて2連続で出現することが繰り返されるといった特徴的な出現パターン)がある場合等のように時間的な要素が加わると、特定の状態が1つだけでも、予兆の検知が可能である。   Furthermore, since it is “at least one specific state”, the number of “specific states” used for predictive detection may be one or plural, and in one case, that one specific state is “predictive”. It is related to "and is a specific state that may always appear". Even if a particular state is a “possibly appearing” state, there may be a change in the frequency of appearance of the state, or a characteristic pattern of the appearance interval (for example, several seconds When a temporal element is added as in the case where there is a characteristic appearance pattern that repeats appearing in two consecutive times), it is possible to detect a sign even if there is only one specific state.

但し、予兆検知の確実性を向上させるという観点、換言すれば、より一層、検知漏れが少なく(すなわち、高再現率であり)、かつ、誤検出も少ない(すなわち、高精度である)予兆検知を実現するという観点では、複数の「特定の状態」を用いることが望ましい。すなわち、予兆特徴抽出器は、複数の特定の状態の各々に該当するか否かまたはこれらの特定の状態の各々に対する類似の程度を示すデータを出力するパターン認識処理を実行する構成とすることが望ましい。そして、このような構成とする場合の複数の「特定の状態」には、「予兆に関連し、かつ、常時出現する可能性のある特定の状態」が少なくとも1つ含まれていることになる。従って、「予兆に関連し、かつ、常時出現する可能性のある特定の状態」をαとし、「予兆に関連し、かつ、予兆時にしか出現しない(平常時には出現しない)特定の状態」をβとすると、αが2以上あり、かつ、βが1つもない場合(全部がαの場合)と、αは1つしかないが、βも1以上ある場合(α,βが混在し、αが1つの場合)と、αが2以上あり、かつ、βも1以上ある場合(α,βが混在し、αが複数の場合)とがある。   However, from the viewpoint of improving the certainty of predictive detection, in other words, predictive detection with even fewer detection omissions (that is, high recall) and fewer false detections (that is, high accuracy). From the viewpoint of realizing the above, it is desirable to use a plurality of “specific states”. That is, the predictive feature extractor may be configured to execute a pattern recognition process that outputs data indicating whether or not each of a plurality of specific states corresponds to each of the specific states. desirable. The plurality of “specific states” in the case of such a configuration include at least one “specific state that is related to the sign and may always appear”. . Therefore, “a specific state that is related to the sign and may appear at all times” is α, and “a specific state that is related to the sign and appears only at the time of the sign (does not appear in normal times)” is β Then, when α is 2 or more and there is no β (when all are α), there is only one α, but β is also 1 or more (α and β are mixed, α is There is a case where α is 2 or more and β is 1 or more (a case where α and β are mixed and α is plural).

さらに、「予兆特徴抽出器」の「特定の状態に該当するか否かまたは当該特定の状態に対する類似の程度を示すデータ」における「該当するか否か」を示すデータとは、○×判別のように2値(2パターン)に分類される場合のその分類結果を示すデータであることを意味し、それらの各パターンに該当することについての確からしさを示す尤度を含む。また、「類似の程度を示すデータ」とは、例えば、特定の状態が、連続値に対する閾値で定められ、または連続値が属する範囲で定められている場合には、その連続値自体、または連続値がいずれの範囲に属するのかを示すデータ(各範囲に属することについての確からしさを示す尤度を含む。)であることを意味し、あるいは、連続値が関与しない場合には、例えば、「上、中、下」、「大、中、小」、「◎、○、△、×」、「1,2,3,4,5」等のように、3値(3パターン)以上に分類される場合の分類結果を示すデータ(各パターンに該当することについての確からしさを示す尤度を含む。)であることを意味する。従って、例えば、「上、中、下」に分類される場合に、細分化された「上」の状態、「中」の状態、「下」の状態のそれぞれが本発明における「特定の状態」ということではなく、本発明においては、これらの3つの状態のうちの少なくとも1つの状態が、予兆に関連する「特定の状態」であり、例えば、「上」の状態が「特定の状態」であるとすれば、「中」の状態および「下」の状態は、「特定の状態」に対する類似の程度に差がある「特定の状態」以外の状態ということであり、「上」の状態および「中」の状態が「特定の状態」であるとすれば、「下」の状態が、「特定の状態」以外の状態ということである。   Further, the data indicating “whether or not” in “data indicating whether or not a specific state is applicable or the degree of similarity to the specific state” of the “predictive feature extractor” is In this way, it means data indicating the classification result in the case of being classified into two values (two patterns), and includes a likelihood indicating the certainty of corresponding to each of these patterns. In addition, “data indicating the degree of similarity” is, for example, when a specific state is determined by a threshold value for a continuous value, or in a range to which the continuous value belongs, the continuous value itself, or continuous This means data indicating which range the value belongs to (including the likelihood indicating the likelihood of belonging to each range), or if a continuous value is not involved, for example, “ Classified into three or more values (three patterns), such as “upper, middle, lower”, “large, medium, small”, “◎, ○, Δ, x”, “1, 2, 3, 4, 5”, etc. This means that the data indicates the classification result (including the likelihood indicating the certainty of corresponding to each pattern). Therefore, for example, when classified as “upper, middle, lower”, each of the subdivided “upper” state, “middle” state, and “lower” state is a “specific state” in the present invention. Rather, in the present invention, at least one of these three states is a “specific state” related to the predictor, for example, an “upper” state is a “specific state”. If so, the “middle” state and the “down” state are states other than the “specific state” that differ in the degree of similarity to the “specific state”. If the “middle” state is a “specific state”, the “down” state is a state other than the “specific state”.

そして、「特定の状態」が複数ある場合において、「特定の状態」の数と、「予兆特徴抽出器」での「パターン認識処理」の数とは、一致していてもよく、一致していなくてもよい。従って、「予兆特徴抽出器」は、複数の特定の状態の各々についての判定出力を別々のパターン認識処理で行う構成(すなわち、1つの特定の状態についての判定出力を1つのパターン認識処理で行い、それを複数用意する構成:後述する図3参照)、複数の特定の状態の各々についての判定出力を1つのパターン認識処理でまとめて行う構成(後述する図2参照)、それらを複合した構成(例えば、特定の状態X,Y,Zがあるときに、特定の状態X,Yについての各判定出力は、パターン認識処理Pで行い、特定の状態Zについての判定出力は、パターン認識処理Qで行う構成等)のいずれでもよい。この際、「パターン認識処理」の数が2以上である場合には、異なる種類のパターン認識処理としてもよい。下記のように、採用できるパターン認識処理の種類は、複数あるからである。例えば、特定の状態X,Y,Zがあるときに、特定の状態X,Yについての各判定出力は、ニューラル・ネットワークで行い、特定の状態Zについての判定出力は、隠れマルコフモデル(HMM)で行い、それらを合わせて後段の「予兆検知器」に入力する構成等である。   When there are a plurality of “specific states”, the number of “specific states” and the number of “pattern recognition processes” in the “predictive feature extractor” may or may not match. It does not have to be. Therefore, the “predictive feature extractor” is configured to perform determination output for each of a plurality of specific states by separate pattern recognition processing (that is, perform determination output for one specific state by one pattern recognition processing). , A configuration in which a plurality of them are prepared (see FIG. 3 to be described later), a configuration in which determination outputs for each of a plurality of specific states are collectively performed in one pattern recognition process (see FIG. 2 to be described later), and a configuration in which these are combined (For example, when there are specific states X, Y, and Z, each determination output for the specific states X and Y is performed in the pattern recognition process P, and the determination output for the specific state Z is the pattern recognition process Q. Any of the configurations performed in step 1) may be used. At this time, if the number of “pattern recognition processes” is two or more, different types of pattern recognition processes may be used. This is because there are a plurality of types of pattern recognition processes that can be adopted as described below. For example, when there are specific states X, Y, and Z, each determination output for the specific states X and Y is performed by a neural network, and the determination output for the specific state Z is a hidden Markov model (HMM). This is a configuration in which these are combined and input to the “predictor detector” at the subsequent stage.

また、「予兆特徴抽出器」における「パターン認識処理」としては、例えば、ニューラル・ネットワークを採用することができ、特に、畳み込み・ニューラル・ネットワーク(CNN)が好適であるが、その他に、例えば、隠れマルコフモデル(HMM)、サポート・ベクター・マシン(SVM)、ベイジアン・ネットワーク等を採用することができる。   In addition, as the “pattern recognition process” in the “predictive feature extractor”, for example, a neural network can be adopted, and a convolutional neural network (CNN) is particularly suitable. Hidden Markov models (HMM), support vector machines (SVM), Bayesian networks, etc. can be employed.

さらに、「予兆検知器」における「時系列パターン認識処理」としては、例えば、リカレント・ニューラル・ネットワーク(RNN)を好適に採用することができるが、その他に、例えば、隠れマルコフモデル(HMM)等を採用することができる。   Furthermore, as the “time-series pattern recognition process” in the “predictor detector”, for example, a recurrent neural network (RNN) can be suitably used. In addition, for example, a hidden Markov model (HMM), etc. Can be adopted.

そして、本発明の予兆検知システムは、前段の「予兆特徴抽出器」と後段の「予兆検知器」とによる2段階の処理を行う構成とされているが、前段の「予兆特徴抽出器」を、複数段のパターン認識処理を行う構成としてもよく、また、後段の「予兆検知器」を、複数段の処理(時系列パターン認識処理またはそれに代替する処理)を行う構成としてもよい。なお、このような構成とした場合でも、大きく見ると、2段階であるので、本願明細書では、このような構成の場合も含め、2段階であるものとして説明を行う。   The predictive detection system according to the present invention is configured to perform two-stage processing using the “predictive feature extractor” in the preceding stage and the “predictive detector” in the subsequent stage. Further, a configuration in which a plurality of stages of pattern recognition processing is performed may be employed, and a “predictor detector” in the subsequent stage may be configured to perform a plurality of stages of processing (time-series pattern recognition processing or processing in place thereof). Even when such a configuration is used, since it is roughly divided into two stages, the present specification will be described as including two stages including such a configuration.

<発明の基本構成から得られる作用・効果>   <Operations and effects obtained from the basic configuration of the invention>

このような本発明の予兆検知システムにおいては、前段の「予兆特徴抽出器」と後段の「予兆検知器」とによる2段の処理器により予兆検知を行う構成とされ、各段の処理器は、異なる役割を担当している。   In such a sign detection system of the present invention, the sign detection is performed by a two-stage processor including a “prediction feature extractor” in the preceding stage and a “signature detector” in the subsequent stage. Are responsible for different roles.

前段の「予兆特徴抽出器」は、パターン認識処理により予兆に関連する特定の状態を捉えるが、その状態が、予兆として出現しているのか否かを判別することを目的としないパターン認識処理を実行する。従って、特定の状態を捉えるための処理を行うが、捉えた状態が予兆なのか否かまたはその程度を判定することはしない。そして、このようなパターン認識処理を繰り返す。   The “predictive feature extractor” in the previous stage captures a specific state related to a sign by pattern recognition processing, but does not recognize whether the state has appeared as a sign. Execute. Accordingly, processing for capturing a specific state is performed, but it is not determined whether or not the captured state is a sign. Then, such pattern recognition processing is repeated.

一方、後段の「予兆検知器」は、前段の「予兆特徴抽出器」によるパターン認識処理の繰り返しで得られた時系列の特徴データを用いて、予兆を検知する。従って、時間的な要素を加味した処理を行うことにより、前段の「予兆特徴抽出器」で得られた特徴データが、予兆として出現している特定の状態に関する情報であるのか否かまたはその程度を判定する。   On the other hand, the “predictor detector” in the subsequent stage detects the sign using time-series feature data obtained by repeating the pattern recognition processing by the “predictive feature extractor” in the previous stage. Therefore, whether or not the feature data obtained by the “predictive feature extractor” in the previous stage is information on a specific state appearing as a predictor by performing processing that takes into account temporal factors Determine.

このため、予兆に関連する特定の状態の中に、常時出現する可能性のある特定の状態が含まれていても、効果的な予兆検知を行うことが可能となる。すなわち、常時出現する可能性のある特定の状態については、1段のパターン認識処理だけでは、その状態を捉えることができたとしても、捉えた状態が予兆時に出現しているのか否かの明確な判別ができないため、予兆検知が困難であり、また、一歩進めて時間的な要素を加味すべく、複数の時刻に取得された状態データをパターン認識器に同時に入力することも考えられるが、予兆検知が可能となる程の時間長に渡る大量の状態データをパターン認識器に入力することは、膨大な処理量になり、現実的ではない。これに対し、本発明では、前段の「予兆特徴抽出器」により、予兆として出現しているか否かにかかわらず、特定の状態を捉え、後段の「予兆検知器」により、予兆として出現しているのか否かまたはその程度を判定するので、予兆に関連する特定の状態の中に、常時出現する可能性のある特定の状態が含まれていても、予兆検知を行うことが可能となる。   For this reason, even if the specific state related to the sign includes a specific state that may always appear, effective sign detection can be performed. That is, for a specific state that may appear at all times, even if the state can be captured by only one stage of pattern recognition processing, it is clear whether or not the captured state appears at the sign. However, it is difficult to detect signs, and it is also possible to simultaneously input the state data acquired at multiple times to the pattern recognizer in order to take the time factor into consideration. It is not practical to input a large amount of state data over a length of time enough to enable predictive detection into a pattern recognizer, resulting in a huge amount of processing. On the other hand, in the present invention, regardless of whether or not it appears as a sign by the “prediction feature extractor” in the preceding stage, it captures a specific state and appears as a sign by the “predictor detector” in the subsequent stage. Therefore, it is possible to detect the sign even if the specific state related to the sign includes a specific state that may always appear.

また、前段の「予兆特徴抽出器」と、後段の「予兆検知器」とに分けているので、学習を行う頻度を高めることができ、予兆検知システムの性能向上のスピードアップを図ることが可能となる。なぜなら、予兆を検知したいイベントは、頻繁に発生する事象ではない場合や、都合のよいときに強制的に発生させることができない事象である場合がある。このような場合は、学習のためのデータ収集が困難であり、仮に、1段階のパターン認識処理により予兆検知を行うと仮定すると、稀にしか発生しないイベントが何回か発生するまで、そのパターン認識処理で使用するモデルの更新を行うことができないことになり、予兆検知システムの性能向上は、かなりスロースピードとなる。これに対し、本発明では、前段の「予兆特徴抽出器」については、予兆として出現しているか否かとは関係なく、特定の状態を捉えるので、そのための学習用のデータは、イベントの発生とは関係なく、常時収集することができる。従って、前段の「予兆特徴抽出器」でのパターン認識処理で使用されるモデルは、頻繁に更新することが可能であるため、予兆検知システム全体としての性能向上も、その更新スピードで図られることになる。   In addition, because it is divided into a “predictive feature extractor” in the first stage and a “predictor detector” in the second stage, it is possible to increase the frequency of learning and speed up the performance improvement of the sign detection system. It becomes. This is because an event for which a sign is desired to be detected may not be a frequently occurring event or may be an event that cannot be forcibly generated at a convenient time. In such a case, it is difficult to collect data for learning. Assuming that the sign detection is performed by one-step pattern recognition processing, the pattern is rarely generated until several rare events occur. The model used in the recognition process cannot be updated, and the performance improvement of the sign detection system is considerably slow. On the other hand, in the present invention, the “predictive feature extractor” in the previous stage is captured regardless of whether or not it has appeared as a predictor, and therefore the learning data for that is the occurrence of an event. Can be collected at any time regardless. Therefore, since the model used in the pattern recognition processing in the “predictive feature extractor” in the previous stage can be updated frequently, the performance of the predictive detection system as a whole can be improved at its update speed. become.

さらに、上記のように、前段の「予兆特徴抽出器」について、学習を行い、モデルを更新する際に、学習に用いる状態データには、「人の知覚で認識可能な知覚データ」が含まれているので、この知覚データについてのタグ付け作業(アノテーション)を、クラウドソーシングにより実現することが可能となる。この知覚データは、先ず、人の知覚で認識可能である(例えば、人が見れば、あるいは、人が聞けば、簡単に状態を識別することができる)という点で、クラウドソーシングに適しており、次に、前段の「予兆特徴抽出器」に入力される状態データであることから、イベント(例えば、牛の分娩)やその予兆とは関係なく、状態を識別することができるため、イベントやその予兆に関する専門知識がなくても、誰でも状態を識別することができるという点で、クラウドソーシングに適しているからである。このため、比較的安価に、かつ、迅速に、さらには手間をかけずに、大量の学習用のデータを収集することが可能となる。   Furthermore, as described above, when the “predictive feature extractor” in the previous stage is learned and the model is updated, the state data used for learning includes “perceptual data that can be recognized by human perception”. Therefore, the tagging operation (annotation) for the perceptual data can be realized by crowdsourcing. This perceptual data is suitable for crowdsourcing in that it can be perceived by human perception (for example, the state can be easily identified when viewed or heard by a person). Next, since it is the state data input to the “predictive feature extractor” in the previous stage, it is possible to identify the state regardless of the event (for example, cattle delivery) or its predictor. This is because it is suitable for crowdsourcing in that anyone can identify the state without any expertise on the indication. For this reason, it is possible to collect a large amount of data for learning relatively inexpensively, quickly, and without much effort.

また、状態データとして知覚データを用いるので、例えば、カメラやマイクロフォン等のような非接触型の状態データ取込機器を使用することができる。このため、生体への装着の回避による非侵襲性や、設置時の危険の回避を実現することができるうえ、カメラやマイクロフォン等のような比較的安価な機器を用いてシステム構築を行うことが可能となり、これらにより前記目的が達成される。   Further, since perceptual data is used as the state data, for example, a non-contact type state data capturing device such as a camera or a microphone can be used. For this reason, non-invasiveness by avoiding attachment to a living body and avoidance of danger at the time of installation can be realized, and a system can be constructed using a relatively inexpensive device such as a camera or a microphone. And the above-mentioned purpose is achieved.

<ニューラル・ネットワークの中間層出力を抽出する構成>   <Configuration for extracting the intermediate layer output of a neural network>

また、前述した予兆検知システムにおいて、
予兆特徴抽出器は、
ニューラル・ネットワークによるパターン認識処理を実行し、特徴データとして、少なくとも1つの特定の状態に対応する出力ノードに至る中間層の出力データを抽出する処理を実行する構成とされていることが望ましい。
In addition, in the predictive detection system described above,
The predictive feature extractor
It is desirable that the pattern recognition process is executed by a neural network, and the process of extracting the output data of the intermediate layer reaching the output node corresponding to at least one specific state is executed as the feature data.

ここで、「ニューラル・ネットワーク」としては、例えば、畳み込み・ニューラル・ネットワーク(CNN)等を好適に採用することができる。   Here, as the “neural network”, for example, a convolutional neural network (CNN) or the like can be preferably used.

また、「出力ノード」は、ニューラル・ネットワークの最終層である出力層を構成するノードである。そして、「少なくとも1つの特定の状態に対応する出力ノードに至る中間層」というのは、特定の状態が1つしかない場合には、その特定の状態については、必ずその特定の状態に対応する出力ノードに至る中間層出力を抽出することを意味する。一方、特定の状態が複数ある場合には、複数の特定の状態の全てについて、それらの特定の状態に対応する各出力ノードに至る中間層出力を抽出する必要はなく、最終層(出力層)出力を抽出する特定の状態が含まれていてもよい趣旨である。例えば、特定の状態X,Y,Zがあるときに、これらの複数の特定の状態X,Y,Zの各々についての判定出力を1つのパターン認識処理でまとめて行う構成の場合(後述する図2参照)には、入力層から、抽出する中間層に至るまでのネットワークは共通化されていることになるので、必然的に、特定の状態X,Y,Zの全てについて、中間層出力を抽出することになる。これに対し、複数の特定の状態X,Y,Zの各々についての判定出力を別々のパターン認識処理で行う構成の場合(後述する図3参照)には、例えば、特定の状態X,Yについては、それぞれの中間層出力を抽出し、特定の状態Zについては、最終層(出力層)出力を抽出してもよい趣旨である。   The “output node” is a node constituting an output layer which is the final layer of the neural network. And, “an intermediate layer that leads to an output node corresponding to at least one specific state” means that if there is only one specific state, the specific state always corresponds to the specific state. This means extracting the middle layer output leading to the output node. On the other hand, when there are a plurality of specific states, it is not necessary to extract the intermediate layer output reaching all output nodes corresponding to the specific states for all of the plurality of specific states, and the final layer (output layer) This means that a specific state for extracting the output may be included. For example, when there are specific states X, Y, and Z, the determination output for each of the plurality of specific states X, Y, and Z is collectively performed by one pattern recognition process (see FIG. 2)), the network from the input layer to the extracted intermediate layer is shared, and therefore, the intermediate layer output is inevitably output for all of the specific states X, Y, and Z. Will be extracted. On the other hand, in the case where the determination output for each of the plurality of specific states X, Y, and Z is performed by separate pattern recognition processing (see FIG. 3 described later), for example, for the specific states X and Y Means that the output of each intermediate layer may be extracted, and for a specific state Z, the output of the final layer (output layer) may be extracted.

さらに、抽出する「中間層」は、1層に限らず、複数層としてもよい。すなわち、中間層を複数層抽出し、それらの複数層の中間層出力をまとめて特徴データとして後段の「予兆検知器」に入力するようにしてもよい。なお、ここでいう複数層の中間層とは、同一の出力ノードに至るネットワークから抽出した複数層の中間層という意味であり、例えば、1つの特定の状態Xに対応する出力ノードに至るネットワークにおいて、出力層(最終層)から2つ前の中間層と、4つ前の中間層とを抽出し、両方とも特徴データとして使用するといった意味である。従って、例えば、特定の状態Xに対応する出力ノードに至る中間層については、2つ前の中間層を抽出し、特定の状態Yに対応する出力ノードに至る中間層については、4つ前の中間層を抽出するというような意味ではなく、このような抽出は、それぞれの特定の状態から見れば、1層の中間層を抽出していることになる。   Furthermore, the “intermediate layer” to be extracted is not limited to one layer, and may be a plurality of layers. That is, a plurality of intermediate layers may be extracted, and the intermediate layer outputs of the plurality of layers may be collected and input as feature data to the “predictor detector” at the subsequent stage. The term “multiple layers” here means a plurality of layers extracted from a network reaching the same output node. For example, in a network reaching an output node corresponding to one specific state X, This means that the second intermediate layer and the fourth intermediate layer are extracted from the output layer (final layer), and both are used as feature data. Thus, for example, for the intermediate layer leading to the output node corresponding to the specific state X, the previous intermediate layer is extracted, and for the intermediate layer reaching the output node corresponding to the specific state Y, the previous four layers are extracted. It does not mean that the intermediate layer is extracted, but such extraction means that one intermediate layer is extracted from each specific state.

このようにニューラル・ネットワークの中間層出力を抽出する構成とした場合には、最終層(出力層)出力を抽出する場合に比べ、時系列の特徴データを用いた処理を行う後段の「予兆検知器」に対し、その後段の処理に有効な情報を特徴データとして入力することが可能となる。すなわち、最終層(出力層)の出力データは、特定の状態に該当するか否かまたはその程度を示すだけのデータであり、情報量が少なく、後段の処理で利用可能な情報が欠落している場合があるので、ニューラル・ネットワークの入力層に入力される状態データ(非常に多くの情報量)から、最終層(出力層)の出力データ(かなり絞り込まれた情報量)に至るまでのネットワーク上に存在する中間的な情報量を抽出し、後段の処理で利用することが可能となる。また、最終層(出力層)の出力データは、情報量が少ないので、その判別結果が誤っていた場合には、後段の処理に与える影響が大きいが、中間層出力を後段の処理で利用すれば、影響を小さくすることが可能となる。   In this way, when the output of the intermediate layer of the neural network is extracted, compared to the case of extracting the output of the final layer (output layer), the subsequent stage of “predictive detection” that performs processing using time-series feature data It is possible to input information effective for subsequent processing as feature data to the “device”. In other words, the output data of the final layer (output layer) is data that only indicates whether or not it falls under a specific state, the amount of information is small, and information that can be used in subsequent processing is missing. Network from the state data input to the input layer of the neural network (a very large amount of information) to the output data of the final layer (the output layer) (a much narrowed amount of information) An intermediate amount of information existing above can be extracted and used in subsequent processing. In addition, since the output data of the final layer (output layer) has a small amount of information, if the determination result is incorrect, it has a large effect on the subsequent processing, but the intermediate layer output is used in the subsequent processing. Thus, the influence can be reduced.

<複数の予兆時区間に対応するスコアを出力する構成>   <Configuration to output scores corresponding to multiple predictive time intervals>

また、後段の「予兆検知器」は、イベントの発生前の時間帯を1箇所(1時点)で区切って2分割し、予兆が出現する可能性のある区間としての予兆時区間(イベント発生時点に近い方の区間)と、それ以外の非着目区間(イベント発生時点から遠い方の区間であり、予兆が出現する可能性はないとみなした平常時の区間)とを設定することによっても、予兆検知の結果を示すスコアを出力することができるが、より詳細な予兆検知を行うためには、次のように、複数の予兆時区間を設定する(従って、2箇所(2時点)以上で区切って3分割以上とし、複数の予兆時区間と、それ以外の非着目区間とを設定する)ことが望ましい。   In addition, the “predictor detector” in the latter stage divides the time zone before the occurrence of the event into one part (one time point) and divides it into two parts. And the other non-interesting section (the section that is far from the time of the event and is considered to be a sign that no sign appears) Although a score indicating the result of predictive detection can be output, in order to perform more detailed predictive detection, a plurality of predictive time intervals are set as follows (thus, at two or more (two time points) or more) It is desirable to divide into three or more and set a plurality of predictive time intervals and other non-target intervals).

すなわち、前述した予兆検知システムにおいて、
予兆検知器は、
イベントの発生前の時間帯を区切ることにより予兆が出現する可能性のある区間として設定した複数の予兆時区間に対応するスコアを出力する構成とされていることが望ましい。
In other words, in the aforementioned sign detection system,
The sign detector
It is desirable that a score corresponding to a plurality of predicting time sections set as sections in which a sign may appear by dividing a time zone before the occurrence of an event is output.

ここで、「予兆時区間」の設定についての代表的な形式には、次のような2つの形式A,B非着目区間がある。但し、これらの2つの形式A,Bに限定されるものではない。N箇所(N時点)で区切って(N+1)分割すると、N個の予兆時区間が設定されるが、この場合に、イベント発生時点をT0とし、そこから近い順に、区切りの各時点を(T−1),(T−2),(T−3),(T−4),…,(T−N)とする。   Here, typical formats for setting the “predictive time interval” include the following two formats A and B non-target intervals. However, it is not limited to these two formats A and B. When dividing (N + 1) by dividing at N points (N time points), N predictive time intervals are set. In this case, the event occurrence time point is set to T0, and each time point of the break is set in order from the nearest (T -1), (T-2), (T-3), (T-4), ..., (TN).

形式Aは、後述する図4に示すように、複数の予兆時区間に重なりがない設定形式であり、(T−N)以前が、非着目区間となり、(T−N)〜(T−(N−1)),…,(T−4)〜(T−3),(T−3)〜(T−2),(T−2)〜(T−1),(T−1)〜T0が、それぞれ予兆時区間となる。   As shown in FIG. 4 to be described later, format A is a setting format in which a plurality of predictive time intervals do not overlap, and the portion before (TN) is a non-target interval, and (TN) to (T- ( N-1)), ..., (T-4) to (T-3), (T-3) to (T-2), (T-2) to (T-1), (T-1) to T0 is each predictive time interval.

形式Bは、後述する図5に示すように、複数の予兆時区間に重なりがある設定形式であり、(T−N)以前が、非着目区間となり、(T−N)〜T0,…,(T−4)〜T0,(T−3)〜T0,(T−2)〜T0,(T−1)〜T0が、それぞれ予兆時区間となる。   As shown in FIG. 5 to be described later, the format B is a setting format in which there are overlaps in a plurality of predictive time sections, and the section before (TN) becomes a non-target section, and (TN) to T0,. (T-4) to T0, (T-3) to T0, (T-2) to T0, and (T-1) to T0 are the predictive time intervals.

別の設定形式としては、例えば、予兆時区間と、これと重ならない別の予兆時区間との間に、非着目区間が設定される場合等がある。イベントによっては、例えば、約1週間前と、約1ケ月前との2期間(離れた複数の期間)に集中して予兆が出現するような場合等も考えられるからである。なお、このような場合でも、中間の期間(例えば、約1週間前と、約1ケ月前との間の期間)を含めて予兆時区間を設定してもよい。   As another setting format, for example, there is a case where a non-target section is set between a predictive time section and another predictive time section that does not overlap therewith. This is because, depending on the event, for example, there may be cases where signs appear in a concentrated manner in two periods (a plurality of distant periods), approximately one week before and approximately one month ago. Even in such a case, the predictive time interval may be set including an intermediate period (for example, a period between about one week before and about one month before).

このように複数の予兆時区間に対応するスコアを出力する構成とした場合には、より詳細な予兆検知を行うことが可能となるうえ、予兆検知の結果出力も多様な方法を採用することができるようになり、ユーザによるシステムの使い勝手の向上が図られる。   In this way, when it is configured to output scores corresponding to a plurality of predictive time intervals, it is possible to perform more detailed predictive detection, and it is also possible to adopt various methods for outputting the result of predictive detection It becomes possible to improve the usability of the system by the user.

<事前情報を用いて合成分布を表示する構成>   <Configuration to display composite distribution using prior information>

さらに、前述した予兆検知システムにおいて、
イベントの発生時期について事前に予測または予定した事前情報を記憶する事前情報記憶手段と、
この事前情報記憶手段に記憶された事前情報を用いて作成されるイベント発生の確率分布と、予兆検知器から出力されるスコアを用いて作成されるイベント発生の確率分布とを合成した合成分布を表示するか、または、事前情報記憶手段に記憶された事前情報を、予兆特徴抽出器からの特徴データとともに予兆検知器に入力することにより予兆検知器から出力されるスコアを用いて作成される合成分布を表示する処理を実行する出力手段とを備えた構成とすることが望ましい。
Furthermore, in the aforementioned sign detection system,
Prior information storage means for storing advance information that is predicted or scheduled in advance about the occurrence time of the event,
A composite distribution obtained by combining the probability distribution of event occurrence created using the prior information stored in the prior information storage means and the probability distribution of event occurrence created using the score output from the sign detector A composite that is generated using the score output from the predictor detector by displaying the prior information stored in the advance information storage means together with the feature data from the predictor feature extractor into the predictor detector It is desirable to have an output means for executing processing for displaying the distribution.

ここで、「合成分布」は、例えば、時間軸上に表示してもよく、カレンダ上に色の濃淡等を用いて表示してもよい。   Here, the “composite distribution” may be displayed on the time axis, for example, or may be displayed on the calendar using color shading.

このように事前情報を用いて合成分布を表示する構成とした場合には、事前情報を用いて作成されるイベント発生の確率分布を徐々に修正していく表示等が可能となり、ユーザによるシステムの使い勝手の向上が図られる。例えば、表示を行う時点(現在、今日)が、イベント発生の予想時期や予定時期と離れているときには、事前情報に基づくイベント発生の確率分布が、殆どそのまま表示され、イベント発生の予想時期や予定時期に近づいてくるにつれ、予兆の出現確率が高くなってくるので、取得した状態データに基づくイベント発生の確率分布を反映させた表示を行うこと等が可能となる。   In this way, when the composition distribution is displayed using the prior information, it is possible to display the event distribution probability distribution created using the prior information gradually, and so on. Usability is improved. For example, when the display time (currently today) is far from the expected time or scheduled time of event occurrence, the probability distribution of event occurrence based on prior information is displayed almost as it is, and the expected time or schedule of event occurrence is displayed as it is. As the time approaches, the occurrence probability of the sign increases, so that it is possible to perform display reflecting the probability distribution of event occurrence based on the acquired state data.

<イベントの発生確率をカレンダ上に表示する構成>   <Configuration to display event occurrence probability on calendar>

また、前述した複数の予兆時区間に対応するスコアを出力する構成において、
予兆検知器から出力されるスコアを用いてイベントの発生確率をカレンダ上に表示する処理を実行する出力手段を備え、
この出力手段は、
複数の予兆時区間のうちの少なくとも1つの予兆時区間とカレンダの単位区間との間で、時間長が一致しないか若しくは区間がずれている場合には、予兆時区間をカレンダの単位区間に対応させて分割し、予兆時区間内の確率分布を一様分布とみなして予兆時区間に対応するスコアを按分することによりカレンダの単位区間に割り当てるか、または、複数の予兆時区間に対応する各々のスコアの少なくとも一部ずつについてカレンダの同一の単位区間に割り当てる処理を実行する構成とすることが望ましい。
In the configuration for outputting scores corresponding to the plurality of predictive time intervals described above,
An output means for executing a process of displaying an event occurrence probability on a calendar using a score output from a predictive detector;
This output means is
If the time length does not match or the section is different between at least one of the multiple predictive time intervals and the calendar unit interval, the predictive time interval corresponds to the calendar unit interval And assigning to the calendar unit section by allocating the score corresponding to the predictor time section and allocating the score corresponding to the predictor time section, or each corresponding to a plurality of predictor time sections. It is desirable that at least a part of each score be assigned to the same unit section of the calendar.

ここで、「カレンダの単位区間」とは、スケジュールの記載(ユーザによる情報入力、入力された情報の表示、業者からの提示情報の表示等)のために分割されている最小単位の時間長の区間であり、その区間内におけるイベントの発生確率を示すのに適した時間長の区間という意味である。例えば、通常の1年のカレンダで1日単位でスケジュールを記載するようになっている場合には、単位区間は、午前0時から翌日の午前0時までのように区切られた1日(24時間)であり、具体的には、4月1日の発生確率、4月2日の発生確率等の表示となる。また、通常の1年のカレンダで1日を午前および午後に分けてスケジュールを記載するようになっている場合には、単位区間は、午前0時および正午で区切られた12時間であり、具体的には、4月1日AMの発生確率、4月1日PMの発生確率、4月2日AMの発生確率、4月2日PMの発生確率等の表示となる。さらに、より細かい1週のカレンダでスケジュールの記載部分が午前8時〜9時、午前9時〜10時のように1時間単位で区切られている場合には、単位区間は、1時間であり、具体的には、4月1日の午前8時〜9時の発生確率、4月1日の午前9時〜10時の発生確率等の表示となる。   Here, the “calendar unit section” means the time length of the minimum unit divided for the description of the schedule (information input by the user, display of the input information, display of the presentation information from the supplier, etc.) It is a section and means a section having a time length suitable for indicating the probability of occurrence of an event in the section. For example, when the schedule is described in units of one day in a normal one-year calendar, the unit interval is one day (24 (24) divided from midnight to midnight the next day. More specifically, the probability of occurrence on April 1 and the probability of occurrence on April 2 are displayed. In addition, when the schedule is described by dividing the day into morning and afternoon in a normal one-year calendar, the unit interval is 12 hours divided by midnight and noon. Specifically, the occurrence probability of April 1 AM, the occurrence probability of April 1 PM, the occurrence probability of April 2 AM, the occurrence probability of April 2 PM, and the like are displayed. In addition, if the detailed description of the weekly calendar is divided into hour units such as 8 am to 9 am and 9 am to 10 am, the unit interval is 1 hour. Specifically, the probability of occurrence from 8 am to 9 am on April 1 and the probability of occurrence from 9 am to 10 am on April 1 are displayed.

また、「イベントの発生確率をカレンダ上に表示する」ことには、発生確率を示す数値(テキストとしての数字)を表示すること、数値の大きさに応じて顔マーク等のアイコンや色を表示すること等が含まれる。   In addition, “displaying the event occurrence probability on the calendar” displays a numerical value (text number) indicating the probability of occurrence, and displays icons and colors such as face marks according to the numerical value. To do.

このようにイベントの発生確率をカレンダ上に表示するようにし、かつ、区間の時間長の相違や区間のずれに応じてスコアの按分や合計を行う構成とした場合(後述する図9参照)には、見やすい表示を実現できるとともに、カレンダ上で、一般的なスケジュール情報と併せて予兆検知に関する情報を表示することも可能であるため、ユーザにとって使い勝手のよいシステムを実現可能となる。また、スコアの按分や合計を行うので、ユーザによるカレンダの単位区間の切替表示にも対応可能となる。さらに、スコアの按分や合計を行うので、時間の経過とともに、カレンダ上で、予兆検知結果を表示する起点となる現在(スコア出力の時点)の位置が移動していくという状況に対し、柔軟に対応可能となる。これにより、前述した事前情報を用いた合成分布の表示も容易となる。   When the event occurrence probability is displayed on the calendar as described above, and the score is divided or summed according to the difference in the time length of the section or the shift of the section (see FIG. 9 described later). In addition to realizing easy-to-view display, it is also possible to display information related to sign detection together with general schedule information on the calendar, it is possible to realize a user-friendly system. In addition, since the scores are distributed and summed, it is possible to cope with switching display of calendar unit sections by the user. In addition, since the score is distributed and summed, the current position (score output time), which is the starting point for displaying the sign detection result, moves on the calendar as time passes. It becomes possible to respond. This also facilitates the display of the composite distribution using the above-described prior information.

<分布の表示に関する詳細構成>   <Detailed configuration regarding distribution display>

そして、前述した複数の予兆時区間に対応するスコアを出力する構成において、複数の予兆時区間の各々の確率分布またはその累積分布を、滑らかに接続し、または矛盾なく接続するために、次のような構成を採用してもよい。   Then, in the configuration for outputting the scores corresponding to the plurality of predictive time intervals described above, in order to smoothly connect or consistently connect the probability distributions of the plurality of predictive time intervals or the cumulative distribution thereof, the following Such a configuration may be adopted.

すなわち、前述した複数の予兆時区間に対応するスコアを出力する構成において、
予兆検知器から出力されるスコアを用いてイベント発生の確率分布またはその累積分布を表示する処理を実行する出力手段を備え、
この出力手段は、
(1)複数の予兆時区間が重なることなく設定されている場合に、複数の予兆時区間の各々の確率分布を、予め用意された複数種類の分布のうちのいずれかを用いて疑似的に作成する際に、複数の予兆時区間の確率分布を合成または連結した状態の確率分布曲線についての局所的な勾配変化が、最小となるか、または予め定められた閾値以下若しくは未満となる分布を選択する処理と、
(2)複数の予兆時区間が重ねて設定されている場合に、時間長の異なる複数の予兆時区間が重なっている区間については、最も短い予兆時区間に対応するスコアを用いて疑似的に作成されるイベント発生の確率分布またはその累積分布を採用し、それ以外の予兆時区間に対応するスコアを用いて疑似的に作成されるイベント発生の確率分布またはその累積分布は採用しない処理と、
(3)複数の予兆時区間が重ねて設定されている場合に、時間長の異なる複数の予兆時区間が重なっている区間については、それぞれの予兆時区間に対応するスコアを用いて疑似的に作成されるイベント発生の確率分布またはその累積分布を、予め定められた割合で合成する処理と、
(4)複数の予兆時区間が重ねて設定されている場合に、複数の予兆時区間の各々の確率分布またはその累積分布を、予め用意された複数種類の分布のうちのいずれかを用いて疑似的に作成する際に、自分よりも短い時間長の予兆時区間に対応するスコアを用いて、自分の確率分布またはその累積分布を作成するために使用する分布を選択する処理とのうちの少なくとも1つの処理を実行する構成としてもよい。
That is, in the configuration that outputs the scores corresponding to the plurality of predictive time intervals described above,
An output means for executing a process of displaying a probability distribution of event occurrence or a cumulative distribution thereof using a score output from the predictive detector;
This output means is
(1) When a plurality of predictive time intervals are set without overlapping, the probability distribution of each of the multiple predictive time intervals is simulated using any of a plurality of types of distributions prepared in advance. When creating a distribution in which the local gradient change of the probability distribution curve in a state where the probability distributions of the plurality of predictive time intervals are combined or connected is minimized, or less than or less than a predetermined threshold The process to choose,
(2) In a case where a plurality of predictive time sections are set to overlap, for a section in which a plurality of predictive time sections having different time lengths overlap, the score corresponding to the shortest predictive time section is used to simulate A process that adopts a probability distribution of event occurrence or its cumulative distribution to be created, and does not adopt a probability distribution of event occurrence or its cumulative distribution that is created in a pseudo manner using scores corresponding to other predictive time intervals,
(3) When a plurality of predictive time sections are set in an overlapping manner, for a section in which a plurality of predictive time sections having different time lengths overlap, a score corresponding to each predictive time section is used in a pseudo manner. A process of synthesizing the probability distribution of the event occurrence to be created or its cumulative distribution at a predetermined ratio;
(4) When a plurality of predictive time intervals are set in an overlapping manner, the probability distribution of each of the multiple predictive time intervals or the cumulative distribution thereof is used using any of a plurality of types of distributions prepared in advance. The process of selecting a distribution to be used to create one's own probability distribution or its cumulative distribution using a score corresponding to a predictive time interval with a shorter time length than oneself when creating it in a pseudo manner It is good also as a structure which performs at least 1 process.

<プログラムの発明>   <Invention of program>

また、本発明のプログラムは、以上に述べた予兆検知システムとして、コンピュータを機能させるためのものである。   The program of the present invention is for causing a computer to function as the predictive detection system described above.

なお、上記のプログラムまたはその一部は、例えば、光磁気ディスク(MO)、コンパクトディスク(CD)、デジタル・バーサタイル・ディスク(DVD)、フレキシブルディスク(FD)、磁気テープ、読出し専用メモリ(ROM)、電気的消去および書換可能な読出し専用メモリ(EEPROM)、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、フラッシュディスク等の記録媒体に記録して保存や流通等させることが可能であるとともに、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等の有線ネットワーク、あるいは無線通信ネットワーク、さらにはこれらの組合せ等の伝送媒体を用いて伝送することが可能であり、また、搬送波に載せて搬送することも可能である。さらに、上記のプログラムは、他のプログラムの一部分であってもよく、あるいは別個のプログラムと共に記録媒体に記録されていてもよい。   The above-mentioned program or a part thereof is, for example, a magneto-optical disk (MO), a compact disk (CD), a digital versatile disk (DVD), a flexible disk (FD), a magnetic tape, or a read-only memory (ROM). Recorded on recording media such as electrically erasable and rewritable read only memory (EEPROM), flash memory, random access memory (RAM), hard disk drive (HDD), solid state drive (SSD), flash disk, etc. For example, a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), the Internet, an intranet, an extra Tsu bets like a wired network or a wireless communication network, and further is capable of transmitting using a transmission medium such as a combination thereof, also can be delivered by placing the carrier. Furthermore, the above program may be a part of another program, or may be recorded on a recording medium together with a separate program.

以上に述べたように本発明によれば、前段の予兆特徴抽出器と、後段の予兆検知器とにより2段階の処理を行う構成とされているので、予兆に関連する多様な状態変動を的確に捉え、効果的な予兆検知を行うことができるうえ、学習のためのデータ収集の容易化、およびそれに伴うシステムの性能向上のスピードアップを実現することができ、さらには、状態データとして知覚データを用いるので、学習のためのデータ収集に、クラウドソーシングを利用することができ、安価に、迅速に、かつ、手間をかけずにデータ収集を行うことができるという効果がある。   As described above, according to the present invention, the two-stage processing is performed by the preceding sign feature extractor and the latter sign detector, so that various state fluctuations related to the sign can be accurately detected. In addition, it is possible to detect signs effectively, facilitate data collection for learning, and speed up the system performance improvement associated with it. Therefore, crowd sourcing can be used for data collection for learning, and there is an effect that data collection can be performed inexpensively, quickly and without trouble.

本発明の一実施形態の予兆検知システムの全体構成図。1 is an overall configuration diagram of a sign detection system according to an embodiment of the present invention. 前記実施形態の予兆特徴抽出器および予兆検知器の内部構成の詳細を示す説明図。Explanatory drawing which shows the detail of the internal structure of the sign feature extractor and the sign detector of the said embodiment. 前記実施形態の予兆特徴抽出器および予兆検知器の内部構成の詳細を示す別の説明図。Another explanatory view showing the details of the internal configuration of the sign feature extractor and sign detector of the embodiment. 前記実施形態の予兆検知器の学習時および運用時の状況を示す説明図。Explanatory drawing which shows the condition at the time of the learning of the precursor detector of the said embodiment, and operation | use. 前記実施形態の予兆検知器の学習時および運用時の状況を示す別の説明図。Another explanatory view showing the situation at the time of learning and operation of the sign detector of the embodiment. 前記実施形態のクラウドソーシング作業画面の一例を示す図。The figure which shows an example of the crowdsourcing work screen of the said embodiment. 前記実施形態の予兆検知処理の全体的な流れを示すフローチャートの図。The figure of the flowchart which shows the whole flow of the precursor detection process of the said embodiment. 前記実施形態の発生確率を時間軸上で表現する出力形式の説明図。Explanatory drawing of the output format which expresses the generation probability of the said embodiment on a time-axis. 前記実施形態のカレンダ上への発生確率の表示処理の詳細説明図。The detailed explanatory view of the display processing of the probability of occurrence on the calendar of the embodiment. 前記実施形態の累積確率を時間軸上で表現する出力形式の説明図。Explanatory drawing of the output format which expresses the accumulation probability of the said embodiment on a time-axis. 前記実施形態の発生確率を分布で表現する出力形式の説明図。Explanatory drawing of the output format which expresses the generation probability of the said embodiment by distribution. 前記実施形態の事前情報を用いた合成分布の表示処理の説明図。Explanatory drawing of the display process of the synthetic distribution using the prior information of the embodiment. 前記実施形態の発生確率を累積分布で表現する出力形式の説明図。Explanatory drawing of the output format which expresses the generation | occurrence | production probability of the said embodiment by cumulative distribution. 本発明の第1の変形の形態である予兆検知器で静的なパターン認識処理を行う場合(切出区間の特徴データの集合を1つずつ静的なパターン認識器に入力する場合)の説明図。Description of the case where static pattern recognition processing is performed by the predictive detector according to the first modification of the present invention (when a set of feature data of cut sections is input to the static pattern recognizer one by one) Figure. 本発明の第2の変形の形態である予兆検知器で静的なパターン認識処理を行う場合(切出区間の特徴データの集合を分布として捉えて分布間の類似度を求める場合)の説明図。Explanatory drawing of the case where static pattern recognition processing is performed by the sign detector which is the second modification of the present invention (when the similarity between distributions is obtained by capturing a set of feature data in a cut section as a distribution) . 本発明の第3の変形の形態である予兆検知器で静的なパターン認識処理を行う場合(切出区間の特徴データの集合をベクトル化してベクトル間の類似度を求める場合)の説明図。Explanatory drawing when performing a static pattern recognition process with the predictor detector which is the 3rd modification of this invention (when the set of the feature data of a cutting area is vectorized, and the similarity between vectors is calculated | required). 本発明の第4の変形の形態である予兆検知器で静的なパターン認識処理を行う場合(予兆時区間内にセグメントを形成する場合)の説明図。Explanatory drawing in the case of performing a static pattern recognition process with the sign detector which is the 4th modification of this invention (when forming a segment in the sign time section).

以下に本発明の一実施形態について図面を参照して説明する。図1には、本実施形態の予兆検知システム10の全体構成が示されている。図2および図3には、予兆特徴抽出器50および予兆検知器60の内部構成の詳細が示されている。また、図4および図5には、予兆検知器60の学習時および運用時の状況が示され、図6には、クラウドソーシング作業画面200の一例が示されている。さらに、図7には、予兆検知処理の全体的な流れがフローチャートで示され、図8〜図13には、予兆検知結果の各種の出力形式が示されている。   An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows the overall configuration of the sign detection system 10 of the present embodiment. 2 and 3 show details of the internal configuration of the predictive feature extractor 50 and the predictive detector 60. FIG. FIGS. 4 and 5 show the status of learning and operation of the sign detector 60, and FIG. 6 shows an example of the crowdsourcing work screen 200. FIG. 7 is a flowchart showing the overall flow of the sign detection process, and FIGS. 8 to 13 show various output formats of the sign detection result.

<予兆検知システム10の全体構成>   <Overall configuration of the sign detection system 10>

図1において、予兆検知システム10は、予兆検知対象についての状態を示す状態データを取り込む状態データ取込機器20と、この状態データ取込機器20により取り込んだ状態データをネットワーク1上に送出する接続装置21と、それぞれネットワーク1に接続された装置やシステムである予兆検知処理装置30、データ収集装置80、学習装置90、およびクラウドソーシングシステム100とを備えて構成されている。   In FIG. 1, the sign detection system 10 includes a state data capturing device 20 that captures state data indicating a state of a predictive detection target, and a connection that transmits the state data captured by the state data capturing device 20 to the network 1. The apparatus 21 includes a sign detection processing apparatus 30, a data collection apparatus 80, a learning apparatus 90, and a crowd sourcing system 100 that are apparatuses and systems connected to the network 1.

また、ネットワーク1には、ユーザ(予兆検知結果の利用者)が操作するユーザ端末120と、本システムの管理者が操作する管理者端末130とが接続されている。さらに、クラウドソーシングシステム100には、依頼された仕事(いわゆるクラウドソーシングマイクロタスク)を処理する多数の作業者(群衆)が操作する多数の作業者端末110が、ネットワーク(ネットワーク1またはその他のネットワーク)を介して接続されるようになっている。   The network 1 is connected to a user terminal 120 operated by a user (a user of the sign detection result) and an administrator terminal 130 operated by an administrator of the present system. Furthermore, in the crowdsourcing system 100, a large number of worker terminals 110 operated by a large number of workers (crowds) that process requested work (so-called crowdsourcing microtasks) are connected to a network (network 1 or other network). It is supposed to be connected via.

ここで、ネットワーク1は、主としてインターネットのような外部ネットワークであるが、これとイントラネットやLAN等の内部ネットワークとの組合せ等でもよく、有線であるか、無線であるか、有線・無線の混在型であるかは問わない。また、ネットワーク1は、例えば、社内、工場内、事業所内、グループ企業内、学内、所定の地域内等に限定されたイントラネットやLAN等の内部ネットワークであってもよい。   Here, the network 1 is mainly an external network such as the Internet, but may be a combination of this and an internal network such as an intranet or a LAN. The network 1 may be wired, wireless, or mixed wired / wireless. It doesn't matter if it is. The network 1 may be, for example, an internal network such as an intranet or a LAN limited within a company, a factory, a business office, a group company, a campus, a predetermined area, or the like.

また、クラウドソーシングでは、通常は、インターネットのような広範なネットワークに接続された多数の作業者(群衆)の作業者端末110に対し、依頼する仕事を送信するが、ある程度の人数の作業者を確保できることを前提とし、イントラネットやLAN等の内部ネットワークとすることにより作業者を限定(例えば、幾つかの大学の学生だけとする等)してもよい。なお、作業者の限定は、ネットワークによる限定ではなく、アクセス制限や作業資格制限等により行ってもよい。   In crowdsourcing, usually, a requested job is transmitted to the worker terminals 110 of a large number of workers (crowds) connected to a wide network such as the Internet. On the premise that it can be secured, the number of workers may be limited (for example, only to students from several universities) by using an internal network such as an intranet or a LAN. Note that the limitation of the worker is not limited by the network, but may be performed by an access restriction or a work qualification restriction.

さらに、本実施形態では、状態データ取込機器20により取り込んだ状態データを用いて予兆検知に関する各種処理を行うためのシステム構成として、それぞれ別々のコンピュータからなる接続装置21と、予兆検知処理装置30と、データ収集装置80と、学習装置90と、クラウドソーシングシステム100とをネットワーク1で接続した構成を採用しているが、このようなネットワーク接続によるシステム構成は一例に過ぎない。従って、予兆検知システム10は、必ずしもこのように複数台のコンピュータにより構成されている必要はなく、各装置21,30,80,90およびシステム100で実現される機能を1台のコンピュータにまとめた構成としてもよく、あるいは各機能を任意の台数のコンピュータに分散してもよい。例えば、予兆検知処理装置30で実現される各機能(状態データ取得手段40、予兆特徴抽出器50、予兆検知器60、出力手段70の各機能)を、複数台のコンピュータに分散してもよく、あるいは、予兆検知処理装置30で実現される各機能の一部(例えば、状態データ取得手段40の機能、またはそれに加えて予兆特徴抽出器50の全部または一部の機能)を、接続装置21で実現してもよい。   Further, in the present embodiment, as a system configuration for performing various processes related to the sign detection using the state data captured by the state data capturing device 20, the connection device 21 and the sign detection processing apparatus 30 each composed of separate computers. In addition, a configuration in which the data collection device 80, the learning device 90, and the crowd sourcing system 100 are connected by the network 1 is employed, but the system configuration by such network connection is merely an example. Therefore, the sign detection system 10 does not necessarily need to be configured by a plurality of computers as described above, and the functions realized by the devices 21, 30, 80, 90 and the system 100 are integrated into one computer. A configuration may be used, or each function may be distributed to an arbitrary number of computers. For example, each function realized by the sign detection processing device 30 (functions of the status data acquisition means 40, the sign feature extractor 50, the sign detector 60, and the output means 70) may be distributed to a plurality of computers. Alternatively, a part of each function realized by the sign detection processing device 30 (for example, the function of the state data acquisition unit 40 or the function of all or part of the sign feature extractor 50) is connected to the connection device 21. It may be realized with.

<予兆を検知する「イベント」、「予兆検知対象」、予兆に関連する「特定の状態」>   <"Events" that detect signs, "detection targets", and "specific conditions" related to signs>

予兆を検知する「イベント」は、そのイベントの発生前に予兆を生じることが経験上または統計上、既に知られている特徴的な事象(特徴的とは、定常的に発生している事象ではないという意味)であり、その予兆が「予兆検知対象」についての「特定の状態」として捉えることができるものである。   An “event” that detects a sign is a characteristic event that has been empirically or statistically known to cause a sign before the event occurs (characteristic is a phenomenon that occurs regularly) The sign can be regarded as a “specific state” for the “sign detection target”.

「予兆検知対象」には、生物(例えば、牛等の動物、人間、植物、魚類、鳥類、微生物等)、物体(固体、液体、気体のいずれの状態でもよく、それらの混在状態でもよく、それらの状態を遷移するものでもよい。)、あるいは、空間を仕切って形成された一定の領域内に存在する物体や生物の集合体(例えば、山やその一部、池や沼や川またはそれらの一部、一部の海域、島やその一部、空や夜空の一部、大地の一部等)などが含まれる。なお、例えば微生物や気体等のように、可視化処理等を行って初めてその状態を人の知覚で認識できるものも含まれる。   The “predictive detection target” may be a living organism (for example, an animal such as a cow, a human being, a plant, a fish, a bird, a microorganism, etc.) or an object (solid, liquid, gas, or a mixture of them, Or a group of objects or organisms that exist within a certain area formed by dividing the space (for example, mountains and parts thereof, ponds, swamps, rivers, or the like) Part of the sea, part of the sea, island and part of it, part of the sky and night sky, part of the earth, etc.). In addition, the thing which can recognize the state by human perception only after performing a visualization process etc. like microorganisms, gas, etc. is contained, for example.

「特定の状態」は、経験上または統計上、ターゲットのイベントの発生前に予兆として出現することが判明している状態であり、「予兆に関連し、かつ、常時出現する可能性のある特定の状態」と、「予兆に関連し、かつ、予兆時にしか出現しない(平常時には出現しない)特定の状態」とがある。   A “specific state” is a state that is empirically or statistically known to appear as a precursor before the occurrence of the target event. And “a specific state related to a sign and appearing only at the time of the sign (not appearing in normal times)”.

具体的には、例えば、予兆検知システム10が、牛の分娩の予兆を検知するシステムである場合には、「イベント」は、牛の分娩であり、「予兆検知対象」は、牛であり、「特定の状態」は、例えば、牛の起立状態、牛の尾の挙上状態(牛の尾の挙上角度のような連続値またはその連続値が属する範囲は、閾値や範囲で定められた牛の尾の挙上状態に対する類似の程度を示すデータである。)、牛の尿膜・羊膜の露出状態、牛の立ち座り状態(所定の短時間内に、立ったり、座ったりするという状態)、牛の片足を軸にした回転状態、牛の鳴き声についての特徴的な状態等である。   Specifically, for example, when the sign detection system 10 is a system for detecting a sign of cattle delivery, the “event” is cow delivery, and the “sign detection target” is a cow. The “specific state” includes, for example, a standing state of a cow, a raised state of a cow's tail (a continuous value such as a raising angle of a cow's tail, or a range to which the continuous value belongs is determined by a threshold or a range It is data showing the degree of similarity to the raised state of the cow's tail.), The cow's allantoic / amniotic membrane exposed state, and the cow's standing / sitting state (the state of standing or sitting within a predetermined short time ), A rotating state around one leg of the cow, and a characteristic state of the cow's cry.

なお、上記のうち、牛の立ち座り状態や、牛の片足を軸にした回転状態は、短時間で検出可能な動作を示す状態であり、「特定の状態」には、このような短時間内の動作を示す状態が含まれる。ここでの短時間は、予兆特徴抽出器50に同時に入力される複数時刻の状態データ(複数枚の画像データ、動画を構成する複数フレーム)の範囲内で捉えることができる程度の短時間である。従って、予兆検知器60で設定されている予兆時区間(図4、図5参照)に比して短い時間であり、例えば、予兆時区間が数時間や数日であったとすれば、ここでの短時間の動作は、例えば、数秒や数分で捉えることができる動作である。また、牛の鳴き声についての特徴的な状態は、音データにより捉えることができる状態であるが、この場合は、1つの状態データが、ある程度の時間長を有する音データである。この音データの時間長も、予兆時区間(図4、図5参照)に比して短い時間である。さらに、時間的に連続している複数の音データ(複数の状態データ)を、予兆特徴抽出器50に同時に入力することにより、牛の鳴き声についての特徴的な状態を捉えてもよい。   Among the above, the standing state of the cow and the rotating state around the one leg of the cow are the states that can be detected in a short time, and the “specific state” includes such a short time. A state indicating the operation within is included. The short time here is a time that can be captured within the range of the state data (a plurality of pieces of image data and a plurality of frames constituting a moving image) at a plurality of times that are simultaneously input to the predictive feature extractor 50. . Therefore, the time is shorter than the predictive time interval (see FIGS. 4 and 5) set by the predictive detector 60. For example, if the predictive time interval is several hours or several days, The short-time operation is, for example, an operation that can be captured in seconds or minutes. In addition, a characteristic state of the cow cry is a state that can be captured by sound data. In this case, one state data is sound data having a certain length of time. The time length of the sound data is also shorter than the predictive time interval (see FIGS. 4 and 5). Furthermore, a characteristic state of the cow's cry may be captured by inputting a plurality of temporally continuous sound data (a plurality of state data) to the predictive feature extractor 50 at the same time.

また、予兆検知システム10が、独房内の囚人の自殺の予兆を検知するシステムである場合には、「イベント」は、独房内の囚人の自殺であり、「予兆検知対象」は、独房内の囚人であり、「特定の状態」は、例えば、独房内徘徊状態、壁に頭を打ち付ける状態等である。   Further, when the sign detection system 10 is a system for detecting a suicide sign of a prisoner in a cell, the “event” is a suicide of a prisoner in the cell, and the “predictor detection target” is set in the cell. The “specific state” is a prisoner, for example, a solitary state of a solitary cell, a state of hitting a head against a wall, or the like.

さらに、予兆検知システム10が、鬱病の発症の予兆を検知するシステムである場合には、「イベント」は、鬱病の発症であり、「予兆検知対象」は、人または人の顔であり、「特定の状態」は、例えば、笑顔の喪失状態等のような人の顔の表情についての特徴的な状態等である。   Further, when the sign detection system 10 is a system that detects a sign of the onset of depression, the “event” is the onset of depression, the “prediction detection target” is a person or a human face, The “specific state” is, for example, a characteristic state regarding the facial expression of a person such as a state of smile loss.

そして、予兆検知システム10が、事故や危険行為の予兆を検知するシステムである場合には、「イベント」は、事故や危険行為であり、「予兆検知対象」は、例えば、独居老人、要介護老人、子供、病人等であり、「特定の状態」は、例えば、床にかがみ込む姿勢の状態、不自然な着座姿勢の状態、床や階段を這う状態、物に掴まる状態、壁にもたれかかる状態、危険場所への接近状態等である。   When the sign detection system 10 is a system for detecting a sign of an accident or dangerous action, the “event” is an accident or dangerous action, and the “sign detection target” is, for example, an elderly person living alone, needing care For example, an elderly person, a child, a sick person, etc., and the “specific state” is, for example, a state of bending down on the floor, an unnatural sitting position, a state of scolding the floor or stairs, a state of grabbing on an object, or leaning against a wall State, approaching to a dangerous place, etc.

また、予兆検知システム10が、トンネルの崩落、河川の氾濫、火山の噴火等の災害の発生の予兆を検知するシステムである場合には、「イベント」は、トンネルの崩落、河川の氾濫、火山の噴火等の災害の発生であり、「予兆検知対象」は、トンネル、河川、火山等であり、「特定の状態」は、例えば、壁や天井が剥がれる状態、壁や天井にひびが入る状態、異常音の発生状態、堤防が崩れる状態、ガスが噴出する状態、煙が上がる状態等である。   In addition, when the sign detection system 10 is a system for detecting a sign of a disaster such as a collapse of a tunnel, a flood of a river, an eruption of a volcano, the “event” indicates a collapse of a tunnel, a flood of a river, a volcano Occurrence of disasters such as eruptions, etc., “predictive detection targets” are tunnels, rivers, volcanoes, etc., and “specific states” are, for example, the state where walls and ceilings are peeled off, the state where walls and ceilings are cracked, etc. A state where abnormal noise is generated, a state where the bank is collapsed, a state where gas is blown out, a state where smoke is raised, and the like.

さらに、予兆検知システム10が、窃盗等の犯罪やテロの発生の予兆を検知するシステムである場合には、「イベント」は、窃盗等の犯罪やテロの発生であり、「予兆検知対象」は、例えば、夜中に建物周囲を歩行する者や、ゴミ箱に近づく者等であり、「特定の状態」は、例えば、同一行動の繰り返し状態、通常の通行場所以外の場所への移動状態・侵入状態、ゴミ箱に不審物を入れる状態等である。   Furthermore, when the sign detection system 10 is a system for detecting a sign of crime such as theft or the occurrence of terrorism, the “event” is a crime such as theft or the occurrence of terrorism. For example, a person walking around a building at night or a person approaching a trash can, etc., and the `` specific state '' is, for example, a repeated state of the same action, a moving state / intrusion state to a place other than a normal passage place This is the state of putting a suspicious object in the trash bin.

<状態データの取込、出力、ネットワーク送信を行うための構成>   <Configuration for status data capture, output, and network transmission>

状態データ取込機器20は、予兆検知対象(牛等)についての状態を示す状態データを取り込んで出力する機器であり、具体的には、例えば、カメラやマイクロフォン等である。この状態データ取込機器20は、カメラやマイクロフォン等のように、予兆検知対象(牛等)に対し、非接触タイプの機器であることが好ましいが、接触タイプの機器であってもよい。   The state data capturing device 20 is a device that captures and outputs state data indicating the state of the sign detection target (such as a cow), and specifically includes, for example, a camera and a microphone. The state data capturing device 20 is preferably a non-contact type device for a sign detection target (such as a cow) such as a camera or a microphone, but may be a contact type device.

また、状態データ取込機器20には、状態データとして、人の知覚で認識可能な知覚データを出力する機器が含まれている。すなわち、状態データ取込機器20が1種類である場合には、その状態データ取込機器20は、必ず人の知覚で認識可能な知覚データを出力する機器(例えば、カメラやマイクロフォン等)であり、複数種類の状態データ取込機器20がある場合には、そのうちの少なくとも1種類が、人の知覚で認識可能な知覚データを出力する機器である。この知覚データは、主として人の視覚で認識できる画像データ(静止画でも、動画でもよい。)または人の聴覚で認識できる音データであるが、その他に、例えば、臭いデータ等であってもよい。   In addition, the state data capturing device 20 includes a device that outputs perceptual data that can be recognized by human perception as state data. That is, when there is only one type of status data capturing device 20, the status data capturing device 20 is a device (eg, a camera or a microphone) that always outputs perceptual data that can be recognized by human perception. When there are a plurality of types of status data capturing devices 20, at least one of them is a device that outputs perceptual data that can be recognized by human perception. This perceptual data is mainly image data (a still image or a moving image) that can be recognized by human vision or sound data that can be recognized by human hearing, but may also be, for example, odor data. .

なお、サーモグラフィカメラから出力されるサーモグラフィデータは、人の視覚で認識できる画像データに含まれる。顔や体のどの部分が高温なのか等を目で見て認識できるからであり、従って、クラウドソーシングの対象データにもなる。また、エッジ画像のような加工画像データ等も同様であり、人の視覚で認識できる画像データに含まれ、クラウドソーシングの対象データにもなる。   The thermographic data output from the thermographic camera is included in image data that can be recognized by human vision. This is because it is possible to visually recognize which part of the face or body is hot, and therefore, the data is also subject to crowdsourcing. The same applies to processed image data such as an edge image, which is included in image data that can be recognized by human vision and is also subject to crowdsourcing.

さらに、状態データ取込機器20には、例えば、温度センサや加速度センサ等のように、知覚データ以外のデータを出力する機器が含まれていてもよい。従って、予兆特徴抽出器50には、状態データとして、知覚データ(例えば、カメラやマイクロフォン等の出力データ)と合わせて、知覚データ以外のデータ(例えば、温度センサや加速度センサ等の出力データ)を同時に入力してもよい。   Furthermore, the state data capturing device 20 may include a device that outputs data other than the perceptual data, such as a temperature sensor or an acceleration sensor. Therefore, the predictive feature extractor 50 includes, as state data, data other than the perceptual data (eg, output data from the temperature sensor, acceleration sensor, etc.) together with the perceptual data (eg, output data from the camera, microphone, etc.). You may input simultaneously.

接続装置21は、ネットワーク1へのデータ送出を行うエッジデバイスとしての機能(例えば、通信プロトコルの変換等の機能)を有する装置であり、コンピュータにより構成され、状態データ取込機器20から出力される状態データを有線または無線で受信し、受信した状態データを、時刻情報(年月日・時分秒の日時情報、またはこれに代替するデータ発生順序を示す情報)および機器識別情報とともに、ネットワーク1を介して予兆検知処理装置30(状態データ取得手段40)へ送信する処理を実行するものである。時刻情報は、接続装置21が付与してもよく、状態データ取込機器20から出力されるようになっていてもよい。なお、予兆検知処理装置30に設けられている状態データ取得手段40を、接続装置21に設ける場合には、状態データ取得手段40が、状態データ取込機器20から出力される状態データを有線または無線で受信する処理を行うことになり、この際、時刻情報および機器識別情報を状態データに付加する。   The connection device 21 is a device having a function as an edge device that transmits data to the network 1 (for example, a function such as conversion of a communication protocol), is configured by a computer, and is output from the status data capturing device 20. The status data is received by wire or wireless, and the received status data is sent to the network 1 together with time information (date / time information of year / month / day / hour / minute / second, or information indicating the data generation order to replace it) and device identification information. The process which transmits to the precursor detection processing apparatus 30 (status data acquisition means 40) via this is performed. The time information may be given by the connection device 21 or may be output from the state data capturing device 20. In addition, when the status data acquisition unit 40 provided in the sign detection processing device 30 is provided in the connection device 21, the status data acquisition unit 40 transmits the status data output from the status data capturing device 20 to the wired or In this case, time information and device identification information are added to the status data.

この接続装置21は、1台でもよく、複数台でもよく、複数台の場合には、離れた場所にあってもよい。予兆検知対象が、例えば、トンネル、河川、火山等のように大きな対象であれば、複数の場所で状態データを取り込む場合があるからである。   There may be one connection device 21 or a plurality of connection devices 21. In the case of a plurality of connection devices 21, the connection devices 21 may be located at remote locations. This is because if the sign detection target is a large target such as a tunnel, a river, a volcano, or the like, state data may be captured at a plurality of locations.

また、1台の接続装置21が、1つの状態データ取込機器20により取り込んだ状態データを受信してもよく、複数の状態データ取込機器20により取り込んだ複数種類の状態データを受信してもよい。   In addition, one connection device 21 may receive state data captured by one state data capturing device 20, or may receive a plurality of types of state data captured by a plurality of state data capturing devices 20. Also good.

<予兆検知処理装置30の全体構成>   <Overall configuration of the sign detection processing device 30>

予兆検知処理装置30は、1台または複数台のコンピュータ(サーバ)により構成され、状態データ取得手段40と、予兆特徴抽出器50と、予兆検知器60と、出力手段70と、事前情報記憶手段71とを含んで構成されている。また、予兆特徴抽出器50は、予兆特徴抽出用のパターン認識アルゴリズムを実行する予兆特徴抽出用パターン認識処理手段51と、このパターン認識処理に用いる予兆特徴抽出モデルを記憶する予兆特徴抽出モデル記憶手段52とを備えている。さらに、予兆検知器60は、時系列パターン認識処理等の予兆検知処理を実行する予兆検知処理手段61と、この予兆検知処理に用いる予兆検知モデルを記憶する予兆検知モデル記憶手段62とを備えている。   The sign detection processing device 30 is constituted by one or a plurality of computers (servers), and includes a state data acquisition means 40, a sign feature extractor 50, a sign detector 60, an output means 70, and a prior information storage means. 71. The predictive feature extractor 50 also includes a predictive feature extraction pattern recognition processing means 51 for executing a predictive feature extraction pattern recognition algorithm, and a predictive feature extraction model storage means for storing a predictive feature extraction model used for the pattern recognition processing. 52. Further, the sign detector 60 includes a sign detection processing unit 61 that executes a sign detection process such as a time-series pattern recognition process, and a sign detection model storage unit 62 that stores a sign detection model used for the sign detection process. Yes.

ここで、状態データ取得手段40、予兆特徴抽出用パターン認識処理手段51、予兆検知処理手段61、および出力手段70は、予兆検知処理装置30を構成するコンピュータ本体の内部に設けられた中央演算処理装置(CPU)、およびこのCPUの動作手順を規定する1つまたは複数のプログラムにより実現される。また、予兆特徴抽出モデル記憶手段52、予兆検知モデル記憶手段62、および事前情報記憶手段71としては、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)等を採用することができる。   Here, the state data acquisition means 40, the sign feature extraction pattern recognition processing means 51, the sign detection processing means 61, and the output means 70 are central arithmetic processing provided inside the computer main body constituting the sign detection processing device 30. It is implemented by a device (CPU) and one or a plurality of programs that define the operation procedure of this CPU. Further, as the sign feature extraction model storage unit 52, the sign detection model storage unit 62, and the prior information storage unit 71, for example, a hard disk drive (HDD), a solid state drive (SSD), or the like can be employed.

状態データ取得手段40は、接続装置21からネットワーク1を介して送信されてくる状態データ(付加された時刻情報および機器識別情報を含む。)を受信する処理を実行するものである。接続装置21からの状態データの送信は、接続装置21側で管理されるタイミングで行われてもよく、状態データ取得手段40からの取得要求に基づき行われてもよい。   The status data acquisition means 40 executes a process of receiving status data (including the added time information and device identification information) transmitted from the connection device 21 via the network 1. The transmission of the state data from the connection device 21 may be performed at a timing managed on the connection device 21 side, or may be performed based on an acquisition request from the state data acquisition unit 40.

また、状態データ取得手段40は、必要な場合には、取得した状態データについて、予兆特徴抽出器50に入力する前に、例えば、背景除去、正規化、エッジ画像作成等の各種の前処理を実行する。   In addition, the state data acquisition unit 40 performs various preprocessing such as background removal, normalization, and edge image creation before inputting the acquired state data to the predictive feature extractor 50, if necessary. Execute.

なお、本実施形態では、状態データ取得手段40は、接続装置21からの状態データを受信する構成とされているが、状態データ取込機器20から出力される状態データを直接に取得する構成としてもよい。接続装置21に状態データ取得手段40を設ける構成とする場合もあり、また、ネットワーク構成にせずに、状態データ取込機器20の設置場所付近(牛等の予兆検知対象の所在位置周辺)で予兆検知処理を行う構成とする場合もあるからである。   In the present embodiment, the state data acquisition unit 40 is configured to receive the state data from the connection device 21, but as a configuration to directly acquire the state data output from the state data capturing device 20. Also good. In some cases, the connection device 21 is provided with the status data acquisition means 40. In addition, without the network configuration, there is a sign near the installation location of the status data capturing device 20 (around the location where the sign detection target such as a cow is detected). This is because the detection process may be configured.

<予兆特徴抽出器50の構成>   <Configuration of predictive feature extractor 50>

予兆特徴抽出器50は、状態データ取得手段40により取得した状態データを用いて、予兆検知対象(牛等)の状態が、予兆(牛の分娩予兆等)に関連する特定の状態に該当するか否かまたは当該特定の状態に対する類似の程度を示すデータを出力するパターン認識処理を実行し、このパターン認識処理で得られる特徴データを抽出する処理を繰り返し実行するものである。特定の状態が複数ある場合には、複数の特定の状態のそれぞれに該当するか否かまたは複数の特定の状態のそれぞれに対する類似の程度を示すデータを出力するパターン認識処理を実行する。抽出された時系列の特徴データは、特徴データ記憶手段(不図示)に一時的に記憶される。   The sign feature extractor 50 uses the state data acquired by the state data acquisition means 40, and whether the state of the sign detection target (such as a cow) corresponds to a specific state related to the sign (such as a cow delivery sign) The pattern recognition process which outputs the data which shows the degree of similarity with respect to the said specific state is performed, and the process which extracts the feature data obtained by this pattern recognition process is repeatedly performed. When there are a plurality of specific states, a pattern recognition process is executed to output data indicating whether each of the specific states corresponds to each of the plurality of specific states or the degree of similarity to each of the plurality of specific states. The extracted time-series feature data is temporarily stored in feature data storage means (not shown).

この際、パターン認識処理の数は、1つでもよく、複数でもよく、複数の場合には、異なる種類のパターン認識処理としてもよい。また、パターン認識処理の数は、特定の状態の数と一致している必要はない。   At this time, the number of pattern recognition processes may be one or plural, and in the case of plural patterns, different types of pattern recognition processes may be used. Also, the number of pattern recognition processes need not match the number of specific states.

予兆に関連する「特定の状態」は、予め定められた状態であり、予兆特徴抽出器50の学習段階から設定されている状態である。牛の分娩予兆の検知を行う場合には、前述したように、牛の起立状態、牛の尾の挙上状態、牛の尿膜・羊膜の露出状態等である。   The “specific state” related to the sign is a predetermined state and is a state set from the learning stage of the sign feature extractor 50. When detecting a calving parturition of a cow, as described above, the standing state of the cow, the raising state of the tail of the cow, the exposed state of the allantoic membrane / amniotic membrane of the cow, and the like.

具体的には、予兆特徴抽出器50は、本実施形態では、一例として、畳み込み・ニューラル・ネットワーク(CNN)によるパターン認識処理を実行する構成とする。但し、隠れマルコフモデル(HMM)等を採用してもよく、あるいは、CNN出力およびHMM出力を合わせて後段の予兆検知器60に入力する構成等のように、複数種類のパターン認識処理を併用してもよい。   Specifically, in this embodiment, the predictive feature extractor 50 is configured to execute pattern recognition processing using a convolution / neural network (CNN) as an example. However, a Hidden Markov Model (HMM) or the like may be adopted, or a plurality of types of pattern recognition processes may be used in combination, such as a configuration in which the CNN output and the HMM output are combined and input to the precursor detector 60 at the subsequent stage. May be.

図2および図3に示すように、CNNは、入力層、複数の中間層、出力層(最終層)を備え、予兆特徴抽出器50は、CNNの中間層(例えば、最終層から2つ前の中間層等)から出力される特徴量を、後段の予兆検知器60に入力するための特徴データとして抽出する処理を実行する。特定の状態の数は、任意であるが、ここでは、説明の便宜上、3つの特定の状態X,Y,Zがあるものとする。   As shown in FIGS. 2 and 3, the CNN includes an input layer, a plurality of intermediate layers, and an output layer (final layer). The predictive feature extractor 50 includes a CNN intermediate layer (for example, two layers before the final layer). The processing is performed to extract the feature amount output from the intermediate layer or the like) as the feature data to be input to the sign detector 60 in the subsequent stage. Although the number of specific states is arbitrary, it is assumed here that there are three specific states X, Y, and Z for convenience of explanation.

図2では、予兆特徴抽出器50は、1つのパターン認識処理(CNN)により、複数の特定の状態X,Y,Zの各々の判別結果を出力する。すなわち、CNNの出力層(最終層)には、特定の状態X(例えば、牛の起立状態)に対応する2つの出力ノード(2ユニット)があり、状態Xであることの確からしさを示す尤度と、状態Xでないことの確からしさを示す尤度とが出力される。但し、特徴データとして中間層出力を抽出するので、これらの尤度は、後段の予兆検知器60では使用されない。なお、これらの尤度は、その後の学習用のデータとするか否かの判断処理に使用される。   In FIG. 2, the predictive feature extractor 50 outputs the discrimination results of each of a plurality of specific states X, Y, and Z by one pattern recognition process (CNN). That is, the output layer (final layer) of the CNN has two output nodes (2 units) corresponding to a specific state X (for example, the standing state of the cow), and the likelihood that the state X is likely to be satisfied. Degree and likelihood indicating the likelihood of not being in state X is output. However, since the intermediate layer output is extracted as the feature data, these likelihoods are not used in the sign detector 60 in the subsequent stage. Note that these likelihoods are used in the determination process for determining whether or not to use the data for subsequent learning.

同様に、CNNの出力層(最終層)には、特定の状態Y(例えば、牛の尾の挙上状態)に対応する2つの出力ノード(2ユニット)があり、状態Yであることの確からしさを示す尤度と、状態Yでないことの確からしさを示す尤度とが出力される。また、CNNの出力層(最終層)には、特定の状態Z(例えば、牛の尿膜・羊膜の露出状態)に対応する2つの出力ノード(2ユニット)があり、状態Zであることの確からしさを示す尤度と、状態Zでないことの確からしさを示す尤度とが出力される。   Similarly, in the output layer (final layer) of CNN, there are two output nodes (2 units) corresponding to a specific state Y (for example, the cow's tail raised state). Likelihood indicating likelihood and likelihood indicating likelihood of not being in state Y are output. In addition, the output layer (final layer) of the CNN has two output nodes (2 units) corresponding to a specific state Z (for example, an exposed state of bovine allantoic membrane / amniotic membrane). A likelihood indicating the likelihood and a likelihood indicating the probability that the state is not the state Z are output.

従って、図2では、入力層から、特徴データを抽出する中間層に至るまでのネットワーク部分は、3つの特定の状態X,Y,Zで共通化され、その部分のパラメータはシェアされていることになる。   Therefore, in FIG. 2, the network part from the input layer to the intermediate layer from which feature data is extracted is shared by three specific states X, Y, and Z, and the parameters of that part are shared. become.

一方、図3では、予兆特徴抽出器50は、複数の特定の状態X,Y,Zのそれぞれについて、別々のパターン認識処理(CNN)を実行し、複数の特定の状態X,Y,Zの各々の判別結果を出力する。この際、それぞれのパターン認識器(CNN)に入力する状態データは共通であり、それぞれのパターン認識器(CNN)の中間層から出力された複数の特徴量をまとめて、特徴データとして後段の予兆検知器60に入力する。   On the other hand, in FIG. 3, the predictive feature extractor 50 executes different pattern recognition processing (CNN) for each of the plurality of specific states X, Y, and Z, and performs a plurality of specific states X, Y, and Z. Each discrimination result is output. At this time, the state data input to each pattern recognizer (CNN) is common, and a plurality of feature amounts output from the intermediate layer of each pattern recognizer (CNN) are collected and used as a sign of the subsequent stage as feature data. Input to the detector 60.

また、図3では、複数の特定の状態X,Y,Zの全てについて、中間層出力を抽出する構成とされているが、必ずしも全てについて中間層出力を抽出する必要はなく、一部について、出力層(最終層)出力を抽出する構成としてもよい。また、特定の状態X,Y,Zに対応する各パターン認識器は、別々のパターン認識器であるので、特徴データを抽出する中間層に至るネットワーク部分のパラメータは、それぞれ異なっており、それぞれのパターン認識器を構成する中間層の数も異なっていてもよい。さらには、特徴データを抽出する中間層の位置(何番目の層の出力を抽出するのか)も、それぞれのパターン認識器で異なっていてもよい。   Moreover, in FIG. 3, although it is set as the structure which extracts an intermediate | middle layer output about all of the several specific states X, Y, and Z, it is not necessary to extract an intermediate | middle layer output about all, About a part, The output layer (final layer) output may be extracted. Further, since each pattern recognizer corresponding to a specific state X, Y, Z is a separate pattern recognizer, the parameters of the network part leading to the intermediate layer from which the feature data is extracted are different from each other. The number of intermediate layers constituting the pattern recognizer may be different. Furthermore, the position of the intermediate layer from which the feature data is extracted (which number of layers is to be extracted) may be different for each pattern recognizer.

このように予兆特徴抽出器50は、図2の構成でも、図3の構成でもよいが、システム構成の簡易化、処理量の削減等の観点からは、図2の構成とすることが好ましい。   Thus, the predictive feature extractor 50 may have the configuration shown in FIG. 2 or the configuration shown in FIG. 3, but the configuration shown in FIG. 2 is preferable from the viewpoint of simplifying the system configuration and reducing the processing amount.

予兆特徴抽出器50に同時に入力される状態データは、1時刻の状態データ(例えば、ある瞬間の静止画の画像データ)だけでもよく、複数時刻の状態データ(例えば、動画を構成する複数フレームの画像データ)としてもよい。特に、予兆に関連する「特定の状態」として短時間で検出可能な動作を示す状態(例えば、牛の立ち座り状態や、牛の片足を軸にした回転状態等)を捉える場合には、複数時刻の状態データを入力する。また、複数時刻の状態データを入力する場合には、状態データを発生順に、D1,D2,D3,D4,D5,…であるとすると、最初に、D1,D2,D3の組を入力し、次に、D2,D3,D4の組を入力し、続いて、D3,D4,D5の組を入力するといった具合に、状態データを1つずつずらしながら入力することが好ましいが、その他に、最初に、D1,D2,D3の組を入力し、次に、D4,D5,D6の組を入力し、続いて、D7,D8,D9の組を入力するといった具合に、重なりなく入力してもよく、あるいは、それらの折衷として、(D1,D2,D3,D4)の組、(D3,D4,D5,D6)の組、(D5,D6,D7,D8)の組といった具合に、重なりはあるが、1つずつずらすのではないという入力としてもよい。   The state data simultaneously input to the predictive feature extractor 50 may be only state data at one time (for example, image data of a still image at a certain moment), or state data at a plurality of times (for example, a plurality of frames constituting a moving image). Image data). In particular, when capturing a state (such as a cow's standing or rotating state around a cow's leg) that shows a motion that can be detected in a short time as a “specific state” related to a sign. Enter time status data. Further, when inputting state data at a plurality of times, assuming that the state data is D1, D2, D3, D4, D5,... In the order of occurrence, first, a set of D1, D2, and D3 is input. Next, it is preferable to input the set of D2, D3, and D4, and then input the set of D3, D4, and D5 while shifting the state data one by one. If D1, D2, and D3 are input, then D4, D5, and D6 are input, then D7, D8, and D9 are input without overlapping, Well, or as a compromise between them, (D1, D2, D3, D4), (D3, D4, D5, D6), (D5, D6, D7, D8), etc. Yes, but it ’s also an input that you do n’t want to shift .

予兆特徴抽出モデル記憶手段52に記憶させる予兆特徴抽出モデル(CNNのパラメータ等)は、事前の学習により用意される。この事前の学習方法は、後述する予兆特徴抽出器用学習手段91によるモデル更新の際の学習方法と同じであり、一般的な学習方法でよい。すなわち、ある程度の数の状態データと、それらの各状態データに対応するタグ情報とを用いて行われる。具体的には、1つの状態データ(例えば、画像データ)に対し、特定の状態X(例えば、牛の起立状態)に該当するか否か、特定の状態Y(例えば、牛の尾の挙上状態)に該当するか否か、および特定の状態Z(例えば、牛の尿膜・羊膜の露出状態)に該当するか否かを示すデータ(1または0)を、タグ情報として付与し、学習を行う。   The sign feature extraction model (CNN parameters, etc.) to be stored in the sign feature extraction model storage means 52 is prepared by prior learning. This prior learning method is the same as the learning method when updating the model by the sign feature extractor learning means 91 described later, and may be a general learning method. That is, it is performed using a certain number of state data and tag information corresponding to each state data. Specifically, with respect to one state data (for example, image data), whether or not it corresponds to a specific state X (for example, a cow standing state), a specific state Y (for example, raising the tail of a cow) Data (1 or 0) indicating whether or not it corresponds to a specific state Z (for example, an exposed state of bovine allantoic membrane or amniotic membrane) as tag information, and learning I do.

<予兆検知器60の構成>   <Configuration of the sign detector 60>

予兆検知器60は、本実施形態では、予兆特徴抽出器50により抽出した時系列の特徴データを用いて、時系列パターン認識処理を実行し、予兆の有無または存否の程度を示すスコアを出力する処理を実行するものである。   In this embodiment, the sign detector 60 executes time-series pattern recognition processing using the time-series feature data extracted by the sign feature extractor 50, and outputs a score indicating the presence or absence of the sign or the presence or absence of the sign. The process is executed.

この際、時系列パターン認識処理としては、例えば、リカレント・ニューラル・ネットワーク(RNN)を採用することができ、特に、ロング・ショート・ターム・メモリ(LSTM)が好適である。但し、時系列パターン認識処理は、RNNに限定されるものではなく、例えば、隠れマルコフモデル(HMM)等を採用してもよい。   At this time, for example, a recurrent neural network (RNN) can be adopted as the time-series pattern recognition process, and a long / short term memory (LSTM) is particularly suitable. However, the time-series pattern recognition process is not limited to RNN, and for example, a hidden Markov model (HMM) may be employed.

予兆検知器60は、図4および図5に示すように、イベントの発生前の時間帯を区切ることにより、予兆が出現する可能性のある区間として複数の予兆時区間を設定し、設定した複数の予兆時区間の各々に対応するスコアを出力する構成とされている。イベント発生時点をT0とし、それよりも前(過去)の時点を、T0に近い順で、(T−1),(T−2),(T−3),(T−4),…,(T−N)とすると、複数の予兆時区間の設定およびスコア出力についての形式には、次のような2つの形式A(図4の場合)および形式B(図5の場合)がある。時間帯を区切る間隔は、同じピッチで均等な時間間隔としてもよく、ピッチを変化させて不均等な時間間隔としてもよく、例えば、(T−4)〜(T−3)の時間長と、(T−3)〜(T−2)の時間長とは、同じでもよく、異なっていてもよい。   As shown in FIGS. 4 and 5, the sign detector 60 divides a time zone before the occurrence of an event to set a plurality of sign time sections as sections where a sign may appear, The score corresponding to each of the predictive time intervals is output. The event occurrence time point is T0, and the previous (past) time points are (T-1), (T-2), (T-3), (T-4),. Assuming that (TN), there are two types of formats A (in the case of FIG. 4) and B (in the case of FIG. 5) as the formats for setting a plurality of predictive time intervals and outputting scores. The intervals between the time zones may be equal time intervals with the same pitch, or may be non-uniform time intervals by changing the pitch. For example, the time lengths of (T-4) to (T-3), The time length of (T-3) to (T-2) may be the same or different.

図4の形式Aは、複数の予兆時区間A1,A2,A3,A4,…,ANに重なりがない設定形式である。(T−N)以前が、非着目区間となり、予兆時区間AN=(T−N)〜(T−(N−1))であり、予兆時区間A4=(T−4)〜(T−3)であり、予兆時区間A3=(T−3)〜(T−2)であり、予兆時区間A2=(T−2)〜(T−1)であり、予兆時区間A1=(T−1)〜T0である。   The format A in FIG. 4 is a setting format in which a plurality of predictive time intervals A1, A2, A3, A4,. The period before (T−N) is the non-target section, which is the predictive time section AN = (TN) to (T− (N−1)), and the predictive time section A4 = (T−4) to (T−). 3), the predictor interval A3 = (T-3) to (T-2), the predictor interval A2 = (T-2) to (T-1), and the predictor interval A1 = (T -1) to T0.

なお、(T−1),(T−2),(T−3),(T−4),…,(T−N)は、イベント発生時点T0よりも前(過去)の時点であるが、これらを時間軸上で反転させる(過去方向に向かって並べられていた各時点を、各時点どうしの時間間隔を保ちながら、将来方向に向かって並べ替える)ことにより、現在(スコア出力を行う時点)Tnowから将来方向に向かう各時点であるT1,T2,T3,T4,…,TNを定義する(図8参照)。例えば、(T−1)を、イベント発生時点T0から12時間前の時点であるとすると、T1は、現在Tnowから12時間後の時点となり、(T−2)を、T0から24時間前の時点であるとすると、T2は、Tnowから24時間後の時点となる。   Note that (T-1), (T-2), (T-3), (T-4),..., (TN) are points in time (past) before the event occurrence point T0. , By inverting these on the time axis (rearranging each time point arranged in the past direction toward the future direction while keeping the time interval between the respective time points), the current (score output is performed) Time points) T1, T2, T3, T4,..., TN, which are time points from Tnow toward the future, are defined (see FIG. 8). For example, if (T-1) is 12 hours before the event occurrence time T0, T1 is 12 hours after the current Tnow, and (T-2) is 24 hours before T0. If it is a time point, T2 will be a time point 24 hours after Tnow.

そして、形式Aでは、現在(スコア出力を行う時点であり、日にち単位で見ると、今日)Tnowが予兆時区間A1=(T−1)〜T0に属する時点である確率を示すスコアを出力する。換言すれば、現在Tnow〜T1の期間内(期間の長さは、予兆時区間A1と同じ。)に、イベントが発生する確率を示すスコアを出力する。   In the format A, a score indicating the probability that the current Tnow is at the time point of the predictive time interval A1 = (T−1) to T0 is output (this is the time when the score is output and when viewed in units of days). . In other words, a score indicating the probability of occurrence of an event is output within the current Tnow to T1 period (the length of the period is the same as the predictive time section A1).

同様に、形式Aでは、現在Tnowが予兆時区間A2=(T−2)〜(T−1)に属する時点である確率を示すスコアを出力する。換言すれば、現在Tnowから見て、T1〜T2の期間内(期間の長さは、予兆時区間A2と同じ。)に、イベントが発生する確率を示すスコアを出力する。   Similarly, in the format A, a score indicating the probability that the current Tnow belongs to the predictive time section A2 = (T-2) to (T-1) is output. In other words, a score indicating the probability that an event will occur is output within the period from T1 to T2 (the length of the period is the same as the predictive time section A2) as viewed from the current Tnow.

また、形式Aでは、現在Tnowが予兆時区間A3=(T−3)〜(T−2)に属する時点である確率を示すスコアを出力する。換言すれば、現在Tnowから見て、T2〜T3の期間内(期間の長さは、予兆時区間A3と同じ。)に、イベントが発生する確率を示すスコアを出力する。   In the format A, a score indicating the probability that the current Tnow belongs to the predictive time section A3 = (T-3) to (T-2) is output. In other words, as viewed from the current Tnow, a score indicating the probability of occurrence of an event is output within the period from T2 to T3 (the length of the period is the same as the predictive time section A3).

さらに、形式Aでは、現在Tnowが予兆時区間A4=(T−4)〜(T−3)に属する時点である確率を示すスコアを出力する。換言すれば、現在Tnowから見て、T3〜T4の期間内(期間の長さは、予兆時区間A4と同じ。)に、イベントが発生する確率を示すスコアを出力する。   Further, in the format A, a score indicating the probability that the current Tnow is a time point belonging to the predictive time section A4 = (T-4) to (T-3) is output. In other words, a score indicating the probability that an event will occur is output within the period from T3 to T4 (the length of the period is the same as the predictive time interval A4) as viewed from the current Tnow.

そして、形式Aでは、現在Tnowが予兆時区間A1〜ANのそれぞれに属する時点である確率を示す各スコア、および現在Tnowが非着目区間(平常時)に属する時点である確率を示すスコアを合計すると1になる。   In the format A, each score indicating the probability that the current Tnow belongs to each of the predictive time sections A1 to AN and the score indicating the probability that the current Tnow belongs to the non-target section (normal time) are summed. Then it becomes 1.

形式Aの学習時には、予兆検知器用学習手段92に対し、予兆時区間A1に属する特徴データについては、「予兆時区間A1=(T−1)〜T0である」=1と入力し、それ以外の区間には属さないので、それ以外は0を入力する。予兆時区間A2に属する特徴データについては、「予兆時区間A2=(T−2)〜(T−1)である」=1と入力し、それ以外の区間には属さないので、それ以外は0を入力する。予兆時区間A3に属する特徴データについては、「予兆時区間A3=(T−3)〜(T−2)である」=1と入力し、それ以外の区間には属さないので、それ以外は0を入力する。予兆時区間A4に属する特徴データについては、「予兆時区間A4=(T−4)〜(T−3)である」=1と入力し、それ以外の区間には属さないので、それ以外は0を入力する。予兆時区間ANに属する特徴データについては、「予兆時区間AN=(T−N)〜(T−(N−1))である」=1と入力し、それ以外の区間には属さないので、それ以外は0を入力する。また、非着目区間に属する特徴データについては、「非着目区間=(T−N)以前である」=1と入力し、それ以外の区間には属さないので、それ以外は0を入力する。   At the time of learning in the format A, the predictor detector learning means 92 is input with “predictive time interval A1 = (T−1) to T0” = 1 for feature data belonging to the predictive time interval A1, and otherwise. 0 is entered otherwise. For the feature data belonging to the predictive time interval A2, “predictive time interval A2 = (T−2) to (T−1)” = 1 is input, and it does not belong to other intervals. Enter 0. For the feature data belonging to the predictive time section A3, enter “predictive time section A3 = (T-3) to (T-2)” = 1, and it does not belong to any other section. Enter 0. For the feature data belonging to the predictive time section A4, “predictive time section A4 = (T-4) to (T-3)” = 1 is input and it does not belong to any other section. Enter 0. For feature data belonging to the predictive time section AN, “predictive time section AN = (TN) to (T− (N−1))” = 1 is input, and it does not belong to other sections. Otherwise, enter 0. For feature data belonging to a non-target section, “Non-target section = (before T−N)” = 1 is input, and since it does not belong to any other section, 0 is input otherwise.

一方、図5の形式Bは、複数の予兆時区間B1,B2,B3,B4,…,BNに重なりがある設定形式である。(T−N)以前が、非着目区間となり、予兆時区間BN=(T−N)〜T0であり、予兆時区間B4=(T−4)〜T0であり、予兆時区間B3=(T−3)〜T0であり、予兆時区間B2=(T−2)〜T0であり、予兆時区間B1=(T−1)〜T0である。   On the other hand, the format B in FIG. 5 is a setting format in which a plurality of predictive time intervals B1, B2, B3, B4,. The period before (T−N) is the non-target section, which is the predictor section BN = (TN) to T0, the predictor section B4 = (T−4) to T0, and the predictor section B3 = (T −3) to T0, the signing time interval B2 = (T−2) to T0, and the signing time interval B1 = (T−1) to T0.

そして、形式Bでは、現在Tnowが予兆時区間B1=(T−1)〜T0に属する時点である確率を示すスコアを出力する。換言すれば、現在Tnow〜T1の期間内(期間の長さは、予兆時区間B1と同じ。)に、イベントが発生する確率を示すスコアを出力する。なお、現在Tnowが予兆時区間B1=(T−1)〜T0に属する時点でない確率を示すスコアも出力するが、図示を省略している。   In the format B, a score indicating the probability that the current Tnow is a time point belonging to the predictive time interval B1 = (T−1) to T0 is output. In other words, a score indicating the probability that an event will occur is output within the current Tnow-T1 period (the length of the period is the same as the predictive time section B1). A score indicating the probability that the current Tnow does not belong to the predictive time interval B1 = (T−1) to T0 is also output, but the illustration is omitted.

同様に、形式Bでは、現在Tnowが予兆時区間B2=(T−2)〜T0に属する時点である確率を示すスコアを出力する。換言すれば、現在Tnow〜T2の期間内(期間の長さは、予兆時区間B2と同じ。)に、イベントが発生する確率を示すスコアを出力する。なお、現在Tnowが予兆時区間B2=(T−2)〜T0に属する時点でない確率を示すスコアも出力するが、図示を省略している。   Similarly, in the format B, a score indicating the probability that the current Tnow is a time point belonging to the predictive time interval B2 = (T−2) to T0 is output. In other words, a score indicating the probability that an event will occur is output within the current Tnow to T2 period (the length of the period is the same as the predictive time section B2). A score indicating the probability that the current Tnow does not belong to the sign time interval B2 = (T−2) to T0 is also output, but is not shown.

また、形式Bでは、現在Tnowが予兆時区間B3=(T−3)〜T0に属する時点である確率を示すスコアを出力する。換言すれば、現在Tnow〜T3の期間内(期間の長さは、予兆時区間B3と同じ。)に、イベントが発生する確率を示すスコアを出力する。なお、現在Tnowが予兆時区間B3=(T−3)〜T0に属する時点でない確率を示すスコアも出力するが、図示を省略している。   Also, in the format B, a score indicating the probability that the current Tnow is a time point belonging to the predictive time interval B3 = (T−3) to T0 is output. In other words, a score indicating the probability of occurrence of an event is output within the current Tnow to T3 period (the length of the period is the same as that of the predictive time section B3). A score indicating the probability that the current Tnow does not belong to the predictive time interval B3 = (T−3) to T0 is also output, but is not shown.

さらに、形式Bでは、現在Tnowが予兆時区間B4=(T−4)〜T0に属する時点である確率を示すスコアを出力する。換言すれば、現在Tnow〜T4の期間内(期間の長さは、予兆時区間B4と同じ。)に、イベントが発生する確率を示すスコアを出力する。なお、現在Tnowが予兆時区間B4=(T−4)〜T0に属する時点でない確率を示すスコアも出力するが、図示を省略している。   Further, in the format B, a score indicating the probability that the current Tnow is a time point belonging to the predictive time interval B4 = (T−4) to T0 is output. In other words, a score indicating the probability of occurrence of an event is output within the current period Tnow to T4 (the length of the period is the same as that of the predictive time section B4). A score indicating the probability that the current Tnow does not belong to the predictive time interval B4 = (T−4) to T0 is also output, but is not shown.

形式Bの学習時には、予兆検知器用学習手段92に対し、「(T−1)〜T0」に属する特徴データについては、予兆時区間B1に属するので、「予兆時区間B1=(T−1)〜T0である」=1と入力し、かつ、予兆時区間B2にも属するので、「予兆時区間B2=(T−2)〜T0である」=1と入力し、かつ、予兆時区間B3にも属するので、「予兆時区間B3=(T−3)〜T0である」=1と入力し、かつ、予兆時区間B4にも属するので、「予兆時区間B4=(T−4)〜T0である」=1と入力する。   At the time of learning of the format B, since the characteristic data belonging to “(T−1) to T0” belongs to the sign time interval B1, the sign detector learning means 92 is assigned to “the sign time interval B1 = (T−1)”. ˜T0 ”= 1, and also belongs to the predictive time interval B2, so that“ predictive time interval B2 = (T−2) to T0 ”= 1 is input and the predictive time interval B3. Therefore, “predictive time interval B3 = (T−3) to T0” = 1 is input, and since it also belongs to the predictive time interval B4, “predictive time interval B4 = (T−4) − Enter T0 ”= 1.

また、形式Bの学習時には、予兆検知器用学習手段92に対し、「(T−2)〜(T−1)」に属する特徴データについては、予兆時区間B1には属さないので、「予兆時区間B1=(T−1)〜T0である」=0と入力し、かつ、予兆時区間B2には属するので、「予兆時区間B2=(T−2)〜T0である」=1と入力し、かつ、予兆時区間B3にも属するので、「予兆時区間B3=(T−3)〜T0である」=1と入力し、かつ、予兆時区間B4にも属するので、「予兆時区間B4=(T−4)〜T0である」=1と入力する。   Further, during the learning of the format B, since the feature data belonging to “(T-2) to (T-1)” does not belong to the predictive time section B1, the sign detector learning means 92 is notified as “predictive time”. Section B1 = (T-1) to T0 ”is input as“ = 0 ”and belongs to the predictive time section B2, so“ predictive time section B2 = (T−2) to T0 ”is input as“ 1 ”. Since it also belongs to the sign time interval B3, it is input that “the sign time interval B3 = (T-3) to T0” = 1 and also belongs to the sign time interval B4. “B4 = (T−4) to T0” ”= 1.

さらに、形式Bの学習時には、予兆検知器用学習手段92に対し、「(T−3)〜(T−2)」に属する特徴データについては、予兆時区間B1には属さないので、「予兆時区間B1=(T−1)〜T0である」=0と入力し、かつ、予兆時区間B2にも属さないので、「予兆時区間B2=(T−2)〜T0である」=0と入力し、かつ、予兆時区間B3には属するので、「予兆時区間B3=(T−3)〜T0である」=1と入力し、かつ、予兆時区間B4にも属するので、「予兆時区間B4=(T−4)〜T0である」=1と入力する。   Further, during the learning of the format B, since the feature data belonging to “(T-3) to (T-2)” does not belong to the predictive time section B1, the sign detector learning means 92 is notified as “predictive time”. Section B1 = (T-1) to T0 "= 0 is input, and since it does not belong to the predictive time section B2," predictive time section B2 = (T-2) to T0 "= 0. Since it is input and belongs to the sign time section B3, “predict time section B3 = (T−3) to T0” = 1 is input and also belongs to the sign time section B4. Section B4 = (T−4) to T0 ”= 1.

さらに、形式Bの学習時には、予兆検知器用学習手段92に対し、「(T−4)〜(T−3)」に属する特徴データについては、予兆時区間B1には属さないので、「予兆時区間B1=(T−1)〜T0である」=0と入力し、かつ、予兆時区間B2にも属さないので、「予兆時区間B2=(T−2)〜T0である」=0と入力し、かつ、予兆時区間B3にも属さないので、「予兆時区間B3=(T−3)〜T0である」=0と入力し、かつ、予兆時区間B4には属するので、「予兆時区間B4=(T−4)〜T0である」=1と入力する。   Furthermore, during the learning of the format B, the characteristic data belonging to “(T-4) to (T-3)” does not belong to the predictive time section B1 to the predictive detector learning unit 92. Section B1 = (T-1) to T0 "= 0 is input, and since it does not belong to the predictive time section B2," predictive time section B2 = (T-2) to T0 "= 0. Since it is input and does not belong to the predictive time interval B3, “predictive time interval B3 = (T−3) to T0” = 0 is input and belongs to the predictive time interval B4. “Time interval B4 = (T−4) to T0” ”= 1.

そして、形式Bの学習時には、予兆検知器用学習手段92に対し、非着目区間に属する特徴データについては、予兆時区間B1には属さないので、「予兆時区間B1=(T−1)〜T0である」=0と入力し、かつ、予兆時区間B2にも属さないので、「予兆時区間B2=(T−2)〜T0である」=0と入力し、かつ、予兆時区間B3にも属さないので、「予兆時区間B3=(T−3)〜T0である」=0と入力し、かつ、予兆時区間B4にも属さないので、「予兆時区間B4=(T−4)〜T0である」=0と入力する。   When learning in the format B, since the feature data belonging to the non-target section is not included in the predictive time section B1, the sign detector learning means 92 does not include the “predictive time section B1 = (T−1) to T0. "= 0" and does not belong to the predictive time interval B2, so enter "predictive time interval B2 = (T-2) to T0" = 0 and enter the predictive time interval B3. Therefore, “predictive time interval B3 = (T−3) to T0” = 0 is input, and since it does not belong to the predictive time interval B4, “predictive time interval B4 = (T−4)”. ~ T0 "= 0.

リカレント・ニューラル・ネットワーク(RNN)は、ある層の出力が、次回のその層に入力されて次回の処理に反映されるという構造を有するので、前回の処理結果を反映した出力を行うことができ、前回の処理結果は、更にその前の処理結果を反映していることから、前回以前の処理結果を反映する時系列パターン認識処理を実現している。   Since the recurrent neural network (RNN) has a structure in which the output of a certain layer is input to the next layer and reflected in the next processing, the output reflecting the previous processing result can be performed. Since the previous processing result further reflects the previous processing result, a time-series pattern recognition process that reflects the previous processing result is realized.

予兆検知器60は、このようなRNNの内部構造により前回以前の処理結果を反映する構成とすることができるが、さらに、次のような構成とし、時間的な要素を加味してもよい。すなわち、前段の予兆特徴抽出器50で繰り返し抽出した抽出時刻の異なる複数の時系列の特徴データ(予兆特徴抽出器50における連続する複数回のパターン認識処理で得られた複数時刻の特徴データ)を、まとめて後段の予兆検知器60に同時に入力してもよい。複数時刻の特徴データを入力する場合には、特徴データを発生順に、F1,F2,F3,F4,F5,…であるとすると、最初に、F1,F2,F3の組を入力し、次に、F2,F3,F4の組を入力し、続いて、F3,F4,F5の組を入力するといった具合に、特徴データを1つずつずらしながら入力することが好ましいが、その他に、最初に、F1,F2,F3の組を入力し、次に、F4,F5,F6の組を入力し、続いて、F7,F8,F9の組を入力するといった具合に、重なりなく入力してもよく、あるいは、それらの折衷として、(F1,F2,F3,F4)の組、(F3,F4,F5,F6)の組、(F5,F6,F7,F8)の組といった具合に、重なりはあるが、1つずつずらすのではないという入力としてもよい。   The sign detector 60 can be configured to reflect the processing results before the previous time by such an internal structure of the RNN. However, the predictor detector 60 may be configured as follows and consider temporal factors. That is, a plurality of time-series feature data with different extraction times extracted repeatedly by the preceding sign feature extractor 50 (multiple time feature data obtained by a plurality of successive pattern recognition processes in the sign feature extractor 50). These may be input to the precursor detector 60 at the same time. When inputting feature data at a plurality of times, assuming that the feature data is F1, F2, F3, F4, F5,... In the order of occurrence, first, a set of F1, F2, F3 is input, and then , F2, F3, and F4 are input, followed by F3, F4, and F5. For example, the feature data is preferably input while being shifted one by one. F1, F2, and F3 may be input, then F4, F5, and F6 may be input, and then F7, F8, and F9 may be input. Or, as a compromise between them, there is an overlap such as (F1, F2, F3, F4), (F3, F4, F5, F6), (F5, F6, F7, F8). The input may not be shifted one by one.

また、予兆検知器60には、事前情報記憶手段71に記憶された事前情報またはその事前情報から自動生成される情報を、特徴データと合わせて入力するようにしてもよい。事前情報とは、例えば、ユーザによりユーザ端末120から入力されるか若しくはシステムの管理者により管理者端末130から代行入力されたユーザ保有情報や、管理者により管理者端末130から入力された管理者保有情報等であり、具体的には、例えば、牛の分娩予兆を検知する場合には、ユーザ(農家等)が保有する牛の出産予定日等である。事前情報から自動生成される情報とは、本日(予兆検知の処理日)と牛の出産予定日との差分として算出された牛の出産予定日までの日数等である。   The sign detector 60 may be input with the advance information stored in the advance information storage unit 71 or information automatically generated from the advance information together with the feature data. The prior information is, for example, user possessed information input from the user terminal 120 by the user or from the administrator terminal 130 by the administrator of the system, or an administrator input from the administrator terminal 130 by the administrator For example, in the case of detecting a calving sign of a cow, it is a scheduled date of delivery of a cow held by a user (farmer or the like). The information automatically generated from the prior information is the number of days until the expected date of calf birth calculated as the difference between today (the date of predictive detection processing) and the expected date of calf delivery.

<出力手段70の構成>   <Configuration of output means 70>

出力手段70は、予兆検知器60から出力されたスコアを用いて、予兆検知結果を出力する処理を実行するものである。具体的には、出力手段70は、予兆検知結果の出力用データを、ネットワーク1を介してユーザ端末120(またはユーザが管理する連携システムでもよい。)へ送信する処理、あるいは、必要に応じて管理者端末130へ送信する処理を実行する。また、出力手段70は、ユーザまたは管理者が、予兆検知処理装置30(出力手段70が設けられた装置)の設置場所の周辺にいる場合等には、予兆検知結果を、予兆検知処理装置30に接続された表示装置(不図示)に画面表示するか、印刷装置(不図示)で印刷するか、スピーカ(不図示)で音声出力するか、または予兆検知結果に応じた報知音若しくは報知光をブザーやランプ等の報知用機器(不図示)で出力する処理を実行してもよい。   The output means 70 executes processing for outputting a sign detection result using the score output from the sign detector 60. Specifically, the output unit 70 transmits the data for outputting the sign detection result to the user terminal 120 (or a cooperative system managed by the user) via the network 1, or as necessary. A process of transmitting to the administrator terminal 130 is executed. In addition, the output means 70 displays the sign detection result as the sign detection processing apparatus 30 when the user or the administrator is in the vicinity of the place where the sign detection processing apparatus 30 (the apparatus provided with the output means 70) is installed. Screen display on a display device (not shown) connected to the printer, printing with a printing device (not shown), outputting sound with a speaker (not shown), or a notification sound or notification light according to the sign detection result May be executed by a notification device (not shown) such as a buzzer or a lamp.

ユーザ端末120等への予兆検知結果の出力用データの送信処理を行う場合には、送信する予兆検知結果の出力用データは、主として画面表示用のデータとなるが、音声出力用のデータを加えてもよく、また、音声出力用のデータだけとしてもよい。また、送信タイミングは、出力手段70側のタイミングでもよく、あるいは、ユーザ端末120等からの要求に応じて送信してもよい。   When performing processing for transmitting data for outputting the sign detection result to the user terminal 120 or the like, the data for outputting the sign detection result to be transmitted is mainly data for screen display, but data for voice output is added. Alternatively, only data for audio output may be used. The transmission timing may be the timing on the output means 70 side, or may be transmitted in response to a request from the user terminal 120 or the like.

具体的には、例えば、電子メール等により予兆検知結果の出力用データを自動送信してもよく、電子メールの自動送信や自動架電等により予兆検知処理装置30へのアクセスを促し(例えば、アクセス先のURLを通知する等)、ユーザ端末120等からの出力要求(主として画面表示要求)を受けてから、予兆検知結果の出力用データを送信してもよい。なお、ユーザ端末120等からの出力要求を受けてから送信する場合には、既に作成されている予兆検知結果の出力用データ(出力用データ記憶手段(不図示)に記憶されている出力用データ)を送信してもよく、あるいは、出力要求を受けてから、スコア記憶手段(不図示)に記憶されている予兆検知器60の出力スコアを用いて予兆検知結果の出力用データを作成し、送信してもよい。   Specifically, for example, the output data of the sign detection result may be automatically transmitted by e-mail or the like, and access to the sign detection processing device 30 is urged by automatic transmission of e-mail or automatic call (for example, The output data of the sign detection result may be transmitted after receiving an output request (mainly a screen display request) from the user terminal 120 or the like. In the case of transmission after receiving an output request from the user terminal 120 or the like, output data (output data stored in output data storage means (not shown)) that has already been generated is output as a sign detection result. ) Or after receiving the output request, the output data of the sign detection result is generated using the output score of the sign detector 60 stored in the score storage means (not shown), You may send it.

また、出力手段70は、前段の予兆特徴抽出器50に入力された状態データ(付加された時刻情報および機器識別情報を含む。)、および予兆特徴抽出器50の最終層(出力層)の出力データ(尤度)、並びに、後段の予兆検知器60に入力された特徴データ、および予兆検知器60から出力されたスコアを、ネットワーク1を介してデータ収集装置80へ送信する処理も実行する。   The output means 70 outputs the state data (including the added time information and device identification information) input to the preceding sign feature extractor 50, and the final layer (output layer) of the sign feature extractor 50. A process of transmitting the data (likelihood), the feature data input to the sign detector 60 at the subsequent stage, and the score output from the sign detector 60 to the data collection device 80 via the network 1 is also executed.

<出力手段70による各種の出力形式>   <Various output formats by the output means 70>

出力手段70は、予兆検知器60から出力されたスコアを用いて、様々な予兆検知結果の出力用データを作成する。以下に述べる全ての出力形式(主として表示形式)は、ユーザまたは管理者による自在な切替が可能である。この際、システム側で、いずれかの出力形式をデフォルト設定としてもよく、ユーザまたは管理者が自身で標準の出力形式を設定してもよい。なお、出力手段70は、以下に述べる様々な出力形式のうちの1形式または一部の形式しか出力しない構成としてもよい。   The output means 70 uses the score output from the sign detector 60 to create output data for various sign detection results. All output formats (mainly display formats) described below can be freely switched by a user or an administrator. At this time, any output format may be set as a default setting on the system side, or a user or an administrator may set a standard output format by himself / herself. The output means 70 may be configured to output only one or some of the various output formats described below.

<言語による出力形式>   <Output format by language>

先ず、言語による出力形式がある。予兆検知結果を、テキストで表現して画面表示により通知するか、または、それを音声で読み上げて通知するか、それらの双方を実行する。   First, there is an output format by language. The sign detection result is expressed in text and notified by screen display, or it is read out by voice and notified, or both of them are executed.

通知する内容には、予兆が検知された予兆検知対象(生物、物体等)および複数の予兆検知対象が存在する場合の予兆検知対象識別情報、予兆されたイベントの内容、予兆されたイベントの発生時期、予兆されたイベントの発生確率等が含まれ、これらの内容のうち、ユーザが必要とする内容を出力(画面表示および/または音声出力)すればよい。   The notification content includes the detection target (biology, object, etc.) for which a predictor has been detected, the identification information of the detection target when there are multiple predictive detection targets, the details of the predicted event, and the occurrence of the predicted event The timing, the occurrence probability of a predicted event, and the like are included, and among these contents, the contents required by the user may be output (screen display and / or voice output).

例えば、「12時間以内に牛1032が分娩する確率80%」、「2〜4日後に牛Aか牛Bが分娩しそうです」、「いまのままだと囚人Xが鬱になるかもしれません」等である。また、複数の牛がいるときに「24時間以内に牛が分娩しそうです」と表現する等、複数の予兆検知対象が存在する場合に、予兆検知対象識別情報を付さずに表現してもよく、この場合、どの牛なのかは特定されているが、それを通知しないケースと、どの牛なのかが特定されていないケースが含まれる。   For example, “Probability of cow 1032 to deliver within 12 hours 80%”, “Cow A or cow B is likely to deliver 2-4 days later”, “Prisoner X may become depressed if left as it is. Etc. In addition, when there are multiple predictive detection targets, such as expressing that “the cow is likely to deliver within 24 hours” when there are multiple cows, it may be expressed without adding the predictive detection target identification information. Often, in this case, which cow is specified is included, a case where the cow is not notified and a case where the cow is not specified are included.

予兆検知器60のスコア出力が形式A(図4参照)の場合において、一例として、予兆時区間A1〜A4が設定され、(T−1)=12時間前(T1=12時間後)、(T−2)=24時間前(T2=24時間後)、(T−3)=2日前=48時間前(T3=2日後=48時間後)、(T−4)=4日前=96時間前(T4=4日後=96時間後)であるものとする。このとき、各予兆時区間A1〜A4のスコアをそのまま用いて、「今から12時間以内に牛が分娩する確率は10%、12時間後から24時間後までの間の確率は20%、24時間後から2日後までの間の確率は50%、2日後から4日後までの間の確率は10%」等のように出力してもよく、次のように、加工を行った出力としてもよい。   In the case where the score output of the predictor detector 60 is format A (see FIG. 4), as an example, the predictor time intervals A1 to A4 are set, and (T-1) = 12 hours before (T1 = 12 hours after), ( T-2) = 24 hours before (T2 = 24 hours later), (T-3) = 2 days before = 48 hours before (T3 = 2 days after = 48 hours), (T-4) = 4 days before = 96 hours It is assumed that it is before (T4 = 4 days later = 96 hours later). At this time, using the scores of the predictive time intervals A1 to A4 as they are, “the probability that a cow will deliver within 12 hours from now is 10%, the probability between 12 hours and 24 hours later is 20%, 24 Probability between time and after 2 days is 50%, and probability between 2 days and 4 days is 10% ", etc. Good.

例えば、予兆時区間A1,A2のスコアを加算し(A1の10%+A2の20%=30%)、「今から24時間以内に牛が分娩する確率は30%である…」等と出力してもよい。このようにする場合、例えば、システムとして(つまり、全ユーザに共通)、比較的短い時間間隔で、予兆時区間A1〜ANを設定しておき、個々のユーザへの通知段階で、個々のユーザが希望する時間間隔にカスタマイズして予兆検知結果を出力すること等ができる。このカスタマイズ設定は、システム納入時に、既にシステムに設定されていてもよく、システムの運用開始後に、ユーザが設定してもよい。後者の場合は、いつでもユーザが任意の時間間隔に設定変更することが可能な構成であり、予兆検知器60のスコア出力までは全ユーザ共通であり、出力手段70による出力処理の段階で、ユーザの設定に従った加工処理(加算処理)が行われる。   For example, add the scores of the predictive interval A1 and A2 (10% of A1 + 20% of A2 = 30%), and output such as "the probability that a cow will deliver within 30 hours is 30% ..." May be. In this case, for example, as a system (that is, common to all users), the predictive time intervals A1 to AN are set at relatively short time intervals, and each user is notified at the notification stage to each user. Can customize the desired time interval and output the sign detection result. This customization setting may be already set in the system at the time of delivery of the system, or may be set by the user after the system starts operating. In the latter case, the user can change the setting at any time interval at any time, and the score output of the sign detector 60 is common to all users, and at the stage of output processing by the output means 70, the user Processing (addition processing) according to the setting is performed.

また、どちらかと言えば、予兆検知器60のスコア出力が形式B(図5参照)であるほうが、累積確率の出力に適したスコア出力であるが、形式A(図4参照)の場合であっても、累積的な確率を出力してよい。例えば、予兆時区間A1,A2のスコアを加算し(A1の10%+A2の20%=30%)、かつ、予兆時区間A1〜A3のスコアを加算し(A1の10%+A2の20%+A3の50%=80%)、かつ、予兆時区間A1〜A4のスコアを加算し(A1の10%+A2の20%+A3の50%+A4の10%=90%)、「今から12時間以内に牛が分娩する確率は10%、24時間以内の確率は30%、2日以内の確率は80%、4日以内の確率は90%」等と出力してもよい。   If anything, the score output of the sign detector 60 is in the format B (see FIG. 5), which is more suitable for the output of the cumulative probability, but in the case of the format A (see FIG. 4). However, the cumulative probability may be output. For example, the scores of the predictive time intervals A1 and A2 are added (10% of A1 + 20% of A2 = 30%), and the scores of the predictive time intervals A1 to A3 are added (10% of A1 + 20% of A2 + A3 And the scores of the predictive interval A1 to A4 are added (10% of A1 + 20% of A2 + 50% of A3 + 10% of A4 = 90%), “within 12 hours from now The probability that a cow will deliver is 10%, the probability within 24 hours is 30%, the probability within 2 days is 80%, and the probability within 4 days is 90%.

予兆検知器60のスコア出力が形式B(図5参照)の場合は、各予兆時区間B1〜B4のスコアをそのまま用いて出力すると、累積的な確率を出力することになる。例えば、「今から12時間以内に牛が分娩する確率は10%、24時間以内の確率は30%、2日以内の確率は80%、4日以内の確率は90%」等と出力することができる。   When the score output of the sign detector 60 is in the format B (see FIG. 5), if the scores of the sign time sections B1 to B4 are output as they are, a cumulative probability is output. For example, “The probability that a cow will deliver within 12 hours from now is 10%, the probability within 24 hours is 30%, the probability within 2 days is 80%, and the probability within 4 days is 90%.” Can do.

ここで、前述したように、形式A(図4参照)の場合のスコアを用いて累積的な確率を出力しようとすると、各予兆時区間A1,A2,…の確率を加算することになるので、矛盾のある出力表現にはならない。加算していくので、累積値が減ることはないうえ、元々、全部を足して1になるように各スコアが出力されるため、加算していって1を超えてしまうこともないからである。これに対し、形式B(図5参照)の場合は、スコアをそのまま用いて出力すると、例えば、「…2日以内の確率は80%、4日以内の確率は78%」等のように、矛盾した表現になる可能性もあるため、このような矛盾するスコアが出力されたときには、出力手段70により、例えば、矛盾するスコア同士の平均をとり、「…2日以内の確率は79%、4日以内の確率は79%」等と出力するような矛盾除去の加工処理を実行してもよい。   Here, as described above, if the cumulative probability is output using the score in the case of the format A (see FIG. 4), the probabilities of the predictive time intervals A1, A2,. This is not an inconsistent output expression. This is because the cumulative value does not decrease, and since each score is output so that the total value becomes 1 from the beginning, it does not exceed 1 because it is added. . On the other hand, in the case of the format B (see FIG. 5), if the score is output as it is, for example, “... the probability within 2 days is 80%, the probability within 2 days is 78%”, etc. Since such contradictory scores may be output, for example, when such contradictory scores are output, the output means 70 takes an average of the contradictory scores, for example, “... the probability within 2 days is 79%, Processing for removing contradiction may be executed such that the probability within 4 days is 79%.

<発生確率を視覚化する出力形式>   <Output format for visualizing the probability of occurrence>

次に、発生確率を視覚化する出力形式がある。前述した<言語による出力形式>の内容に加え、発生確率を視覚化した表現を追加する形式であり、これは言語表現(画面表示および/または音声による伝達)に加え、発生確率という数値情報を、画面イメージでも伝達することになる。なお、伝達できる情報は、少なくなるが、言語表現をせずに、画面イメージだけとしてもよい。   Next, there is an output format for visualizing the probability of occurrence. In addition to the contents of <Output format by language> described above, it is a format that adds an expression that visualizes the probability of occurrence. In addition to the language expression (screen display and / or voice transmission), numerical information about the probability of occurrence The screen image will also be transmitted. Note that the amount of information that can be transmitted is small, but only the screen image may be used without expressing the language.

例えば、顔マーク等のアイコンによる表示がある。具体的には、例えば、高い発生確率に対して「自信のある顔」、中間的な発生確率に対して「普通の顔」、低い発生確率に対して「疑わしい顔」を表示する等である。また、動物の大きさで示すとすれば、発生確率の高い順に、例えば、象、ライオン、猫、バッタ、蟻等である。価値の大きさで示すとすれば、発生確率の高い順に、金メダル、銀メダル、銅メダル等である。   For example, there is a display with an icon such as a face mark. Specifically, for example, “confident face” is displayed for a high occurrence probability, “normal face” is displayed for an intermediate occurrence probability, and “suspicious face” is displayed for a low occurrence probability. . Moreover, if it shows with the magnitude | size of an animal, it will be an elephant, a lion, a cat, a grasshopper, an ant etc. in order with high occurrence probability, for example. In terms of magnitude of value, gold medals, silver medals, bronze medals, etc., in descending order of occurrence probability.

また、ゲージで発生確率を表示してもよい。具体的には、例えば、予兆時区間A3の確率が50%であれば「…50%:(0%)□□□□□_____(100%)」等と出力するか、あるいは「…50%:(0%)_____△_____(100%)」等と出力する。後者は、回転メータ上の針の位置で発生確率を表示するのと同様である。   The occurrence probability may be displayed with a gauge. Specifically, for example, if the probability of the predictive time interval A3 is 50%, “… 50%: (0%) □□□□□ _____ (100%)” or the like is output, or “… 50% : (0%) __________ (100%) "or the like. The latter is similar to displaying the probability of occurrence at the position of the needle on the rotation meter.

さらに、色(色相・明度・彩度)の変化で発生確率を表示してもよい。具体的には、例えば、信号機の色を利用して、低い発生確率が「緑」、高い発生確率が「赤」とし、0%から100%に至る順序で並べると、「緑」、「黄緑」、「黄」、「橙」、「赤」等のように表示することができる。このように必ずしも発生確率の数値の大小に対応させて厳格な意味で色相・明度・彩度を連続的に変化させていくのではなく、上述した顔マーク等のアイコンによる表示に近い状態で、段階的に人間のイメージに合う色を並べるようにしてもよい。なお、厳格な意味で、発生確率の数値から、予め定めた関数により、色相・明度・彩度を導いてもよい。   Furthermore, the occurrence probability may be displayed by a change in color (hue / lightness / saturation). Specifically, for example, using the color of the traffic light, if the low probability of occurrence is “green” and the high probability of occurrence is “red” and they are arranged in the order from 0% to 100%, “green”, “yellow” It can be displayed as “green”, “yellow”, “orange”, “red”, and the like. In this way, it is not always necessary to continuously change the hue, lightness, and saturation in a strict sense corresponding to the magnitude of the occurrence probability, but in a state close to the display by the icon such as the face mark described above, Colors that match human images may be arranged step by step. In a strict sense, the hue, brightness, and saturation may be derived from the numerical value of the occurrence probability using a predetermined function.

また、このような<発生確率を視覚化する出力形式>は、累積確率に適用してもよい。すなわち、例えば、顔マーク等のアイコン、ゲージ、回転メータ、色等により視覚化する対象となる数値は、重ならないように設定された各区間内の発生確率(図4参照)に限らず、重ねて設定された各区間内の発生確率(図5参照)のような累積的な確率であってもよい。この際、前記<言語による出力形式>で述べたように、累積確率の数値は、予兆検知器60のスコア出力が形式A(図4参照)の場合において、各予兆時区間A1,A2,…の確率の加算処理で求めてもよく、あるいは、形式B(図5参照)の場合の出力スコアをそのまま用いるか、または矛盾除去の加工処理を実行して得られた数値としてもよい。   Such <output format for visualizing occurrence probability> may be applied to the cumulative probability. That is, for example, numerical values to be visualized by icons such as face marks, gauges, rotation meters, colors, etc. are not limited to occurrence probabilities (see FIG. 4) in each section set so as not to overlap. It may be a cumulative probability such as the occurrence probability (see FIG. 5) in each section set in the above. At this time, as described in the above <Output format by language>, the numerical value of the cumulative probability is the predictor time interval A1, A2,... When the score output of the predictor detector 60 is the format A (see FIG. 4). Or an output score in the case of the format B (see FIG. 5) may be used as it is, or a numerical value obtained by executing a contradiction elimination processing.

<発生確率を時間軸上で表現する出力形式>   <Output format that expresses the probability of occurrence on the time axis>

時間軸上で、発生確率を示す数値(テキストとしての数字)自体を表示するか、または、時間軸上で、前述した<発生確率を視覚化する出力形式>による表示を行うか、あるいは、時間軸上で、時間軸に交差する方向の線分の長さ(主として時間軸に直交する方向の線分の高さ)で発生確率の大きさを表示する出力形式がある。なお、時間軸は、カレンダである場合もある。また、時間軸上で表現する発生確率は、累積確率である場合もある(図10参照)。   On the time axis, the numerical value indicating the probability of occurrence (a number as a text) is displayed, or on the time axis, the above-mentioned <output format for visualizing the probability of occurrence> is displayed, or time There is an output format for displaying the magnitude of occurrence probability on the axis by the length of the line segment in the direction intersecting the time axis (mainly the height of the line segment in the direction orthogonal to the time axis). The time axis may be a calendar. The occurrence probability expressed on the time axis may be a cumulative probability (see FIG. 10).

例えば、図8に示すように、現在(スコア出力の時点であり、今の時点、日にち単位で捉える場合は、今日の時点)を起点としたイベント発生までの時間を、1次元(時間軸上における線分の長さ)で表現し、その時間軸上に、(1)のように、発生確率の数値(テキストとしての数字)自体を表示するか、または、数値の大きさに応じた顔マーク等のアイコンを表示するか、(2)のように、数値の大きさに応じた色を表示するか、(3)のように、(1)と(2)を組み合わせてもよい。また、(4)のように、時間軸に直交する棒グラフの高さで表示するか、(5)のように、それぞれの区間の全域に渡り、時間軸に直交する方向の高さで表現してもよい。(5)の場合の横幅は、それぞれの区間についての区間長を示すが、面積は意味を持たず、従って、後述する図11中の(1)のように一様分布を仮定しているものではない。さらに、(6)のように、時間軸をカレンダに当て嵌め、カレンダ上に、発生確率の数値(テキストとしての数字)自体を表示するか、または、数値の大きさに応じた顔マーク等のアイコンを表示するか、あるいは、数値の大きさに応じた色を表示してもよい。   For example, as shown in FIG. 8, the time until the event occurrence starting from the current time (the time of score output, or the current time, or the current time when capturing by date) is one-dimensional (on the time axis). The length of the line segment) is displayed, and on the time axis, the numerical value of the probability of occurrence (number as text) itself is displayed as in (1), or a face corresponding to the size of the numerical value An icon such as a mark may be displayed, a color corresponding to the size of a numerical value may be displayed as in (2), or (1) and (2) may be combined as in (3). Also, it is displayed with the height of the bar graph orthogonal to the time axis as in (4), or is expressed as the height in the direction orthogonal to the time axis over the entire area as in (5). May be. The width in the case of (5) indicates the section length for each section, but the area has no meaning, and therefore assumes a uniform distribution as in (1) in FIG. 11 described later. is not. Furthermore, as shown in (6), the time axis is fitted to the calendar, and the occurrence probability value (number as text) is displayed on the calendar itself, or a face mark or the like corresponding to the size of the value is displayed. An icon may be displayed, or a color corresponding to the size of the numerical value may be displayed.

上記の(6)のカレンダ表示では、予兆時区間A3,A4と、カレンダの単位区間とで時間長が異なるので、予兆時区間A3,A4の確率を一様分布とみなし、同時刻のカレンダの単位区間の長さに応じて按分し(この例の場合は、均等に2分割、4分割)、カレンダの単位区間への割当を行っている。この割当処理の詳細は、図9を用いて後述する。   In the calendar display of (6) above, since the time lengths of the predictive time sections A3 and A4 are different from those of the calendar unit section, the probabilities of the predictive time sections A3 and A4 are regarded as a uniform distribution, and the calendar at the same time Allocation is performed according to the length of the unit section (in this example, it is equally divided into two and four), and the calendar is assigned to the unit section. Details of this allocation processing will be described later with reference to FIG.

また、上記の(6)のカレンダ表示では、図示のように、一般的なスケジュール情報(打合せ等)と併せて予兆検知結果を表示してもよい。この際、カレンダ上に、発生確率の数値の大きさに応じた色を表示する場合には、一般的なスケジュール情報と重畳的な表示(着色状態の区画に重ねて、一般的なスケジュール情報を表示する)を行ってもよい。なお、カレンダ上に予兆検知結果を表示する場合には、その予兆検知結果を表示する起点となる現在(スコア出力の時点)が、カレンダ上で将来方向に向かって移動していくことになるので、それに従って、予兆検知結果の表示部分も、将来方向に向かって移動していくことになる。従って、カレンダ上には、過ぎ去った時点が表示されていることになるが、その区間(現在よりも過去の区間)には、予兆検知結果の表示部分は、既に表示されていない状態となっていて、一般的なスケジュール情報だけが残されている状態となる。   In the calendar display of (6) above, the sign detection result may be displayed together with general schedule information (such as a meeting) as shown in the figure. At this time, when displaying a color according to the numerical value of the probability of occurrence on the calendar, the general schedule information is superimposed on the general schedule information (overlapping the colored section and the general schedule information is displayed). Display). In addition, when displaying the sign detection result on the calendar, the present (score output time) that is the starting point for displaying the sign detection result will move toward the future on the calendar. Accordingly, the display portion of the sign detection result also moves in the future direction. Therefore, although the past time is displayed on the calendar, the display portion of the sign detection result is not already displayed in the section (the section before the present). Thus, only general schedule information remains.

図9に示すように、カレンダ上にイベントの発生確率を表示する際には、上述したように、予兆検知結果を表示する起点となる現在(スコア出力の時点)が、カレンダ上で将来方向に向かって移動していくので、通常は、カレンダの単位区間(スケジュール記載のために設定されている最小単位の時間長の区間)と、予兆時区間とは、ずれている。予兆時区間を設定する際に、複数の予兆時区間の全ての時間長を、カレンダの単位区間の時間長と一致させたとしても、現在(スコア出力の時点)が移動するので、双方の区間が一致している状態(双方の区間の両端の区切り位置が一致している状態)であることは殆どない。双方の区間を常に一致させるとなると、スコア出力の時点を、カレンダの単位区間の区切り位置に合わせなければならないので、カレンダの単位区間の長さが1日であるとすれば、例えば、1日に1回しか予兆検知(スコア出力)を行わないことになる。   As shown in FIG. 9, when the event occurrence probability is displayed on the calendar, as described above, the current starting point for displaying the sign detection result (score output time) is the future direction on the calendar. Since it moves toward, usually, the calendar unit section (the section of the minimum unit time length set for schedule description) and the predictive time section are shifted. When setting the predictive time interval, even if all the time lengths of the multiple predictive time intervals are made to match the time length of the calendar unit interval, the current (score output time) moves, so both intervals Are in a state of matching (a state in which the separation positions at both ends of both sections match). If the two sections are always matched, the score output time must be matched with the break position of the calendar unit section. If the length of the calendar unit section is one day, for example, one day The sign detection (score output) is performed only once.

図9に示すように、出力手段70は、予兆検知器60から出力される各スコアを用いてイベントの発生確率をカレンダ上に表示する処理を実行するが、この際に、各スコア(各スコアで示される確率)を、カレンダの単位区間に割り当てる処理を実行する。この割当処理は、複数の予兆時区間のうちの少なくとも1つの予兆時区間(各予兆時区間の長さが不均一の場合があることを考慮している。)と、カレンダの単位区間との間で、時間長が一致しないか、または双方の区間が時間的にずれている場合に実行される。図9の例では、予兆時区間とカレンダの単位区間とで時間長が異なり、かつ、区間の両端の区切り位置が時間的にずれている。時間的なずれは、不動であるカレンダの単位区間に対し、各予兆時区間が移動するので、必然的に発生する。予兆時区間A6に対応するスコア(確率14%)を、A6内で一様分布とみなし、(T5〜C1)と(C1〜T6)の時間長に応じて按分し、(T5〜C1)の方の11%を、カレンダの4月10日の単位区間に割り当てるとともに、(C1〜T6)の方の3%を、カレンダの4月11日の単位区間に割り当てている。また、予兆時区間A7は、その全体が、カレンダの4月11日の単位区間内に収まっているので、A7のスコア(確率20%)の全部を、カレンダの4月11日の単位区間に割り当てている。さらに、予兆時区間A8に対応するスコア(確率15%)を、A8内で一様分布とみなし、(T7〜C2)と(C2〜T8)の時間長に応じて按分し、(T7〜C2)の方の5%を、カレンダの4月11日の単位区間に割り当てるとともに、(C2〜T8)の方の10%を、カレンダの4月12日の単位区間に割り当てている。   As shown in FIG. 9, the output means 70 executes a process of displaying the event occurrence probability on the calendar using each score output from the sign detector 60. At this time, each score (each score) is displayed. ) Is assigned to the calendar unit interval. This allocation process includes at least one predictive time interval (considering that the length of each predictive time interval may be uneven) among a plurality of predictive time intervals, and a calendar unit interval. This is executed when the time lengths do not coincide with each other or both sections are shifted in time. In the example of FIG. 9, the time length differs between the predictive time section and the calendar unit section, and the separation positions at both ends of the section are shifted in time. The time lag is inevitably generated because each predictive time section moves with respect to the unit section of the calendar that is not moving. The score (probability 14%) corresponding to the predictive time interval A6 is regarded as a uniform distribution within A6, and is prorated according to the time length of (T5 to C1) and (C1 to T6), and (T5 to C1) 11% is assigned to the unit section on April 10 of the calendar, and 3% of (C1 to T6) is assigned to the unit section on April 11 of the calendar. In addition, since the predictive time interval A7 is entirely within the calendar April 11 unit interval, the entire A7 score (probability 20%) is assigned to the calendar April 11 unit interval. Assigned. Further, the score (probability 15%) corresponding to the predictive time interval A8 is regarded as a uniform distribution within A8, and is distributed according to the time lengths of (T7 to C2) and (C2 to T8), and (T7 to C2 5% is assigned to the unit section of the calendar on April 11, and 10% of (C2 to T8) is assigned to the unit section of the calendar on April 12.

図10に示すように、時間軸上で表現する発生確率を、累積確率としてもよい。すなわち、前述した図8中の(4)では、時間軸に直交する棒グラフの高さで発生確率を示していたが、図10のように、累積確率を、例えば、棒グラフの高さで示してもよい。この際、表示する累積確率は、スコア出力が形式Aの場合(図4参照)には、既に詳述しているように、各予兆時区間A1,A2,…に対応するスコアを加算して積み上げていけばよく、スコア出力が形式Bの場合(図5参照)には、各予兆時区間B1,B2,…に対応するスコアをそのまま用いてもよく、あるいは矛盾除去加工処理を行ったスコアを用いてもよい。そして、このような累積確率の表示を行った場合には、各棒グラフの頂点を結んだ線の勾配が大きい区画が、発生確率の高い区画であり、図10の例では、予兆時区間A3の確率(50%)が一番高い。なお、説明の便宜上、形式A(図4参照)と、形式B(図5参照)とで、数値を対応させているが、同じ状態データを使って予兆検知を行ったとしても、このように数値が対応することは殆どない。   As shown in FIG. 10, the occurrence probability expressed on the time axis may be the cumulative probability. That is, in (4) in FIG. 8 described above, the occurrence probability is indicated by the height of the bar graph orthogonal to the time axis. However, as shown in FIG. 10, the cumulative probability is indicated by the height of the bar graph, for example. Also good. At this time, the cumulative probability to be displayed is obtained by adding the score corresponding to each of the predictive time intervals A1, A2,... When the score output is format A (see FIG. 4). If the score output is in the format B (see FIG. 5), the scores corresponding to the predictive time intervals B1, B2,... May be used as they are, or the scores obtained by performing the contradiction elimination processing May be used. When such cumulative probability is displayed, a section having a large slope of the line connecting the vertices of each bar graph is a section having a high occurrence probability. In the example of FIG. Probability (50%) is the highest. For convenience of explanation, numerical values are made to correspond in the format A (see FIG. 4) and the format B (see FIG. 5), but even if the sign detection is performed using the same state data, it is like this. The numerical values rarely correspond.

<発生確率を分布で表現する出力形式>   <Output format for expressing the probability of occurrence as a distribution>

前述した<発生確率を時間軸上で表現する出力形式>では、発生確率を、時間軸上の各点に分散配置されたデータ(離散的な分布データ)として表現していた。これに対し、発生確率を、確率密度関数による分布で表現する出力形式がある。なお、前述した図8中の(5)は、確率密度関数による分布のように見えるが、そうではないことは既に説明している。また、確率密度関数は、累積確率密度関数であってもよい(図13参照)。   In the above-described <output format for expressing the occurrence probability on the time axis>, the occurrence probability is expressed as data (discrete distribution data) distributed at each point on the time axis. On the other hand, there is an output format in which the occurrence probability is expressed by a distribution using a probability density function. Note that (5) in FIG. 8 described above looks like a distribution by a probability density function, but it has already been explained that this is not the case. The probability density function may be a cumulative probability density function (see FIG. 13).

この確率密度関数による分布の表現では、発生確率は面積で捉えられるので、各予兆時区画どうしの発生確率の大きさを比較する場合には、面積で考えて相対的な大小の度合いを認識することになるため、この点は、前述した<発生確率を時間軸上で表現する出力形式>において例えば棒グラフの高さ(線分の長さ)で考えて相対的な大小の度合いを認識する場合とは異なる。しかし、時間軸上のどのあたりの位置で、イベントの発生確率が高いのか(例えば、牛の分娩が起きそうな時期)は、前述した<発生確率を時間軸上で表現する出力形式>の場合と同様に、確率密度関数による分布で示される山の高さで認識することができる。   In the distribution expression by this probability density function, since the occurrence probability is captured by area, when comparing the occurrence probability of each predictive section, the relative size is recognized by considering the area. Therefore, this point is when the relative size is recognized in the above-mentioned <output format that expresses the probability of occurrence on the time axis>, for example, by considering the height (line length) of the bar graph. Is different. However, at which position on the time axis the occurrence probability of the event is high (for example, when cows are likely to be delivered) in the case of <output format that expresses the occurrence probability on the time axis> described above. Similarly, it can be recognized by the height of the mountain indicated by the distribution by the probability density function.

図11において、(1)の分布は、予兆時区間A1,A2,…のそれぞれを一様分布と仮定し、各予兆時区間A1,A2,…に対応するスコア(各スコアで示される確率)が、面積で示されるようにしている。換言すれば、このように表示された確率密度関数による分布を積分して面積を算出すると、確率になるようにしている。従って、前述した図8中の(5)と似ているように見えるが、異なる表現の出力形式である。   In FIG. 11, the distribution of (1) assumes that each of the predictive time sections A1, A2,... Is a uniform distribution, and scores corresponding to the predictive time sections A1, A2,. Is indicated by the area. In other words, if the area is calculated by integrating the distribution based on the probability density function thus displayed, the probability is obtained. Therefore, although it looks similar to (5) in FIG. 8, it is an output format of a different expression.

また、図11中の(2)の分布は、一様分布ではない分布(例えば、正規分布等)と仮定している。正規分布と仮定する場合には、例えば、T1(12時間後)〜T2(24時間後)の区間(予兆時区間A2)については、T1とT2との中央の時点(18時間後)を頂点とし、T1(12時間後)〜T2(24時間後)が、σ区間(σは標準偏差)となる正規分布であるものと仮定し、その他の区間も、同様な正規分布と仮定し、それらを加算して合成することにより、確率密度関数による全体的な分布を疑似的に作成する。この際、各予兆時区間A1,A2…の正規分布は、それらの面積の比が、各予兆時区間A1,A2…のスコア(確率)の比になるようにする。なお、ここでは、σ区間の外側の分布も含めて加算して合成するが、σ区間の外側の分布は採用せずに、各予兆時区間A1,A2…内だけの分布を連結してもよい。   Further, the distribution (2) in FIG. 11 is assumed to be a non-uniform distribution (for example, a normal distribution). When assuming a normal distribution, for example, for the section from T1 (after 12 hours) to T2 (after 24 hours) (predictive time section A2), the central time point between T1 and T2 (after 18 hours) is the apex. And T1 (after 12 hours) to T2 (after 24 hours) are assumed to be a normal distribution with a σ interval (σ is a standard deviation), and the other intervals are assumed to have a similar normal distribution. Are added together to synthesize the pseudo distribution of the overall distribution based on the probability density function. At this time, the normal distribution of each predictor time interval A1, A2,... Is such that the ratio of the areas thereof is the ratio of the scores (probabilities) of each predictor time interval A1, A2. In addition, although the distribution outside the σ interval is also added and combined here, the distribution outside the σ interval is not adopted, and distributions only in the predictive time intervals A1, A2,. Good.

また、出力手段70は、このように各区間の分布を仮定して確率密度関数による全体的な分布を疑似的に作成する場合には、予め複数種類の分布を用意しておき、複数の予兆時区間の確率分布を合成または連結した状態の確率分布曲線についての局所的な勾配変化が、最小となるか、または予め定められた閾値以下若しくは未満となる分布を選択する処理を実行するようにしてもよい。   In addition, the output unit 70 prepares a plurality of types of distributions in advance in a case where the overall distribution based on the probability density function is created in a pseudo manner assuming the distribution of each section in this way. A process of selecting a distribution in which the local gradient change of the probability distribution curve in a state where the probability distributions of the time intervals are combined or connected is minimized or less than or less than a predetermined threshold is executed. May be.

ここで、「局所的な勾配変化」とは、予め定められた短時間(単位時間でもよい。)内の勾配の変化であり、確率分布曲線に極端な凹凸部分(尖った部分)が生じると、この勾配変化は大きくなるため、出力手段70は、極端な凹凸が無いか、または少なくなる分布を選択することになる。選択対象の分布は、例えば、正規分布、パレート分布等であり、予め用意された分布である。なお、ここでは、正規分布の1σ区間を各予兆時区間に当て嵌める分布と、正規分布の2σ区間を各予兆時区間に当て嵌める分布とは、異なる分布として捉えるので、例えば、0.8σ,1σ,1.5σ,2σ,…等の分布が用意されている。   Here, the “local gradient change” is a change in gradient within a predetermined short time (may be unit time), and an extreme uneven portion (pointed portion) occurs in the probability distribution curve. Since the gradient change becomes large, the output means 70 selects a distribution that has no or very few extreme irregularities. The distribution to be selected is, for example, a normal distribution, a Pareto distribution, or the like, and is a distribution prepared in advance. Here, since the distribution in which the 1σ section of the normal distribution is applied to each predictor time section and the distribution in which the 2σ section of the normal distribution is applied to each predictor time section are regarded as different distributions, for example, 0.8σ, Distributions such as 1σ, 1.5σ, 2σ,... Are prepared.

さらに、出力手段70は、イベントの発生時期について事前に予測または予定した事前情報(例えば、牛の出産予定日等)を反映させた予兆検知結果の出力処理も実行する。この事前情報は、事前情報記憶手段71(図1参照)に記憶されている。   Furthermore, the output unit 70 also executes an output process of the sign detection result reflecting the prior information (for example, the expected date of cattle birth) predicted or scheduled in advance for the event occurrence time. This advance information is stored in advance information storage means 71 (see FIG. 1).

すなわち、出力手段70は、事前情報記憶手段71に記憶された事前情報を用いて作成されるイベント発生の確率分布と、予兆検知器60から出力される各スコアを用いて作成されるイベント発生の確率分布とを合成した合成分布を表示する処理を実行する。   In other words, the output unit 70 generates event occurrences created using the probability distribution of event occurrences created using the prior information stored in the prior information storage unit 71 and the scores output from the sign detector 60. A process of displaying a combined distribution obtained by combining the probability distribution is executed.

また、出力手段70は、事前情報記憶手段71に記憶された事前情報(事前情報から自動生成される情報である場合を含む。)を、予兆特徴抽出器50からの特徴データとともに予兆検知器60に入力することにより予兆検知器60から出力される各スコアを用いて作成される合成分布を表示する処理を実行してもよい。ここで、事前情報から自動生成される情報とは、例えば、牛の出産予定日が事前情報である場合には、牛の出産予定日までの日数等である。なお、このようなスコア出力については、<予兆検知器60の構成>で詳述しているので、ここでは説明を省略する。   Further, the output means 70 uses the advance information stored in the advance information storage means 71 (including information automatically generated from the advance information) together with the feature data from the predictive feature extractor 50 as the sign detector 60. May be executed to display a composite distribution created using each score output from the sign detector 60. Here, the information automatically generated from the advance information is, for example, the number of days until the expected delivery date of the cow when the expected delivery date of the cow is advance information. Since the score output is described in detail in <Configuration of the sign detector 60>, description thereof is omitted here.

前者の場合は、事前情報に基づく確率分布と、予兆検知器60からの出力スコアに基づく確率分布とが別々に作成され、出力手段70により合成されるのに対し、後者の場合は、出力手段70が、予兆検知器60からの出力スコアを用いて各種の出力形式での出力処理を行うという観点では、事前情報を反映しない場合の出力処理と同じである。従って、以下では、前者の場合について説明する。   In the former case, the probability distribution based on the prior information and the probability distribution based on the output score from the sign detector 60 are created separately and synthesized by the output means 70, whereas in the latter case, the output means 70 is the same as the output process when the prior information is not reflected from the viewpoint of performing the output process in various output formats using the output score from the sign detector 60. Therefore, the former case will be described below.

図12に示すように、事前情報に基づく確率分布は、動かないのに対し、予兆検知器60からの出力スコアに基づく確率分布は、時間の経過に伴って将来方向に移動する。イベントの発生時期(例えば、牛の出産予定日等)から遠い時期Tnow(1)では、出力スコア(発生確率)は、ゼロまたは略ゼロである。しかし、イベントの発生時期が近づいてくると、各スコアの数値が大きくなり、各スコアに基づく確率分布が作成されるようになる。現在(スコア出力の時点)の位置が、Tnow(2)からTnow(3)のように移動すると、状態データが変化するので、各スコアに基づく確率分布の形状は変化する。従って、事前情報に基づく確率分布と、各スコアに基づく確率分布との合成分布の形状も変化する。   As shown in FIG. 12, the probability distribution based on the prior information does not move, whereas the probability distribution based on the output score from the predictive detector 60 moves in the future direction with the passage of time. At the time Tnow (1) far from the event occurrence time (for example, the expected date of birth of the cow), the output score (occurrence probability) is zero or substantially zero. However, as the event occurrence time approaches, the numerical value of each score increases, and a probability distribution based on each score is created. When the current position (at the time of score output) moves from Tnow (2) to Tnow (3), the state data changes, so the shape of the probability distribution based on each score changes. Accordingly, the shape of the combined distribution of the probability distribution based on the prior information and the probability distribution based on each score also changes.

事前情報に基づく確率分布は、例えば、正規分布等で仮定されている。経験上または統計上、得られている情報等から、適切な分布を選択し、予め用意しておく。この事前情報に基づく確率分布は、カレンダの単位区間に従って、予めデータを離散化しておけば、各スコアに基づく確率分布と容易に合成することができ、カレンダ上への合成分布の表示が可能となる。例えば、前述した図8の(6)の例では、事前情報に基づく確率分布を、12時間(各日の午前、午後)を単位区間とするカレンダに合うように離散化し、何月何日の午前の確率、何月何日の午後の確率等のように離散化されたデータを、予め算出して事前情報記憶手段71に記憶しておく。   The probability distribution based on prior information is assumed to be a normal distribution, for example. An appropriate distribution is selected from information obtained from experience or statistics, and prepared in advance. The probability distribution based on this prior information can be easily combined with the probability distribution based on each score if the data is previously discretized according to the calendar unit interval, and the combined distribution can be displayed on the calendar. Become. For example, in the example of FIG. 8 (6) described above, the probability distribution based on the prior information is discretized so as to fit a calendar having a unit interval of 12 hours (morning and afternoon of each day). Discretized data such as the probability of the morning, the probability of the afternoon of the month, and the like is calculated in advance and stored in the prior information storage means 71.

事前情報に基づく確率分布と、各スコアに基づく確率分布との合成分布を作成する際には、例えば、重み付き相加平均や相乗平均を用いることができる。事前情報に基づく確率分布(時間軸上の各時点のデータ)をPdとし、各スコアに基づく確率分布(時間軸上の各時点のデータ)をPeとし、αを相乗平均の重み、βを相加平均の重み、γを相乗平均と相加平均との間の重みとすると、次の式により、合成分布(時間軸上の各時点のデータ)Pmを算出することができる。   When creating a composite distribution of a probability distribution based on prior information and a probability distribution based on each score, for example, a weighted arithmetic mean or a geometric mean can be used. The probability distribution based on prior information (data at each time point on the time axis) is Pd, the probability distribution based on each score (data at each time point on the time axis) is Pe, α is the weight of the geometric mean, and β is the phase When the weight of the arithmetic mean and γ is the weight between the geometric mean and the arithmetic mean, the composite distribution (data at each time point on the time axis) Pm can be calculated by the following equation.

Pm=γ×{Pdα×Pe(1−α)}+(1−γ){β×Pd+(1−β)×Pe} Pm = [gamma] * {Pd [ alpha] * Pe (1- [alpha]) } + (1- [gamma]) {[beta] * Pd + (1- [beta]) * Pe}.

ここで、α=1の場合は、事前情報に基づく確率分布しか考慮しない状態となり、α=0の場合は、各スコアに基づく確率分布しか考慮しない状態となる。   Here, when α = 1, only a probability distribution based on prior information is considered, and when α = 0, only a probability distribution based on each score is considered.

カレンダ上への合成分布の表示処理を行う際には、上記の式に従って、カレンダの単位区間毎に、合成後の確率のデータを算出する。この際、カレンダの単位区間と、各予兆時区間とが、一致していない場合(時間長の相違や、時間的なずれがある場合)には、前述した図9の処理を実行する。   When performing the process of displaying the composite distribution on the calendar, the composite probability data is calculated for each calendar unit section according to the above equation. At this time, if the calendar unit section and each predictive time section do not match (when there is a difference in time length or a time difference), the above-described processing of FIG. 9 is executed.

図13に示すように、スコア出力が形式B(図5参照)である場合において、イベントの発生確率を、累積分布で表現する出力形式としてもよい。形式Bの場合は、各予兆時区間B1〜BNに重なりがあるので、累積分布を作成する際には、重なっている区間の取り扱いの処理が必要となる。例えば、予兆時区間B1については、自分よりも短い予兆時区間は無いが、予兆時区間B2については、自分よりも短い予兆時区間B1があり、同様に、予兆時区間B3については、自分よりも短い予兆時区間B1,B2があり、予兆時区間B4については、自分よりも短い予兆時区間B1,B2,B3があるので、自分よりも短い予兆時区間と重なっている区間についての取り扱いの処理が必要となる。   As shown in FIG. 13, when the score output is in the format B (see FIG. 5), the event occurrence probability may be an output format that expresses the cumulative distribution. In the case of the format B, there is an overlap in each of the predictive time sections B1 to BN. Therefore, when creating a cumulative distribution, it is necessary to handle the overlapping sections. For example, for the predictive time section B1, there is no predictive time section shorter than the self, but for the predictive time section B2, there is a predictive time section B1 shorter than the self, and similarly, for the predictive time section B3, There are also short predictive time sections B1 and B2, and for the predictive time section B4, there are predictive time sections B1, B2 and B3 shorter than oneself. Processing is required.

スコア出力が形式A(図4参照)の場合には、区間に重なりがないので、全ての予兆時区間A1〜ANを一様分布とみなしても矛盾が生じることはない。しかし、スコア出力が形式B(図5参照)の場合には、自分よりも短い予兆時区間に対応するスコアが存在するので、それを考慮することなく自分の分布を仮定すると、矛盾(累積分布であるにもかかわらず、途中で値が減少するという矛盾)を生じる可能性がある。自分よりも短い各予兆時区間も、それぞれ一様分布に近ければ、矛盾が生じない場合もあるが、例えば、自分よりも短い予兆時区間のいずれかに、明確な発生確率のピークがあるような場合において、そのことを考慮せずに、自分を一様分布と仮定してしまうと、矛盾を生じる可能性が高い。従って、このような矛盾を回避し、滑らかな累積分布を表示するために、出力手段70は、以下の処理を実行する。   When the score output is in the format A (see FIG. 4), there is no overlap between the sections, so that no contradiction occurs even if all the predictive time sections A1 to AN are regarded as a uniform distribution. However, when the score output is in the format B (see FIG. 5), there is a score corresponding to the predictive time interval shorter than that of the self, so if one's own distribution is assumed without considering it, a contradiction (cumulative distribution) Despite this, there is a possibility that a contradiction that the value decreases in the middle). Each predictive time interval shorter than yourself may be consistent if it is close to a uniform distribution. For example, there is a clear peak in the probability of occurrence in one of the predictive time intervals shorter than you. In such a case, it is highly possible that a contradiction will occur if one assumes a uniform distribution without considering that fact. Therefore, in order to avoid such a contradiction and display a smooth cumulative distribution, the output unit 70 executes the following processing.

先ず、スコア出力が形式B(図5参照)である場合において、出力手段70は、複数の予兆時区間の各々の確率分布またはその累積分布を、予め用意された複数種類の分布のうちのいずれかを用いて疑似的に作成するが、この際に、自分よりも短い時間長の予兆時区間に対応するスコアを用いて、自分の確率分布またはその累積分布を作成するために使用する分布を選択する処理を実行する。   First, when the score output is in the format B (see FIG. 5), the output means 70 selects the probability distribution of each of the plurality of predictive time intervals or the cumulative distribution thereof from any of a plurality of types of distributions prepared in advance. In this case, the distribution used to create one's probability distribution or its cumulative distribution using the score corresponding to the predictive time interval with a shorter time length than one's own is used. Execute the process to select.

例えば、正規分布またはその累積分布、パレート分布またはその累積分布等のように、複数種類の分布を予め用意しておく。そして、例えば、予兆時区間B4に用いる確率分布またはその累積分布を決定する際には、予兆時区間B4(自分)よりも時間長の短い予兆時区間B3に対応するスコア、または、予兆時区間B1,B2,B3に対応するスコアの全部を用いて、予め用意された複数種類の分布の中から、採用する分布を決定する。同様に、予兆時区間B3については、予兆時区間B3(自分)よりも時間長の短い予兆時区間B2に対応するスコア、または、予兆時区間B1,B2に対応するスコアの双方を用い、予兆時区間B2については、予兆時区間B2(自分)よりも時間長の短い予兆時区間B1に対応するスコアを用いて、採用する分布を決定する。なお、予兆時区間B1については、自分よりも短い予兆時区間が無いので、一様分布や正規分布またはそれらの累積分布とする等、採用する分布を予め定められたものとしてもよい。   For example, a plurality of types of distributions such as a normal distribution or a cumulative distribution thereof, a Pareto distribution or a cumulative distribution thereof, and the like are prepared in advance. For example, when determining the probability distribution used for the predictor time interval B4 or its cumulative distribution, the score corresponding to the predictor time interval B3 having a shorter time length than the predictor time interval B4 (self), or the predictor time interval A distribution to be adopted is determined from a plurality of types of distributions prepared in advance using all the scores corresponding to B1, B2, and B3. Similarly, for the predictive time interval B3, both the score corresponding to the predictive time interval B2 having a shorter time length than the predictive time interval B3 (self) or the scores corresponding to the predictive time intervals B1 and B2 are used. For the time interval B2, the distribution to be adopted is determined using the score corresponding to the predictive time interval B1 having a shorter time length than the predictive time interval B2 (self). In addition, since there is no predictive time interval shorter than the predictive time interval B1, the distribution to be adopted may be determined in advance, such as a uniform distribution, a normal distribution, or a cumulative distribution thereof.

矛盾が発生しないように分布を選択するので、例えば、予兆時区間B4の分布の選択のときには、T3時点での累積分布の値が、予兆時区間B3に対応するスコアの値(図13の例では、80%)を下回らないように選択する。同様に、予兆時区間B3の分布の選択のときには、T2時点での累積分布の値が、予兆時区間B2に対応するスコアの値(図13の例では、30%)を下回らないように選択する。予兆時区間B2の分布の選択のときには、T1時点での累積分布の値が、予兆時区間B1に対応するスコアの値(図13の例では、10%)を下回らないように選択する。   Since the distribution is selected so that no contradiction occurs, for example, when the distribution of the predictor time interval B4 is selected, the value of the cumulative distribution at time T3 is the score value corresponding to the predictor time interval B3 (example in FIG. 13). Then, select not to be less than 80%). Similarly, when selecting the distribution of the sign time interval B3, select so that the cumulative distribution value at the time T2 does not fall below the score value corresponding to the sign time interval B2 (30% in the example of FIG. 13). To do. When selecting the distribution of the predictor time interval B2, the value of the cumulative distribution at the time point T1 is selected so as not to fall below the score value (10% in the example of FIG. 13) corresponding to the predictor time interval B1.

また、各予兆時区間B1〜B4の累積分布を合成して全体的な累積分布(Tnow〜T4の全区間に渡る累積分布)を作成する際には、重なっている区間(図13の例では、(Tnow〜T1)、(T1〜T2)、(T2〜T3)の3つの区間である。)について、所定の比率でそれぞれの分布を合成する処理を実行する。所定の比率には、ゼロも含まれるので、大別すると、次の2通りの処理となる。   In addition, when an overall cumulative distribution (cumulative distribution over all sections from Tnow to T4) is created by synthesizing the cumulative distributions of the predictive time sections B1 to B4, overlapping sections (in the example of FIG. 13). , (Tnow to T1), (T1 to T2), and (T2 to T3)), a process of combining the respective distributions at a predetermined ratio is executed. Since the predetermined ratio includes zero, it is roughly divided into the following two processes.

第1の処理は、重なっている区間については、最も短い予兆時区間に対応するスコアを用いて疑似的に作成されるイベント発生の確率分布またはその累積分布を採用し、それ以外の予兆時区間に対応するスコアを用いて疑似的に作成されるイベント発生の確率分布またはその累積分布は採用しない処理である。   The first process adopts a probability distribution of event occurrence or its cumulative distribution that is created in a pseudo manner using a score corresponding to the shortest predictive time interval for overlapping intervals, and other predictive time intervals This is a process that does not adopt a probability distribution of event occurrence or its cumulative distribution that is created in a pseudo manner using a score corresponding to.

この第1の処理は、図13の例では、(Tnow〜T1)の区間については、4つの予兆時区間B1〜B4のうち、最も短い予兆時区間B1の分布を採用し、(T1〜T2)の区間については、3つの予兆時区間B2〜B4のうち、最も短い予兆時区間B2の分布を採用し、(T2〜T3)の区間については、2つの予兆時区間B3,B4のうち、短い方の予兆時区間B3の分布を採用する。従って、予兆時区間B4については、(Tnow〜T3)の分布を捨て(採用せず)、(T3〜T4)の分布だけを採用し、予兆時区間B3については、(Tnow〜T2)の分布を捨て(採用せず)、(T2〜T3)の分布だけを採用し、予兆時区間B2については、(Tnow〜T1)の分布を捨て(採用せず)、(T1〜T2)の分布だけを採用し、予兆時区間B1については、全部の分布を採用する。   In the example of FIG. 13, the first process adopts the distribution of the shortest predictive time section B1 among the four predictive time sections B1 to B4 for the section (Tnow to T1), and (T1 to T2). ), The distribution of the shortest predictive time section B2 among the three predictive time sections B2 to B4 is adopted, and for the section (T2 to T3), of the two predictive time sections B3 and B4, The distribution of the shorter sign time interval B3 is adopted. Accordingly, the distribution of (Tnow to T3) is discarded (not adopted) for the predictive time section B4, and only the distribution of (T3 to T4) is adopted, and the distribution of (Tnow to T2) is used for the predictive time section B3. Is discarded (not adopted), only the distribution of (T2 to T3) is adopted, and for the predictive time interval B2, the distribution of (Tnow to T1) is discarded (not adopted), and only the distribution of (T1 to T2) is adopted. And the entire distribution is adopted for the predictive time interval B1.

第2の処理は、重なっている区間については、それぞれの予兆時区間に対応するスコアを用いて疑似的に作成されるイベント発生の確率分布またはその累積分布を、予め定められた割合で合成する処理を実行する。   In the second process, for overlapping sections, a probability distribution of event occurrences or a cumulative distribution thereof that are artificially created using the scores corresponding to the respective predictive time sections are synthesized at a predetermined ratio. Execute the process.

この第2の処理は、図13の例では、(Tnow〜T1)の区間については、4つの予兆時区間B1〜B4の分布のデータH11,H12,H13,H14を、合成率M11,M12,M13,M14の割合で採用し(M11,M12,M13,M14の合計は、100%、すなわち1である。)、それらを合計する。また、(T1〜T2)の区間については、3つの予兆時区間B2〜B4の分布のデータH22,H23,H24を、合成率M22,M23,M24の割合で採用し(M22,M23,M24の合計は、100%、すなわち1である。)、それらを合計する。さらに、(T2〜T3)の区間については、2つの予兆時区間B3,B4の分布のデータH33,H34を、合成率M33,M34の割合で採用し(M33,M34の合計は、100%、すなわち1である。)、それらを合計する。なお、合計した結果、矛盾(合計を行った当該区間からその右側の区間へ移ったときに、累積確率が減ってしまうという矛盾)が生じる場合には、その合計を行った当該区間において、分布を圧縮(当該区間の全体に渡り、同じ係数を乗じる。)してもよく、合成率を変更してもよい。   In the second process, in the example of FIG. 13, the distribution data H11, H12, H13, and H14 of the distribution of the four predictive time periods B1 to B4 are combined into the synthesis rates M11, M12, Adopted at a ratio of M13 and M14 (the sum of M11, M12, M13 and M14 is 100%, ie, 1), and they are summed. For the section (T1 to T2), the distribution data H22, H23, and H24 of the three predictive time sections B2 to B4 are adopted at the ratios of the synthesis rates M22, M23, and M24 (M22, M23, and M24). The sum is 100%, i.e. 1). Further, for the section (T2 to T3), the distribution data H33 and H34 of the two predictive time sections B3 and B4 are adopted at the ratio of the synthesis rates M33 and M34 (the total of M33 and M34 is 100%, I.e., 1), summing them. As a result of the summation, if there is a contradiction (a contradiction that the cumulative probability decreases when moving from the relevant section where the summation is performed to the right-hand section), the distribution in the section where the summation is performed May be compressed (multiplied by the same coefficient over the entire section), or the synthesis rate may be changed.

また、スコア出力が形式B(図5参照)である場合において、カレンダ上に発生確率を表示する際には、上記の合成により矛盾(累積確率が途中で減ってしまうという矛盾)のないように作成した累積分布を用いて、カレンダの単位区間に割り当てる確率を算出することができる。例えば、カレンダの4月22日の単位区間に対しては、累積分布のHC2の値(確率)からHC1の値(確率)を引いた差分値(HC2−HC1)%を割り当て、4月23日の単位区間に対しては、累積分布のHC3の値(確率)からHC2の値(確率)を引いた差分値(HC3−HC2)%を割り当てることができる。   Further, when the score output is in the format B (see FIG. 5), when the occurrence probability is displayed on the calendar, there is no contradiction (a contradiction that the cumulative probability is reduced halfway) by the above synthesis. Using the created cumulative distribution, it is possible to calculate the probability assigned to the calendar unit interval. For example, for the unit interval on April 22 of the calendar, a difference value (HC2−HC1)% obtained by subtracting the value (probability) of HC1 from the value (probability) of HC2 in the cumulative distribution is assigned. A difference value (HC3−HC2)% obtained by subtracting the value (probability) of HC2 from the value (probability) of HC3 in the cumulative distribution can be assigned to the unit interval.

なお、スコア出力が形式B(図5参照)である場合において、カレンダ上に発生確率を表示する際には、上記の合成により矛盾のない累積分布を作成する処理を行うことなく、つまり、矛盾の発生の有無を考慮することなく、全ての予兆時区間B1〜B4がそれぞれ一様分布であるものとみなし、カレンダの単位区間に割り当てる確率を算出してもよい。例えば、(Tnow〜T4)に対応する予兆時区間B4のスコア(確率)=90%であれば、区間の長さに応じ、この90%を割り振って、(Tnow〜T1)の確率=11.25%、(T1〜T2)の確率=11.25%、(T2〜T3)の確率=22.5%、(T3〜T4)の確率=45%とし、このうち、区間の重なりのない(T3〜T4)の確率=45%を採用し、図9に示した処理により、カレンダの単位区間に割り当ててもよい。但し、(T3〜T4)の確率=45%という数値は、明確な発生確率のピークが、それよりも前の他の区間(例えば(T2〜T3)の区間)にあった場合には、矛盾を生じる可能性が高い。   When the score output is in the format B (see FIG. 5), when the occurrence probability is displayed on the calendar, the process of creating a consistent cumulative distribution by the above synthesis is not performed, that is, the contradiction. Without considering the presence or absence of occurrence, it is considered that all the predictive time sections B1 to B4 have a uniform distribution, and the probability assigned to the calendar unit section may be calculated. For example, if the score (probability) of the predictive time section B4 corresponding to (Tnow to T4) = 90%, the 90% is allocated according to the length of the section, and the probability of (Tnow to T1) = 11.1. 25%, probability of (T1 to T2) = 11.25%, probability of (T2 to T3) = 22.5%, probability of (T3 to T4) = 45%, of which there is no overlap of sections ( The probability of T3 to T4) = 45% may be adopted and assigned to the calendar unit interval by the process shown in FIG. However, the numerical value of (T3 to T4) probability = 45% is contradictory when there is a clear peak in the probability of occurrence in another section before that (for example, section (T2 to T3)). Is likely to occur.

また、(Tnow〜T3)に対応する予兆時区間B3のスコア(確率)=80%であれば、区間の長さに応じ、この80%を割り振って、(Tnow〜T1)の確率=20%、(T1〜T2)の確率=20%、(T2〜T3)の確率=40%とし、このうち、(T2〜T3)の確率=40%を採用するか、あるいは、(T2〜T3)の確率=40%に合成率M33を乗じた値と、上述した予兆時区間B4のスコア(確率)=90%から求めた(T2〜T3)の確率=22.5%に合成率M34を乗じた値とを合計した値を採用してもよい。但し、このような処理は、矛盾を生じる可能性があることに加え、各区間の確率の合計値が100%を超えてしまうことがあるので、合計値を100%以内にするための更なる調整処理(例えば、採用した各区間の確率に、更に、一定の係数を乗じる処理等)が必要となる。従って、一様分布とみなす処理ではなく、図13に示すように、矛盾のない累積分布を作成し、作成した累積分布を用いて、カレンダの単位区間に割り当てる確率を算出することが好ましい。   Also, if the score (probability) of the predictive time interval B3 corresponding to (Tnow to T3) = 80%, the probability of (Tnow to T1) = 20% is allocated according to the length of the interval. The probability of (T1 to T2) = 20%, the probability of (T2 to T3) = 40%, and the probability of (T2 to T3) = 40% is adopted, or (T2 to T3) Probability = 40% multiplied by the composite rate M33, and the probability (T2 to T3) = 22.5% obtained from the score (probability) = 90% of the predictive time interval B4 described above was multiplied by the composite rate M34. You may employ | adopt the value which totaled the value. However, in addition to the possibility of inconsistency in such processing, the total value of the probability of each section may exceed 100%. Adjustment processing (for example, processing for multiplying the probability of each adopted section by a certain coefficient, etc.) is required. Therefore, it is preferable to create a cumulative distribution with no contradiction as shown in FIG. 13 and calculate the probability to be assigned to the calendar unit section, as shown in FIG.

なお、上述した合計値を100%以内にするための更なる調整処理とは、例えば、予兆時区間B4のスコア(確率)=90%のうちの(T3〜T4)の確率=45%と、予兆時区間B3のスコア(確率)=80%のうちの(T2〜T3)の確率=40%と、予兆時区間B2のスコア(確率)=30%のうちの(T1〜T2)の確率=15%と、予兆時区間B1のスコア(確率)=10%とを合計し、110%になった場合には、それぞれの確率に、90%/110%を乗じて36.82%、32.73%、12.27%、8.18%とし、合計を90%にする処理等である。合計を90%に調整するのは、最も長い予兆時区間B4のスコアに合わせているものである。   In addition, the further adjustment process for making the total value within 100% is, for example, the probability (T3 to T4) of the score (probability) = 90% of the predictive time interval B4 = 45%, Score (probability) of predictor time interval B3 = probability of (T2 to T3) = 80% out of 80% and score (probability) of predictor time interval B2 = probability of (T1 to T2) out of 30% = 15% and the score (probability) of the predictive time interval B1 = 10%, and when it becomes 110%, each probability is multiplied by 90% / 110% to 36.82%, 32. 73%, 12.27%, 8.18%, and the total is 90%. The total is adjusted to 90% in accordance with the score of the longest predictive time interval B4.

<データ収集装置80の構成>   <Configuration of Data Collection Device 80>

データ収集装置80は、1台または複数台のコンピュータ(サーバ)により構成され、データベースマネジメントシステム(DBMS)の機能を有するデータ収集手段81と、データベース82とを備えて構成されている。データベース82には、予兆特徴抽出器50の入出力データを記憶する予兆特徴抽出器入出力データ記憶手段83と、予兆検知器60の入出力データを記憶する予兆検知器入出力データ記憶手段84とを含んでいる。   The data collection device 80 includes one or a plurality of computers (servers), and includes a data collection unit 81 having a database management system (DBMS) function and a database 82. The database 82 includes a predictive feature extractor input / output data storage means 83 for storing input / output data of the predictive feature extractor 50, and a predictor detector input / output data storage means 84 for storing input / output data of the predictive detector 60. Is included.

ここで、データ収集手段81は、データ収集装置80を構成するコンピュータ本体の内部に設けられた中央演算処理装置(CPU)、およびこのCPUの動作手順を規定する1つまたは複数のプログラムにより実現される。また、データベース82は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)等により実現される。   Here, the data collection means 81 is realized by a central processing unit (CPU) provided in the computer main body constituting the data collection device 80 and one or a plurality of programs that define the operation procedure of this CPU. The The database 82 is realized by, for example, a hard disk drive (HDD), a solid state drive (SSD), or the like.

予兆特徴抽出器入出力データ記憶手段83には、予兆検知処理装置30の出力手段70によりネットワーク1を介して送信されてくるデータ、すなわち、前段の予兆特徴抽出器50に入力された状態データ(付加された時刻情報および機器識別情報を含む。)、および予兆特徴抽出器50の最終層(出力層)の出力データ(尤度)が記憶される。これらの状態データのうち、特に判別結果が明確でない状態データ(特定の状態であることの確からしさを示す尤度と、特定の状態でないことの確からしさを示す尤度との差分が小さい状態データ)、または、全部の状態データについて、クラウドソーシングによるタグ付け作業(特定の状態であるか、ないかについての人による判断作業)が行われ、予兆特徴抽出器入出力データ記憶手段83には、そのクラウドソーシングによる作業結果であるタグ情報も、状態データに関連付けて記憶される。そして、クラウドソーシングが行われた状態データおよびそのタグ情報は、学習装置90の予兆特徴抽出器用学習手段91による学習処理に利用される。   In the predictive feature extractor input / output data storage means 83, data transmitted via the network 1 by the output means 70 of the predictive detection processing device 30, that is, state data input to the preceding predictive feature extractor 50 ( Added time information and device identification information), and output data (likelihood) of the final layer (output layer) of the predictive feature extractor 50 are stored. Among these state data, state data in which the determination result is not particularly clear (state data in which the difference between the likelihood indicating the certainty of the specific state and the likelihood indicating the certainty not being the specific state is small ) Or tagging work by crowdsourcing (judgment work by a person as to whether or not it is in a specific state) is performed on all the state data, and the predictive feature extractor input / output data storage means 83 includes: Tag information that is a work result of the crowdsourcing is also stored in association with the state data. Then, the state data subjected to crowdsourcing and the tag information thereof are used for learning processing by the sign feature extractor learning unit 91 of the learning device 90.

予兆検知器入出力データ記憶手段84には、予兆検知処理装置30の出力手段70によりネットワーク1を介して送信されてくるデータ、すなわち、後段の予兆検知器60に入力された特徴データ、および予兆検知器60から出力されたスコアが記憶される。実際にイベントが発生すると、その発生時刻に関する情報が、ユーザによりユーザ端末120からフィードバックされて送信されてくるか、またはユーザからその旨の伝達を受けたシステムの管理者により管理者端末130から送信されてくるので、特徴データについて、実際の発生時刻に関する情報に基づいてタグ付け作業(特徴データが、非着目区間または複数の予兆時区間のいずれに属する時点で抽出されたものなのかの自動判定作業)が行われ、予兆検知器入出力データ記憶手段84には、そのフィードバックによるタグ情報も、特徴データに関連付けて記憶される。そして、フィードバックが行われた特徴データおよびそのタグ情報は、学習装置90の予兆検知器用学習手段92による学習処理に利用される。   In the sign detector input / output data storage means 84, data transmitted via the network 1 by the output means 70 of the sign detection processing apparatus 30, that is, feature data input to the sign detector 60 in the subsequent stage, and sign The score output from the detector 60 is stored. When an event actually occurs, information about the time of occurrence of the event is fed back and transmitted from the user terminal 120 by the user, or transmitted from the administrator terminal 130 by the system administrator who has received the notification from the user. Therefore, feature data is automatically tagged based on information about the actual time of occurrence (automatic determination of whether the feature data was extracted at a time point belonging to a non-target interval or multiple predictive time intervals) In the sign detector input / output data storage means 84, tag information based on the feedback is also stored in association with the feature data. The feature data to which the feedback is performed and the tag information thereof are used for the learning process by the sign detector learning unit 92 of the learning device 90.

<学習装置90の構成>   <Configuration of learning device 90>

学習装置90は、1台または複数台のコンピュータ(サーバ)により構成され、予兆特徴抽出器用学習手段91と、予兆検知器用学習手段92とを備えて構成されている。ここで、各学習手段91,92は、学習装置90を構成するコンピュータ本体の内部に設けられた中央演算処理装置(CPU)、およびこのCPUの動作手順を規定する1つまたは複数のプログラムにより実現される。   The learning device 90 includes one or a plurality of computers (servers), and includes a sign feature extractor learning unit 91 and a sign detector learn unit 92. Here, each of the learning means 91 and 92 is realized by a central processing unit (CPU) provided inside the computer main body constituting the learning device 90 and one or a plurality of programs that define the operation procedure of this CPU. Is done.

予兆特徴抽出器用学習手段91は、データ収集装置80の予兆特徴抽出器入出力データ記憶手段83に記憶された状態データおよびそのタグ情報を用いて、予兆特徴抽出器50用の学習処理を実行することにより、新たに予兆特徴抽出モデル(CNNのパラメータ等)を作成し、作成したモデルで、予兆特徴抽出モデル記憶手段52に記憶された予兆特徴抽出モデルを更新する処理を実行するものである。この予兆特徴抽出器用学習手段91による学習処理は、クラウドソーシングにより、ある程度の量の学習用のデータが用意できた時点で実行するので、クラウドソーシングの実行タイミング(例えば、1週間置き、1ケ月置き等)と同じタイミングで実行すればよい。   The sign feature extractor learning unit 91 executes the learning process for the sign feature extractor 50 using the state data and tag information stored in the sign feature extractor input / output data storage unit 83 of the data collection device 80. Thus, a predictive feature extraction model (CNN parameter or the like) is newly created, and a process of updating the predictive feature extraction model stored in the predictive feature extraction model storage unit 52 with the created model is executed. The learning process by the predictive feature extractor learning unit 91 is executed when a certain amount of learning data is prepared by crowdsourcing, so the execution timing of crowdsourcing (for example, every other week, every other month) Etc.).

予兆検知器用学習手段92は、データ収集装置80の予兆検知器入出力データ記憶手段84に記憶された特徴データおよびそのタグ情報を用いて、予兆検知器60用の学習処理を実行することにより、新たに予兆検知モデル(RNNのパラメータ等)を作成し、作成したモデルで、予兆検知モデル記憶手段62に記憶された予兆検知モデルを更新する処理を実行するものである。この予兆検知器用学習手段92による学習処理は、実際にイベントが1回または何回か発生し、ある程度の量の学習用のデータが用意できた時点で実行するので、実際のイベント発生後のタイミングで実行すればよい。   The sign detector learning unit 92 executes the learning process for the sign detector 60 by using the feature data stored in the sign detector input / output data storage unit 84 of the data collection device 80 and the tag information thereof. A new sign detection model (such as an RNN parameter) is created, and a process of updating the sign detection model stored in the sign detection model storage means 62 with the created model is executed. The learning process by the sign detector learning unit 92 is executed when an event has actually occurred once or several times, and a certain amount of learning data has been prepared. Just run it.

<クラウドソーシングシステム100の構成>   <Configuration of crowdsourcing system 100>

クラウドソーシングシステム100は、1台または複数台のコンピュータ(サーバ)により構成され、予兆特徴抽出器50用の学習用データを作成するためのクラウドソーシングを実行するシステムである。このクラウドソーシングシステム100は、外部で運営される1台または複数台のコンピュータ(サーバ)により構成された外部システムと連携する構成としてもよい。   The crowdsourcing system 100 is configured by one or a plurality of computers (servers) and performs crowdsourcing for creating learning data for the predictive feature extractor 50. The crowdsourcing system 100 may be configured to cooperate with an external system configured by one or a plurality of computers (servers) operated externally.

具体的には、クラウドソーシングシステム100は、データ収集装置80から、予兆特徴抽出器入出力データ記憶手段83に記憶された状態データのうち、特に判別結果が明確でない状態データ(特定の状態であることの確からしさを示す尤度と、特定の状態でないことの確からしさを示す尤度との差分が小さい状態データ)、または、全部の状態データをネットワーク1を介して取得し、取得した状態データと、この状態データに付加された機器識別情報に対応する比較用データとを用いて、例えば、図6に示すようなクラウドソーシング作業画面200を作成するマイクロタスク化の処理を実行し、作成した画面200の表示用データ(HTMLデータ等)を、ネットワーク(ネットワーク1またはその他のネットワーク)を介して作業者端末110に送信することにより、簡単な判断を行う仕事(いわゆるクラウドソーシングマイクロタスク)を、作業者端末110を操作する多数の作業者(群衆)に行わせる。   Specifically, the crowd sourcing system 100 is the state data stored in the predictive feature extractor input / output data storage unit 83 from the data collection device 80, particularly the state data whose determination result is not clear (a specific state). State data in which the difference between the likelihood indicating the certainty of the thing and the likelihood indicating the certainty that it is not a specific state is small), or all the state data is acquired via the network 1 and the acquired state data And using the comparison data corresponding to the device identification information added to the state data, for example, a microtasking process for creating a crowdsourcing work screen 200 as shown in FIG. Work with display data (HTML data, etc.) on the screen 200 via a network (network 1 or other network) By transmitting to the terminal 110, the work of performing simple judgment (so-called crowdsourcing micro task) to perform a large number of workers operating the operator terminal 110 (crowd).

なお、外部システムと連携する構成とする場合には、クラウドソーシングシステム100が、図6に示すようなクラウドソーシング作業画面200を作成するマイクロタスク化の処理を実行し、作成した画面200の表示用データ(HTMLデータ等)を、外部システムに送信してもよく、あるいは、状態データおよびこれに対応する比較用データを、外部システムに送信し、外部システムで、クラウドソーシング作業画面200を作成するマイクロタスク化の処理(画面表示用フォームは、予め外部システムに渡してある。)を実行してもよい。そして、外部システムから、クラウドソーシング作業画面200の表示用データ(HTMLデータ等)を、ネットワークを介して作業者端末110へ送信する。   In the case of a configuration that cooperates with an external system, the crowdsourcing system 100 executes a microtasking process for creating a crowdsourcing work screen 200 as shown in FIG. Data (HTML data or the like) may be transmitted to an external system, or status data and comparison data corresponding to the data may be transmitted to the external system, and the crowd sourcing work screen 200 is created by the external system. Tasking processing (the screen display form is handed over to an external system in advance) may be executed. Then, display data (HTML data or the like) for the crowdsourcing work screen 200 is transmitted from the external system to the worker terminal 110 via the network.

ここで、比較用データは、予め用意されてクラウドソーシングシステム100に記憶されているデータ(例えば、画像データや音データ等)であり、機器識別情報に対応する状態データ取込機器20(カメラ等)により取り込んだ状態データを用いて捉えようとしている特定の状態を示すデータである。例えば、カメラによる画像データを用いて、特定の状態X(例えば、牛の起立状態)、特定の状態Y(例えば、牛の尾の挙上状態)、および特定の状態Z(例えば、牛の尿膜・羊膜の露出状態)を捉えようとしている場合には、機器識別情報は、そのカメラを識別する情報であり、比較用データは、それらの特定の状態X,Y,Zを実際に示す画像データである。   Here, the comparison data is data (for example, image data, sound data, etc.) prepared in advance and stored in the crowdsourcing system 100, and the status data capturing device 20 (camera, etc.) corresponding to the device identification information. ) Is a data indicating a specific state to be captured using the state data captured. For example, using the image data from the camera, a specific state X (for example, a cow standing state), a specific state Y (for example, a cow's tail raised state), and a specific state Z (for example, cow urine) In the case of capturing the exposure state of the membrane / amniotic membrane), the device identification information is information for identifying the camera, and the comparison data is an image that actually shows the specific states X, Y, and Z. It is data.

図6において、クラウドソーシング作業画面200には、比較用データにより表示された実際に特定の状態X,Y,Zを示す画像の各表示部201,202,203、および、データ収集装置80から取得した状態データにより表示された画像(作業者に状態を判断して欲しい画像)の表示部210が設けられている。作業者端末110を操作する作業者(群衆)が、画面200に記載されている質問文を読み、各表示部201,202,203の画像と、表示部210の画像とを見比べることにより、回答部220へのチェック入力を行い、「送信」ボタン230をクリックすると、回答部220に入力した回答データが、ネットワークを介してクラウドソーシングシステム100に送信されるので、クラウドソーシングシステム100は、その回答データを受信し、受信した回答データを用いて、状態データに関連付けるタグ情報を作成し、作成したタグ情報を、データ収集装置80の予兆特徴抽出器入出力データ記憶手段83に記憶されている状態データに関連付けて記憶させる処理を実行する。   In FIG. 6, the crowdsourcing work screen 200 is acquired from each display unit 201, 202, 203 of the image actually showing the specific state X, Y, Z displayed by the comparison data, and the data collection device 80. A display unit 210 for an image (an image that the operator wants to judge the state) displayed based on the state data is provided. A worker (crowd) who operates the worker terminal 110 reads the question text described on the screen 200, and compares the images on the display units 201, 202, and 203 with the images on the display unit 210, thereby answering. When the check input to the unit 220 is performed and the “Send” button 230 is clicked, the answer data input to the answer unit 220 is transmitted to the crowdsourcing system 100 via the network. Data is received, tag information associated with the status data is created using the received answer data, and the created tag information is stored in the predictive feature extractor input / output data storage means 83 of the data collection device 80 A process of storing the data in association with the data is executed.

なお、外部システムと連携する構成とする場合には、回答データは、外部システムへ送信されるようにしてもよく、その場合は、クラウドソーシングシステム100は、外部システムを介して回答データを取得する。   In the case of a configuration that cooperates with an external system, the response data may be transmitted to the external system. In this case, the crowdsourcing system 100 acquires the response data via the external system. .

群衆(例えば、主婦や学生等のようなクラウドワーカ)は、クラウドソーシング作業画面200において対比表示されている画像データ(状態データおよび比較用データ)が、どのようなデータなのか(例えば、データの持つ意味、目的、性質、状況、価値等)を特に意識することなく、知識やスキルがなくても判断作業を行うことができる。なお、外部システムと連携する構成とする場合には、予兆検知システム10が依頼する仕事(マイクロタスク)は、予兆検知システム10とは別のシステムで生成された別系統の仕事(マイクロタスク)と並んで群衆に提示される。クラウドワーカは、様々な仕事の中から自由に仕事を選択するが、たまたま予兆検知システム10が依頼する仕事を選択した場合、そのクラウドワーカが、図1に示された作業者端末110を操作する作業者(群衆)となる。   A crowd (for example, a cloud worker such as a housewife or a student) determines what kind of data the image data (status data and comparison data) displayed on the crowdsourcing work screen 200 is (for example, the data of the data). Judgment work can be performed without knowledge or skills without being particularly aware of the meaning, purpose, nature, situation, value, etc. In the case of a configuration that cooperates with an external system, the work (microtask) requested by the sign detection system 10 is a work of another system (microtask) generated by a system different from the sign detection system 10. Presented side by side to the crowd. The cloud worker freely selects a job from various jobs, but when the job worker happens to select a job requested by the sign detection system 10, the cloud worker operates the worker terminal 110 illustrated in FIG. Become a worker (crowd).

また、クラウドソーシングシステム100またはこれと連携する外部システムから作業者端末110へのクラウドソーシング作業画面200のダウンロードは、例えば、次のような方法で実行される。第1の方法としては、LINE等のコミュニケーションツールである汎用のアプリケーションや電子メールなどの通信手段を用いて、作業者端末110を操作する作業者(群衆)に対し、依頼する仕事(いわゆるクラウドソーシングマイクロタスク)があることを伝達する。この伝達を受けた作業者は、予め定められているウェブサイト、またはコミュニケーションツールや電子メールなどによる伝達文(テキストまたは音声)の中で指定されたウェブサイトにアクセスする。このウェブサイトは、クラウドソーシングシステム100またはこれと連携する外部システムにより構成されている。そして、作業者端末110を操作する作業者(群衆)が、ウェブサイトに設けられた電子掲示板を汎用のブラウザで閲覧し、その電子掲示板において、自分の担当する仕事を選択すると(全く自由に任意の仕事を選択してもよく、システムで指定された仕事を選択してもよい。)、クラウドソーシングシステム100またはこれと連携する外部システムは、選択された仕事についてのクラウドソーシング作業画面200(図6参照)の表示用データを、ネットワークを介して作業者端末110へ送信する処理を実行する。   Moreover, the download of the crowdsourcing work screen 200 to the worker terminal 110 from the crowdsourcing system 100 or an external system linked thereto is performed by, for example, the following method. As a first method, a job (so-called crowdsourcing) requested to a worker (crowd) who operates the worker terminal 110 using a general purpose application such as LINE or a communication means such as e-mail. Communicate that there is a microtask). The worker who has received this communication accesses a predetermined website or a website specified in a communication sentence (text or voice) by a communication tool or e-mail. This website is configured by the crowdsourcing system 100 or an external system linked thereto. When a worker (crowd) who operates the worker terminal 110 browses the electronic bulletin board provided on the website with a general-purpose browser and selects his / her job on the electronic bulletin board (freely arbitrary) Or a job designated by the system may be selected.) The crowdsourcing system 100 or an external system linked with the crowdsourcing system 100 displays the crowdsourcing work screen 200 (see FIG. 6) is transmitted to the worker terminal 110 via the network.

第2の方法としては、作業者端末110に搭載された専用のアプリケーションにより、作業者端末110の画面上に電子掲示板を表示し、作業者端末110を操作する作業者が、その電子掲示板において、自分の担当する仕事を選択するようにしてもよく、その他は、上記の第1の方法の場合と同様である。   As a second method, a dedicated application installed in the worker terminal 110 displays an electronic bulletin board on the screen of the worker terminal 110, and an operator operating the worker terminal 110 You may make it select the work which he is in charge of, and others are the same as that of the case of said 1st method.

<作業者端末110、ユーザ端末120、管理者端末130の構成>   <Configuration of Worker Terminal 110, User Terminal 120, and Administrator Terminal 130>

作業者端末110、ユーザ端末120、管理者端末130は、コンピュータにより構成され、例えばマウスやキーボード等の入力手段と、例えば液晶ディスプレイ等の表示手段とを備えている。これらの端末110,120,130は、例えば、スマートフォンやタブレット端末等の携帯機器であってもよい。   The worker terminal 110, the user terminal 120, and the administrator terminal 130 are configured by a computer, and include input means such as a mouse and a keyboard and display means such as a liquid crystal display. These terminals 110, 120, and 130 may be mobile devices such as smartphones and tablet terminals, for example.

<予兆検知処理の全体的な流れ>   <Overall flow of predictive detection processing>

このような本実施形態においては、以下のようにして予兆検知システム10により、イベント(例えば、牛の分娩等)の発生前に生じる予兆を検知する処理が行われる。   In the present embodiment, processing for detecting a sign that occurs before the occurrence of an event (for example, calving) is performed by the sign detection system 10 as follows.

図7において、システムの運用を開始するあたり、事前に学習を行い、予兆特徴抽出モデル(CNNのパタメータ等)および予兆検知モデル(RNNのパタメータ等)を作成し、作成した各モデルを、予兆特徴抽出モデル記憶手段52および予兆検知モデル記憶手段62に記憶させる。これらの各モデルを作成する学習方法は、予兆特徴抽出器用学習手段91および予兆検知器用学習手段92による処理と同様である。   In FIG. 7, learning is performed in advance before starting system operation, and a predictive feature extraction model (such as a CNN parameter) and a predictive feature detection model (such as an RNN parameter) are created. The extracted model storage means 52 and the sign detection model storage means 62 are stored. The learning method for creating these models is the same as the processing by the sign feature extractor learning means 91 and the sign detector learn means 92.

続いて、システムの運用開始後には、先ず、状態データ取込機器20(カメラやマイクロフォン等)により、予兆検知対象(例えば牛)の状態を示す状態データ(主として画像データや音データ等の知覚データ)を取り込み、この状態データ取込機器20から出力される状態データを、有線または無線により接続装置21で受信する。そして、接続装置21から、状態データを、時刻情報(年月日・時分秒の日時情報、またはこれに代替するデータ発生順序を示す情報)および機器識別情報とともに、ネットワーク1を介して予兆検知処理装置30へ送信し、予兆検知処理装置30で、状態データ取得手段40により、状態データを取得する(ステップS1)。   Subsequently, after the operation of the system is started, first, state data (mainly perceptual data such as image data and sound data) indicating the state of the sign detection target (eg, cow) is detected by the state data capturing device 20 (camera, microphone, etc.). ) And status data output from the status data fetching device 20 is received by the connection device 21 by wire or wirelessly. Then, the status data is detected from the connection device 21 through the network 1 together with the time information (date / time information of year / month / day / hour / minute / second, or information indicating the data generation order to replace it) and the device identification information. The data is transmitted to the processing device 30, and the status data acquisition means 40 acquires the status data in the sign detection processing device 30 (step S 1).

次に、状態データ取得手段40により取得した状態データを、予兆特徴抽出器50に入力し、予兆特徴抽出用パターン認識処理手段51により、予兆特徴抽出モデル記憶手段52に記憶された予兆特徴抽出モデルを用いてパターン認識処理(CNN等)を実行し(ステップS2)、得られた中間層等の出力データを、特徴データとして抽出する(ステップS3)。   Next, the state data acquired by the state data acquisition unit 40 is input to the predictive feature extractor 50, and the predictive feature extraction model storage unit 52 stores the predictive feature extraction model storage unit 52 using the predictive feature extraction pattern recognition processing unit 51. Is used to perform pattern recognition processing (CNN or the like) (step S2), and the obtained output data of the intermediate layer or the like is extracted as feature data (step S3).

さらに、予兆特徴抽出器50で抽出した時系列の特徴データを、予兆検知器60に入力し、予兆検知処理手段61により、予兆検知モデル記憶手段62に記憶された予兆検知モデルを用いて時系列パターン認識処理(RNN等)を実行し、予兆検知結果としてのスコアを出力する(ステップS4)。   Further, the time series feature data extracted by the sign feature extractor 50 is input to the sign detector 60, and the sign detection processing means 61 uses the sign detection model stored in the sign detection model storage means 62 in time series. Pattern recognition processing (such as RNN) is executed, and a score as a sign detection result is output (step S4).

その後、出力手段70により、予兆検知器60から出力されたスコアを用いて、予兆検知結果を出力する(ステップS5)。この予兆検知結果の出力は、ユーザ端末120への予兆検知結果の画面表示等である。なお、ユーザが運営する連携システムに、ネットワーク1を介して予兆検知結果の出力用データを送信してもよい。また、出力手段70により、予兆特徴抽出器50および予兆検知器60の各入出力データを、ネットワーク1を介してデータ収集装置80へ送信する。   Thereafter, the output means 70 outputs the sign detection result using the score output from the sign detector 60 (step S5). The output of the sign detection result is a screen display of the sign detection result on the user terminal 120 or the like. In addition, you may transmit the data for output of an indication detection result via the network 1 to the cooperation system which a user manages. The output means 70 transmits the input / output data of the sign feature extractor 50 and the sign detector 60 to the data collection device 80 via the network 1.

また、以下に述べる学習用データの生成処理、学習処理、およびモデルの更新処理は、以上に述べた予兆検知およびその結果の出力処理(ステップS1〜S5)と並行して実行される処理であるが、以下の処理によりモデルが更新されると、その更新後のモデルを用いて、ステップS1〜S5の処理が行われることから、説明の簡略化のため、一連の処理であるものとして説明を行うものとする。   In addition, the learning data generation process, the learning process, and the model update process described below are processes that are executed in parallel with the sign detection and the output process (steps S1 to S5) described above. However, when the model is updated by the following processing, the processing of steps S1 to S5 is performed using the updated model. Therefore, for the sake of simplification of explanation, the description is made as a series of processing. Assumed to be performed.

すなわち、先ず、予兆特徴抽出器50用の学習データの生成タイミングである場合には、クラウドソーシングシステム100により、データ収集装置80の予兆特徴抽出器入出力データ記憶手段83に記憶された状態データについて、作業者端末110を操作する多数の作業者(群衆)にタグ付け作業(アノテーション)を行わせる(ステップS6)。この学習データの生成タイミングは、例えば、1週間置き、1ケ月置き等、比較的短い間隔である。   That is, first, when it is the generation timing of the learning data for the predictive feature extractor 50, the state data stored in the predictive feature extractor input / output data storage unit 83 of the data collection device 80 by the crowdsourcing system 100. Then, a number of workers (crowds) who operate the worker terminal 110 are caused to perform tagging work (annotation) (step S6). The generation timing of this learning data is a relatively short interval such as every other week or every other month.

続いて、予兆特徴抽出器50用の学習タイミングである場合(通常は、ステップS6の直後でよい。)には、予兆特徴抽出器用学習手段91により、データ収集装置80の予兆特徴抽出器入出力データ記憶手段83に記憶された状態データおよびそのタグ情報を用いて、予兆特徴抽出器50用の学習処理を実行することにより、新たに予兆特徴抽出モデル(CNNのパラメータ等)を作成し、作成したモデルで、予兆特徴抽出モデル記憶手段52に記憶された予兆特徴抽出モデルを更新する(ステップS7)。   Subsequently, when it is the learning timing for the sign feature extractor 50 (usually, it may be immediately after step S6), the sign feature extractor input / output of the data collection device 80 is input by the sign feature extractor learning means 91. A new predictive feature extraction model (CNN parameters, etc.) is created by executing a learning process for the predictive feature extractor 50 using the state data stored in the data storage means 83 and its tag information. The predictive feature extraction model stored in the predictive feature extraction model storage means 52 is updated with the model (step S7).

次に、予兆検知器60用の学習データの生成タイミングである場合(通常は、イベントが実際に発生した直後でよい。)には、ユーザまたはその代行者であるシステムの管理者により、イベント発生時期に関する情報について、ユーザ端末120または管理者端末130からのシステムへのフィードバック処理が行われ、データ収集装置80の予兆検知器入出力データ記憶手段84に記憶された特徴データに対し、タグ情報が付与される(ステップS8)。この学習データの生成タイミングは、頻繁に発生するものではないイベントの実際の発生が必要となるので、比較的長い間隔である。   Next, when it is the generation timing of the learning data for the sign detector 60 (usually, it may be immediately after the event has actually occurred), the event is generated by the user or the system administrator who is the substitute for the event. With respect to the information regarding the timing, the feedback processing to the system from the user terminal 120 or the administrator terminal 130 is performed, and tag information is added to the feature data stored in the predictive detector input / output data storage means 84 of the data collection device 80. Is given (step S8). The generation timing of the learning data is a relatively long interval because it is necessary to actually generate an event that does not occur frequently.

続いて、予兆検知器60用の学習タイミングである場合(通常は、ステップS8の直後でよい。)には、予兆検知器用学習手段92により、データ収集装置80の予兆検知器入出力データ記憶手段84に記憶された特徴データおよびそのタグ情報を用いて、予兆検知器60用の学習処理を実行することにより、新たに予兆検知モデル(RNNのパラメータ等)を作成し、作成したモデルで、予兆検知モデル記憶手段62に記憶された予兆検知モデルを更新する(ステップS9)。   Subsequently, when it is the learning timing for the sign detector 60 (normally, it may be immediately after step S8), the sign detector input / output data storage means of the data collection device 80 is obtained by the sign detector learning means 92. By using the feature data stored in 84 and the tag information thereof, a learning process for the sign detector 60 is executed to newly create a sign detection model (such as an RNN parameter). The sign detection model stored in the detection model storage means 62 is updated (step S9).

そして、予兆検知を続行する場合には、ステップS1の処理に戻り、続行しない場合には、予兆検知システム10による予兆検知処理を終了する(ステップS10)。   If the sign detection is continued, the process returns to step S1, and if not continued, the sign detection process by the sign detection system 10 is ended (step S10).

<本実施形態の効果>   <Effect of this embodiment>

このような本実施形態によれば、次のような効果がある。すなわち、予兆検知システム10は、前段の予兆特徴抽出器50と、後段の予兆検知器60とによる2段の処理器により予兆検知を行う構成とされているので、各段の処理器に、異なる役割を担当させることができる。   According to this embodiment, there are the following effects. That is, the sign detection system 10 is configured to detect the sign by using a two-stage processor including the sign characteristic extractor 50 in the previous stage and the sign detector 60 in the subsequent stage. Can be assigned a role.

具体的には、予兆特徴抽出器50には、パターン認識により予兆に関連する特定の状態を捉える処理を担当させるが、その特定の状態が、予兆として出現しているのか否かを判別することを目的としないパターン認識処理を担当させることができる。   Specifically, the sign feature extractor 50 is in charge of processing for capturing a specific state related to the sign by pattern recognition, and determines whether or not the specific state appears as a sign. It is possible to be in charge of pattern recognition processing that is not aimed at.

一方、予兆検知器60は、予兆特徴抽出器50によるパターン認識処理の繰り返しで得られた時系列の特徴データを用いて予兆検知を行うので、時間的な要素を加味した処理を行うことにより、予兆特徴抽出器50で得られた特徴データが、予兆として出現している特定の状態に関する情報であるのか否かまたはその程度を判定することができる。   On the other hand, the sign detector 60 performs sign detection using the time-series feature data obtained by repeating the pattern recognition processing by the sign feature extractor 50. Therefore, by performing processing that considers temporal factors, It can be determined whether or not the feature data obtained by the predictive feature extractor 50 is information regarding a specific state appearing as a predictor.

このため、予兆検知システム10は、予兆に関連する特定の状態の中に、常時出現する可能性のある特定の状態が含まれていても、効果的な予兆検知を行うことができる。すなわち、常時出現する可能性のある特定の状態については、1段のパターン認識処理だけでは、その状態を捉えることができたとしても、捉えた状態が予兆時に出現しているのか否かの明確な判別ができないため、予兆検知が困難であり、また、一歩進めて時間的な要素を加味すべく、複数の時刻に取得された状態データをパターン認識器に同時に入力することも考えられるが、予兆検知が可能となる程の時間長に渡る大量の状態データをパターン認識器に入力することは、膨大な処理量になり、現実的ではない。これに対し、予兆検知システム10では、予兆特徴抽出器50により、予兆として出現しているか否かにかかわらず、特定の状態を捉え、予兆検知器60により、予兆として出現しているのか否かまたはその程度を判定するので、予兆に関連する特定の状態の中に、常時出現する可能性のある特定の状態が含まれていても、予兆検知を行うことができる。   For this reason, the sign detection system 10 can perform effective sign detection even if the specific state related to the sign includes a specific state that may always appear. That is, for a specific state that may appear at all times, even if the state can be captured by only one stage of pattern recognition processing, it is clear whether or not the captured state appears at the sign. However, it is difficult to detect signs, and it is also possible to simultaneously input the state data acquired at multiple times to the pattern recognizer in order to take the time factor into consideration. It is not practical to input a large amount of state data over a length of time enough to enable predictive detection into a pattern recognizer, resulting in a huge amount of processing. On the other hand, in the sign detection system 10, the sign feature extractor 50 captures a specific state regardless of whether or not it appears as a sign, and whether or not it appears as a sign by the sign detector 60. Alternatively, since the degree is determined, the sign detection can be performed even if the specific state related to the sign includes a specific state that may always appear.

また、予兆検知システム10は、予兆検知の機能を、予兆特徴抽出器50と、予兆検知器60とに分けているので、学習を行う頻度を高めることができ、システムの性能向上のスピードアップを図ることができる。なぜなら、予兆を検知したいイベントは、頻繁に発生する事象ではない場合や、都合のよいときに強制的に発生させることができない事象である場合がある。このような場合は、学習のためのデータ収集が困難であり、仮に、1段階のパターン認識処理により予兆検知を行うと仮定すると、稀にしか発生しないイベントが何回か発生するまで、そのパターン認識処理で使用するモデルの更新を行うことができないことになり、システムの性能向上は、かなりスロースピードとなる。これに対し、予兆検知システム10では、予兆特徴抽出器50については、予兆として出現しているか否かとは関係なく、特定の状態を捉えるので、そのための学習用のデータは、イベントの発生とは関係なく、常時収集することができる。従って、予兆特徴抽出モデル記憶手段52に記憶された予兆特徴抽出モデルは、頻繁に更新することができるため、予兆検知システム10の全体としての性能向上も、その更新スピードで図ることができる。   In addition, since the sign detection system 10 divides the sign detection function into the sign feature extractor 50 and the sign detector 60, it is possible to increase the frequency of learning and speed up the performance improvement of the system. Can be planned. This is because an event for which a sign is desired to be detected may not be a frequently occurring event or may be an event that cannot be forcibly generated at a convenient time. In such a case, it is difficult to collect data for learning. Assuming that the sign detection is performed by one-step pattern recognition processing, the pattern is rarely generated until several rare events occur. The model used in the recognition process cannot be updated, and the performance improvement of the system is considerably slow. On the other hand, in the sign detection system 10, the sign feature extractor 50 captures a specific state regardless of whether or not it has appeared as a sign. Therefore, the learning data for that is the occurrence of an event. Regardless of whether it is collected at any time. Accordingly, since the predictive feature extraction model stored in the predictive feature extraction model storage unit 52 can be updated frequently, the performance of the predictive detection system 10 as a whole can be improved at the update speed.

さらに、予兆検知システム10では、予兆特徴抽出器50について、学習を行い、予兆特徴抽出モデルを更新する際に、その学習に用いる状態データには、人の知覚で認識可能な知覚データが含まれているので、この知覚データについてのタグ付け作業(アノテーション)を、クラウドソーシングにより実現することができる。この知覚データは、先ず、人の知覚で認識可能である(例えば、人が見れば、あるいは、人が聞けば、簡単に状態を識別することができる)という点で、クラウドソーシングに適しており、次に、予兆特徴抽出器50に入力される状態データであることから、イベント(例えば、牛の分娩)やその予兆とは関係なく、状態を識別することができるため、イベントやその予兆に関する専門知識がなくても、誰でも状態を識別することができるという点で、クラウドソーシングに適しているからである。このため、比較的安価に、かつ、迅速に、さらには手間をかけずに、大量の学習用のデータを収集することができる。   Further, in the sign detection system 10, when the sign feature extractor 50 performs learning and updates the sign feature extraction model, the state data used for the learning includes perceptual data that can be recognized by human perception. Therefore, the tagging operation (annotation) for the perceptual data can be realized by crowdsourcing. This perceptual data is suitable for crowdsourcing in that it can be perceived by human perception (for example, the state can be easily identified when viewed or heard by a person). Next, since the state data is input to the predictor feature extractor 50, the state can be identified regardless of the event (for example, cattle calving) and its predictor. This is because it is suitable for crowdsourcing in that anyone can identify the state without specialized knowledge. For this reason, a large amount of data for learning can be collected relatively inexpensively, quickly, and without much effort.

また、予兆特徴抽出器50は、状態データとして知覚データを用いるので、例えば、カメラやマイクロフォン等のような非接触型の状態データ取込機器20を使用することができる。このため、生体への装着の回避による非侵襲性や、設置時の危険の回避を実現することができるうえ、カメラやマイクロフォン等のような比較的安価な機器を用いてシステム構築を行うことができる。   Further, since the predictive feature extractor 50 uses perceptual data as state data, for example, a non-contact type state data capturing device 20 such as a camera or a microphone can be used. For this reason, non-invasiveness by avoiding attachment to a living body and avoidance of danger at the time of installation can be realized, and a system can be constructed using a relatively inexpensive device such as a camera or a microphone. it can.

さらに、予兆特徴抽出器50は、ニューラル・ネットワークの中間層出力を抽出するので、最終層(出力層)出力を抽出する場合に比べ、後段の予兆検知器60に対し、その処理に有効な情報を特徴データとして入力することができる。すなわち、最終層(出力層)の出力データは、特定の状態に該当するか否かまたはその程度を示すだけのデータであり、情報量が少なく、予兆検知器60の処理で利用可能な情報が欠落している場合があるので、入力層に入力される状態データ(非常に多くの情報量)から、最終層(出力層)の出力データ(かなり絞り込まれた情報量)に至るまでのネットワーク上に存在する中間的な情報量を抽出し、予兆検知器60の処理で利用することができる。また、最終層(出力層)の出力データは、情報量が少ないので、その判別結果が誤っていた場合には、予兆検知器60の処理に与える影響が大きいが、中間層出力を予兆検知器60の処理で利用すれば、影響を小さくすることができる。   Furthermore, since the predictive feature extractor 50 extracts the intermediate layer output of the neural network, information useful for the processing of the predictive detector 60 in the subsequent stage as compared with the case of extracting the final layer (output layer) output. Can be input as feature data. That is, the output data of the final layer (output layer) is data that only indicates whether or not it falls under a specific state, and there is a small amount of information, and there is information that can be used in the processing of the predictive detector 60. Since it may be missing, on the network from the state data (very large amount of information) input to the input layer to the output data (substantial amount of information) of the final layer (output layer) Can be extracted and used in the processing of the sign detector 60. Further, since the output data of the final layer (output layer) has a small amount of information, if the determination result is incorrect, the influence on the processing of the predictive detector 60 is great, but the output of the intermediate layer is detected by the predictive detector. If it is used in the processing of 60, the influence can be reduced.

また、予兆検知器60は、予兆が出現する可能性のある区間として複数の予兆時区間を設定し、それらに対応するスコアを出力する構成とされているので、より詳細な予兆検知を行うことができるうえ、予兆検知の結果出力も多様な方法を採用することができ、ユーザによるシステムの使い勝手の向上を図ることができる。   In addition, since the sign detector 60 is configured to set a plurality of sign time sections as sections in which a sign may appear and output a score corresponding to them, more detailed sign detection is performed. In addition, various methods can be adopted for outputting the result of predictive detection, and the user can improve the usability of the system.

さらに、予兆検知システム10は、事前情報記憶手段71を備え、出力手段70は、事前情報を用いた合成分布を表示する構成とされているので、事前情報に基づくイベント発生の確率分布を徐々に修正していく表示等を行うことができ、ユーザによるシステムの使い勝手の向上を図ることができる。例えば、表示を行う時点(現在、今日)が、イベント発生の予想時期や予定時期と離れているときには、事前情報に基づく確率分布が、殆どそのまま表示され、イベント発生の予想時期や予定時期に近づいてくるにつれ、取得した状態データに基づく確率分布が徐々に反映されてくるような表示を行うことできる。   Furthermore, since the sign detection system 10 includes a prior information storage unit 71 and the output unit 70 is configured to display a composite distribution using the prior information, the event occurrence probability distribution based on the prior information is gradually reduced. The display to be corrected can be performed, and the user-friendliness of the system can be improved. For example, when the display time (currently today) is far from the expected time or scheduled time of event occurrence, the probability distribution based on prior information is displayed almost as it is, and approaches the expected time or scheduled time of event occurrence. As it comes, it is possible to display such that the probability distribution based on the acquired state data is gradually reflected.

また、出力手段70は、予兆検知器60からの出力スコアを用いてイベントの発生確率をカレンダ上に表示するので、見やすい表示を実現できるとともに、カレンダ上で、一般的なスケジュール情報と併せて予兆検知に関する情報を表示することもできるため、この点でも、ユーザによるシステムの使い勝手の向上を図ることができる。   Further, since the output means 70 displays the event occurrence probability on the calendar using the output score from the sign detector 60, it is possible to realize an easy-to-see display and the sign together with general schedule information on the calendar. Since information related to detection can also be displayed, the user-friendliness of the system can be improved also in this respect.

そして、出力手段70は、カレンダ上にイベントの発生確率を表示する際に、区間の時間長の相違や区間のずれに応じてスコアの按分や合計を行うので(図9参照)、ユーザによるカレンダの単位区間の切替表示に対応することができる。さらに、スコアの按分や合計を行うので、時間の経過とともに、カレンダ上で、予兆検知結果を表示する起点となる現在(スコア出力の時点)の位置が移動していくという状況に対し、柔軟に対応することができる。これにより、事前情報を用いた合成分布の表示も容易に行うことができる。   Then, when displaying the event occurrence probability on the calendar, the output means 70 performs the distribution and summation of the scores according to the difference in the time length of the sections and the shift of the sections (see FIG. 9). It is possible to correspond to the switching display of unit intervals. In addition, since the score is distributed and summed, the current position (score output time), which is the starting point for displaying the sign detection result, moves on the calendar as time passes. Can respond. Thereby, the composite distribution using the prior information can be easily displayed.

また、出力手段70は、様々な出力形式で予兆検知結果を出力することができるので(図8〜図13参照)、ユーザの要望に沿う形式の出力を行うことができるうえ、複数の予兆時区間の各々の確率分布またはその累積分布を、滑らかに、または矛盾なく接続した表示を実現することができる。   Moreover, since the output means 70 can output the sign detection result in various output formats (see FIGS. 8 to 13), the output means 70 can perform output in a format according to the user's request, and a plurality of predictive times. A display in which the probability distributions of the sections or the cumulative distribution thereof are connected smoothly or without contradiction can be realized.

[変形の形態]   [Deformation form]

なお、本発明は前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲内での変形等は本発明に含まれるものである。   Note that the present invention is not limited to the above-described embodiment, and modifications and the like within a scope where the object of the present invention can be achieved are included in the present invention.

例えば、前記実施形態では、予兆検知器60は、リカレント・ニューラル・ネットワーク(RNN)による時系列パターン認識処理を行う構成で説明されていたが、本発明の予兆検知システムに使用される予兆検知器は、これに限定されるものではない。なお、以下に述べる予兆検知器については、前記実施形態の内部構成(図2、図3参照)とは異なる内部構成を有するが、システムの全体構成としては、前記実施形態の図1の状態と同じであるので、説明や図示の簡略化のため、図1には、以下に述べる予兆検知器に関する内容も並記している。従って、RNNとは内部構成が異なるが、以下に述べる予兆検知器についても、前記実施形態と同様に、60という符号を付して説明や図示を行うものとする(図14〜図17参照)。   For example, in the above-described embodiment, the sign detector 60 has been described as having a configuration for performing time-series pattern recognition processing using a recurrent neural network (RNN), but the sign detector used in the sign detection system of the present invention. However, the present invention is not limited to this. The sign detector described below has an internal configuration different from the internal configuration of the above-described embodiment (see FIGS. 2 and 3), but the overall configuration of the system is the same as the state of FIG. 1 of the above-described embodiment. Since these are the same, in order to simplify the explanation and illustration, FIG. 1 also shows the contents relating to the sign detector described below. Accordingly, although the internal configuration is different from that of the RNN, the sign detector described below is also described and illustrated with the reference numeral 60 as in the above embodiment (see FIGS. 14 to 17). .

先ず、本発明における予兆検知器の「時系列パターン認識処理」は、前記実施形態のRNNや、隠れマルコフモデル(HMM)のように、内部メモリ(前回または前回以前の内部的処理結果を記憶する内部メモリ)を有することにより、内部構造的に系列モデリングを実現しているパターン認識器による処理に限定されるものではなく、内部メモリによる系列モデリングを行わない静的なパターン認識器による処理も含まれる。換言すれば、内部メモリを有するパターン認識器では、その内部メモリの情報が反映されるので、同じ入力に対し、常に同じ出力になるわけではないが、静的なパターン認識器では、同じ入力に対し、常に同じ出力が得られる。従って、本発明でいう「時系列パターン認識処理」には、同じ入力に対し、常に同じ出力が得られる静的なパターン認識器による処理も含まれ、具体的には、例えば、混合ガウスモデル(GMM)、単純なニューラル・ネットワーク(内部メモリを持たないNN)、サポート・ベクター・マシン(SVM)等が含まれる。これらも含めて「時系列パターン認識処理」と呼ぶのは、静的なパターン認識器であっても、新しい時刻のデータが継続的に発生している状況下にある時系列データの中から一定期間(移動する一定期間)内の複数のデータを切り出し、入力することを繰り返す場合であれば、時間的な要素を加味した処理を実現できるからである。なお、RNNの場合は、内部メモリを有しているので、1時刻の特徴データだけを入力しても、時間的要素を加味した処理を内部構造的に実現できるが、このような場合において、更に複数の時刻の特徴データを同時に入力してもよいことは、前記実施形態の説明で詳述している。   First, the “time-series pattern recognition process” of the sign detector according to the present invention stores an internal memory (the previous or previous internal process result) like the RNN or hidden Markov model (HMM) of the above embodiment. It is not limited to processing by a pattern recognizer that realizes series modeling in the internal structure by having an internal memory), but also includes processing by a static pattern recognizer that does not perform series modeling by internal memory It is. In other words, since the information in the internal memory is reflected in the pattern recognizer having the internal memory, the same input is not always the same for the same input, but in the static pattern recognizer, the same input is used. In contrast, the same output is always obtained. Therefore, “time-series pattern recognition processing” in the present invention includes processing by a static pattern recognizer that always obtains the same output for the same input. Specifically, for example, a mixed Gaussian model ( GMM), simple neural network (NN without internal memory), support vector machine (SVM), etc. Including these, “time-series pattern recognition processing” refers to the time-series data in a situation where data at a new time is continuously generated even if it is a static pattern recognizer. This is because if a plurality of pieces of data within a period (a fixed period of movement) are cut out and input repeatedly, processing that takes into account temporal factors can be realized. In the case of RNN, since it has an internal memory, even if only one-time feature data is input, processing that takes into account temporal elements can be realized in the internal structure. In such a case, Further, the fact that a plurality of time characteristic data may be input simultaneously is described in detail in the description of the above embodiment.

次に、具体例を説明する。以下の図14〜図17の例では、新しい時刻の特徴データが継続的に発生している状況下にある時系列の特徴データの中から一定期間(移動する一定期間)内の複数の特徴データを切り出し、静的なパターン認識器に入力している点は共通している。但し、以下に述べる処理を、内部メモリにより系列モデリングを実現しているパターン認識器に適用することができないという意味ではなく、適用してもよい。   Next, a specific example will be described. In the examples of FIGS. 14 to 17 below, a plurality of feature data within a certain period (a certain period of movement) from among the time-series feature data in a situation where feature data at a new time is continuously generated. Is the same in that it is cut out and input to a static pattern recognizer. However, the processing described below does not mean that the processing cannot be applied to a pattern recognizer that realizes sequence modeling using an internal memory, and may be applied.

<切出区間Cの特徴データの集合を1つずつ静的なパターン認識器に入力する場合>   <When inputting a set of feature data of cut section C one by one to a static pattern recognizer>

図14において、予兆時区間は、前記実施形態の図4の場合と同様であり、ここでは、4つの予兆時区間A1,A2,A3,A4および非着目区間(平常時)AXが設定されているものとする。この例では、予兆検知器60は、運用時に、時系列の特徴データの中から、直近の一定期間である切出区間Cに含まれる複数の特徴データを切り出して入力する。切出区間C内の特徴データの数はK個とする。この切出区間Cの時間長は、予兆時区間A1,A2,A3,A4および非着目区間(平常時)AXに比べ、短い時間である。また、切出区間Cによる切出処理は、時系列の特徴データがF1,F2,F3,F4,…(K個=例えば100個)であるとすれば、(F1,F2,…,F100)、(F2,F3,…,F101)のように、1つずつずらしながら切り出してもよく、(F1,F2,…,F100)、(F101,F102,…,F200)のように、重なりなく切り出してもよく、あるいは、(F1,F2,…,F100)、(F11,F12,…,F110)のように、重なりはあるが、ずらし量が1つではなく、2以上である切り出しを行ってもよい。このような予兆時区間A1〜A4および非着目区間AXの設定、並びに、切出区間Cの設定は、以下の図15〜図17の例でも同様である。   In FIG. 14, the predictive time interval is the same as that in FIG. 4 of the above-described embodiment. Here, four predictive time intervals A1, A2, A3, A4 and a non-target interval (normal time) AX are set. It shall be. In this example, the sign detector 60 cuts out and inputs a plurality of feature data included in the cut-out section C, which is the latest fixed period, from the time-series feature data during operation. The number of feature data in the cut section C is K. The time length of the cut section C is shorter than the predictive time sections A1, A2, A3, A4 and the non-target section (normal time) AX. In addition, if the time-series feature data is F1, F2, F3, F4,... (K = 100, for example), the cutting processing by the cutting section C is (F1, F2,..., F100). , (F2, F3,..., F101) may be cut out one by one, and cut out without overlapping, such as (F1, F2,..., F100), (F101, F102,..., F200). Alternatively, as shown in (F1, F2,..., F100), (F11, F12,..., F110), there is an overlap, but the shift amount is not one but is cut out to be 2 or more. Also good. The setting of the predictive time sections A1 to A4 and the non-target section AX and the setting of the cut-out section C are the same in the examples of FIGS. 15 to 17 below.

図14の例では、切出区間C内のK個の特徴データは、まとめて同時に入力するのではなく、1つずつ入力する。この際、入力の順序は任意であり、時系列を考慮する必要はない。K個の特徴データを集合として捉えるからである。K個の特徴データをパターン認識器に1つずつ入力するので、パターン認識器からK個(K組)のサブスコアが得られる。この例では、1つ(1組)のサブスコアに、A1,A2,A3,A4,AXに対する各尤度が含まれている。従って、予兆検出器60は、5×K個の尤度を用いて、最終的なスコアを算出し、出力する。例えば、A1に対応する尤度が、K個あるので、それらのK個の尤度を合計し、Kで割ることにより、A1に対応するスコアを算出する。A2,A3,A4,AXも同様である。このようなサブスコアを用いて最終的なスコアを算出する処理も含めて予兆検知処理手段61による処理(アルゴリズム)、すなわち、内部メモリを有しないパターン認識器による処理である。勿論、予兆検知処理手段61による処理中に、K個の特徴データを記憶したり、K個(K組)のサブスコアを記憶するので、そのための作業用のメモリは有するが、系列モデリングを実現するための内部メモリ(前回または前回以前の内部的処理結果を記憶する内部メモリ)は持たないという意味である。   In the example of FIG. 14, the K feature data in the cut section C are input one by one rather than all at once. At this time, the input order is arbitrary, and there is no need to consider the time series. This is because K feature data are regarded as a set. Since K feature data are input to the pattern recognizer one by one, K (K sets) sub-scores are obtained from the pattern recognizer. In this example, each likelihood for A1, A2, A3, A4, and AX is included in one (one set) subscore. Therefore, the predictor detector 60 calculates and outputs a final score using 5 × K likelihoods. For example, since there are K likelihoods corresponding to A1, the scores corresponding to A1 are calculated by adding the K likelihoods and dividing by K. The same applies to A2, A3, A4 and AX. This includes processing (algorithm) by the sign detection processing means 61 including processing for calculating a final score using such a subscore, that is, processing by a pattern recognizer that does not have an internal memory. Of course, during the processing by the sign detection processing means 61, K feature data is stored and K sub-scores are stored (K sets), so that there is a working memory, but series modeling is realized. This means that there is no internal memory (internal memory for storing the previous or previous internal processing result).

なお、図14の例では、学習処理は、前記実施形態の場合(図4参照)と同様である。また、予兆時区間の設定およびスコア出力についての形式は、前記実施形態で説明した形式B(図5参照)のほうを選択することもできる。   In the example of FIG. 14, the learning process is the same as in the case of the embodiment (see FIG. 4). In addition, the format B (see FIG. 5) described in the above embodiment can be selected as the format for setting the predicting time interval and outputting the score.

<切出区間Cの特徴データの集合を分布として捉えて分布間の類似度を求める場合>   <When obtaining a set of feature data in the cut-out section C as a distribution and calculating similarity between distributions>

図15の例では、学習時および運用時の双方で、特徴データの集合を分布として捉える。但し、分布の標本数は、学習時と運用時とで異なる。学習時は、予兆時区間A1〜A4および非着目区間AXのそれぞれの区間に属する特徴データであるから、多数の特徴データがあり、特に、非着目区間AXは非常に多数の特徴データがある。予兆を検知するイベントの性質にもよるが、例えば、何千、何万、何十万という標本数である。これに対し、運用時は、移動する切出区間C内のK個の特徴データであるから、相対的に少ない標本数である。切出区間Cは、現在がイベントの予兆検知に関し、どのような状況下に相当する時期なのか(12時間前なのか、24時間前なのか等)を判断するための区間であるので、前段の予兆特徴抽出器50による特徴データの抽出の時間間隔にもよるが、学習時に対し、標本数の桁数は相対的に小さい。   In the example of FIG. 15, a set of feature data is regarded as a distribution both during learning and during operation. However, the number of samples in the distribution differs between learning and operation. At the time of learning, since it is feature data belonging to each of the predictive time sections A1 to A4 and the non-target section AX, there are a large number of feature data, and in particular, the non-target section AX has a very large number of feature data. Depending on the nature of the event that detects the sign, for example, there are thousands, tens of thousands, and hundreds of thousands of samples. On the other hand, at the time of operation, since it is K feature data in the moving cut section C, the number of samples is relatively small. The cut-out section C is a section for determining under what circumstances the current time is related to the detection of an event sign (12 hours before, 24 hours before, etc.). Depending on the time interval of feature data extraction by the predictive feature extractor 50, the number of digits of the number of samples is relatively small compared to the time of learning.

図15の例では、学習時にも運用時にも、M次元ベクトルである特徴データの集合を分布として捉え、それぞれの分布の代表値(代表ベクトル)を求める。すなわち、学習時には、A1用、A2用、A3用、A4用、AX用の各分布があるので、それらの各分布についての代表値を、別々に求める。そして、運用時には、切出区間C内のK個の特徴データ(M次元ベクトル)による分布があるので、その分布についての代表値を求める。この代表値(代表ベクトル)の次元数は、特徴データの次元数(M次元)と一致していてもよく、一致していなくてもよい。   In the example of FIG. 15, a set of feature data that is an M-dimensional vector is regarded as a distribution during learning and operation, and a representative value (representative vector) of each distribution is obtained. That is, during learning, since there are distributions for A1, A2, A3, A4, and AX, representative values for these distributions are obtained separately. At the time of operation, since there is a distribution based on K feature data (M-dimensional vectors) in the cut section C, a representative value for the distribution is obtained. The number of dimensions of the representative value (representative vector) may or may not match the number of dimensions (M dimension) of the feature data.

分布の代表値(代表ベクトル)としては、様々なものを選択することができ、1つの代表値ではなく、複数の代表値の組合せとしてもよく、例えば、平均値、最頻値、中央値(メジアン)、標準偏差、分散の各ベクトル、あるいは頻度ベクトル等を選択することができる。図15には、一例として、分布として正規分布を仮定し、平均ベクトルμおよび標準偏差ベクトルσの組合せが示され、いずれも次元数は、特徴データと同じであり、M次元ベクトルである。予兆時区間A1については、(μ1,σ1)が求められ、他の区間についても同様に、(μ2,σ2)、(μ3,σ3)、(μ4,σ4)、(μX,σX)が求められる。そして、学習時に求められた各区間A1〜A4,AX用の分布の代表値(代表ベクトル)は、予兆検知モデル記憶手段62に記憶される。また、運用時も同様に、運用時の分布についての(μ,σ)が求められる。   Various representative values (representative vectors) of the distribution can be selected, and may be a combination of a plurality of representative values instead of a single representative value. For example, an average value, a mode value, a median value ( Median), standard deviation, variance vector, frequency vector, or the like can be selected. FIG. 15 shows, as an example, a normal distribution as a distribution, and shows a combination of an average vector μ and a standard deviation vector σ, both of which have the same number of dimensions as feature data and are M-dimensional vectors. (Μ1, σ1) is obtained for the predictive time interval A1, and (μ2, σ2), (μ3, σ3), (μ4, σ4), (μX, σX) are similarly obtained for the other intervals. . The representative values (representative vectors) of the distributions for the sections A1 to A4 and AX obtained during learning are stored in the sign detection model storage unit 62. Similarly, during operation, (μ, σ) regarding the distribution during operation is obtained.

なお、ここでは、分布の代表値は、代表ベクトルとしているが、スカラ値でもよく、あるいは、行列やテンソル量でもよい。   Here, the representative value of the distribution is a representative vector, but it may be a scalar value, or may be a matrix or a tensor amount.

分布の代表値(代表ベクトル)を頻度ベクトルとする場合は、例えば、次のように求めることができる。M次元ベクトルである特徴データを構成する各要素の値(それぞれの次元の値)が、全て事後確率であった場合に、それぞれの次元毎に、各要素の値が閾値P以上となる頻度を、分布の標本数である特徴データの数(運用時は、K個)に基づき正規化し、この正規化で得られた各次元の値を、代表値(代表ベクトル)の構成要素とすることができる。   When the representative value (representative vector) of the distribution is a frequency vector, for example, it can be obtained as follows. When the values of the respective elements constituting the feature data that are M-dimensional vectors (respective dimension values) are all posterior probabilities, the frequency at which the value of each element is equal to or greater than the threshold value P for each dimension. , Normalization based on the number of feature data (K in operation) that is the number of samples of distribution, and values of each dimension obtained by this normalization may be used as constituent elements of representative values (representative vectors) it can.

具体的には、特徴データの数が、K個=5個であり、特徴データの次元数が、M次元=4次元であり、閾値が、P=0.75(75%)であり、1〜5番目の特徴データの内容が、下記の通りであるとする。   Specifically, the number of feature data is K = 5, the number of dimensions of feature data is M-dimension = 4 dimensions, and the threshold is P = 0.75 (75%). It is assumed that the contents of the fifth feature data are as follows.

1番目の特徴データ=(0.12,0.31,0.81,0.97)
2番目の特徴データ=(0.11,0.33,0.45,0.66)
3番目の特徴データ=(0.30,0.38,0.96,0.82)
4番目の特徴データ=(0.13,0.62,0.68,0.51)
5番目の特徴データ=(0.88,0.62,0.68,0.78)
First feature data = (0.12, 0.31, 0.81, 0.97)
Second feature data = (0.11, 0.33, 0.45, 0.66)
Third feature data = (0.30, 0.38, 0.96, 0.82)
4th feature data = (0.13, 0.62, 0.68, 0.51)
5th feature data = (0.88, 0.62, 0.68, 0.78)

このとき、第1番目の次元の要素の値だけを見ると、0.12,0.11,0.30,0.13,0.88であるから、この次元における閾値P=0.75以上の要素の出現数は1要素であり、正規化すると、5要素のうちの1要素であるから、この次元の値には、1/5を採用することができる。他の次元も同様であり、結局、次のようになる。   At this time, if only the values of the elements of the first dimension are viewed, they are 0.12, 0.11, 0.30, 0.13, 0.88, and therefore the threshold P in this dimension is equal to or greater than 0.75. The number of occurrences of the element is one element, and when normalized, it is one element out of five elements, so 1/5 can be adopted as the value of this dimension. The same goes for the other dimensions.

頻度ベクトル=(1/5,0/5,2/5,3/5)   Frequency vector = (1/5, 0/5, 2/5, 3/5)

運用時におけるK個の特徴データで説明したが、学習時も、標本数が多くなるだけであり、同じ処理である。各区間A1,A2,A3,A4,AXのそれぞれについて、頻度ベクトルが作成される。この頻度ベクトルの次元数は、特徴データの次元数(M次元=4次元)と一致している。   Although described with K feature data at the time of operation, only the number of samples is increased at the time of learning, which is the same processing. A frequency vector is created for each of the sections A1, A2, A3, A4, and AX. The number of dimensions of the frequency vector matches the number of dimensions of feature data (M dimension = 4 dimensions).

また、頻度ベクトルは、次のように、内部メモリを持たない静的なパターン認識器による処理(アルゴリズム)により、求めてもよい。例えば、GMM、単純なNN、SVM等のように、一般的な識別問題に用いられる手法を全て採用することができる。この際、5つの区間A1,A2,A3,A4,AXを、頻度ベクトル算出用の区間として、幾つかの区間に分割し、それらの区間に対応する尤度を出力させる。この区間の分割形態は、任意であり、例えば、2分割であれば、「区間A1+A2+A3+A4=区間A1234」と、区間AXとに分割したり、区間A1と、「区間A2+A3+A4+AX=区間A234X」とに分割したり、あるいは、「区間A1+A2=区間A12」と、「区間A3+A4+AX=区間A34X」とに分割すること等ができる。また、3分割であれば、例えば、区間A1と、「区間A2+A3+A4=区間A234」と、区間AXとに分割したり、「区間A1+A2=区間A12」と、「区間A3+A4=区間A34」と、区間AXとに分割すること等ができる。同様に、4分割、5分割とすることもでき、5分割した場合には、結局、元の5つの区間A1,A2,A3,A4,AXに分割することになる。さらには、頻度ベクトル算出用の区間として、5つの区間A1,A2,A3,A4,AXの区切り位置とは全く異なる位置で区切って形成した2以上の区間を用意してもよい。   Further, the frequency vector may be obtained by processing (algorithm) using a static pattern recognizer having no internal memory as follows. For example, all methods used for general identification problems, such as GMM, simple NN, and SVM, can be employed. At this time, the five sections A1, A2, A3, A4, and AX are divided into several sections as sections for calculating the frequency vector, and likelihoods corresponding to these sections are output. The division form of this section is arbitrary. For example, in the case of two divisions, it is divided into “section A1 + A2 + A3 + A4 = section A1234” and section AX, or divided into section A1 and “section A2 + A3 + A4 + AX = section A234X”. Or, it can be divided into “section A1 + A2 = section A12” and “section A3 + A4 + AX = section A34X”. In the case of three divisions, for example, it is divided into a section A1, “section A2 + A3 + A4 = section A234”, and section AX, “section A1 + A2 = section A12”, “section A3 + A4 = section A34”, section It can be divided into AX. Similarly, it is possible to divide into four parts and five parts. When the number of parts is divided into five parts, it is divided into the original five sections A1, A2, A3, A4 and AX. Furthermore, as the frequency vector calculation section, two or more sections formed by dividing at a position completely different from the section positions of the five sections A1, A2, A3, A4, and AX may be prepared.

そして、例えば、頻度ベクトル算出用の区間として、元の5つの区間A1,A2,A3,A4,AXと同じ区切り方で、5つの区間A1,A2,A3,A4,AXを用意した場合には、これらの5つの区間に対応する尤度をまとめて出力(特徴データが、A1に属することの確からしさを示す数値、A2に属することの確からしさを示す数値、…、AXに属することの確からしさを示す数値をまとめて出力)するパターン認識器を構築してもよく、各区間A1,A2,A3,A4に対応する尤度を別々に出力(予兆時区間A1であれば、特徴データが、A1に属することの確からしさを示す数値、および、A1に属さないことの確からしさを示す数値を出力)する4つのパターン認識器を構築してもよい。なお、頻度ベクトル算出用の区間として、2つの区間(例えば、区間A1234、区間AX))を形成した場合には、パターン認識器は1つでよい。   For example, when five sections A1, A2, A3, A4, and AX are prepared as the frequency vector calculation sections in the same way as the original five sections A1, A2, A3, A4, and AX, The likelihoods corresponding to these five sections are collectively output (a numerical value indicating the likelihood that the feature data belongs to A1, a numerical value indicating the likelihood that the feature data belongs to A2,... A pattern recognizer that outputs numerical values indicating the likelihood may be constructed, and the likelihood corresponding to each of the sections A1, A2, A3, and A4 is separately output (if the predictive time section A1, the feature data is 4 pattern recognizers that output a numerical value indicating the certainty of belonging to A1 and a numerical value indicating the certainty of not belonging to A1) may be constructed. When two sections (for example, section A 1234 and section AX) are formed as the frequency vector calculation section, only one pattern recognizer is required.

具体的には、例えば、頻度ベクトル算出用の区間として、2つの区間A1234,AXを設けるとする。そして、混合ガウスモデル(GMM)の場合に、学習用データとして得られている2つの区間A1234,AXの全ての特徴データを用いた最尤学習により、区間A1234に対応する尤度を出力する区間A1234用のGMMを構築したとする。従って、区間A1234用のGMMが、A1234に対応する尤度(特徴データが、A1234に属することの確からしさを示す数値、および、A1234に属さないことの確からしさを示す数値)を確率として出力するものとする。そして、A1234に属することの確からしさを示す数値(確率)を5区画に分け、(0以上0.2未満、0.2以上0.4未満、0.4以上0.6未満、0.6以上0.8未満、0.8以上)という頻度ベクトルを求めるものとする。特徴データの内容には、上述した数値例を用いる。   Specifically, for example, it is assumed that two sections A1234 and AX are provided as sections for calculating the frequency vector. In the case of a mixed Gaussian model (GMM), a section that outputs the likelihood corresponding to the section A1234 by maximum likelihood learning using all feature data of the two sections A1234 and AX obtained as learning data. Assume that a GMM for A1234 is constructed. Therefore, the GMM for section A1234 outputs the likelihood corresponding to A1234 (a numerical value indicating the likelihood that the feature data belongs to A1234 and a numerical value indicating the likelihood that the feature data does not belong to A1234) as a probability. Shall. Then, the numerical value (probability) indicating the probability of belonging to A1234 is divided into five sections (0 or more, less than 0.2, 0.2 or more, less than 0.4, 0.4 or more, less than 0.6, 0.6 The frequency vector of 0.8 or more and 0.8 or more is obtained. As the contents of the feature data, the numerical example described above is used.

1番目の特徴データ=(0.12,0.31,0.81,0.97)をA1234用のGMMに入力し、その出力が(A1234に属する尤度=0.80、A1234に属さない尤度=0.20)であったとすると、A1234に属する尤度=0.80を用いて、(0,0,0,0,1)という尤度帰属区画表示ベクトルが作成される。   The first feature data = (0.12, 0.31, 0.81, 0.97) is input to the A1234 GMM, and the output (likelihood belonging to A1234 = 0.80, not belonging to A1234) If likelihood = 0.20), a likelihood belonging partition display vector of (0, 0, 0, 0, 1) is created using likelihood = 0.80 belonging to A1234.

2番目の特徴データ=(0.11,0.33,0.45,0.66)をA1234用のGMMに入力し、その出力が(A1234に属する尤度=0.91、A1234に属さない尤度=0.09)であったとすると、A1234に属する尤度=0.91を用いて、(0,0,0,0,1)という尤度帰属区画表示ベクトルが作成される。   The second feature data = (0.11, 0.33, 0.45, 0.66) is input to the A1234 GMM, and the output (likelihood belonging to A1234 = 0.91, not belonging to A1234) If likelihood = 0.09), a likelihood belonging partition display vector of (0, 0, 0, 0, 1) is created using likelihood = 0.91 belonging to A1234.

3番目の特徴データ=(0.30,0.38,0.96,0.82)をA1234用のGMMに入力し、その出力が(A1234に属する尤度=0.63、A1234に属さない尤度=0.37)であったとすると、A1234に属する尤度=0.63を用いて、(0,0,0,1,0)という尤度帰属区画表示ベクトルが作成される。   The third feature data = (0.30, 0.38, 0.96, 0.82) is input to the A1234 GMM, and the output (likelihood belonging to A1234 = 0.63, does not belong to A1234 If likelihood = 0.37), a likelihood belonging partition display vector of (0, 0, 0, 1, 0) is created using likelihood = 0.63 belonging to A1234.

4番目の特徴データ=(0.13,0.62,0.68,0.51)をA1234用のGMMに入力し、その出力が(A1234に属する尤度=0.55、A1234に属さない尤度=0.45)であったとすると、A1234に属する尤度=0.55を用いて、(0,0,1,0,0)という尤度帰属区画表示ベクトルが作成される。   The fourth feature data = (0.13, 0.62, 0.68, 0.51) is input to the A1234 GMM, and the output (likelihood belonging to A1234 = 0.55, does not belong to A1234 If the likelihood is 0.45), a likelihood belonging section display vector of (0, 0, 1, 0, 0) is created using the likelihood = 0.55 belonging to A1234.

5番目の特徴データ=(0.88,0.62,0.68,0.78)をA1234用のGMMに入力し、その出力が(A1234に属する尤度=0.38、A1234に属さない尤度=0.62)であったとすると、A1234に属する尤度=0.38を用いて、(0,1,0,0,0)という尤度帰属区画表示ベクトルが作成される。   The fifth feature data = (0.88, 0.62, 0.68, 0.78) is input to the A1234 GMM, and the output (likelihood belonging to A1234 = 0.38, does not belong to A1234 If likelihood = 0.62), a likelihood belonging partition display vector of (0, 1, 0, 0, 0) is created using likelihood = 0.38 belonging to A1234.

そして、1〜5番目の特徴データについて得られた5つの尤度帰属区画表示ベクトルを用いて、正規化を行うと、次のようになる。   When normalization is performed using the five likelihood attribution section display vectors obtained for the first to fifth feature data, the following is obtained.

頻度ベクトル=(0/5,1/5,1/5,1/5,2/5)   Frequency vector = (0/5, 1/5, 1/5, 1/5, 2/5)

また、頻度ベクトル算出用の区間として、3つの区間(例えば、A1,A234,AX)を設けると、区間A1に対する尤度について、上記のような5次元の頻度ベクトルが得られ、区間A234に対する尤度についても、上記のような5次元の頻度ベクトルが得られる。これら2つのベクトルを合成(2つのベクトルの直積(テンソル積)を計算して得られた行列の各成分からなるベクトルを得る操作とする。例えばu=(u1, u2, …, um)がm次元のベクトル、v=(v1, v2, …, vn)がn次元のベクトルの場合、その直積はm×nの行列となる。この行列の各成分は((u1×v1, u1×v2, …, u1×vn), (u2×v1, u2×v2, …, u2×vn), …, (um×v1, um×v2, …, um×vn))として与えられる。その各成分を取り出してm×n次元のベクトルを得る。)することで、25次元の頻度ベクトル(u=(u1, u2, u3, u4, u5)が5次元の頻度ベクトル、v=(v1, v2, v3, v4, v5)が5次元の頻度ベクトルの場合、合成頻度ベクトルは(u1×v1, u1×v2, …, u1×v5, u2×v1, u2×v2, …, u2×v5, …, u5×v1, u5×v2, …, u5×v5)として与えられる。)が得られる。   If three sections (for example, A1, A234, AX) are provided as frequency vector calculation sections, the five-dimensional frequency vector as described above is obtained for the likelihood for the section A1, and the likelihood for the section A234 is obtained. As for the degree, a five-dimensional frequency vector as described above is obtained. Combining these two vectors (an operation to obtain a vector composed of each component of a matrix obtained by calculating the direct product (tensor product) of two vectors. For example, u = (u1, u2, ..., um) is m. If a dimensional vector, v = (v1, v2,…, vn) is an n-dimensional vector, its direct product is an m × n matrix whose components are ((u1 × v1, u1 × v2, …, U1 × vn), (u2 × v1, u2 × v2,…, u2 × vn),…, (um × v1, um × v2,…, um × vn)). To obtain an m × n-dimensional vector), a 25-dimensional frequency vector (u = (u1, u2, u3, u4, u5) becomes a 5-dimensional frequency vector, v = (v1, v2, v3, When (v4, v5) is a five-dimensional frequency vector, the combined frequency vector is (u1 × v1, u1 × v2,…, u1 × v5, u2 × v1, u2 × v2,…, u2 × v5,…, u5 × v1, u5 × v2,..., u5 × v5))).

また、各々の区間(但し、イベント発生時点から最も遠い区間を除く)に属することの確からしさを示す数値(確率)を分割する区画の数は、区間ごとに異なっても良い。例えば、頻度ベクトル算出用の区間として、3つの区間(例えば、A1,A234,AX)を設け、区間A1の区画の数を(0以上0.3未満、0.3以上0.7未満、0.7以上)の3区画、区間A234の区画の数を(0以上0.7未満、0.7以上)の2区画に分けると、3次元の頻度ベクトルが1つ、2次元の頻度ベクトルが1つ得られるので、それらを合成して2×3=6次元の頻度ベクトルが得られる。   In addition, the number of sections for dividing a numerical value (probability) indicating the certainty of belonging to each section (excluding the section farthest from the event occurrence time) may be different for each section. For example, three intervals (for example, A1, A234, AX) are provided as frequency vector calculation intervals, and the number of sections in the interval A1 is (0 or more, less than 0.3, 0.3 or more, less than 0.7, 0 .7 or more) and the number of sections in section A234 are divided into two sections (0 to less than 0.7, 0.7 or more), one 3D frequency vector and one 2D frequency vector. Since one is obtained, they are combined to obtain a 2 × 3 = 6 dimensional frequency vector.

同様に、頻度ベクトル算出用の区間として、5つの区間A1,A2,A3,A4,AXを設け、さらに全ての区間(イベント発生時点から最も遠い区間AXを除く4つの区間)の区画の数をそれぞれ2区画とすると、区間A1〜A4の各々に対する尤度について、上記のような2次元の頻度ベクトルが得られ、合計4つの2次元の頻度ベクトルとなるので、これらを合成し、16次元の頻度ベクトルが得られる。なお、頻度ベクトル算出用の区間として、4つの区間を設け、各々の区間(イベント発生時点から最も遠い区間を除く3つの区間)の区画の数をそれぞれ5区画,3区画,2区画に分けると、5次元の頻度ベクトルが1つ、3次元の頻度ベクトルが1つ、2次元の頻度ベクトルが1つ得られるので、それらを合成して5×3×2=30次元の頻度ベクトルが得られる。   Similarly, five sections A1, A2, A3, A4, and AX are provided as frequency vector calculation sections, and the number of sections in all sections (four sections excluding the section AX farthest from the event occurrence point) is set. Assuming that each has two sections, the two-dimensional frequency vectors as described above are obtained for the likelihoods for each of the sections A1 to A4, resulting in a total of four two-dimensional frequency vectors. A frequency vector is obtained. If four sections are provided as frequency vector calculation sections, and the number of sections in each section (three sections excluding the section farthest from the event occurrence point) is divided into five sections, three sections, and two sections, respectively. Since one 5-dimensional frequency vector, one three-dimensional frequency vector, and one two-dimensional frequency vector are obtained, they are combined to obtain a 5 × 3 × 2 = 30-dimensional frequency vector. .

運用時におけるK個の特徴データで説明したが、学習時も、標本数が多くなるだけであり、同じ処理である。学習時には、例えば、区間A1234用のGMM(1つのGMM)を用意した場合には、このA1234用のGMMに対し、元の区間A1,A2,A3,A4,AXのそれぞれについて、頻度ベクトルを作成する。A1234用のGMMというパターン認識器は、あくまでも頻度ベクトル算出用の区間を形成したときの当該区間についての認識器であるから、元の各区間A1,A2,A3,A4,AXとは異なる概念で区切られた区間についての認識器である。詳述すれば、A1234用のGMMに対し、元の区間A1に属する全ての特徴データを入力すると、多数の尤度帰属区画表示ベクトルが作成され、それらの全てを用いて正規化を行うと、上記のような頻度ベクトルが作成されるが、その頻度ベクトルは、元の区間A1についての頻度ベクトルである。元の各区間A2,A3,A4,AXについても、A1234用のGMMを用いて同様な処理を行えば、元の区間A2,A3,A4,AXについてのそれぞれの頻度ベクトルが作成される。そして、作成された元の区間A1,A2,A3,A4,AXについての頻度ベクトルを、分布の代表値(代表ベクトル)として予兆検知モデル記憶手段62に記憶させてパラメータとして扱う。また、A1234用のGMMのパラメータも、運用時に使用するので、予兆検知モデル記憶手段62に記憶させる。   Although described with K feature data at the time of operation, only the number of samples is increased at the time of learning, which is the same processing. At the time of learning, for example, when a GMM for one section A1234 (one GMM) is prepared, a frequency vector is created for each of the original sections A1, A2, A3, A4, and AX for the GMM for A1234 To do. A pattern recognizer called GMM for A1234 is a recognizer for the section when the section for calculating the frequency vector is formed, and therefore has a different concept from the original sections A1, A2, A3, A4, and AX. It is a recognizer for the section which is divided. More specifically, when all feature data belonging to the original section A1 is input to the A1234 GMM, a large number of likelihood belonging section display vectors are created, and normalization is performed using all of them. The frequency vector as described above is created, and the frequency vector is the frequency vector for the original section A1. For the original sections A2, A3, A4, and AX, if the same processing is performed using the GMM for A1234, the respective frequency vectors for the original sections A2, A3, A4, and AX are created. Then, the generated frequency vector for the original sections A1, A2, A3, A4, and AX is stored in the predictive detection model storage unit 62 as a representative value (representative vector) of the distribution and handled as a parameter. The GMM parameters for A1234 are also used during operation, and are therefore stored in the sign detection model storage means 62.

また、上述したように、頻度ベクトル算出用の区間を形成する場合は、元の区間A1,A2,A3,A4,AXとは独立させ、任意の区間とすることができるので、例えば、A12用のGMM、A34用のGMM、A123用のGMM、A234用のGMM等のように、様々な認識器が用意されることになる。従って、それらの認識器の各々に対し、元の区間A1,A2,A3,A4,AXのそれぞれに属する特徴データを入力すると、認識器の数の分だけ、元の区間A1,A2,A3,A4,AXのそれぞれについての頻度ベクトルが作成されることになるが、この際、用意される認識器の数によっては、すなわち、頻度ベクトル算出用の区間を形成する際の分割数によっては、作成された頻度ベクトルを合成して1つの頻度ベクトルにする処理が発生する。頻度ベクトル算出用の区間を、どのように設定したとしても、元の区間A1についての頻度ベクトルは1つにし、同様に、元の区間A2,A3,A4,AXについての頻度ベクトルも、1つずつにするためである。より具体的には、頻度ベクトル算出用の区間として、2分割した区間(例えば、2つの区間A1234,AX)を形成した場合は、認識器は1つなので、合成は必要ないが、例えば、5分割した区間を形成し、4つの認識器(または4つの認識器の出力をまとめて出力する1つの認識器)を用意し、さらに全ての区間(イベント発生時点から最も遠い区間を除く4つの区間)の区画の数をそれぞれ2区画とした場合は、前述したように、合計4つの2次元の頻度ベクトルを合成し、16次元の頻度ベクトルとする処理を行う。4つの認識器のそれぞれから、元の区間A1についての2次元の頻度ベクトルが作成されるので、それらの元の区間A1についての4つの2次元の頻度ベクトルを合成することにより、A1についての16次元の頻度ベクトルを作成し、同様にして、元の区間A2,A3,A4,AXについても、A2,A3,A4,AXのそれぞれについての16次元の頻度ベクトルを作成するという意味である。これにより、各区間A1,A2,A3,A4,AXのそれぞれについて、頻度ベクトルが作成される。また、上記の頻度ベクトルは、2次元(合成する場合は、4次元、8次元、16次元)であるから、特徴データの次元数(M次元=4次元)と一致していない。従って、複数の特徴データにより形成される分布の代表値(代表ベクトル)の次元数は、特徴データの次元数と一致していなくてもよい。   Further, as described above, when forming a section for calculating a frequency vector, it can be made independent of the original sections A1, A2, A3, A4, and AX, and can be an arbitrary section. Various recognizers such as GMM for A34, GMM for A34, GMM for A123, and GMM for A234 are prepared. Therefore, when feature data belonging to each of the original sections A1, A2, A3, A4, and AX is input to each of the recognizers, the original sections A1, A2, A3, and the number of the recognizers are the same. A frequency vector for each of A4 and AX will be created. At this time, depending on the number of prepared recognizers, that is, depending on the number of divisions when forming a section for calculating a frequency vector, A process occurs in which the frequency vectors thus synthesized are combined into one frequency vector. Regardless of how the frequency vector calculation section is set, there is only one frequency vector for the original section A1, and similarly there is one frequency vector for the original sections A2, A3, A4, and AX. It is to make it one by one. More specifically, when a section divided into two (for example, two sections A1234 and AX) is formed as a section for calculating the frequency vector, since there is one recognizer, synthesis is not necessary. Form divided sections, prepare four recognizers (or one recognizer that outputs the outputs of the four recognizers together), and all the sections (except the sections farthest from the event occurrence time) ) Is divided into two sections, as described above, a total of four two-dimensional frequency vectors are synthesized to form a 16-dimensional frequency vector. Since each of the four recognizers creates a two-dimensional frequency vector for the original section A1, by synthesizing the four two-dimensional frequency vectors for the original section A1, 16 for A1 is synthesized. This means that a dimensional frequency vector is created, and similarly, for the original sections A2, A3, A4, and AX, a 16-dimensional frequency vector is created for each of A2, A3, A4, and AX. Thereby, a frequency vector is created for each of the sections A1, A2, A3, A4, and AX. In addition, since the frequency vector is two-dimensional (in the case of synthesis, four dimensions, eight dimensions, and sixteen dimensions), it does not match the number of dimensions of feature data (M dimensions = 4 dimensions). Therefore, the number of dimensions of the representative value (representative vector) of the distribution formed by the plurality of feature data may not match the number of dimensions of the feature data.

以上のように、運用時において、切出区間C内のK個の特徴データによる分布の代表値(代表ベクトル)が得られるとともに、各区間A1,A2,A3,A4,AXの分布の代表値(代表ベクトル)が予め求められて予兆検知モデル記憶手段63に記憶されている状況下では、代表値(代表ベクトル)間の類似度を算出することができる。すなわち、運用時の分布の代表値(代表ベクトル)と、各区間A1,A2,A3,A4,AXの分布の代表値(代表ベクトル)のそれぞれとの類似度L1,L2,L3,L4,LXを算出することができる。この際、類似度としては、例えば、正規分布を仮定し分布の代表値として平均ベクトルμおよび標準偏差ベクトルσが求められている場合はKLダイバージェンス(KL距離)を用いることができる。また、例えば、頻度ベクトルが求められている場合はユークリッド距離やコサイン類似度等を用いることができる。   As described above, during operation, a representative value (representative vector) of the distribution of K feature data in the cut-out section C is obtained, and a representative value of the distribution of each section A1, A2, A3, A4, and AX. Under a situation where (representative vector) is obtained in advance and stored in the sign detection model storage means 63, the similarity between representative values (representative vectors) can be calculated. That is, the similarity L1, L2, L3, L4, LX between the representative value (representative vector) of the distribution at the time of operation and the representative value (representative vector) of the distribution of each section A1, A2, A3, A4, AX. Can be calculated. At this time, as the similarity, for example, when a normal distribution is assumed and an average vector μ and a standard deviation vector σ are obtained as representative values of the distribution, KL divergence (KL distance) can be used. Further, for example, when a frequency vector is obtained, Euclidean distance, cosine similarity, and the like can be used.

そして、算出された類似度L1,L2,L3,L4,LXは、サブスコアであるから、これらのサブスコアを用いて、最終的なスコアを算出し、出力する。例えば、分布間の距離を示すKL距離の場合には、分布が完全に一致したときには0になり、離れているときには、数値が大きくなるので、この関係を逆転させ、分布が近いときに、高い確率であることをイメージできるように数値を大きくするような変換処理等を行う。このような変換処理は、関数で行ってもよく、テーブルで行ってもよい。また、このような変換処理の機能を、出力手段70に持たせてもよく、その場合には、サブスコアである類似度が、予兆検知器60の最終的な出力スコアとなる。   Since the calculated similarities L1, L2, L3, L4, and LX are subscores, a final score is calculated and output using these subscores. For example, in the case of the KL distance indicating the distance between the distributions, the value is 0 when the distributions completely match, and the numerical value increases when they are separated from each other. A conversion process or the like is performed to increase the numerical value so that the probability can be imaged. Such conversion processing may be performed by a function or a table. Further, the function of such conversion processing may be provided in the output means 70, and in that case, the similarity that is the sub-score becomes the final output score of the sign detector 60.

<切出区間Cの特徴データの集合をベクトル化してベクトル間の類似度を求める場合>   <When obtaining a similarity between vectors by vectorizing a set of feature data in the cut section C>

図16の例では、学習時に、最尤学習により、各区間A1,A2,A3,A4,AX用の混合ガウスモデル(GMM)、および全体のGMMを構築する。全体のGMMは、各区間A1〜A4,AXに属する全ての特徴データ(A1の特徴データの集合+A2の特徴データの集合+…)を使った学習で得られるモデルであり、ユニバーサル・バックグランド・モデル(UBM)である。各区間A1〜A4,AX用のGMMは、全体的・平均的な内容を示すUBMに対し、各区間A1〜A4,AXのそれぞれに属する特徴データの集合から得られる部分的な情報(予兆時区間A1であれば、A1だけの情報)を適応させたモデルである。   In the example of FIG. 16, a mixed Gaussian model (GMM) for each section A1, A2, A3, A4, and AX and the entire GMM are constructed by maximum likelihood learning during learning. The entire GMM is a model obtained by learning using all feature data belonging to each section A1 to A4, AX (A1 feature data set + A2 feature data set +...), Universal background Model (UBM). The GMM for each section A1 to A4 and AX is a partial information (predictive time) obtained from a set of feature data belonging to each section A1 to A4 and AX with respect to the UBM indicating the overall and average contents. If it is section A1, it is a model to which information (only A1 information) is adapted.

続いて、各区間A1〜A4,AXのGMM、および全体のGMMのそれぞれについて、スーパーベクトル(SV)を作成する。このSVは、GMMを構成するガウス分布の平均ベクトルμを全て連結して形成した高次元ベクトルである。これにより、A1のGMMのSV、A2のGMMのSV、A3のGMMのSV、A4のGMMのSV、AXのGMMのSV、および、全体のGMMのSVが作成される。   Subsequently, a super vector (SV) is created for each of the GMMs in the sections A1 to A4 and AX and the entire GMM. This SV is a high-dimensional vector formed by concatenating all the Gaussian distribution average vectors μ constituting the GMM. This creates an A1 GMM SV, an A2 GMM SV, an A3 GMM SV, an A4 GMM SV, an AX GMM SV, and an overall GMM SV.

それから、これらのSVを用いて、次の式に基づき、確率的因子分析を行うことにより、射影行列、および各区間A1〜A4,AX用のiベクタを算出する。iベクタは、SVよりも次元数の小さい低次元ベクトルであるが、このiベクタの次元数は、本システムを構築するシステム管理者が、適切な次元を選択して決める。なお、iベクタに関する技術自体は公知技術である(非特許文献1参照)。   Then, using these SVs, a projective matrix and i-vectors for the sections A1 to A4 and AX are calculated by performing probabilistic factor analysis based on the following formula. The i vector is a low-dimensional vector having a dimension number smaller than that of the SV. The system administrator who constructs the system selects and determines the dimension number of the i vector. In addition, the technique itself regarding i vector is a well-known technique (refer nonpatent literature 1).

各区間A1〜A4,AXのGMMのSV=全体のGMMのSV+射影行列×各区間A1〜A4,AXのiベクタ   SV of GMM of each section A1 to A4, AX = SV of entire GMM + projection matrix × i vector of each section A1 to A4, AX

これにより、A1のiベクタ、A2のiベクタ、A3のiベクタ、A4のiベクタ、AXのiベクタ、および、1つの射影行列が得られる。その後、各区間A1〜A4,AXのiベクタ、射影行列、および、全体のGMMのSVを、予兆検知モデル記憶手段62に記憶させる。射影行列および全体のGMMのSVを記憶させるのは、運用時のiベクタを上記の式で算出する際に、これらを固定値として用いるからである。   Thereby, the i vector of A1, the i vector of A2, the i vector of A3, the i vector of A4, the i vector of AX, and one projection matrix are obtained. After that, the i-vector, projection matrix, and overall GMM SV of each section A1 to A4 and AX are stored in the sign detection model storage means 62. The reason why the projection matrix and the SV of the entire GMM are stored is that they are used as fixed values when the i-vector at the time of operation is calculated by the above formula.

なお、iベクタを算出せずに、学習時の処理をSVの算出までの処理とし、SVを類似度の判定に用いてもよい。SVを類似度の判定に用いる場合には、各区間A1〜A4,AXのSVを、予兆検知モデル記憶手段62に記憶させる必要があるが、運用時にiベクタの算出は行わないので、全体のGMMのSVを記憶させる必要はない。   Note that the i-vector may not be calculated, and the process at the time of learning may be the process up to the calculation of the SV, and the SV may be used for the similarity determination. When using SV for similarity determination, it is necessary to store the SV of each of the sections A1 to A4 and AX in the sign detection model storage means 62. However, since the i vector is not calculated during operation, It is not necessary to store the GMM SV.

運用時には、切出区間C内のK個の特徴データを用いて、運用時のGMMを生成し、更に、この運用時のGMMのSVを生成する。それから、生成した運用時のSVを、射影行列および全体のGMMのSVの部分が固定値とされている状態(これらは、パラメータとして、予兆検知モデル記憶手段62から読み込まれる。)の前述した式に入力し、運用時のiベクタを算出する(実際の計算はEMアルゴリズム等により行う)。   At the time of operation, the GMM at the time of operation is generated using the K feature data in the cut section C, and further, the SV of the GMM at the time of operation is generated. Then, the generated SV at the time of operation is in the state where the projection matrix and the SV portion of the entire GMM are fixed values (these are read from the predictive detection model storage means 62 as parameters). To calculate the i vector at the time of operation (actual calculation is performed by EM algorithm or the like).

以上のように、運用時において、切出区間C内のK個の特徴データによる運用時のiベクタが得られるとともに、各区間A1,A2,A3,A4,AXのiベクタが予め求められて予兆検知モデル記憶手段63に記憶されている状況下では、iベクタ間の類似度を算出することができる。すなわち、運用時のiベクタと、各区間A1,A2,A3,A4,AXのiベクタのそれぞれとの類似度R1,R2,R3,R4,RXを算出することができる。この際、類似度としては、例えば、コサイン類似度等を用いることができる。   As described above, at the time of operation, i-vectors at the time of operation are obtained from K feature data in the cut-out section C, and i-vectors of the sections A1, A2, A3, A4, and AX are obtained in advance. Under the situation stored in the sign detection model storage unit 63, the similarity between i vectors can be calculated. That is, the similarity R1, R2, R3, R4, RX between the i vector at the time of operation and the i vector of each section A1, A2, A3, A4, AX can be calculated. At this time, as the similarity, for example, a cosine similarity can be used.

そして、算出された類似度R1,R2,R3,R4,RXは、サブスコアであるから、これらのサブスコアを用いて、最終的なスコアを算出し、出力する。例えば、サブスコアから、確率の大きさを示すような数値への変換処理を行う。このような変換処理は、関数で行ってもよく、テーブルで行ってもよい。また、このような変換処理の機能を、出力手段70に持たせてもよく、その場合には、サブスコアである類似度が、予兆検知器60の最終的な出力スコアとなる。   Since the calculated similarities R1, R2, R3, R4, and RX are subscores, a final score is calculated and output using these subscores. For example, the conversion process from the subscore to a numerical value indicating the magnitude of the probability is performed. Such conversion processing may be performed by a function or a table. Further, the function of such conversion processing may be provided in the output means 70, and in that case, the similarity that is the sub-score becomes the final output score of the sign detector 60.

<各区間A1〜A4,AX内にセグメントを形成する場合>   <When forming a segment in each section A1-A4, AX>

図17の例では、各区間A1〜A4,AX内に、小区間であるセグメントを形成している。予兆時区間A1においては、セグメントA1(S1),A1(S2),A1(S3),A1(S4),…が形成されている。従って、これらのセグメントの時間長は、予兆時区間A1の時間長よりも短い。また、それぞれのセグメントの区間は、重なっていてもよく、重なりなく形成されていてもよい。その他の区間A2〜A4,AXについても同様である。   In the example of FIG. 17, segments that are small sections are formed in the sections A1 to A4 and AX. In the predictive time interval A1, segments A1 (S1), A1 (S2), A1 (S3), A1 (S4),... Are formed. Therefore, the time length of these segments is shorter than the time length of the predictive time interval A1. Moreover, the section of each segment may overlap and may be formed without overlapping. The same applies to the other sections A2 to A4 and AX.

前述した図15の例では、学習で得られた各区間A1〜A4,AXの分布の代表値(代表ベクトル)と、これよりも短い期間である運用時の切出区間Cの分布の代表値(代表ベクトル)との分布間の類似度L1〜L4,LXを算出していた。また、前述した図16の例では、学習で得られた各区間A1〜A4,AXのiベクタまたはスーパーベクトル(SV)と、これよりも短い期間である運用時の切出区間CのiベクタまたはSVとのベクトル間の類似度R1〜R4,RXを算出していた。従って、前述した図15や図16の例では、例えば予兆時区間A1であれば、区間A1の全体を示す内容(区間A1内で平均化された内容)と、それよも短い期間である切出区間Cの内容とを比較していることになる。このため、区間A1内に、部分的に、切出区間Cの内容に類似する内容の部分があったとしても、必ずしもそれが直接に類似度に反映されない場合もある。そこで、小区間であるセグメントを形成し、部分的な類似を捉えようとしている。よって、各セグメントの時間長は、任意ではあるが、運用時の切出区間Cの時間長と同一または同程度であることが好ましい。   In the example of FIG. 15 described above, the representative value (representative vector) of the distribution of each section A1 to A4, AX obtained by learning, and the representative value of the distribution of the cut section C during operation, which is a shorter period than this. Similarities L1 to L4 and LX between distributions with (representative vectors) were calculated. In the example of FIG. 16 described above, the i vector or super vector (SV) of each of the sections A1 to A4 and AX obtained by learning, and the i vector of the cut section C during operation that is shorter than this. Alternatively, similarities R1 to R4 and RX between vectors with SV are calculated. Therefore, in the example of FIGS. 15 and 16 described above, for example, in the case of the predictive time interval A1, the content indicating the entire interval A1 (content averaged in the interval A1) and the shorter interval are cut. The contents of the outgoing section C are compared. For this reason, even if there is a part of the content similar to the content of the cut section C in the section A1, it may not always be directly reflected in the similarity. Therefore, a segment which is a small section is formed to try to catch a partial similarity. Therefore, although the time length of each segment is arbitrary, it is preferable that it is the same as or comparable to the time length of the cutting section C at the time of operation.

図17の例では、学習時に、各セグメントについて、各セグメントに属する特徴データを用いて、図16の場合と同様にして、スーパーベクトル(SV)やiベクタが作成され、あるいは、図15の場合と同様にして、分布やその代表値(代表ベクトル)が作成される。従って、予兆時区間A1については、各セグメントA1(S1),A1(S2),A1(S3),A1(S4),…のSV群、iベクタ群、あるいは、分布群またはそれらの代表値(代表ベクトル)群が作成される。その他の区間A2〜A4,AXについても同様である。   In the example of FIG. 17, at the time of learning, a super vector (SV) or i vector is created for each segment using the feature data belonging to each segment in the same manner as in FIG. 16, or in the case of FIG. Similarly to the above, a distribution and its representative value (representative vector) are created. Therefore, for the predictive time interval A1, the SV group, i vector group, distribution group, or representative value of each segment A1 (S1), A1 (S2), A1 (S3), A1 (S4),. A representative vector group is created. The same applies to the other sections A2 to A4 and AX.

また、運用時の切出区間CのSVやiベクタの算出も、図16の場合と同様であり、運用時の切出区間Cの分布またはその代表値(代表ベクトル)の算出も、図15の場合と同様である。   Further, the calculation of the SV and i vector of the cut section C during operation is the same as that in FIG. 16, and the distribution of the cut section C during operation or the calculation of the representative value (representative vector) is also illustrated in FIG. It is the same as the case of.

図17の例における類似度の算出は、予兆時区間A1については、運用時の切出区間CのSVやiベクタと、区間A1のSV群の各々やiベクタ群の各々とのベクトル間の類似度(例えばコサイン類似度等)を算出し、あるいは、運用時の切出区間Cの分布の代表値(代表ベクトル)と、区間A1の分布群の代表値(代表ベクトル)群の各々との分布間の類似度(例えばKL距離等)を算出する。その他の区間A2〜A4,AXについても同様である。そして、K−NN法等により、運用時の切出区間CのSVやiベクタ、あるいは分布の代表値(代表ベクトル)が、各区間A1〜A4,AXのうちのいずれに割り当てられるのか、またはその程度を算出する。または、内部メモリを持たない静的なパターン認識器による処理(アルゴリズム)により、求めてもよい。例えば、GMM、単純なNN、SVM等のように、一般的な識別問題に用いられる手法を全て採用することができる。簡単に言えば、運用時の切出区間CのSVやiベクタ、あるいは分布の代表値(代表ベクトル)に対し、予兆時区間A1内には、類似のセグメントが幾つあり、予兆時区間A2内には、類似のセグメントが幾つあり、…、予兆時区間AX内には、類似のセグメントが幾つあるというような情報を類似度(サブスコア)として出力する。そして、必要に応じ、サブスコアからの変換処理を行って最終的なスコアを出力するか、または、得られた類似度(サブスコア)をそのまま最終的なスコアとして出力する。   The calculation of the similarity in the example of FIG. 17 is for the predictive time interval A1 between the vectors of the SV and i vectors in the cut-out interval C during operation and each of the SV groups and i vector groups in the interval A1. Similarity (for example, cosine similarity) is calculated, or the representative value (representative vector) of the distribution of the cut section C during operation and the representative value (representative vector) group of the distribution group of the section A1 Similarity between distributions (for example, KL distance) is calculated. The same applies to the other sections A2 to A4 and AX. Then, according to the K-NN method or the like, the SV or i vector of the cut section C at the time of operation or the representative value (representative vector) of the distribution is assigned to any of the sections A1 to A4, AX, or The degree is calculated. Or you may obtain | require by the process (algorithm) by the static pattern recognizer which does not have an internal memory. For example, all methods used for general identification problems, such as GMM, simple NN, and SVM, can be employed. To put it simply, there are several similar segments in the predictive time interval A1 with respect to the SV and i vector of the cut-out interval C during operation, or the representative value (representative vector) of the distribution, and within the predictive time interval A2. Includes information indicating that there are several similar segments, and that there are several similar segments in the predictive time interval AX, as a similarity (subscore). Then, if necessary, a conversion process from the sub-score is performed and a final score is output, or the obtained similarity (sub-score) is directly output as a final score.

以上のように、本発明の予兆検知システムおよびプログラムは、例えば、家畜の分娩、独房内の囚人の自殺、鬱病の発症、事故や危険行為の発生、トンネルの崩落、河川の氾濫、火山の噴火等の災害の発生、窃盗等の犯罪やテロの発生等についての予兆を検知する場合に用いるのに適している。   As described above, the predictive detection system and program according to the present invention include, for example, livestock delivery, suicide of prisoners in a cell, development of depression, occurrence of accidents and dangerous acts, collapse of a tunnel, flooding of a river, eruption of a volcano It is suitable for detecting signs of disasters such as theft, crimes such as theft and terrorist attacks.

10 予兆検知システム
40 状態データ取得手段
50 予兆特徴抽出器
60 予兆検知器
70 出力手段
DESCRIPTION OF SYMBOLS 10 Predictive detection system 40 Status data acquisition means 50 Predictive feature extractor 60 Predictive detector 70 Output means

Claims (7)

イベントの発生前に生じる予兆を検知する予兆検知システムであって、
前記イベントの発生の可能性がある予兆検知対象についての状態を示す状態データとして、人の知覚で認識可能な知覚データを含むデータを継続的にまたは繰り返し取得する状態データ取得手段と、
この状態データ取得手段により取得した前記状態データを用いて、前記予兆検知対象の状態が、予兆に関連し、かつ、常時出現する可能性のある特定の状態を含む予兆に関連する予め定められた少なくとも1つの特定の状態に該当するか否かまたは当該特定の状態に対する類似の程度を示すデータを出力するパターン認識処理を実行し、このパターン認識処理で得られる特徴データを抽出する処理を繰り返し実行する予兆特徴抽出器と、
この予兆特徴抽出器により抽出した時系列の前記特徴データを用いて、時系列パターン認識処理を実行し、予兆の有無または存否の程度を示すスコアを出力する予兆検知器と
を備えたことを特徴とする予兆検知システム。
A sign detection system that detects signs that occur before an event occurs,
State data acquisition means for continuously or repeatedly acquiring data including perceptual data recognizable by human perception as state data indicating a state of a sign detection target that may cause the event;
Using the state data acquired by the state data acquisition means, the state of the detection target is determined in advance related to a sign including a specific state that is related to the sign and may appear at all times. Executes pattern recognition processing that outputs data indicating whether or not it corresponds to at least one specific state or the degree of similarity to the specific state, and repeatedly executes processing for extracting feature data obtained by this pattern recognition processing A predictive feature extractor,
A predictive detector for executing a time-series pattern recognition process using the time-series feature data extracted by the predictive feature extractor and outputting a score indicating the presence or absence or presence / absence of the predictor. Predictive detection system.
前記予兆特徴抽出器は、
ニューラル・ネットワークによるパターン認識処理を実行し、前記特徴データとして、少なくとも1つの前記特定の状態に対応する出力ノードに至る中間層の出力データを抽出する処理を実行する構成とされている
ことを特徴とする請求項1に記載の予兆検知システム。
The predictive feature extractor is
It is configured to execute pattern recognition processing by a neural network, and to execute processing for extracting output data of an intermediate layer that reaches at least one output node corresponding to the specific state as the feature data. The sign detection system according to claim 1.
前記予兆検知器は、
イベントの発生前の時間帯を区切ることにより予兆が出現する可能性のある区間として設定した複数の予兆時区間に対応するスコアを出力する構成とされている
ことを特徴とする請求項1または2に記載の予兆検知システム。
The sign detector is
The score corresponding to a plurality of predictive time sections set as sections in which a sign may appear by dividing a time zone before the occurrence of an event is configured to be output. The sign detection system described in 1.
イベントの発生時期について事前に予測または予定した事前情報を記憶する事前情報記憶手段と、
この事前情報記憶手段に記憶された前記事前情報を用いて作成されるイベント発生の確率分布と、前記予兆検知器から出力されるスコアを用いて作成されるイベント発生の確率分布とを合成した合成分布を表示するか、または、前記事前情報記憶手段に記憶された前記事前情報を、前記予兆特徴抽出器からの前記特徴データとともに前記予兆検知器に入力することにより前記予兆検知器から出力されるスコアを用いて作成される合成分布を表示する処理を実行する出力手段と
を備えたことを特徴とする請求項1〜3のいずれかに記載の予兆検知システム。
Prior information storage means for storing advance information that is predicted or scheduled in advance about the occurrence time of the event,
Combining the probability distribution of event occurrence created using the prior information stored in the prior information storage means and the probability distribution of event occurrence created using the score output from the sign detector By displaying the composite distribution or inputting the prior information stored in the prior information storage means together with the feature data from the predictive feature extractor into the predictive detector from the predictive detector The sign detection system according to claim 1, further comprising: an output unit that executes a process of displaying a composite distribution created using the output score.
前記予兆検知器から出力されるスコアを用いてイベントの発生確率をカレンダ上に表示する処理を実行する出力手段を備え、
この出力手段は、
複数の前記予兆時区間のうちの少なくとも1つの前記予兆時区間と前記カレンダの単位区間との間で、時間長が一致しないか若しくは区間がずれている場合には、前記予兆時区間を前記カレンダの単位区間に対応させて分割し、前記予兆時区間内の確率分布を一様分布とみなして前記予兆時区間に対応するスコアを按分することにより前記カレンダの単位区間に割り当てるか、または、複数の前記予兆時区間に対応する各々のスコアの少なくとも一部ずつについて前記カレンダの同一の単位区間に割り当てる処理を実行する構成とされている
ことを特徴とする請求項3に記載の予兆検知システム。
An output means for executing a process of displaying an event occurrence probability on a calendar using a score output from the predictive detector;
This output means is
When the time length does not match or the section is deviated between at least one of the predictive time intervals and the unit unit of the calendar, the predictive time interval is changed to the calendar. Is divided into corresponding unit intervals, and the probability distribution in the predictive time interval is regarded as a uniform distribution and assigned to the calendar unit interval by dividing the score corresponding to the predictive time interval, or a plurality of The sign detection system according to claim 3, wherein at least a part of each score corresponding to the sign time interval is assigned to the same unit interval of the calendar.
前記予兆検知器から出力されるスコアを用いてイベント発生の確率分布またはその累積分布を表示する処理を実行する出力手段を備え、
この出力手段は、
(1)複数の前記予兆時区間が重なることなく設定されている場合に、複数の前記予兆時区間の各々の確率分布を、予め用意された複数種類の分布のうちのいずれかを用いて疑似的に作成する際に、複数の前記予兆時区間の確率分布を合成または連結した状態の確率分布曲線についての局所的な勾配変化が、最小となるか、または予め定められた閾値以下若しくは未満となる分布を選択する処理と、
(2)複数の前記予兆時区間が重ねて設定されている場合に、時間長の異なる複数の前記予兆時区間が重なっている区間については、最も短い前記予兆時区間に対応するスコアを用いて疑似的に作成されるイベント発生の確率分布またはその累積分布を採用し、それ以外の前記予兆時区間に対応するスコアを用いて疑似的に作成されるイベント発生の確率分布またはその累積分布は採用しない処理と、
(3)複数の前記予兆時区間が重ねて設定されている場合に、時間長の異なる複数の前記予兆時区間が重なっている区間については、それぞれの前記予兆時区間に対応するスコアを用いて疑似的に作成されるイベント発生の確率分布またはその累積分布を、予め定められた割合で合成する処理と、
(4)複数の前記予兆時区間が重ねて設定されている場合に、複数の前記予兆時区間の各々の確率分布またはその累積分布を、予め用意された複数種類の分布のうちのいずれかを用いて疑似的に作成する際に、自分よりも短い時間長の前記予兆時区間に対応するスコアを用いて、自分の確率分布またはその累積分布を作成するために使用する分布を選択する処理とのうちの少なくとも1つの処理を実行する構成とされている
ことを特徴とする請求項3に記載の予兆検知システム。
An output means for executing a process of displaying a probability distribution of event occurrence or a cumulative distribution thereof using a score output from the sign detector;
This output means is
(1) When a plurality of the predictive time intervals are set without overlapping, the probability distribution of each of the multiple predictive time intervals is simulated using any of a plurality of types of distributions prepared in advance. The local gradient change of the probability distribution curve in a state in which the probability distributions of the plurality of predictive time intervals are combined or connected is minimized, or less than or less than a predetermined threshold. A process of selecting a distribution
(2) When a plurality of the predictive time sections are set to overlap, for a section where a plurality of the predictive time sections having different time lengths overlap, the score corresponding to the shortest predictive time section is used. Adopts a pseudo event distribution or cumulative distribution of event occurrences, and employs a probability distribution or cumulative distribution of event occurrences that are artificially created using scores corresponding to other predictive time intervals. Do not process,
(3) When a plurality of the predictive time sections are set to overlap, for a section in which a plurality of the predictive time sections having different time lengths overlap, the score corresponding to each of the predictive time sections is used. A process of synthesizing a probability distribution of event occurrence created in a pseudo manner or a cumulative distribution thereof at a predetermined ratio;
(4) When a plurality of the predictor time intervals are set in an overlapping manner, the probability distribution of each of the plurality of predictor time intervals or the cumulative distribution thereof is any one of a plurality of types of distributions prepared in advance. A process of selecting a distribution to be used for creating one's own probability distribution or its cumulative distribution using a score corresponding to the predictive time interval having a shorter time length than that of the self when using The sign detection system according to claim 3, wherein at least one of the processes is executed.
請求項1〜6のいずれかに記載の予兆検知システムとして、コンピュータを機能させるためのプログラム。   A program for causing a computer to function as the sign detection system according to claim 1.
JP2018057336A 2018-03-25 2018-03-25 Early detection system and program Active JP7107498B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018057336A JP7107498B2 (en) 2018-03-25 2018-03-25 Early detection system and program
JP2022108700A JP7313610B2 (en) 2018-03-25 2022-07-05 Early detection system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018057336A JP7107498B2 (en) 2018-03-25 2018-03-25 Early detection system and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022108700A Division JP7313610B2 (en) 2018-03-25 2022-07-05 Early detection system and program

Publications (2)

Publication Number Publication Date
JP2019169011A true JP2019169011A (en) 2019-10-03
JP7107498B2 JP7107498B2 (en) 2022-07-27

Family

ID=68108362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018057336A Active JP7107498B2 (en) 2018-03-25 2018-03-25 Early detection system and program

Country Status (1)

Country Link
JP (1) JP7107498B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200071597A (en) * 2018-12-11 2020-06-19 대한민국(농촌진흥청장) Prediction method and the apparatus for onset time of sow farrowing by image analysis
JP2021121176A (en) * 2020-01-31 2021-08-26 ノーリツプレシジョン株式会社 Delivery timing notification system and delivery timing notification method
JP2021174372A (en) * 2020-04-28 2021-11-01 アルセンス株式会社 Sensor device and livestock management system
JP7434073B2 (en) 2020-06-16 2024-02-20 株式会社日立製作所 Model operation support system and method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243236A (en) * 2000-02-28 2001-09-07 Nippon Telegr & Teleph Corp <Ntt> Video feature extracting method, video feature extracting device, video retrieving method, video retrieving device and recording medium in which its program is recorded
JP2009122829A (en) * 2007-11-13 2009-06-04 Sony Corp Information processing apparatus, information processing method, and program
JP2011174765A (en) * 2010-02-23 2011-09-08 Chugoku Electric Power Co Inc:The Apparatus deterioration evaluation support method and apparatus deterioration evaluation support device
JP2017215710A (en) * 2016-05-31 2017-12-07 株式会社リコー Information processing device, program, and information processing method
US20180033144A1 (en) * 2016-09-21 2018-02-01 Realize, Inc. Anomaly detection in volumetric images
JP2018041319A (en) * 2016-09-08 2018-03-15 日本電信電話株式会社 Movement state learning device, movement state recognition unit, method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243236A (en) * 2000-02-28 2001-09-07 Nippon Telegr & Teleph Corp <Ntt> Video feature extracting method, video feature extracting device, video retrieving method, video retrieving device and recording medium in which its program is recorded
JP2009122829A (en) * 2007-11-13 2009-06-04 Sony Corp Information processing apparatus, information processing method, and program
JP2011174765A (en) * 2010-02-23 2011-09-08 Chugoku Electric Power Co Inc:The Apparatus deterioration evaluation support method and apparatus deterioration evaluation support device
JP2017215710A (en) * 2016-05-31 2017-12-07 株式会社リコー Information processing device, program, and information processing method
JP2018041319A (en) * 2016-09-08 2018-03-15 日本電信電話株式会社 Movement state learning device, movement state recognition unit, method, and program
US20180033144A1 (en) * 2016-09-21 2018-02-01 Realize, Inc. Anomaly detection in volumetric images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
須見 公祐: "牛の分娩監視における行動解析に関する研究", 電気学会資料 知覚情報研究会 PI−17−032〜044・046〜051 次世代産業システム研究会, JPN6022006396, 27 March 2017 (2017-03-27), pages 5 - 10, ISSN: 0004708716 *
麻生 英樹: "「Deep Learning(深層学習)」 〔第2回〕 多層ニューラルネットワークによる深層表現の学", 人工知能学会誌, vol. 第28巻 第4号, JPN6022006395, 1 July 2013 (2013-07-01), pages 649 - 659, ISSN: 0004708717 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200071597A (en) * 2018-12-11 2020-06-19 대한민국(농촌진흥청장) Prediction method and the apparatus for onset time of sow farrowing by image analysis
KR102141582B1 (en) 2018-12-11 2020-08-05 대한민국 Prediction method and the apparatus for onset time of sow farrowing by image analysis
JP2021121176A (en) * 2020-01-31 2021-08-26 ノーリツプレシジョン株式会社 Delivery timing notification system and delivery timing notification method
JP7406752B2 (en) 2020-01-31 2023-12-28 ノーリツプレシジョン株式会社 Delivery timing notification system and delivery timing notification method
JP2021174372A (en) * 2020-04-28 2021-11-01 アルセンス株式会社 Sensor device and livestock management system
JP7449510B2 (en) 2020-04-28 2024-03-14 アルセンス株式会社 sensor device
JP7434073B2 (en) 2020-06-16 2024-02-20 株式会社日立製作所 Model operation support system and method

Also Published As

Publication number Publication date
JP7107498B2 (en) 2022-07-27

Similar Documents

Publication Publication Date Title
JP7107498B2 (en) Early detection system and program
US20210125732A1 (en) System and method with federated learning model for geotemporal data associated medical prediction applications
Rodríguez et al. Multi-agent information fusion system to manage data from a WSN in a residential home
Lotfi et al. Smart homes for the elderly dementia sufferers: identification and prediction of abnormal behaviour
WO2018047804A1 (en) Abnormality detecting device, abnormality detecting method, and recording medium
CN104334075B (en) Biometric attributes abnormality detection system with adjustment notice
US11688265B1 (en) System and methods for safety, security, and well-being of individuals
JP6650305B2 (en) Behavior analysis system and program
CN102572390B (en) Apparatus and method for monitoring motion of monitored objects
WO2023079139A1 (en) Automated standardized location digital twin and location digital twin method factoring in dynamic data at different construction levels, and system thereof
CN110139598A (en) Monitoring and tracking system, method, article and equipment
US11875569B2 (en) Smart video surveillance system using a neural network engine
US20110165544A1 (en) Activity data presenting apparatus, activity data presenting method and recording medium
US11990231B2 (en) Workflow predictive analytics engine
CN113397520A (en) Information detection method and device for indoor object, storage medium and processor
CN106030612A (en) Providing photo heat maps
CN110111815A (en) Animal anomaly sound monitoring method and device, storage medium, electronic equipment
JP2006059185A (en) Data management system and method
Atallah et al. Behaviour profiling with ambient and wearable sensing
JP2024040203A (en) Person detection device, person tracking apparatus, person tracking system, person detection method, person tracking method, person detection program and person tracking program
Eldib et al. Discovering activity patterns in office environment using a network of low-resolution visual sensors
JP7313610B2 (en) Early detection system and program
CN116307628A (en) Automatic generation method and device for emergency scheme
Mahmoud Identification and prediction of abnormal behaviour activities of daily living in intelligent environments
KR102499291B1 (en) Method and system for CCTV installation simulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220705

R150 Certificate of patent or registration of utility model

Ref document number: 7107498

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150