JP6648435B2 - Discrimination device, discrimination method, program, model generation device, and model generation method - Google Patents

Discrimination device, discrimination method, program, model generation device, and model generation method Download PDF

Info

Publication number
JP6648435B2
JP6648435B2 JP2015145545A JP2015145545A JP6648435B2 JP 6648435 B2 JP6648435 B2 JP 6648435B2 JP 2015145545 A JP2015145545 A JP 2015145545A JP 2015145545 A JP2015145545 A JP 2015145545A JP 6648435 B2 JP6648435 B2 JP 6648435B2
Authority
JP
Japan
Prior art keywords
evaluation value
feature amount
motion
moving object
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015145545A
Other languages
Japanese (ja)
Other versions
JP2017026475A (en
Inventor
美智代 松井
美智代 松井
前野 蔵人
蔵人 前野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2015145545A priority Critical patent/JP6648435B2/en
Publication of JP2017026475A publication Critical patent/JP2017026475A/en
Application granted granted Critical
Publication of JP6648435B2 publication Critical patent/JP6648435B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、判別装置、判別方法、プログラム、モデル生成装置、及びモデル生成方法に関する。   The present invention relates to a determination device, a determination method, a program, a model generation device, and a model generation method.

近年、非接触のセンサにより検出された人物等の動体の動きに由来する信号に基づいて、動体の動きを判別する技術が開発されている。例えば、下記特許文献1には、センサにより検出された信号の処理において、センサの感度補正を行う感度補正手段を少なくとも一つ備えた制御回路に係る発明が開示されている。なお、感度補正手段は、例えば、制御回路内の増幅回路の増幅率を調整したり、1次遅れフィルタを用いて比較的早い動きの周波数成分を抑制したり、また、2次遅れフィルタを用いて比較的緩慢な動きの周波数成分を抑制する機能を含む。かかる構成において、上記の感度補正手段を切り替えることにより、人物の存在の有無について判別するための感度を調整することができる。   2. Description of the Related Art In recent years, a technique has been developed for determining the movement of a moving object based on a signal derived from the movement of a moving object such as a person detected by a non-contact sensor. For example, Patent Literature 1 below discloses an invention relating to a control circuit including at least one sensitivity correction unit for correcting the sensitivity of a sensor in processing a signal detected by the sensor. Note that the sensitivity correction means adjusts the amplification factor of the amplifier circuit in the control circuit, suppresses a relatively fast-moving frequency component using a first-order lag filter, or uses a second-order lag filter, for example. And a function of suppressing frequency components of relatively slow movement. In such a configuration, by switching the sensitivity correction means, it is possible to adjust the sensitivity for determining the presence or absence of a person.

特開2010−230492号公報JP 2010-230492 A

上記特許文献1に開示された技術によれば、動体の動きや動体の環境に応じて感度を調整することにより、人の存在の有無の判別の精度を向上させることができる。しかし、センサが設置されている環境においては、センサは、人の複雑な動きのみならず、様々な外乱(例えば、電気的なノイズや機械的な動き)も検出し得る。センサにより検出された信号には、複数の外乱が含まれ得る。そのため、上記特許文献1に開示されている感度補正手段を単に切り替えて感度を調整するのみでは、様々な外乱を含み得る環境において動体の動きを判別することに限界がある。   According to the technology disclosed in Patent Document 1, by adjusting the sensitivity in accordance with the movement of the moving object and the environment of the moving object, it is possible to improve the accuracy of determining whether or not a person is present. However, in an environment where the sensor is installed, the sensor can detect not only complicated movement of a person but also various disturbances (for example, electric noise and mechanical movement). The signal detected by the sensor may include a plurality of disturbances. Therefore, there is a limit in discriminating the motion of a moving object in an environment that may include various disturbances by simply switching the sensitivity correction unit disclosed in Patent Document 1 and adjusting the sensitivity.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、様々な外乱を含む信号からより高精度で動体の動きを判別することが可能な、新規かつ改良された判別装置を提供することにある。   Therefore, the present invention has been made in view of the above-described problem, and an object of the present invention is to provide a new and highly accurate moving object that can determine the motion of a moving object from signals including various disturbances. An object of the present invention is to provide an improved discriminating apparatus.

上記課題を解決するために、本発明のある観点によれば、センサにより検出された動体の動きを示すセンサ信号に基づいて、上記動体の動きの特徴量を算出する特徴量算出部と、所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、上記特徴量算出部により算出された上記動体の動きの特徴量に応じて、上記動体の動きに対応する評価値を算出する評価値算出部と、上記動体の動きの判別のために上記動体の動きに対応する上記評価値と比較される閾値を調整する調整部と、を備え、前記所定の動きに対応する評価値は、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて決定される、判別装置が提供される。
In order to solve the above problem, according to an aspect of the present invention, based on a sensor signal indicating a movement of a moving body detected by a sensor, a feature amount calculating unit that calculates a feature amount of the movement of the moving body, Using a regression learning model generated based on a plurality of data pairs of a feature amount of the motion and an evaluation value corresponding to the predetermined motion, the motion of the moving object calculated by the feature amount calculation unit An evaluation value calculation unit that calculates an evaluation value corresponding to the movement of the moving object, and a threshold value that is compared with the evaluation value corresponding to the movement of the moving object to determine the movement of the moving object according to the feature amount of And an adjustment unit for adjusting , wherein the evaluation value corresponding to the predetermined movement is a plurality of pairs of a characteristic amount of the predetermined movement and an evaluation value set in advance corresponding to the predetermined movement. Multiple regressions generated based on data Depending on the error between a plurality of determination results corresponding to the predetermined motion is determined using a model is determined, the determination device is provided.

上記回帰学習モデルは、サポートベクタ回帰により生成される回帰学習モデルであり、上記評価値算出部は、上記サポートベクタ回帰により生成される上記回帰学習モデルを構成するサポートベクタと、上記動体の動きの特徴量とを用いて、上記動体の動きに対応する評価値を算出してもよい。   The regression learning model is a regression learning model generated by support vector regression, and the evaluation value calculation unit includes a support vector that configures the regression learning model generated by the support vector regression, and a motion vector of the moving object. An evaluation value corresponding to the movement of the moving object may be calculated using the feature amount.

上記特徴量算出部は、上記センサ信号の波形に基づいて上記特徴量を算出してもよい。   The feature amount calculating unit may calculate the feature amount based on a waveform of the sensor signal.

上記特徴量算出部は、上記センサ信号の振幅の大きさを上記特徴量として算出してもよい。   The feature amount calculation unit may calculate the magnitude of the amplitude of the sensor signal as the feature amount.

上記特徴量算出部は、所定区間における上記センサ信号の波形の周波数を上記特徴量として算出してもよい。   The feature amount calculation unit may calculate a frequency of the waveform of the sensor signal in a predetermined section as the feature amount.

上記調整部は、上記閾値を段階的に調整してもよい。   The adjustment unit may adjust the threshold value stepwise.

上記所定の動きは、生体の動きを含み、上記動体の動きの判別は、上記動体の動きが上記生体の動きであるか否かの判別を含んでもよい。   The predetermined movement may include a movement of a living body, and the determination of the movement of the moving body may include determining whether the movement of the moving body is the movement of the living body.

上記センサはドップラーセンサであってもよい。   The sensor may be a Doppler sensor.

また、上記課題を解決するために、本発明の別の観点によれば、センサにより検出された動体の動きを示すセンサ信号に基づいて、上記動体の動きの特徴量を算出するステップと、所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、上記動体の動きの特徴量に応じて、上記動体の動きに対応する評価値を算出するステップと、上記動体の動きの判別のために上記動体の動きに対応する上記評価値と比較される閾値を調整するステップと、を含み、前記所定の動きに対応する評価値は、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて決定される、判別方法が提供される。
According to another embodiment of the present invention, there is provided a method for solving the above-mentioned problem, comprising: calculating a feature amount of the movement of a moving object based on a sensor signal indicating the movement of the moving object detected by a sensor; Using a regression learning model generated based on a plurality of data pairs of the feature amount of the motion and the evaluation value corresponding to the predetermined motion, the moving object is determined in accordance with the feature amount of the motion of the moving object. in calculating the evaluation value that corresponds to the motion, see contains the steps of: adjusting the threshold to be compared with the evaluation value corresponding to the movement of the moving object for determination of movement of the moving object, the predetermined The evaluation value corresponding to the motion is a plurality of regression learning models generated based on a plurality of data sets each of which is a combination of the feature amount of the predetermined motion and an evaluation value set in advance corresponding to the predetermined motion. The location determined using Is determined according to the error between a plurality of determination results corresponding to the motion determination method is provided.

また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、センサにより検出された動体の動きを示すセンサ信号に基づいて、上記動体の動きの特徴量を算出する特徴量算出部と、所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、上記特徴量算出部により算出された上記動体の動きの特徴量に応じて、上記動体の動きに対応する評価値を算出する評価値算出部と、上記動体の動きの判別のために上記動体の動きに対応する上記評価値と比較される閾値を調整する調整部と、として機能させ、前記所定の動きに対応する評価値は、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて決定される、プログラムが提供される。
According to another embodiment of the present invention, there is provided a computer configured to calculate a feature amount of the motion of a moving object based on a sensor signal indicating the motion of the moving object detected by a sensor. An amount calculator, and a regression learning model generated based on a plurality of data sets each of which includes a feature amount of the predetermined motion and an evaluation value corresponding to the predetermined motion, and is calculated by the feature amount calculator. An evaluation value calculation unit that calculates an evaluation value corresponding to the motion of the moving object according to the feature amount of the motion of the moving object, and the evaluation value corresponding to the motion of the moving object for determining the motion of the moving object And an adjustment unit that adjusts a threshold value to be compared with, the evaluation value corresponding to the predetermined movement is a feature amount of the predetermined movement, and an evaluation value set in advance corresponding to the predetermined movement. And multiple data Is determined according to the error between a plurality of determination results corresponding to the predetermined motion is determined using a plurality of regression learning model generated Zui, the program is provided.

また、上記課題を解決するために、本発明の別の観点によれば、センサにより検出された動体による所定の動きを示すセンサ信号に基づいて、上記所定の動きの特徴量を算出する特徴量算出部と、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された参考評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて、前記所定の動きに対応する評価値を決定する、回帰学習モデル評価値決定部と、上記所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて回帰学習モデルを生成するモデル生成部と、を備えるモデル生成装置が提供される。
According to another embodiment of the present invention, there is provided a feature value for calculating a feature value of a predetermined motion based on a sensor signal indicating a predetermined motion of a moving object detected by a sensor. A calculation unit, using a plurality of regression learning models generated based on a plurality of data pairs of a feature amount of the predetermined motion and a reference evaluation value set in advance corresponding to the predetermined motion. A regression learning model evaluation value determination unit that determines an evaluation value corresponding to the predetermined motion in accordance with an error between a plurality of determination results corresponding to the determined predetermined motion; and a feature amount of the predetermined motion. And a model generation unit configured to generate a regression learning model based on a plurality of data sets each of which includes an evaluation value corresponding to the predetermined motion.

また、上記課題を解決するために、本発明の別の観点によれば、センサにより検出された動体による所定の動きを示すセンサ信号に基づいて、上記所定の動きの特徴量を算出するステップと、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された参考評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて、前記所定の動きに対応する評価値を決定するステップと、上記所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて回帰学習モデルを生成するステップと、を含む、モデル生成方法が提供される。 To solve the above problem, according to another aspect of the present invention, a step of calculating a feature amount of the predetermined movement based on a sensor signal indicating a predetermined movement by a moving object detected by a sensor; It is determined using a plurality of regression learning models generated based on a plurality of data pairs of the feature amount of the predetermined motion and a reference evaluation value set in advance corresponding to the predetermined motion. Determining an evaluation value corresponding to the predetermined motion according to an error between a plurality of determination results corresponding to the predetermined motion; a characteristic amount of the predetermined motion; and an evaluation value corresponding to the predetermined motion. Generating a regression learning model based on a plurality of data pairs of values.

以上説明したように本発明によれば、様々な外乱を含む信号からより高精度で動体の動きを判別することが可能である。   As described above, according to the present invention, it is possible to determine the motion of a moving object with higher accuracy from signals including various disturbances.

本発明の一実施形態に係る判別システムの概要を示す図である。It is a figure showing the outline of the discrimination system concerning one embodiment of the present invention. 本発明の第1の実施形態に係るモデル生成装置の構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of a model generation device according to a first embodiment of the present invention. 同実施形態に係る信号DBに格納されているデータリストの一例を示す図である。FIG. 3 is a diagram illustrating an example of a data list stored in a signal DB according to the embodiment. 信号データの波形のゼロ交差数について説明するための図である。FIG. 4 is a diagram for describing the number of zero crossings of a signal data waveform. 図3に示されたデータリストに格納された各データセットに対する評価値生成部による評価値の割り振り処理フローの例を示す図である。FIG. 4 is a diagram illustrating an example of an evaluation value allocation processing flow by an evaluation value generation unit for each data set stored in the data list illustrated in FIG. 3. 同実施形態に係る評価値DBに格納されている評価リストの一例を示す図である。It is a figure showing an example of an evaluation list stored in an evaluation value DB concerning the embodiment. 同実施形態に係るモデル生成装置の動作例を示すフローチャートである。4 is a flowchart illustrating an operation example of the model generation device according to the same embodiment. 同実施形態に係る判別装置の構成例を示すブロック図である。It is a block diagram showing an example of composition of a discriminating device concerning the embodiment. 同実施形態に係る判別装置の動作例を示すフローチャートである。4 is a flowchart illustrating an operation example of the determination device according to the same embodiment. 本発明の第2の実施形態に係るモデル生成装置の構成例を示すブロック図である。It is a block diagram showing an example of composition of a model generation device concerning a 2nd embodiment of the present invention. 同実施形態に係る評価値生成部および評価値生成部において用いられる各種データを格納するデータベースの構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of an evaluation value generation unit and a database storing various data used in the evaluation value generation unit according to the embodiment. 同実施形態に係る特徴量DBに格納されているデータリスト1(外乱なし)の一例を示す図である。It is a figure showing an example of data list 1 (no disturbance) stored in feature DB concerning the embodiment. 同実施形態に係る特徴量DBに格納されているデータリスト2(外乱あり)の一例を示す図である。FIG. 4 is a diagram illustrating an example of a data list 2 (with disturbance) stored in a feature amount DB according to the embodiment. 同実施形態に係る参考評価値DBに格納されている参考評価値リスト1(外乱なし)の一例を示す図である。It is a figure showing an example of reference evaluation value list 1 (no disturbance) stored in reference evaluation value DB concerning the embodiment. 同実施形態に係る参考評価値DBに格納されている参考評価値リスト2(外乱あり)の一例を示す図である。It is a figure showing an example of reference evaluation value list 2 (with disturbance) stored in reference evaluation value DB concerning the embodiment. 同実施形態に係る評価値決定部による評価値決定処理について説明するための図である。It is a figure for explaining evaluation value decision processing by an evaluation value decision part concerning the embodiment. 各参考回帰学習モデルにより算出された無人率の分布を示すグラフである。It is a graph which shows the distribution of the unmanned rate calculated by each reference regression learning model. 同実施形態に係る評価値生成部の動作例を示すフローチャートである。5 is a flowchart illustrating an operation example of an evaluation value generation unit according to the same embodiment. 同実施形態に係る参考モデル生成部の処理フローを示すフローチャートである。It is a flow chart which shows a processing flow of a reference model generation part concerning the embodiment. 同実施形態に係る判別検証部の処理フローを示すフローチャートである。It is a flow chart which shows a processing flow of a discrimination verification part concerning the embodiment. 同実施形態に係る評価値決定部の処理フローを示すフローチャートである。It is a flow chart which shows a processing flow of an evaluation value deciding part concerning the embodiment. 本発明の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a hardware configuration of the information processing apparatus according to the embodiment of the present invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the specification and the drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

<1.判別システムの概要>
本発明の一実施形態に係る判別システム1は、予めモデル生成装置10により所定の動きに基づいて生成された回帰学習モデルを判別装置20に適用させ、センサ2により検出された動体の動きを判別装置20により判別するシステムである。以下、判別システム1の概要について説明する。
<1. Overview of discrimination system>
A discriminating system 1 according to an embodiment of the present invention applies a regression learning model generated based on a predetermined motion by a model generating device 10 to a discriminating device 20 to discriminate a motion of a moving object detected by a sensor 2. This is a system that is determined by the device 20. Hereinafter, an outline of the determination system 1 will be described.

図1は、本発明の一実施形態に係る判別システム1の概要を示す図である。判別システム1においては、実施される処理に応じて構成が異なる。例えば、図1を参照すると、回帰学習モデルを生成するモデル生成処理を実施する際は、判別システム1は、センサ2、およびモデル生成装置10を備える構成を有する。一方、動体の動きの判別処理を実施する際は、判別システム1は、センサ2、および判別装置20を備える構成を有する。なお、センサ2、およびモデル生成装置10は、一体となってモデル生成装置を構成してもよいし、センサ2、および判別装置20は、一体となって判別装置を構成してもよい。   FIG. 1 is a diagram showing an outline of a discrimination system 1 according to an embodiment of the present invention. The configuration of the determination system 1 differs depending on the processing to be performed. For example, referring to FIG. 1, when performing a model generation process for generating a regression learning model, the discrimination system 1 has a configuration including a sensor 2 and a model generation device 10. On the other hand, when performing the process of determining the motion of the moving object, the determination system 1 has a configuration including the sensor 2 and the determination device 20. Note that the sensor 2 and the model generating device 10 may be integrated to form a model generating device, or the sensor 2 and the determining device 20 may be integrally configured to form a determining device.

(センサ)
センサ2は、図1に示すように、部屋の天井等に設置される非接触型のセンサである。センサ2は、例えば、検出エリアである部屋の屋内に向けて、光、電磁波、または音波等の放射波を放射し、動体(例えば図1においては人物P、エアコンAC、またはカーテンCU等)により反射された反射波を受信する電波センサであってもよい。電波センサは、例えばドップラーセンサであってもよい。このとき、反射波の周波数は、物体の振動等の運動により生じるドップラー効果により、放射波の周波数から変化する。センサ2は、放射波の周波数と反射波の周波数との差分の周波数を有する信号を生成する。センサ2は、例えば直交検波方式を搭載してもよい。この場合、センサ2は、余弦波成分(I成分)および正弦波成分(Q成分)の2種類の信号を生成してもよい。センサ2は、生成した信号を、モデル生成装置10、または判別装置20のいずれかに出力する。
(Sensor)
The sensor 2 is a non-contact type sensor installed on a ceiling of a room or the like, as shown in FIG. The sensor 2 emits a radiation wave such as light, an electromagnetic wave, or a sound wave, for example, toward the inside of a room, which is a detection area, and uses a moving body (for example, a person P, an air conditioner AC, or a curtain CU in FIG. 1). A radio wave sensor that receives the reflected wave may be used. The radio wave sensor may be, for example, a Doppler sensor. At this time, the frequency of the reflected wave changes from the frequency of the radiated wave due to the Doppler effect caused by the motion of the object such as vibration. The sensor 2 generates a signal having a difference frequency between the frequency of the radiation wave and the frequency of the reflected wave. The sensor 2 may be equipped with, for example, a quadrature detection method. In this case, the sensor 2 may generate two kinds of signals of a cosine wave component (I component) and a sine wave component (Q component). The sensor 2 outputs the generated signal to either the model generation device 10 or the discrimination device 20.

なお、センサ2は、動体の動きが検出可能であれば任意の位置に設置可能である。また、図1に示した例では、センサ2は放射波の送信部と反射波の受信部とが一体となって構成されているが、センサ2は、送信部と受信部とを分離した構成により実現されてもよい。また、センサ2が放射する放射波は、物体の振動によりドップラー効果を生じさせることが可能であれば、任意の周波数帯の波であってもよい。例えば、放射波は、人の動きを検出可能な周波数帯の波であることが好ましい。また、センサ2は、モデル生成処理と判別処理とにおいて設置される環境が異なってもよい。例えば、モデル生成処理においては、動体の単一の動きの信号を検出する必要があるため、センサ2は、防音室等、外乱を遮断可能な部屋に設けられてもよい。一方、判別処理においては、人物等の動体の動きを検出することが求められる場所であれば、センサ2の設置場所は特に限定されない。例えば、センサ2は、部屋のみならず、パーティションや柵等で仕切られた区画に設置されてもよい。また、センサ2は、運動施設、医療施設、介護施設、養護施設、アトラクション施設、刑事施設、家、ホテル、マンション、ビル、自動車、鉄道車両、船舶等の建造物や車体の内部に設置されてもよい。また、動体の種類も、上述したような人物、家具、または家電等に限定されない。   The sensor 2 can be installed at an arbitrary position as long as the movement of the moving body can be detected. In the example shown in FIG. 1, the sensor 2 is configured such that the transmitting unit for the radiation wave and the receiving unit for the reflected wave are integrated, but the sensor 2 has a configuration in which the transmitting unit and the receiving unit are separated. May be realized by: Further, the radiation wave emitted by the sensor 2 may be a wave of an arbitrary frequency band as long as the Doppler effect can be generated by the vibration of the object. For example, the radiation wave is preferably a wave in a frequency band in which a motion of a person can be detected. Further, the environment in which the sensor 2 is installed in the model generation processing and the determination processing may be different. For example, in the model generation processing, since it is necessary to detect a signal of a single movement of a moving object, the sensor 2 may be provided in a room such as a soundproof room that can block disturbance. On the other hand, in the determination process, the installation location of the sensor 2 is not particularly limited as long as it is required to detect the movement of a moving body such as a person. For example, the sensor 2 may be installed not only in a room but also in a section partitioned by a partition, a fence, or the like. The sensor 2 is installed inside a building or a vehicle body such as an exercise facility, a medical facility, a nursing facility, a nursing home, an attraction facility, a criminal facility, a house, a hotel, a condominium, a building, a car, a railcar, and a ship. Is also good. Further, the type of the moving object is not limited to the person, furniture, home appliance, or the like as described above.

なお、本実施形態においては、センサ2は電波センサ(ドップラーセンサ)であることが好ましい。例えば、センサ2が赤外線センサである場合、動体の動きを検出することは出来るが、動体が静止している場合に、その動体の検出が困難となる。一方で、センサ2が電波センサである場合、動体が静止している場合においても、動体の呼吸等による体幹の振動を検出することができる。そのため、動体が静止している状態の検出も容易である。   In the present embodiment, the sensor 2 is preferably a radio wave sensor (Doppler sensor). For example, when the sensor 2 is an infrared sensor, the movement of a moving object can be detected. However, when the moving object is stationary, it is difficult to detect the moving object. On the other hand, when the sensor 2 is a radio wave sensor, even when the moving body is stationary, vibration of the trunk due to respiration of the moving body can be detected. Therefore, it is easy to detect a state in which the moving object is stationary.

(モデル生成装置)
モデル生成装置10は、所定の動体の動きのモデル生成処理に用いられる装置である。モデル生成装置10は、例えば、ネットワーク上の一または複数の情報処理装置によって実現されてもよい。より具体的には、モデル生成装置10は、サーバやPC(Personal Computer)等により実現されてもよい。モデル生成装置10は、所定の動体の動きに由来する信号をセンサ2から取得するとともに、所定の動体の動きに対応する評価値を生成する。そして、モデル生成装置10は、各所定の動体の動きの信号と各動体の動きに対応する評価値とに基づいて回帰学習モデルを生成する。生成された回帰学習モデルは、判別装置20において用いられる。
(Model generation device)
The model generation device 10 is a device used for a model generation process of a predetermined moving body motion. The model generation device 10 may be realized by, for example, one or a plurality of information processing devices on a network. More specifically, the model generation device 10 may be realized by a server, a PC (Personal Computer), or the like. The model generation device 10 acquires a signal derived from the movement of a predetermined moving object from the sensor 2 and generates an evaluation value corresponding to the movement of the predetermined moving object. Then, the model generation device 10 generates a regression learning model based on the signal of the movement of each predetermined moving object and the evaluation value corresponding to the movement of each moving object. The generated regression learning model is used in the discrimination device 20.

ここで、本明細書において動体の動きには、人物の動きのみならず、例えば、家電の動き、地面の振動や風による家具の振動等、人物以外の動きも含まれる。また、人物の動きもさらに細分化されてもよい。例えば、寝ているときの動きや、座っているときの動きも、人物の動きに含まれてよい。また、評価値とは、動体の動きの判別のために用いられる値であり、各々の動体の動きとひも付けられる。   Here, in this specification, the movement of a moving object includes not only the movement of a person, but also movement of a person other than a person, such as movement of a home appliance, vibration of the ground, or vibration of furniture due to wind. Further, the movement of the person may be further subdivided. For example, a motion while sleeping or a motion while sitting may be included in the motion of the person. The evaluation value is a value used for determining the motion of a moving object, and is associated with the motion of each moving object.

(判別装置)
判別装置20は、特定の動体の動きの判別処理に用いられる装置である。判別装置20は、例えば、ネットワーク上の一または複数の情報処理装置によって実現されてもよい。より具体的には、判別装置20は、サーバやPC等により実現されてもよい。判別装置20は、センサ2により検出された動体の動きに由来する信号と、モデル生成装置10により生成された回帰学習モデルとを用いることにより、動体の動きを判別する。例えば、判別装置20は、センサ2により検出された動体の動きについて回帰学習モデルを用いることにより得られた評価値と、調整可能な閾値とを比較することにより、動体の動きについて判別してもよい。判別装置20は、例えば、不図示の通信部を介して、判別結果を有線または無線により外部装置等に送信することが可能である。これにより、例えば、上記外部装置において、判別結果を用いた処理を行うことが可能となる。判別結果を用いた処理により、例えば、人物Pの存在の有無を把握することが可能となる。なお、判別結果を用いた処理については、上記のような外部装置ではなく、判別装置20本体において行うことも可能である。
(Determination device)
The discriminating device 20 is a device used for discriminating the motion of a specific moving object. The determination device 20 may be realized by, for example, one or a plurality of information processing devices on a network. More specifically, the determination device 20 may be realized by a server, a PC, or the like. The determination device 20 determines the motion of the moving object by using a signal derived from the motion of the moving object detected by the sensor 2 and the regression learning model generated by the model generation device 10. For example, the determination device 20 may determine the motion of the moving object by comparing an evaluation value obtained by using a regression learning model with respect to the motion of the moving object detected by the sensor 2 with an adjustable threshold. Good. For example, the determination device 20 can transmit a determination result to an external device or the like via a wired or wireless communication via a communication unit (not shown). Thus, for example, the external device can perform a process using the determination result. By the processing using the determination result, for example, it is possible to grasp the presence or absence of the person P. It should be noted that the processing using the determination result can be performed in the main body of the determination device 20 instead of the external device as described above.

なお、従来においても、人物の有無を判別する技術について開発が進められていた。例えば、特開2010−230492号公報に開示された発明によれば、人物の有無の判別のための感度を調整することができるが、温度の変化や動体の動きの速さなど、特定の外乱の要因を含む信号に対してしか感度を調整することができなかった。そのため、様々な外乱を含む複雑な信号について、判別精度を向上させるための感度調整は困難であった。   Heretofore, technology for determining the presence or absence of a person has been developed in the past. For example, according to the invention disclosed in Japanese Patent Application Laid-Open No. 2010-230492, the sensitivity for determining the presence or absence of a person can be adjusted. The sensitivity could only be adjusted for signals containing the above factors. Therefore, it has been difficult to adjust the sensitivity for improving the discrimination accuracy for complex signals including various disturbances.

本発明の判別システム1においては、モデル生成装置10が複数の所定のシナリオに基づいて回帰学習モデルを生成し、判別装置20が回帰学習モデルを用いて動体の動きを判別する。かかる構成において、回帰学習モデルに動体の動きを当てはめることにより、動体の動きと、回帰学習モデルの構成要素である所定のシナリオとの類似度(評価値)を算出する。つまり、複数の外乱を含む信号についても、回帰学習モデルを適用させることにより、どのような動きと類似しているかを連続的な評価値として表すことができる。そのため、例えば、判別のための閾値を感度の調整要素として評価値の取り得る値の範囲内で設定することにより、動体の動きがある所定の動きか否かを閾値との比較により行うことができる。評価値が連続値であれば閾値も連続的に設定することが可能であるので、上記所定の動きの判別に係る感度を細かく調整することができる。したがって、従来においては判別の感度調整ができなかった複数の外乱が混在している信号についても、感度調整を行うことができる。よって、動体の動きの判別精度をより向上させることができる。   In the discrimination system 1 of the present invention, the model generation device 10 generates a regression learning model based on a plurality of predetermined scenarios, and the discrimination device 20 determines the motion of a moving object using the regression learning model. In such a configuration, the similarity (evaluation value) between the motion of the moving object and a predetermined scenario which is a component of the regression learning model is calculated by applying the motion of the moving object to the regression learning model. That is, by applying a regression learning model to a signal including a plurality of disturbances, it is possible to represent a similar motion as a continuous evaluation value. Therefore, for example, by setting a threshold for determination as a sensitivity adjustment element within a range of possible evaluation values, it is possible to determine whether or not the movement of a moving object is a predetermined movement by comparing with a threshold. it can. If the evaluation value is a continuous value, the threshold value can also be set continuously, so that the sensitivity for determining the predetermined movement can be finely adjusted. Therefore, the sensitivity can be adjusted even for a signal in which a plurality of disturbances coexist, in which the sensitivity cannot be adjusted conventionally. Therefore, the accuracy of determining the motion of the moving object can be further improved.

<2.第1の実施形態>
以下、本発明の第1の実施形態に係るモデル生成装置10、および判別装置20について説明する。
<2. First Embodiment>
Hereinafter, the model generation device 10 and the discrimination device 20 according to the first embodiment of the present invention will be described.

[2.1.モデル生成装置]
(1)構成
図2は、本発明の第1の実施形態に係るモデル生成装置10の構成例を示すブロック図である。図2を参照すると、モデル生成装置10は、信号取得部110、信号DB(データベース)111、フィルタ部120、特徴量算出部130、評価値生成部140、評価値DB141、モデル生成部150、および回帰学習モデルDB151を備える。モデル生成装置10は、センサ2により検出される既知の所定の動きに由来する信号から算出される特徴ベクトルから構成される特徴空間と上記所定の動きに対応する評価値とを組とする複数のデータから、回帰学習モデルを生成する。生成された回帰学習モデルは、判別装置20において用いられる。以下、本実施形態に係るモデル生成装置10について説明する。
[2.1. Model generation device]
(1) Configuration FIG. 2 is a block diagram illustrating a configuration example of the model generation device 10 according to the first embodiment of the present invention. Referring to FIG. 2, the model generation device 10 includes a signal acquisition unit 110, a signal DB (database) 111, a filter unit 120, a feature amount calculation unit 130, an evaluation value generation unit 140, an evaluation value DB 141, a model generation unit 150, A regression learning model DB 151 is provided. The model generation device 10 includes a plurality of sets each including a feature space including a feature vector calculated from a signal derived from a known predetermined motion detected by the sensor 2 and an evaluation value corresponding to the predetermined motion. Generate a regression learning model from the data. The generated regression learning model is used in the discrimination device 20. Hereinafter, the model generation device 10 according to the present embodiment will be described.

(信号取得部)
信号取得部110は、不図示の通信部または入力部等を介して、センサ2から出力される信号データを取得する。本実施形態において、センサ2はドップラーセンサである。センサ2から出力される信号データは、時系列のデジタル信号からなるデータであり、I成分であるI(n)とQ成分であるQ(n)の2成分を有する。信号データは、センサ2により規定の時間収集される。規定の時間は、例えば10分間であってもよい。また、信号データのサンプリング周波数は特に限定されないが、人物の動きを判別するためには、100Hz以上であることが好ましい。信号取得部110は、所定の動きを検出した信号を信号データとして取得し、取得した信号データを信号DB111に出力する。
(Signal acquisition unit)
The signal acquisition unit 110 acquires signal data output from the sensor 2 via a communication unit or an input unit (not shown). In the present embodiment, the sensor 2 is a Doppler sensor. The signal data output from the sensor 2 is data composed of a time-series digital signal, and has two components, I (n) as an I component and Q (n) as a Q component. The signal data is collected by the sensor 2 for a specified time. The prescribed time may be, for example, 10 minutes. The sampling frequency of the signal data is not particularly limited, but is preferably 100 Hz or more in order to determine the motion of the person. The signal acquisition unit 110 acquires a signal that has detected a predetermined movement as signal data, and outputs the acquired signal data to the signal DB 111.

(信号DB)
信号DB111は、信号取得部110より取得した信号データを格納するデータベースである。データベースは複数のデータリストを有し、データリストは複数のデータセットにより構成される。図3は、信号DB111に格納されているデータリストの一例を示す図である。図3を参照すると、データリスト1000には、信号取得部110より取得した所定の動きに由来する信号データのデータファイル(A1.dat、B2.dat、・・・、C6.dat)が、ID、属性、およびシナリオとともにデータセットとして記憶されている。IDは、取得された信号データごとに割り振られるインデックスである。属性は、動体の動きの種類を示す項目であり、一のデータリストに複数の属性が設定され得る。図3に示したデータリスト1000においては、例として、「無人(外乱なし)」、「無人(外乱あり)」、および「有人」の3種類の属性が設定されている。ここで、「無人(外乱なし)」とは、人物を含めた動体による動きが全く検出されない状態であることを意味する。「無人(外乱あり)」とは、人物は存在しないが、他の動体の動きが検出され得る状態であることを意味する。また、「有人」とは、人物による動きのみが検出され得る状態であることを意味する。
(Signal DB)
The signal DB 111 is a database that stores the signal data acquired by the signal acquisition unit 110. The database has a plurality of data lists, and the data list is constituted by a plurality of data sets. FIG. 3 is a diagram illustrating an example of a data list stored in the signal DB 111. Referring to FIG. 3, the data list 1000 includes data files (A1.dat, B2.dat,..., C6.dat) of signal data derived from a predetermined motion acquired by the signal acquisition unit 110, , Attributes, and scenarios as a data set. The ID is an index assigned to each acquired signal data. The attribute is an item indicating the type of movement of the moving object, and a plurality of attributes can be set in one data list. In the data list 1000 shown in FIG. 3, for example, three types of attributes, "unmanned (no disturbance)", "unmanned (disturbed)", and "manned" are set. Here, “unmanned (no disturbance)” means a state in which no motion by a moving object including a person is detected. “Unattended (with disturbance)” means that there is no person, but the motion of another moving object can be detected. Further, “maned” means a state where only movement by a person can be detected.

シナリオは、各属性において予め設定された具体的な動体、および動体の動きを示す項目である。シナリオとして設定された所定の動きは、予めモデル生成装置10のユーザ等により選択される動きである。図3に示したデータリスト1000においては、属性「無人(外乱あり)」には、「エアコン」、および「カーテン」がシナリオとして設定されている。これは、「無人(外乱あり)」の属性として取得された信号データは、エアコン、およびカーテンの振動に由来する信号データであることを意味する。同様に、属性「有人」には、「座る」、「寝る」、および「歩く」がシナリオとして設定されている。これは、「有人」のシナリオとして取得された信号データは、人物の座る動き、寝る動き、および歩く動きに由来する信号データであることを意味する。   The scenario is an item indicating a specific moving object set in advance in each attribute and the movement of the moving object. The predetermined movement set as the scenario is a movement selected in advance by a user of the model generation device 10 or the like. In the data list 1000 shown in FIG. 3, “air conditioner” and “curtain” are set as scenarios for the attribute “unmanned (with disturbance)”. This means that the signal data acquired as the attribute of "unmanned (with disturbance)" is signal data derived from the vibration of the air conditioner and the curtain. Similarly, for the attribute “maned”, “sit”, “sleep”, and “walk” are set as scenarios. This means that the signal data acquired as the “maned” scenario is signal data derived from a sitting motion, a sleeping motion, and a walking motion of a person.

このように、信号DB111は、ID、属性、シナリオ、およびシナリオに対応する信号データを含む複数のデータセットからなるデータリストを格納する。なお、これらのデータセットおよびデータリストは、不図示の入力部や通信部などを介して、モデル生成装置10のユーザ等により適宜追加、修正、または削除されてもよい。生成されたデータリストは、フィルタ部120に出力される。   As described above, the signal DB 111 stores a data list including a plurality of data sets including IDs, attributes, scenarios, and signal data corresponding to the scenarios. Note that these data sets and data lists may be appropriately added, modified, or deleted by a user of the model generation device 10 via an input unit or a communication unit (not shown). The generated data list is output to the filter unit 120.

(フィルタ部)
フィルタ部120は、信号DB111から取得したデータリストに含まれている信号データにフィルタ処理を実施する。データリストに含まれている信号データには、動体の動きとは無関係の、高周波成分のノイズが多く含まれている。そのため、フィルタ部120は、LPF(Low Pass Filter:ローパスフィルタ)処理を実施することにより、これらのノイズを除去または低減する。
(Filter section)
The filter unit 120 performs a filtering process on the signal data included in the data list acquired from the signal DB 111. The signal data included in the data list contains a lot of high frequency component noise unrelated to the motion of the moving object. Therefore, the filter unit 120 removes or reduces these noises by performing LPF (Low Pass Filter) processing.

フィルタ部120は、まず、データリストに格納されているID=mの信号データI(n)およびQ(n)を取得する(n=1〜N)。ここで、Nは、信号データに含まれるサンプリング数を示す。 First, the filter unit 120 acquires the signal data I m (n) and Q m (n) of ID = m stored in the data list (n = 1 to N). Here, N indicates the number of samplings included in the signal data.

ここで、I(n)およびQ(n)は、2次のIIR(Infinite Impulse Response:無限インパルス応答)フィルタによるLPF処理が実施されてもよい。LPF処理におけるカットオフ周波数は、例えば50Hzであってもよい。かかるLPF処理により、信号データに含まれる高周波のノイズ成分を除去または減少することができる。ここで、IIRフィルタによるLPF処理が実施された後の信号データを、それぞれI’(n)およびQ’(n)とする。 Here, I m (n) and Q m (n) is second-order IIR (Infinite Impulse Response: Infinite Impulse Response) LPF processing by the filter may be performed. The cutoff frequency in the LPF processing may be, for example, 50 Hz. By such LPF processing, high-frequency noise components included in signal data can be removed or reduced. Here, the signal data after the LPF processing by the IIR filter is performed is referred to as I m ′ (n) and Q m ′ (n), respectively.

IIRフィルタによるLPF処理は、下記式(1)および式(2)を、n=1からNまで順に繰り返し計算を行うことにより実施される。ここで、x(n)は入力値、y(n)は出力値である。例えば、下記式(1)において、x(n)にはI(n)およびQ(n)が代入される。また、下記式(2)において、I’(n)およびQ’(n)がy(n)として出力される。また、k、a、a、a、b、およびbは、周波数帯域に応じて設計の段階で設定される係数である。 The LPF processing by the IIR filter is performed by repeatedly performing the following equations (1) and (2) in order from n = 1 to N. Here, x (n) is an input value and y (n) is an output value. For example, in the following formula (1), the x (n) I m (n) and Q m (n) is substituted. In the following equation (2), I m ′ (n) and Q m ′ (n) are output as y (n). Further, k, a 0 , a 1 , a 2 , b 1 , and b 2 are coefficients set in the design stage according to the frequency band.

Figure 0006648435
Figure 0006648435

Figure 0006648435
Figure 0006648435

なお、A(0)=A(−1)=0である。   Note that A (0) = A (-1) = 0.

’(n)およびQ’(n)が出力された後、A(n−2)にはA(n−1)の値が代入され、A(n−1)にはA(n)の値が代入される。この代入処理をn=1からNまで実施することにより、LPF処理が完了する。LPF処理が完了した信号データを含むデータリストは、特徴量算出部130に出力される。 After I m '(n) and Q m' (n) is output, the A (n-2) is assigned the value of A (n-1), the A (n-1) A ( n ) Is substituted. The LPF processing is completed by performing this substitution processing from n = 1 to N. The data list including the signal data on which the LPF processing has been completed is output to the feature amount calculation unit 130.

なお、本実施形態にかかるフィルタ部120は、LPF処理としてIIRフィルタを用いたが、本発明はかかる例に限定されない。例えば、フィルタ部120は、信号をフーリエ変換により周波数領域に変換し、所定外の周波数帯域の周波数を除去したのち、逆フーリエ変換により再度時間領域に信号を変換することにより、LPF処理を行ってもよい。また、フィルタ部120は、上述した手法以外の公知の技術を用いてLPF処理を行ってもよい。   Although the filter unit 120 according to the present embodiment uses an IIR filter as the LPF processing, the present invention is not limited to this example. For example, the filter unit 120 performs LPF processing by transforming the signal into the frequency domain by Fourier transform, removing the frequency in a frequency band outside a predetermined range, and then transforming the signal again into the time domain by inverse Fourier transform. Is also good. Further, the filter unit 120 may perform the LPF processing by using a known technique other than the above-described technique.

(特徴量算出部)
特徴量算出部130は、フィルタ部120から取得したデータリストに格納されているLPF処理後の信号データの特徴量を算出する。ここで、特徴量とは、信号データの波形に基づいて算出される特徴量である。例えば、特徴量には、信号データの波形の振幅や、波形の周波数成分等により算出される特徴量が含まれる。本実施形態においては、特徴量算出部130は、信号データの波形の振幅特徴量、および周波数特徴量を特徴量として算出する。
(Feature calculation unit)
The feature amount calculation unit 130 calculates a feature amount of the signal data after the LPF processing stored in the data list acquired from the filter unit 120. Here, the characteristic amount is a characteristic amount calculated based on the waveform of the signal data. For example, the feature amount includes a feature amount calculated based on the amplitude of the waveform of the signal data, the frequency component of the waveform, and the like. In the present embodiment, the feature value calculation unit 130 calculates the amplitude feature value and the frequency feature value of the waveform of the signal data as the feature value.

本実施形態において、振幅特徴量は、LPF処理後の信号データの時刻nにおける振幅の値である。振幅特徴量V(n)は、下記式(3)により算出される。また、振幅特徴量V(n)は、時刻nを先頭とする単位期間における各サンプリングデータの振幅の値の平均値や最大値等の統計量であってもよい。 In the present embodiment, the amplitude feature amount is an amplitude value at time n of the signal data after the LPF processing. The amplitude feature amount V m (n) is calculated by the following equation (3). Further, the amplitude feature amount V m (n) may be a statistic such as an average value or a maximum value of the amplitude values of the respective sampling data in the unit period starting from the time n.

Figure 0006648435
Figure 0006648435

周波数特徴量は、例えば、単位期間における信号データの波形のゼロ交差数であってもよい。図4は、信号データの波形のゼロ交差数について説明するための図である。図4に丸印で示したように、ゼロ交差数は、信号データI’(n)またはQ’(n)の波形が、単位期間Tにおいて時間軸(振幅=ゼロ値)と交差する回数である。具体的には、ゼロ交差数は、時刻nを先頭とする単位期間TにおけるL個のサンプリングデータのうち、下記式(4)および式(5)を満たす数である。単位区間Tは、例えば1秒間であってもよく、その場合、Lは100(つまり、センサ2から出力される時系列デジタル信号データのサンプリング周波数=100Hz)であってもよい。 The frequency feature quantity may be, for example, the number of zero crossings of the waveform of the signal data in the unit period. FIG. 4 is a diagram for explaining the number of zero crossings of the waveform of the signal data. As indicated by a circle in FIG. 4 crossing, zero crossing number, the waveform of the signal data I m '(n) or Q m' (n) is the time axis in the unit period T a and (amplitude = zero value) It is the number of times to do. Specifically, the zero crossing number, among the L sampling data in the unit period T a for the time n and the top is a number satisfying the following formulas (4) and (5). Unit interval T a may be, for example, one second, in which case, L is 100 (i.e., sampling frequency = 100 Hz of the time-series digital signal data outputted from the sensor 2) may be used.

Figure 0006648435
Figure 0006648435

Figure 0006648435
Figure 0006648435

時刻nを先頭とする単位期間Tにおいて上記式(4)および式(5)を満たすiの数をそれぞれf1m(n)およびf2m(n)とすると、ゼロ交差数f(n)は、f1m(n)+f2m(n)である。 In the above formula unit period T a for the time n and the top (4) and Formula (5) the number of i satisfying each f 1 m When (n) and f 2m (n), the zero crossing number f m (n) Is f 1m (n) + f 2m (n).

なお、特徴量算出部130は、上記の振幅特徴量V(n)およびゼロ交差数f(n)の他に、さらに信号データI’(n)またはQ’(n)の波形に基づく特徴量を算出してもよい。例えば、特徴量算出部130は、単位期間における波形の極大点もしくは極小点の数、複数の単位期間における極大点もしくは極小点のばらつきや平均値等の統計量、または周波数領域におけるパワースペクトル等を、特徴量として算出してもよい。特徴量の種類を増やすことにより、信号データの波形の特徴をより細かく抽出することができる。 The feature quantity calculator 130, the above in addition to the amplitude characteristic amount V m (n) and zero crossing number f m (n), further signal data I m '(n) or Q m' waveform (n) May be calculated based on. For example, the feature amount calculation unit 130 calculates the number of local maximum points or local minimum points of the waveform in a unit period, statistics such as the variation or average value of the local maximum points or minimum points in a plurality of unit periods, or the power spectrum in the frequency domain. , May be calculated as a feature amount. By increasing the types of the feature amounts, the features of the waveform of the signal data can be more finely extracted.

特徴量算出部130は、まず、信号データから単位区間Tに含まれるL個のサンプリングデータをJ組抽出し、単位区間Tのサンプリングデータごとに特徴量をそれぞれ算出する。つまり、一の信号データから、特徴量がC×J個抽出される(Cは特徴量の種類数)。次に、特徴量算出部130は、取得したデータリストに含まれるすべての信号データについて、特徴量を算出する。そして、特徴量算出部130は、算出した特徴量を成分とする特徴ベクトルを生成する。特徴ベクトルは、F(j)=[V(j),f(j)]というベクトルを構成する。ここで、jは、上述したようなL個のサンプリングデータのうち、最もサンプリング時刻の古い時刻を示す。特徴量算出部130は、データリストに格納された全ての信号データに対して上記の処理を行い、信号データごとに特徴ベクトルF(j)を生成する。そして、特徴量算出部130は、生成した特徴ベクトルF(j)をモデル生成部150に出力する。 Feature amount calculation unit 130, first, the L-number of sampling data included from the signal data to the unit interval T a and J pairs extracted, respectively calculates the feature quantity for each sampling data unit sections T a. In other words, C × J features are extracted from one signal data (C is the number of types of features). Next, the feature amount calculation unit 130 calculates a feature amount for all the signal data included in the acquired data list. Then, the feature amount calculation unit 130 generates a feature vector having the calculated feature amount as a component. The feature vector forms a vector of F m (j) = [V m (j), f m (j)]. Here, j indicates the oldest sampling time among the L sampling data as described above. The feature amount calculation unit 130 performs the above-described processing on all the signal data stored in the data list, and generates a feature vector F m (j) for each signal data. Then, the feature amount calculation unit 130 outputs the generated feature vector F m (j) to the model generation unit 150.

(評価値決定部)
評価値生成部140は、信号DB111に格納されたデータリストのシナリオごとに対応する評価値を生成する。ここで、評価値とは、特定の動体による動きを判別するために用いられるパラメータである。例えば、評価値を0から1の範囲で設定する場合、特定の動体による動き(ここでは人物の動きとする)であるシナリオについては、評価値として1が設定され、人物の動きでないシナリオについては、評価値として1以外の値が設定され得る。ここで、例えば、明らかに人物の動きでないシナリオについては、評価値として0が設定され得るが、人物の動きと紛らわしい動きであるシナリオについては、評価値として0と1の中間値が設定され得る。また、同じ属性であっても、シナリオごとに異なる評価値が設定されてもよい。このように、評価値をシナリオと対応させて設定することにより、のちの判別処理において、人物等の特定の動体による動きと紛らわしい動きを判別するための調整が容易となる。
(Evaluation value determination unit)
The evaluation value generation unit 140 generates an evaluation value corresponding to each scenario in the data list stored in the signal DB 111. Here, the evaluation value is a parameter used to determine a motion by a specific moving object. For example, when the evaluation value is set in the range of 0 to 1, for a scenario that is a motion by a specific moving object (here, a motion of a person), 1 is set as an evaluation value, and for a scenario that is not a motion of a person, , A value other than 1 may be set as the evaluation value. Here, for example, an evaluation value of 0 may be set for a scenario that is clearly not a motion of a person, but an intermediate value between 0 and 1 may be set as an evaluation value for a scenario that is confusing to the motion of a person. . Also, different evaluation values may be set for each scenario, even if the attributes are the same. In this way, by setting the evaluation value in association with the scenario, it is easy to make an adjustment for determining a motion that is confusing with a motion by a specific moving object such as a person in a subsequent determination process.

評価値生成部140は、例えば、信号DB111に格納されたデータリストの属性に応じて、規定の評価値を割り振ってもよい。図5は、図3に示されたデータリスト1000に格納された各データセットに対する評価値生成部140による評価値の割り振り処理フローの例を示す図である。図5を参照すると、まず、評価値生成部140は、信号DB111に格納されたデータリストを取得する(S101)。評価値生成部140は、データリストの属性を全てのシナリオについて読み込み、読み込んだ属性に応じて評価値を設定する。   The evaluation value generation unit 140 may, for example, assign a prescribed evaluation value according to the attribute of the data list stored in the signal DB 111. FIG. 5 is a diagram illustrating an example of an evaluation value allocation processing flow by the evaluation value generation unit 140 for each data set stored in the data list 1000 illustrated in FIG. Referring to FIG. 5, first, the evaluation value generation unit 140 acquires a data list stored in the signal DB 111 (S101). The evaluation value generation unit 140 reads attributes of the data list for all scenarios, and sets evaluation values according to the read attributes.

評価値生成部140は、読み込んだ属性が「無人(外乱なし)」か否かを判定する(S103)。読み込んだ属性が「無人(外乱なし)」である場合(S103/YES)、評価値生成部140は、かかるデータセットについての評価値を0.0と設定する(S105)。次に、評価値生成部140は、読み込んだ属性が「無人(外乱あり)」か否かを判定する(S107)。読み込んだ属性が「無人(外乱あり)」である場合(S107/YES)、評価値生成部140は、かかるデータセットについての評価値を0.5と設定する(S109)。読み込んだ属性が「無人(外乱なし)」でも「無人(外乱あり)」でもない場合(図3に示した例においては「有人」)(S107/NO)、評価値生成部140は、かかるデータセットについての評価値を1.0と設定する(S101)。以上の処理フローに基づいて、評価値生成部140は、各データセットについて評価値を割り振ることができる。シナリオがM個ある場合、m番目のシナリオに対応する評価値Y(j)には、ステップS105、S109、またはS111において設定される値が代入される。 The evaluation value generation unit 140 determines whether the read attribute is “unmanned (no disturbance)” (S103). When the read attribute is “unmanned (no disturbance)” (S103 / YES), the evaluation value generation unit 140 sets the evaluation value of the data set to 0.0 (S105). Next, the evaluation value generation unit 140 determines whether the read attribute is “unattended (with disturbance)” (S107). When the read attribute is “unattended (with disturbance)” (S107 / YES), the evaluation value generation unit 140 sets the evaluation value of the data set to 0.5 (S109). If the read attribute is neither “unmanned (no disturbance)” nor “unmanned (disturbed)” (“maned” in the example shown in FIG. 3) (S107 / NO), the evaluation value generating unit 140 The evaluation value for the set is set to 1.0 (S101). Based on the above processing flow, the evaluation value generation unit 140 can allocate an evaluation value for each data set. When there are M scenarios, the value set in step S105, S109, or S111 is substituted for the evaluation value Y m (j) corresponding to the m-th scenario.

なお、本実施形態において評価値生成部140により評価値が各シナリオに対して割り振られたが、本発明はかかる例に限定されない。例えば、評価値生成部140は、不図示の入力部により入力された評価値の値を各シナリオに対して割り振ってもよい。これにより、モデル生成装置10のユーザ等が各シナリオに対する評価値の値を自由に設定することができる。また、評価値の範囲は、上記で示した範囲(0.0〜1.0)に限定されず、自由に設定され得る。   In the present embodiment, the evaluation value is assigned to each scenario by the evaluation value generation unit 140, but the present invention is not limited to this example. For example, the evaluation value generation unit 140 may allocate an evaluation value input from an input unit (not shown) to each scenario. Thus, the user of the model generation device 10 can freely set the evaluation value for each scenario. Further, the range of the evaluation value is not limited to the range (0.0 to 1.0) shown above, and can be set freely.

評価値生成部140は、各シナリオに対して評価値を割り振ったのち、各シナリオのIDと評価値をひも付けて、評価値リストとして評価値DB141に出力する。   After allocating the evaluation value to each scenario, the evaluation value generation unit 140 associates the ID of each scenario with the evaluation value, and outputs the scenario to the evaluation value DB 141 as an evaluation value list.

(評価値DB)
評価値DB141は、評価値生成部140より取得した評価値リストを記憶するデータベースである。図6は、評価値DB141に格納されている評価リストの一例を示す図である。図6を参照すると、評価値DB141に格納されている評価リスト2000において、評価値が、ID、属性、およびシナリオとともにデータセットとして記憶されている。ID、属性、およびシナリオの意味は、信号DB111に格納されているデータリストに含まれる各要素と同一であるため、説明を省略する。評価値DB141に格納された評価値リストは、モデル生成部150に出力される。なお、各データセットに記憶されている評価値の値は、不図示の入力部や通信部等を介して、モデル生成装置10のユーザ等により設定、追加、修正、または削除されてもよい。その場合、モデル生成装置10は、必ずしも評価値生成部140を含まなくてもよい。
(Evaluation value DB)
The evaluation value DB 141 is a database that stores the evaluation value list acquired from the evaluation value generation unit 140. FIG. 6 is a diagram illustrating an example of the evaluation list stored in the evaluation value DB 141. Referring to FIG. 6, in the evaluation list 2000 stored in the evaluation value DB 141, the evaluation values are stored as data sets together with IDs, attributes, and scenarios. Since the ID, the attribute, and the meaning of the scenario are the same as those of each element included in the data list stored in the signal DB 111, the description is omitted. The evaluation value list stored in the evaluation value DB 141 is output to the model generation unit 150. The value of the evaluation value stored in each data set may be set, added, modified, or deleted by a user of the model generation device 10 via an input unit, a communication unit, or the like (not shown). In that case, the model generation device 10 does not necessarily need to include the evaluation value generation unit 140.

(モデル生成部)
モデル生成部150は、特徴量算出部130から出力された特徴ベクトルと、評価値DB141より取得した評価値リストに含まれる評価値とを組とする複数のデータに基づいて、回帰学習モデルを生成する。具体的には、まず、モデル生成部150は、J個の抽出データおよびM個のシナリオに対応する特徴ベクトルF(j)〜F(j)からなる特徴空間を生成し、M個のシナリオに対応する評価値Y(j)〜Y(j)組とするデータに基づいて回帰学習モデルを生成する。なお、評価値は対応するシナリオごとに評価値生成部140において割り振られるので、同一のシナリオ(つまり信号データ)に対応する評価値Y(j)の値は、jの値によらず同一である。
(Model generation unit)
The model generation unit 150 generates a regression learning model based on a plurality of sets of data including the feature vector output from the feature amount calculation unit 130 and the evaluation values included in the evaluation value list acquired from the evaluation value DB 141. I do. Specifically, first, the model generation unit 150 generates a feature space including J extracted data and feature vectors F 1 (j) to F M (j) corresponding to M scenarios, and generates M pieces of feature space. A regression learning model is generated based on data that is a set of evaluation values Y 1 (j) to Y M (j) corresponding to the scenario. Since the evaluation value is assigned by the evaluation value generation unit 140 for each corresponding scenario, the value of the evaluation value Y m (j) corresponding to the same scenario (that is, signal data) is the same regardless of the value of j. is there.

ここで、本実施形態において、回帰学習モデルは、例えば、SVR(Support Vector Regression:サポートベクタ回帰)を用いて生成され得る。SVRは、例えば、SMOLA,Alex J. and Bernhard SCHOELKOPF,“A Tutorial on Support Vector Regression”,1998に開示されている内容に基づいて実現され得る。なお、回帰学習モデルは、上記の例に限定されず、例えば、カーネル法や重回帰分析等の公知の回帰分析手法により生成されてもよい。   Here, in the present embodiment, the regression learning model can be generated using, for example, SVR (Support Vector Regression). The SVR can be realized based on, for example, the contents disclosed in SMOLA, Alex J. and Bernhard SCHOELKOPF, “A Tutorial on Support Vector Regression”, 1998. The regression learning model is not limited to the above example, and may be generated by a known regression analysis method such as a kernel method or a multiple regression analysis.

SVRにより生成された回帰学習モデルは、K個の要素からなるサポートベクタ行列sと、それらの重みベクトルc、および閾値bにより構成される。具体的には、サポートベクタ行列sは下記式(6)で示す行列により定義され、重みベクトルcは下記式(7)で示すベクトルにより定義される。また、閾値bは一意に定まる値である。また、サポートベクタ行列sの要素の数Kは、SVRによる計算の過程において一意に定まる。   The regression learning model generated by the SVR is composed of a support vector matrix s composed of K elements, their weight vectors c, and thresholds b. Specifically, the support vector matrix s is defined by a matrix represented by the following equation (6), and the weight vector c is defined by a vector represented by the following equation (7). The threshold b is a value uniquely determined. Further, the number K of elements of the support vector matrix s is uniquely determined in the process of calculation by SVR.

Figure 0006648435
Figure 0006648435

Figure 0006648435
Figure 0006648435

なお、特徴空間および評価値により構成されるデータについて、カーネルトリックを用いて非線形空間に写像することにより、回帰学習モデルを生成することも可能である。本実施形態においては、カーネルトリックとして、下記式(8)で示すガウシアン型カーネル関数が用いられてもよい。この場合、ガウス関数の広がりを定義する係数σは、回帰学習モデルを構成する要素となる。   In addition, it is also possible to generate a regression learning model by mapping data constituted by the feature space and the evaluation value to a non-linear space by using a kernel trick. In the present embodiment, a Gaussian kernel function represented by the following equation (8) may be used as a kernel trick. In this case, the coefficient σ defining the spread of the Gaussian function is an element constituting the regression learning model.

Figure 0006648435
Figure 0006648435

モデル生成部150は、M個のシナリオに対応する特徴空間および評価値により構成されるデータからSVR等の回帰分析を用いて生成した回帰学習モデルを、回帰学習モデルDB151に出力する。   The model generation unit 150 outputs to the regression learning model DB 151 a regression learning model generated from the data constituted by the feature spaces and the evaluation values corresponding to the M scenarios using a regression analysis such as SVR.

(回帰学習モデルDB)
回帰学習モデルDB151は、モデル生成部150より出力された回帰学習モデルを記憶するデータベースである。回帰学習モデルDB151には、例えば、上記式(6)〜式(8)により生成された回帰学習モデルのサポートベクタ行列s、重みベクトルc、閾値b、およびガウシアン型カーネル関数の係数σ等が記憶される。回帰学習モデルDB151には、一または複数の回帰学習モデルが記憶されてもよい。例えば、後述する判別装置20により判別される動体の種類や動体の動きの種類に応じた回帰学習モデルが回帰学習モデルDB151に記憶されてもよい。
(Regression learning model DB)
The regression learning model DB 151 is a database that stores the regression learning model output from the model generation unit 150. The regression learning model DB 151 stores, for example, a support vector matrix s, a weight vector c, a threshold value b, and a coefficient σ of a Gaussian kernel function of the regression learning model generated by the above equations (6) to (8). Is done. One or a plurality of regression learning models may be stored in the regression learning model DB 151. For example, a regression learning model corresponding to the type of the moving object or the type of the motion of the moving object determined by the determination device 20 described later may be stored in the regression learning model DB 151.

回帰学習モデルDB151に記憶された回帰学習モデルに係るデータは、判別装置20の回帰学習モデルDB231に複製されて記憶される。これにより、判別装置20は、モデル生成装置10により生成された回帰学習モデルを用いて、動体の動きの判別を実施することができる。   The data related to the regression learning model stored in the regression learning model DB 151 is copied and stored in the regression learning model DB 231 of the discriminating apparatus 20. Accordingly, the determination device 20 can determine the motion of the moving object using the regression learning model generated by the model generation device 10.

(2)動作
図7は、本発明の第1の実施形態に係るモデル生成装置10の動作例を示すフローチャートである。まず、信号取得部110は、センサ2が検出した所定の動きに由来する信号を信号データとして取得する(S201)。信号取得部110は、複数の所定の動きに由来する複数の信号データを信号DB111に出力する。信号DB111は、複数の信号データを、ID、属性、パラメータとともに、データリストとして記憶し、フィルタ部120、および評価値生成部140に出力する(S203)。
(2) Operation FIG. 7 is a flowchart illustrating an operation example of the model generation device 10 according to the first embodiment of the present invention. First, the signal acquisition unit 110 acquires a signal derived from a predetermined movement detected by the sensor 2 as signal data (S201). The signal acquisition unit 110 outputs a plurality of pieces of signal data derived from a plurality of predetermined movements to the signal DB 111. The signal DB 111 stores a plurality of signal data as a data list together with IDs, attributes, and parameters, and outputs the data to the filter unit 120 and the evaluation value generation unit 140 (S203).

次に、フィルタ部120は、データリストに含まれている各信号データについてLPF処理を実施する(S205)。LPF処理が実施された各信号データは、特徴量算出部130に出力される。特徴量算出部130は、LPF処理後の各信号データについて、特徴量を算出する(S207)。次に、特徴量算出部130は、算出した一または複数の特徴量により構成される特徴ベクトルを生成する(S209)。生成された特徴ベクトルを含むデータは、モデル生成部150に出力される。   Next, the filter unit 120 performs an LPF process on each signal data included in the data list (S205). Each signal data on which the LPF processing has been performed is output to the feature value calculation unit 130. The characteristic amount calculation unit 130 calculates a characteristic amount for each signal data after the LPF processing (S207). Next, the feature amount calculation unit 130 generates a feature vector including one or more calculated feature amounts (S209). Data including the generated feature vector is output to the model generation unit 150.

次に、モデル生成部150は、M個のシナリオに対応する特徴ベクトルからなる特徴空間を生成する(S211)。一方で、評価値生成部140は、評価値リストに含まれている属性に基づいて、各信号データについて評価値を決定する(S213)。なお、各信号データについて予め評価値が決定されている場合は、ステップS211は省略されてもよい。決定された評価値を含むデータは、モデル生成部150に出力される。   Next, the model generation unit 150 generates a feature space including feature vectors corresponding to M scenarios (S211). On the other hand, the evaluation value generation unit 140 determines an evaluation value for each signal data based on the attributes included in the evaluation value list (S213). When the evaluation value is determined in advance for each signal data, step S211 may be omitted. Data including the determined evaluation value is output to the model generation unit 150.

そして、モデル生成部150は、生成した特徴空間および評価値とを組とするデータに基づき、回帰学習モデルを生成する(S215)。その後、モデル生成部150は、生成した回帰学習モデルを回帰学習モデルDB151に出力する(S217)。   Then, the model generation unit 150 generates a regression learning model based on the data that pairs the generated feature space and the evaluation value (S215). Thereafter, the model generation unit 150 outputs the generated regression learning model to the regression learning model DB 151 (S217).

以上、本実施形態に係るモデル生成装置10について説明した。続いて、本実施形態に係る判別装置20について説明する。   The model generation device 10 according to the present embodiment has been described above. Subsequently, the determination device 20 according to the present embodiment will be described.

[2.2.判別装置]
(1)構成
図8は、本発明の第1の実施形態に係る判別装置20の構成例を示すブロック図である。図8を参照すると、判別装置20は、信号取得部210、信号DB211、フィルタ部220、特徴量算出部230、評価値算出部240、回帰学習モデルDB241、判別部250、および調整部260を備える。
[2.2. Identification device]
(1) Configuration FIG. 8 is a block diagram illustrating a configuration example of the discrimination device 20 according to the first embodiment of the present invention. Referring to FIG. 8, the determination device 20 includes a signal acquisition unit 210, a signal DB 211, a filter unit 220, a feature value calculation unit 230, an evaluation value calculation unit 240, a regression learning model DB 241, a determination unit 250, and an adjustment unit 260. .

(信号取得部)
信号取得部210は、不図示の通信部または入力部等を介して、センサ2から出力される信号データを取得する。取得した信号についてリアルタイムに判別処理を実施する場合は、信号取得部210は、取得した信号データをフィルタ部220に出力する。また、取得した信号データについて事後的に判別処理を実施する場合は、信号取得部210は、信号DB211に取得した信号データを出力してもよい。
(Signal acquisition unit)
The signal acquisition unit 210 acquires signal data output from the sensor 2 via a communication unit or an input unit (not shown). When performing the discrimination processing on the acquired signal in real time, the signal acquisition unit 210 outputs the acquired signal data to the filter unit 220. In addition, when performing the discrimination processing on the acquired signal data afterwards, the signal acquisition unit 210 may output the acquired signal data to the signal DB 211.

(信号DB)
信号DB211は、信号取得部210が取得した信号データを逐次的に記憶するデータベースである。記憶された信号データについて判別処理を実施する場合は、信号DB211に記憶された信号データは、フィルタ部220に出力される。
(Signal DB)
The signal DB 211 is a database that sequentially stores the signal data acquired by the signal acquiring unit 210. When performing the determination process on the stored signal data, the signal data stored in the signal DB 211 is output to the filter unit 220.

(フィルタ部)
フィルタ部220は、信号取得部210、または信号DB211から取得した信号データにフィルタ処理を実施する。フィルタ部220により実施されるフィルタ処理は、モデル生成装置10のフィルタ部120と同様に、LPF処理であってもよい。この場合、LPF処理は、IIRフィルタによるものであってもよい。IIRフィルタについては、上述したIIRフィルタと同一であるので、説明を省略する。フィルタ部220は、LPF処理がされた信号データを、特徴量算出部230に出力する。
(Filter section)
The filter unit 220 performs a filtering process on the signal data acquired from the signal acquisition unit 210 or the signal DB 211. The filter process performed by the filter unit 220 may be an LPF process similarly to the filter unit 120 of the model generation device 10. In this case, the LPF processing may be based on an IIR filter. Since the IIR filter is the same as the above-described IIR filter, the description is omitted. The filter unit 220 outputs the LPF-processed signal data to the feature amount calculation unit 230.

(特徴量算出部)
特徴量算出部230は、フィルタ部220から取得した信号データの特徴量を算出する。特徴量算出部230が算出する特徴量は、モデル生成装置10の特徴量算出部130により算出される特徴量と同一である。例えば、特徴量算出部230は、信号データの波形の振幅特徴量と、周波数特徴量とを、特徴量として算出する。これらの特徴量の具体的な算出方法については、モデル生成装置10の特徴量算出部130による算出方法と同一であるため、説明を省略する。
(Feature calculation unit)
The feature amount calculation unit 230 calculates a feature amount of the signal data acquired from the filter unit 220. The feature value calculated by the feature value calculation unit 230 is the same as the feature value calculated by the feature value calculation unit 130 of the model generation device 10. For example, the feature value calculation unit 230 calculates the amplitude feature value and the frequency feature value of the waveform of the signal data as the feature value. The specific calculation method of these feature amounts is the same as the calculation method by the feature amount calculation unit 130 of the model generation device 10, and thus the description is omitted.

特徴量算出部230は、算出した特徴量を成分とする特徴ベクトルを生成する。具体的には、特徴量算出部230は、時刻kにおける信号データI(k)またはQ(k)から、F(k)=[V(k),f(k)]という2次元の特徴ベクトルを生成する。なお、V(k)は振幅特徴量であり、f(k)は単位期間におけるゼロ交差数である。上記の単位期間は、モデル生成装置10の特徴量算出部130によるゼロ交差数の算出の際に用いられる単位期間と同一である。特徴量算出部230は、生成した特徴ベクトルF(k)を評価値算出部240に出力する。   The feature amount calculation unit 230 generates a feature vector having the calculated feature amount as a component. Specifically, the feature amount calculation unit 230 calculates a two-dimensional feature vector F (k) = [V (k), f (k)] from the signal data I (k) or Q (k) at time k. Generate Note that V (k) is an amplitude feature amount, and f (k) is the number of zero crossings in a unit period. The unit period described above is the same as the unit period used when calculating the number of zero crossings by the feature amount calculation unit 130 of the model generation device 10. The feature amount calculation unit 230 outputs the generated feature vector F (k) to the evaluation value calculation unit 240.

(評価値算出部)
評価値算出部240は、特徴量算出部230から取得した特徴ベクトルF(k)と、回帰学習モデルDB241に記憶されている一の回帰学習モデルを用いて、センサ2により検出された動体の動きに対応する評価値を算出する。回帰学習モデルDB241に記憶されている回帰学習モデルは、モデル生成装置10により生成された回帰学習モデルである。評価値算出部240は、例えば、下記式(9)に示される判別関数に特徴ベクトルF(k)を代入することにより得られる出力値z(k)の値を、評価値として算出する。なお、下記式(9)に示される関数g(xi,k,σ)は、上記式(8)に示されるカーネル関数である。
(Evaluation value calculation unit)
The evaluation value calculation unit 240 uses the feature vector F (k) acquired from the feature amount calculation unit 230 and one regression learning model stored in the regression learning model DB 241 to detect the motion of the moving object detected by the sensor 2. Is calculated. The regression learning model stored in the regression learning model DB 241 is a regression learning model generated by the model generation device 10. The evaluation value calculation unit 240 calculates, for example, a value of an output value z (k) obtained by substituting the feature vector F (k) into a discriminant function represented by the following equation (9) as an evaluation value. The function g (xi , k , σ) shown in the following equation (9) is a kernel function shown in the above equation (8).

Figure 0006648435
Figure 0006648435

ここで、xi,kの値は下記式(10)により与えられる。なお、Vおよびfは、上記式(6)で示されるサポートベクタ行列sのi成分の値である。 Here, the value of x i, k is given by the following equation (10). Note that V i and f i are the values of the i component of the support vector matrix s represented by the above equation (6).

Figure 0006648435
Figure 0006648435

評価値算出部240により算出される出力値z(k)は、評価値として、判別部250に出力される。   The output value z (k) calculated by the evaluation value calculation unit 240 is output to the determination unit 250 as an evaluation value.

(回帰学習モデルDB)
回帰学習モデルDB241は、モデル生成装置10により算出された少なくとも一の回帰学習モデルを記憶する。回帰学習モデルDB241は、モデル生成装置10の回帰学習モデルDB151に記憶されている回帰学習モデルの一部または全部を記憶する。回帰学習モデルDB241に記憶されている回帰学習モデルは、評価値算出部240に出力される。評価値算出部240に出力される回帰学習モデルの種類については、判別装置20のユーザ等により、自由に選択される。例えば、判別装置20が用いられる環境や建物の構造、材質等に適した回帰学習モデルが選択されてもよい。なお、回帰学習モデルDB241に記憶されている回帰学習モデルは、不図示の入力部または通信部を介して、適宜追加、変更、または削除され得る。
(Regression learning model DB)
The regression learning model DB 241 stores at least one regression learning model calculated by the model generation device 10. The regression learning model DB 241 stores part or all of the regression learning model stored in the regression learning model DB 151 of the model generation device 10. The regression learning model stored in the regression learning model DB 241 is output to the evaluation value calculation section 240. The type of the regression learning model output to the evaluation value calculation unit 240 is freely selected by the user of the discriminating apparatus 20 or the like. For example, a regression learning model suitable for the environment in which the determination device 20 is used, the structure of the building, the material, and the like may be selected. Note that the regression learning model stored in the regression learning model DB 241 can be appropriately added, changed, or deleted via an input unit or a communication unit (not shown).

(判別部)
判別部250は、評価値算出部240から算出される評価値(出力値)z(k)に基づいて、センサ2により検出された動体の動きを判別する。本実施形態においては、判別部250は、評価値z(k)に基づいて、センサ2により検出された動体の動きが人物の動きであるか否かを判別する。より具体的には、判別部250は、評価値z(k)と、感度閾値Thとを比較し、その大小関係に基づいて、動体の動きが人物の動きであるか否かを判別する。ここで、人物の動きであるか否かを示す判別結果値をdとすると、以下の比較式に基づいて、判別結果値をdの値が決定される。まず、z(k)≧Thの場合、d=1となる。d=1の場合、動体の動きは人物の動きであると判別される。一方、z(k)<Thの場合、d=0となる。d=0の場合、動体の動きは人物の動きではないと判別される。
(Discriminator)
The determination unit 250 determines the motion of the moving object detected by the sensor 2 based on the evaluation value (output value) z (k) calculated from the evaluation value calculation unit 240. In the present embodiment, the determination unit 250 determines whether the motion of the moving object detected by the sensor 2 is a motion of a person based on the evaluation value z (k). More specifically, the determination unit 250 compares the evaluation value z (k) with the sensitivity threshold Th, and determines whether or not the motion of the moving object is a motion of a person based on the magnitude relationship. Here, assuming that a determination result value indicating whether or not the movement is a person motion is d, the value of the determination result value d is determined based on the following comparison formula. First, when z (k) ≧ Th, d = 1. When d = 1, the motion of the moving object is determined to be the motion of the person. On the other hand, when z (k) <Th, d = 0. When d = 0, it is determined that the motion of the moving object is not the motion of the person.

判別部250は、判別結果値dの値を、外部装置や判別装置20に含まれる不図示の記憶部等に出力する。また、判別部250は、判別結果値dに代えて、または判別結果値dとともに、評価値z(k)を出力してもよい。例えば、判別装置20の較正において、後述する調整部260により調整される感度閾値Thの適正値を較正する際に、実際の評価値z(k)の値と動体の動きとを検証するために、評価値z(k)の値が出力され得る。   The determination unit 250 outputs the value of the determination result value d to an external device, a storage unit (not shown) included in the determination device 20, or the like. Further, the determination unit 250 may output the evaluation value z (k) instead of or together with the determination result value d. For example, when the appropriate value of the sensitivity threshold Th adjusted by the adjustment unit 260 described later is calibrated in the calibration of the determination device 20, in order to verify the actual value of the evaluation value z (k) and the movement of the moving object. , Z (k) can be output.

(調整部)
調整部260は、判別部250による動体の動きの判別のために、動体の動きに対応する評価値と比較される感度閾値Thを調整する。調整部260は、不図示の入力部または通信部を介して、感度閾値Thを調整する。感度閾値Thの対象となる評価値z(k)は、上記式(9)により示される判別関数により得られる連続値である。上記判別関数は、回帰学習モデルに含まれるサポートベクタ行列s、重みベクトルc、および閾値bにより構成される連続関数である。つまり、回帰学習モデルは、個々のシナリオに基づいて生成された連続関数を構成する。そのため、例えば、センサ2により検出される信号が複数の外乱が混在する信号であったとしても、上記判別関数により、個々のシナリオに対応する信号の特徴を反映させた、一次元の評価値が出力される。したがって、調整部260は、感度閾値Thを任意の値に設定するだけで、複数の外乱が存在する環境における動体の動きの判別に対する感度を調整することができる。
(Adjustment unit)
The adjustment unit 260 adjusts the sensitivity threshold Th that is compared with the evaluation value corresponding to the movement of the moving object for the determination of the movement of the moving object by the determination unit 250. The adjustment unit 260 adjusts the sensitivity threshold Th via an input unit or a communication unit (not shown). The evaluation value z (k) as the target of the sensitivity threshold Th is a continuous value obtained by the discriminant function represented by the above equation (9). The discriminant function is a continuous function including a support vector matrix s, a weight vector c, and a threshold b included in the regression learning model. That is, the regression learning model forms a continuous function generated based on each scenario. Therefore, for example, even if the signal detected by the sensor 2 is a signal in which a plurality of disturbances are mixed, the one-dimensional evaluation value reflecting the characteristics of the signal corresponding to each scenario is obtained by the discriminant function. Is output. Therefore, the adjustment unit 260 can adjust the sensitivity to the determination of the movement of the moving object in an environment where a plurality of disturbances exist only by setting the sensitivity threshold Th to an arbitrary value.

調整部260は、上記の判別関数により出力される評価値z(k)が取り得る値の範囲内において、任意の値を感度閾値Thとして設定する。感度閾値Thの値は、連続的に変化してもよいが、離散的に変化してもよい。例えば、調整部260は、感度閾値Thの値を段階的に調整してもよい。これにより、判別装置20を用いるユーザは、感度閾値Thの値の調整を容易に行うことができる。感度閾値Thの初期値として、予め所定の値が設定されてもよいし、判別装置20が用いられる環境に応じた値が設定されてもよい。また、感度閾値Thの値の調整は、判別装置20を用いるユーザによりマニュアルで設定されてもよいが、ロジスティック回帰分析や線形判別分析等の統計的手法を用いることにより、最適な感度閾値Thの値が設定されてもよい。設定された感度閾値Thの値は、判別部250に出力される。   The adjustment unit 260 sets an arbitrary value as the sensitivity threshold Th within a range of possible values of the evaluation value z (k) output by the above discriminant function. The value of the sensitivity threshold Th may change continuously or may change discretely. For example, the adjustment unit 260 may adjust the value of the sensitivity threshold Th in a stepwise manner. Thus, the user using the determination device 20 can easily adjust the value of the sensitivity threshold Th. A predetermined value may be set in advance as an initial value of the sensitivity threshold Th, or a value according to an environment in which the determination device 20 is used may be set. Further, the adjustment of the value of the sensitivity threshold Th may be manually set by a user using the discriminating apparatus 20, but by using a statistical technique such as logistic regression analysis or linear discriminant analysis, the optimal sensitivity threshold Th may be adjusted. A value may be set. The set value of the sensitivity threshold Th is output to the determination unit 250.

(2)動作
図9は、本発明の第1の実施形態に係る判別装置20の動作例を示すフローチャートである。まず、信号取得部210は、センサ2が検出した動体の動きに由来する信号を信号データとして取得する(S301)。信号取得部210は、取得した信号データを信号DB211、またはフィルタ部220に出力する。
(2) Operation FIG. 9 is a flowchart showing an operation example of the discrimination device 20 according to the first embodiment of the present invention. First, the signal acquisition unit 210 acquires a signal derived from the motion of the moving object detected by the sensor 2 as signal data (S301). The signal acquisition unit 210 outputs the acquired signal data to the signal DB 211 or the filter unit 220.

次に、フィルタ部220は、取得した信号データについてLPF処理を実施する(S303)。LPF処理が実施された信号データは、特徴量算出部230に出力される。特徴量算出部230は、LPF処理後の信号データについて、特徴量を算出する(S305)。次に、特徴量算出部230は、算出した一または複数の特徴量により構成される特徴ベクトルを生成する(S307)。生成された特徴ベクトルを含むデータは、評価値算出部240に出力される。   Next, the filter unit 220 performs LPF processing on the acquired signal data (S303). The signal data on which the LPF processing has been performed is output to the feature amount calculation unit 230. The feature amount calculation unit 230 calculates the feature amount of the signal data after the LPF processing (S305). Next, the feature amount calculation unit 230 generates a feature vector composed of the calculated one or more feature amounts (S307). The data including the generated feature vector is output to the evaluation value calculation unit 240.

評価値算出部240は、取得した特徴ベクトルと、回帰学習モデルDB241に記憶されている一の回帰学習モデルを用いて、上記動体の動きに対応する評価値を算出する(S309)。次に、判別部250は、評価値と、調整部260により調整された感度閾値との大小を比較することにより、動体の動きについて判別する(S311)。そして、判別部250は、判別結果を外部装置、または記憶部等に出力する(S313)。   The evaluation value calculation unit 240 calculates an evaluation value corresponding to the movement of the moving object using the acquired feature vector and one regression learning model stored in the regression learning model DB 241 (S309). Next, the determination unit 250 determines the motion of the moving object by comparing the evaluation value with the sensitivity threshold adjusted by the adjustment unit 260 (S311). Then, the determination unit 250 outputs the determination result to an external device, a storage unit, or the like (S313).

[2.3.効果]
ここまで、図1〜図9を用いて、本発明の第1の実施形態について説明した。本発明の第1の実施形態によれば、モデル生成装置10は、複数の所定の動きの特徴量と所定の動きに対応する評価値とを組とする複数のデータに基づいて、SVR等による回帰学習モデルを生成する。そして、判別装置20は、モデル生成装置10により生成された回帰学習モデルを用いて、センサ2により検出された動体の動きについて判別を行う。回帰学習モデルは、連続的な関数である判別関数を構成し、判別装置20は、判別関数を用いて、動体の動きに対応する一次元の評価値を算出する。そして、判別装置20は、評価値と任意の値に調整可能な感度閾値とを比較することにより、動体の動きについて判別する。かかる構成において、複数の所定の動きを反映させた回帰学習モデルを用いることにより、センサ2により検出された動体の動きに付随する様々な外乱が信号に含まれる場合であっても、判別装置20は、それらの外乱の種類に依存せず、自由に感度閾値を設定することができる。これにより、動体の動きの判別に係る感度を、より細かく調整することができる。したがって、例えば、感度補正手段の対象とはなっていない外乱や、複数の外乱の混在など、従来では判別し得なかった外乱が含まれる信号についても、判別のための感度調整を行うことができる。よって、動体の動きの判別精度をより向上させることができる。
[2.3. effect]
So far, the first embodiment of the present invention has been described with reference to FIGS. According to the first embodiment of the present invention, the model generation device 10 uses SVR or the like based on a plurality of data pairs of a plurality of predetermined motion feature amounts and evaluation values corresponding to the predetermined motions. Generate a regression learning model. Then, the discrimination device 20 uses the regression learning model generated by the model generation device 10 to determine the motion of the moving object detected by the sensor 2. The regression learning model forms a discriminant function that is a continuous function, and the discriminator 20 uses the discriminant function to calculate a one-dimensional evaluation value corresponding to the motion of the moving object. Then, the determination device 20 determines the movement of the moving object by comparing the evaluation value with a sensitivity threshold value that can be adjusted to an arbitrary value. In such a configuration, by using a regression learning model reflecting a plurality of predetermined movements, even if various disturbances accompanying the movement of the moving body detected by the sensor 2 are included in the signal, the discrimination device 20 can be used. Can set the sensitivity threshold freely without depending on the type of the disturbance. Thereby, the sensitivity relating to the determination of the movement of the moving object can be more finely adjusted. Therefore, for example, it is possible to perform sensitivity adjustment for discrimination even for a signal that includes a disturbance that could not be discriminated conventionally, such as a disturbance that is not a target of the sensitivity correction unit or a mixture of a plurality of disturbances. . Therefore, the accuracy of determining the motion of the moving object can be further improved.

<3.第2の実施形態>
続いて、本発明の第2の実施形態について説明する。本実施形態では、モデル生成装置10に含まれる評価値生成部140が、各シナリオに対応する評価値を適正に決定する機能を有する。本発明の第1の実施形態においては、シナリオ毎に予め所定の値が割り振られていたが、この所定の値は、モデル生成装置10のユーザ等の主観や経験により決定される値であった。そのため、回帰学習モデルを生成するにあたって、これらの評価値は必ずしも最適なモデルを生成するものではない。そこで、本実施形態に係る評価値生成部140は、複数の所定の動きに由来する信号データを含む複数のデータリストを用意し、各データリストごとに複数の参考回帰学習モデルを生成し、各参考回帰学習モデルを用いて、参考回帰学習モデルの生成に用いられた全てのデータリストについて判別処理を行う。そして、評価値生成部140は、各参考回帰学習モデルを用いて得られた判別結果について比較を行い、その比較結果に基づいて適正な評価値を決定する。これにより、所定の動きに対する評価値を、ユーザ等の主観を排し、機械的に決定することができる。したがって、モデル生成装置10による回帰学習モデルの質が向上し、判別装置20による判別結果の精度をさらに向上させることができる。以下、第2の実施形態に係るモデル生成装置10、および評価値生成部140について説明する。
<3. Second Embodiment>
Subsequently, a second embodiment of the present invention will be described. In the present embodiment, the evaluation value generation unit 140 included in the model generation device 10 has a function of appropriately determining an evaluation value corresponding to each scenario. In the first embodiment of the present invention, a predetermined value is assigned in advance for each scenario, but the predetermined value is a value determined based on the subjective or experience of the user of the model generation device 10 or the like. . Therefore, when generating a regression learning model, these evaluation values do not always generate an optimal model. Therefore, the evaluation value generation unit 140 according to the present embodiment prepares a plurality of data lists including signal data derived from a plurality of predetermined movements, generates a plurality of reference regression learning models for each data list, and Using the reference regression learning model, discrimination processing is performed for all data lists used for generating the reference regression learning model. Then, the evaluation value generation unit 140 compares the discrimination results obtained using each reference regression learning model, and determines an appropriate evaluation value based on the comparison result. As a result, the evaluation value for the predetermined movement can be determined mechanically without subjectivity of the user or the like. Therefore, the quality of the regression learning model by the model generation device 10 is improved, and the accuracy of the determination result by the determination device 20 can be further improved. Hereinafter, the model generation device 10 and the evaluation value generation unit 140 according to the second embodiment will be described.

[3.1.モデル生成装置]
(1)構成
図10は、本発明の第2の実施形態に係るモデル生成装置10の構成例を示すブロック図である。図10を参照すると、モデル生成装置10は、信号取得部110、信号DB111、フィルタ部120、特徴量算出部130、特徴量DB131、評価値生成部140、評価値DB141、モデル生成部150、および回帰学習モデルDB151を備える。本実施形態に係る信号取得部110、信号DB111、フィルタ部120、特徴量算出部130、評価値DB141、モデル生成部150、および回帰学習モデルDB151は、第1の実施形態に係る各構成要素と同一の機能を有するので、説明を省略する。特徴量DB131は、特徴量算出部130により算出された信号データの特徴量を含むデータを、信号DB111に記憶されているデータセットにひも付けて記憶するデータベースである。特徴量DB131については、詳しくは後述する。以下、評価値生成部140の構成等について説明する。
[3.1. Model generation device]
(1) Configuration FIG. 10 is a block diagram illustrating a configuration example of a model generation device 10 according to the second embodiment of the present invention. Referring to FIG. 10, the model generation device 10 includes a signal acquisition unit 110, a signal DB 111, a filter unit 120, a feature amount calculation unit 130, a feature amount DB 131, an evaluation value generation unit 140, an evaluation value DB 141, a model generation unit 150, A regression learning model DB 151 is provided. The signal acquisition unit 110, the signal DB 111, the filter unit 120, the feature value calculation unit 130, the evaluation value DB 141, the model generation unit 150, and the regression learning model DB 151 according to the present embodiment include the components according to the first embodiment. Since they have the same function, the description is omitted. The feature amount DB 131 is a database that stores data including the feature amount of the signal data calculated by the feature amount calculation unit 130 in association with a data set stored in the signal DB 111. The feature amount DB 131 will be described later in detail. Hereinafter, the configuration and the like of the evaluation value generation unit 140 will be described.

[3.2.評価値生成部]
(1)構成
図11は、評価値生成部140および評価値生成部140において用いられる各種データを格納するデータベースの構成例を示すブロック図である。図11を参照すると、評価値生成部140は、参考モデル生成部410、判別検証部420、および評価値決定部430を含む。
[3.2. Evaluation value generator]
(1) Configuration FIG. 11 is a block diagram illustrating a configuration example of the evaluation value generation unit 140 and a database that stores various data used in the evaluation value generation unit 140. Referring to FIG. 11, evaluation value generation section 140 includes reference model generation section 410, discrimination verification section 420, and evaluation value determination section 430.

(参考モデル生成部)
参考モデル生成部410は、特徴量DB131に格納されている複数のデータリストに含まれる特徴量(特徴ベクトル)と、参考評価値DB151に格納されている、上記複数のデータリストの各々に対応する参考評価値リストに含まれる参考評価値を用いて、参考回帰学習モデルを生成する。参考回帰学習モデルとは、複数のデータリストの各々に含まれる特徴量と、参考評価値との組による複数のデータセットを用いて生成される回帰学習モデルである。本実施形態においては、データリストは2種類(データリスト1(外乱なし)、データリスト2(外乱あり))用意される。そのため、参考回帰学習モデルについて、データリスト1に対応するモデルと、データリスト2に対応するモデルの、2種類のモデルが生成される。なお、本実施形態においては、2種類の参考回帰学習モデルが生成されるが、本発明はかかる例に限定されず、3種類以上のデータリストを用いて、上記データリストにそれぞれ応じた参考回帰学習モデルが生成されてもよい。
(Reference model generator)
The reference model generation unit 410 corresponds to each of the feature amounts (feature vectors) included in the plurality of data lists stored in the feature amount DB 131 and each of the plurality of data lists stored in the reference evaluation value DB 151. A reference regression learning model is generated using the reference evaluation values included in the reference evaluation value list. The reference regression learning model is a regression learning model generated using a plurality of data sets based on a set of a feature amount included in each of the plurality of data lists and a reference evaluation value. In the present embodiment, two types of data lists (data list 1 (without disturbance) and data list 2 (with disturbance)) are prepared. Therefore, two types of models, a model corresponding to the data list 1 and a model corresponding to the data list 2, are generated for the reference regression learning model. In the present embodiment, two types of reference regression learning models are generated. However, the present invention is not limited to such an example, and three or more types of data lists are used, and reference regression learning models corresponding to the data lists are used. A learning model may be generated.

上記複数のデータリストの構成はそれぞれ異なる。図12および図13は、特徴量DB131に格納されているデータリスト1(外乱なし)3000、およびデータリスト2(外乱あり)4000の一例を示す図である。図12および図13を参照すると、各々のデータリストは、ID、属性、シナリオ、信号データを含む信号データファイル、および特徴量データを含む特徴量データファイルを含むデータセットにより構成される。なお、特徴量データファイルに含まれる特徴量データは、予め特徴量算出部130により算出された、所定の動きの特徴量を含む。ここで、データリスト1には、属性が「無人(外乱なし)」、および「有人」のデータセットが含まれている。一方で、データリスト2には、属性が「無人(外乱なし)」、「無人(外乱あり)」、および「有人」のデータセットが含まれている。なお、データリスト1、およびデータリスト2には同一の属性およびシナリオのデータセットが含まれているが、各データセットに含まれる信号データは必ずしも同一でなくてもよい。また、同一内容のシナリオについて、複数の信号データが含まれていてもよい。   Each of the plurality of data lists has a different configuration. FIGS. 12 and 13 are diagrams illustrating an example of the data list 1 (without disturbance) 3000 and the data list 2 (with disturbance) 4000 stored in the feature amount DB 131. Referring to FIG. 12 and FIG. 13, each data list is configured by a data set including an ID, an attribute, a scenario, a signal data file including signal data, and a feature data file including feature data. The feature amount data included in the feature amount data file includes a feature amount of a predetermined motion calculated by the feature amount calculation unit 130 in advance. Here, the data list 1 includes data sets whose attributes are “unmanned (no disturbance)” and “manned”. On the other hand, the data list 2 includes data sets whose attributes are “unmanned (no disturbance)”, “unmanned (disturbed)”, and “manned”. Although the data lists 1 and 2 include data sets having the same attribute and scenario, the signal data included in each data set does not necessarily have to be the same. Further, a plurality of signal data may be included for a scenario having the same content.

図14および図15は、参考評価値DB151に格納されている参考評価値リスト1(外乱なし)5000、および参考評価値リスト2(外乱あり)の6000の構成を示す図である。図14および図15を参照すると、各々のデータリストは、ID、属性、シナリオ、および参考評価値を含むデータセットにより構成される。上記のデータリスト1およびデータリスト2と同様に、参考評価値リスト1には属性が「無人(外乱あり)」のデータセットが含まれていない一方で、参考評価値リスト2には属性が「無人(外乱あり)」のデータセットが含まれる。また、これらの参考評価値リストにおいて、属性が「無人」であるデータセットの参考評価値は0に設定され、属性が「有人」であるデータセットの参考評価値は1に設定される。データリスト1は参考評価値リスト1と対応しており、データリスト2は参考評価値リスト2と対応している。   FIGS. 14 and 15 are diagrams showing the configuration of the reference evaluation value list 1 (without disturbance) 5000 and the reference evaluation value list 2 (with disturbance) 6000 stored in the reference evaluation value DB 151. Referring to FIGS. 14 and 15, each data list is configured by a data set including an ID, an attribute, a scenario, and a reference evaluation value. Similarly to the data list 1 and the data list 2 described above, the reference evaluation value list 1 does not include a data set whose attribute is “unmanned (with disturbance)”, while the reference evaluation value list 2 has the attribute “ Unattended (with disturbance) "data set. In these reference evaluation value lists, the reference evaluation value of the data set whose attribute is “unmanned” is set to 0, and the reference evaluation value of the data set whose attribute is “manned” is set to 1. Data list 1 corresponds to reference evaluation value list 1, and data list 2 corresponds to reference evaluation value list 2.

データリスト1(および参考評価値リスト1)は、属性「無人(外乱あり)」のデータセットを含まない。そのため、データリスト1および参考評価値リスト1を用いて生成された参考回帰学習モデル(参考回帰学習モデル1と呼称する)を判別処理に適用させた場合、データリスト2および参考評価値リスト2を用いて生成された参考回帰学習モデル(参考回帰学習モデル2と呼称する)を判別処理に適用させた場合と比較して、人物以外の動きを人物の動きとして判別する確率が高くなると考えられる。一方で、参考評価値リスト2において属性「無人(外乱あり)」の参考評価値は0に設定されている。そのため、参考回帰学習モデル2を判別処理に適用させた場合、参考回帰学習モデル1を判別処理に適用させた場合と比較して、人物の動きを人物以外の動きとして判別する確率が高くなると考えられる。そこで、本実施形態に係る評価値生成部140は、参考回帰学習モデル間での判別結果の差異に応じて、全てのシナリオに対応する評価値を決定する。これにより、判別精度を向上させることが可能となる回帰学習モデルを生成することが可能となる。   Data list 1 (and reference evaluation value list 1) does not include a data set having the attribute “unmanned (with disturbance)”. Therefore, when the reference regression learning model (referred to as reference regression learning model 1) generated using the data list 1 and the reference evaluation value list 1 is applied to the discriminating process, the data list 2 and the reference evaluation value list 2 are combined. It is considered that the probability of discriminating a motion other than a person as a person's motion is higher than a case where a reference regression learning model generated using the above (referred to as reference regression learning model 2) is applied to the discrimination processing. On the other hand, in the reference evaluation value list 2, the reference evaluation value of the attribute “unmanned (with disturbance)” is set to 0. Therefore, when the reference regression learning model 2 is applied to the discrimination process, the probability that the motion of the person is discriminated as a motion other than the person is higher than when the reference regression learning model 1 is applied to the discrimination process. Can be Therefore, the evaluation value generation unit 140 according to the present embodiment determines evaluation values corresponding to all scenarios according to the difference in the determination result between the reference regression learning models. This makes it possible to generate a regression learning model that can improve the discrimination accuracy.

参考モデル生成部410は、参考回帰学習モデル1および参考回帰学習モデル2を生成し、これらの参考回帰学習モデルを参考モデルDB161に格納する。   The reference model generation unit 410 generates a reference regression learning model 1 and a reference regression learning model 2, and stores these reference regression learning models in the reference model DB 161.

(判別検証部)
判別検証部420は、特徴量DB131に格納されているうちの、参考回帰学習モデルの生成に用いられた全てのデータリストに含まれる特徴量について、参考モデルDB161に格納されている参考回帰学習モデルの各々を用いて判別処理を行い、参考回帰学習モデル毎の判別結果について検証し、その検証結果に基づいて各シナリオに対応する評価値を決定する。具体的には、判別検証部420は、まず、データリスト1およびデータリスト2に含まれている全ての特徴量データから特徴量を取得する。そして、判別検証部420は、各々の特徴量について、参考回帰学習モデル1、および参考回帰学習モデル2を用いて、特定の動体の動きの有無(ここでは、人物の存在の有無)を判別する。判別検証部420は、人物の存在の有無の判別結果(無人率)について、各参考回帰学習モデル間における差を比較する。そして、判別検証部420は、上記差に基づいて、各シナリオに対応する評価値を決定する。以下、判別検証部420における処理について、順に説明する。
(Discrimination verification section)
The discriminating verification unit 420 determines the reference regression learning model stored in the reference model DB 161 for the feature amounts included in all data lists used for generating the reference regression learning model, which are stored in the feature amount DB 131. Of each reference regression learning model is verified, and an evaluation value corresponding to each scenario is determined based on the verification result. Specifically, the discriminating verification unit 420 first obtains a feature amount from all the feature amount data included in the data list 1 and the data list 2. Then, the discriminating verification unit 420 determines whether or not a specific moving object is moving (here, whether or not there is a person) using the reference regression learning model 1 and the reference regression learning model 2 for each feature amount. . The discrimination verification unit 420 compares the difference between the reference regression learning models with respect to the discrimination result (unmanned rate) of the presence or absence of a person. Then, the discrimination verification unit 420 determines an evaluation value corresponding to each scenario based on the difference. Hereinafter, the processing in the determination verification unit 420 will be described in order.

まず、判別検証部420は、参考回帰学習モデルの生成に用いられた全てのデータリストに含まれている特徴量について、参考回帰学習モデルの各々を用いて判別処理を行う。判別検証部420による判別処理は、第1の実施形態に係る判別装置20の評価値算出部240、および判別部250による処理と同様の処理である。例えば、参考モデル生成部410により生成された一の参考回帰学習モデルが、以下のサポートベクタ行列s’、重みベクトルc’、および閾値b’によって構成されているとする。具体的には、サポートベクタ行列s’は下記式(11)で示す行列により定義され、重みベクトルc’は下記式(12)で示すベクトルにより定義される。また、閾値b’は一意に定まる値である。   First, the discriminating verification unit 420 performs a discriminating process on each of the feature amounts included in the data list used for generating the reference regression learning model, using each of the reference regression learning models. The discriminating process by the discriminating verification unit 420 is the same process as the process by the evaluation value calculating unit 240 and the discriminating unit 250 of the discriminating apparatus 20 according to the first embodiment. For example, it is assumed that one reference regression learning model generated by the reference model generation unit 410 includes the following support vector matrix s', weight vector c ', and threshold value b'. Specifically, the support vector matrix s 'is defined by a matrix represented by the following equation (11), and the weight vector c' is defined by a vector represented by the following equation (12). The threshold value b 'is a value uniquely determined.

Figure 0006648435
Figure 0006648435

Figure 0006648435
Figure 0006648435

また、第1の実施形態と同様に、特徴空間および評価値により構成されるデータについて、カーネルトリックを用いて非線形空間に写像することにより、回帰学習モデルを生成することも可能である。本実施形態においては、カーネルトリックとして、下記式(13)で示すガウシアン型カーネルが用いられてもよい。   Further, similarly to the first embodiment, it is also possible to generate a regression learning model by mapping data constituted by a feature space and an evaluation value onto a non-linear space using a kernel trick. In the present embodiment, a Gaussian kernel represented by the following equation (13) may be used as a kernel trick.

Figure 0006648435
Figure 0006648435

ここで、全てのデータリストに含まれているシナリオの数をMとし、m番目のシナリオに対応する特徴ベクトルをF(k)とする。判別検証部420は、下記式(14)に示される判別関数に特徴ベクトルF(k)を代入することにより得られる出力値z(k)の値を、評価値として算出する。 Here, the number of scenarios included in all data lists is M, and the feature vector corresponding to the m-th scenario is F m (k). The discriminant verification unit 420 calculates, as an evaluation value, an output value z m (k) obtained by substituting the feature vector F m (k) into a discriminant function represented by the following equation (14).

Figure 0006648435
Figure 0006648435

ただし、xi,kの値は下記式(15)により与えられる。ここで、Vおよびfは、上記式(11)で示されるサポートベクタ行列sのi成分の値である。 Here, the value of x i, k is given by the following equation (15). Here, V i and f i are the values of the i component of the support vector matrix s represented by the above equation (11).

Figure 0006648435
Figure 0006648435

次に、判別検証部420は、上記式(14)で得られた評価値z(k)に基づいて、m番目のシナリオが人体の動きか否かを判別する。より具体的には、判別検証部420は、評価値z(k)が0以上であるか否かに基づいて、m番目のシナリオが人体の動きか否かを判別する。ここで、人体の動きであるか否かを示す判別結果値をdとすると、以下の比較式に基づいて、判別結果値をdの値が決定される。まず、z(k)≧0の場合、d=1となる。d=1の場合、m番目のシナリオは人物の動きであると判別される。一方、z(k)<0の場合、d=0となる。d=0の場合、m番目のシナリオは人物の動きではないと判別される。 Next, the determination verification unit 420 determines whether or not the m-th scenario is a motion of a human body, based on the evaluation value z m (k) obtained by Expression (14). More specifically, the determination verification unit 420 determines whether the m-th scenario is a human body motion based on whether the evaluation value z m (k) is equal to or greater than 0. Here, if the determination result value indicating whether a human body motion and d m, based on the following comparison expression, the discrimination result value the value of d m are determined. First, when z m (k) ≧ 0, d m = 1. If d m = 1, the m-th scenario is determined to be a person's movement. On the other hand, when z m (k) <0, d m = 0. If d m = 0, it is determined that the m-th scenario is not a motion of a person.

判別検証部420は、全てのデータリストに含まれるすべてのシナリオについてdを算出する。そして、判別検証部420は、下記式(16)に従って、無人率eval[%]を算出する。 Determination verification section 420 calculates a d m for all scenarios included in all data lists. Then, the discrimination verification unit 420 calculates the unmanned rate eval [%] according to the following equation (16).

Figure 0006648435
Figure 0006648435

判別検証部420は、上記の判別処理、および無人率(eval)算出処理を、参考モデル生成部410により生成された複数の参考回帰学習モデルごとに実施する。本実施形態においては、判別検証部420は、参考回帰学習モデル1、および参考回帰学習モデル2の各々を用いて全てのシナリオについて判別処理を実施し、判別結果に基づいて無人率算出処理を実施する。そして、判別検証部420は、無人率の算出結果を評価値決定部430に出力する。   The discrimination verification unit 420 performs the discrimination process and the unmanned rate (eval) calculation process for each of the plurality of reference regression learning models generated by the reference model generation unit 410. In the present embodiment, the discriminating verification unit 420 performs the discriminating process for all scenarios using each of the reference regression learning model 1 and the reference regression learning model 2, and performs the unmanned rate calculation process based on the discrimination result. I do. Then, discrimination verification section 420 outputs the calculation result of the unmanned rate to evaluation value determination section 430.

(評価値決定部)
評価値決定部430は、判別検証部420から取得した判別結果に基づいて、回帰学習モデルの生成処理に用いられる評価値を決定する。より具体的には、評価値決定部430は、判別検証部420から取得した無人率の参考回帰学習モデルごとの差に基づいて、評価値を決定する。以下、評価値決定部430による評価値決定処理について、図16を参照しながら説明する。
(Evaluation value determination unit)
The evaluation value determination unit 430 determines an evaluation value used for the process of generating a regression learning model based on the determination result obtained from the determination verification unit 420. More specifically, the evaluation value determination unit 430 determines the evaluation value based on the difference between the unmanned rates obtained from the discrimination verification unit 420 for each reference regression learning model. Hereinafter, the evaluation value determination processing by the evaluation value determination unit 430 will be described with reference to FIG.

図16は、評価値決定部430による評価値決定処理について説明するための図である。図16を参照すると、データリスト7000には、シナリオに対応するID、参考評価値、参考回帰学習モデル1での無人率、参考回帰学習モデル2での無人率、無人率の差、および評価値が含まれている。参考評価値は、参考評価値DB151に予め格納されている仮の評価値であり、属性が「無人」のシナリオは0に、また、属性が「有人」のシナリオは1に設定されている。参考回帰学習モデル1での無人率、および参考回帰学習モデル2での無人率は、各参考回帰学習モデルを用いて算出された無人率である。例えば、ID1001(属性「無人(外乱なし)」、シナリオ「なし」)では、両者とも無人率が100%を示している。この場合、評価値決定部430は、予め参考評価値として与えていた値(1)を、評価値として決定する。一方で、ID1004(属性「有人」、シナリオ「座る」)では、参考回帰学習モデル1での無人率は50%を示しているが、参考回帰学習モデル2での無人率は90%を示している。このように、シナリオによっては、算出される無人率が参考回帰学習モデルによって異なっている。そのため、判別が客観的に困難であるシナリオについて、想定する判別結果とは異なる結果を出力しないように評価値を決定する必要がある。   FIG. 16 is a diagram for explaining the evaluation value determination processing by the evaluation value determination unit 430. Referring to FIG. 16, the data list 7000 includes an ID corresponding to a scenario, a reference evaluation value, an unmanned rate in the reference regression learning model 1, an unmanned rate in the reference regression learning model 2, a difference between the unmanned rates, and an evaluation value. It is included. The reference evaluation value is a temporary evaluation value stored in advance in the reference evaluation value DB 151, and is set to 0 for a scenario with an attribute of “unmanned” and set to 1 for a scenario with an attribute of “attended”. The unmanned rate in the reference regression learning model 1 and the unmanned rate in the reference regression learning model 2 are unmanned rates calculated using the respective reference regression learning models. For example, in the case of ID 1001 (attribute “unmanned (no disturbance)”, scenario “none”), both show an unmanned rate of 100%. In this case, the evaluation value determination unit 430 determines the value (1) given in advance as the reference evaluation value as the evaluation value. On the other hand, in the ID 1004 (attribute “maned”, scenario “sitting”), the unmanned rate in the reference regression learning model 1 indicates 50%, but the unmanned rate in the reference regression learning model 2 indicates 90%. I have. As described above, the calculated unmanned rate differs depending on the reference regression learning model depending on the scenario. Therefore, it is necessary to determine an evaluation value so that a scenario that is objectively difficult to determine is not output as a result different from an expected result of the determination.

図17は、各参考回帰学習モデルにより算出された無人率の分布を示すグラフである。図17のグラフにおいて、○はデータリスト1に含まれる属性「無人」を含むシナリオの無人率、□はデータリスト1に含まれる属性「有人」を含むシナリオの無人率、×はデータリスト2に含まれる属性「無人」を含むシナリオの無人率、および、△はデータリスト2に含まれる属性「有人」を含むシナリオの無人率である。図17に示したように、○や△は、参考回帰学習モデルによる無人率の差は小さいが、□や×など、参考回帰学習モデルによって無人率の差が大きくなる場合も存在する。そのため、評価値決定部430は、無人率の差が大きくなる場合には、参考回帰学習モデルの違いによる影響を抑えるため、中間的な値として、評価値の値を0.5と決定する。一方で、無人率の差が小さい場合には、参考回帰学習モデルの違いによる影響が小さいと考えられるので、参考評価値として与えていた値をそのまま評価値として決定する。このように、無人率の差に応じて評価値を柔軟に変更することにより、主観を排した回帰学習モデルを生成することが可能となる。   FIG. 17 is a graph showing the distribution of the unmanned rate calculated by each reference regression learning model. In the graph of FIG. 17, ○ indicates the unmanned rate of the scenario including the attribute “unmanned” included in the data list 1, □ indicates the unmanned rate of the scenario including the attribute “maned” included in the data list 1, The unmanned rate of the scenario including the attribute “unmanned” included, and △ is the unmanned rate of the scenario including the attribute “maned” included in the data list 2. As shown in FIG. 17, ○ and Δ indicate that the difference in the unmanned rate by the reference regression learning model is small, but there are cases where the difference in the unmanned rate is increased by the reference regression learning model, such as □ and ×. Therefore, when the difference between the unmanned rates increases, the evaluation value determining unit 430 determines the value of the evaluation value as 0.5 as an intermediate value in order to suppress the influence of the difference in the reference regression learning model. On the other hand, when the difference in the unmanned rate is small, it is considered that the influence of the difference in the reference regression learning model is small, so the value given as the reference evaluation value is determined as it is as the evaluation value. As described above, by flexibly changing the evaluation value according to the difference in the unmanned rate, a regression learning model without subjectivity can be generated.

図16を再度参照すると、評価値決定部430は、上記の無人率の差に基づいて、全てのシナリオに対して評価値の値を決定する。例えば、評価値決定部430は、参考回帰学習モデル1と参考回帰学習モデル2との同一のシナリオに対する無人率の差が所定の閾値Th以上である場合に、評価値を0.5と決定する。本実施形態では、所定の閾値Thは20%とする。無人率の差が20%以上である場合、評価値決定部430は、上記シナリオに対して評価値を0.5と決定する。一方で、無人率の差が20%を下回る場合、評価値決定部430は、参考評価値として与えていた値を評価値として決定する。 Referring to FIG. 16 again, the evaluation value determination unit 430 determines the values of the evaluation values for all the scenarios based on the difference between the unmanned rates. For example, the evaluation value determination unit 430 determines the evaluation value to be 0.5 when the difference in the unmanned rate for the same scenario between the reference regression learning model 1 and the reference regression learning model 2 is equal to or greater than a predetermined threshold Tha. I do. In the present embodiment, the predetermined threshold value Th a is 20%. When the difference between the unmanned rates is equal to or greater than 20%, the evaluation value determination unit 430 determines the evaluation value as 0.5 for the above scenario. On the other hand, when the difference in the unmanned rate is less than 20%, the evaluation value determination unit 430 determines the value given as the reference evaluation value as the evaluation value.

なお、所定の閾値Thの値は、回帰学習モデルの精度の調整のために自由に変更され得る。また、本実施形態においては、所定の閾値Thにより3値の評価値が設定されるが、所定の閾値の数は複数であってもよい。また、無人率の差が大きい場合に評価値の中間値として0.5が設定されたが、中間値としての値については特に限定されない。例えば、上記のように所定の閾値が複数ある場合には、中間値として、閾値により設定される段階数に応じて種々の値が設定され得る。また、例えば、評価値決定部430により決定される評価値の値は、算出された無人率evalの値や統計量等に基づいて決定されてもよい。例えば、一のシナリオに対応する評価値の値は、複数の参考回帰学習モデルを用いて算出された無人率の平均値に応じた値であってもよい。 The value of the predetermined threshold Th a can be freely changed for precision adjustment of the regression learning model. Further, in the present embodiment, the evaluation value of the three values by a predetermined threshold value Th a is set, the number of the predetermined threshold may be plural. Further, when the difference between the unmanned rates is large, 0.5 is set as the intermediate value of the evaluation value, but the value as the intermediate value is not particularly limited. For example, when there are a plurality of predetermined thresholds as described above, various values may be set as intermediate values according to the number of steps set by the thresholds. Further, for example, the value of the evaluation value determined by the evaluation value determination unit 430 may be determined based on the calculated value of the unmanned rate eval, a statistic, or the like. For example, the value of the evaluation value corresponding to one scenario may be a value corresponding to the average value of the unmanned rate calculated using a plurality of reference regression learning models.

評価値生成部140は、評価値決定部430により決定された評価値の値を含む評価値リストを、評価値DB141に出力する。   The evaluation value generator 140 outputs an evaluation value list including the evaluation value determined by the evaluation value determiner 430 to the evaluation value DB 141.

(2)動作
図18は、本発明の第2の実施形態に係る評価値生成部140の処理フローを示すフローチャートである。図18を参照すると、評価値生成部140は、まず参考モデル生成部410により各データリストに対応する参考回帰学習モデルを生成する(S400)。次に、評価値生成部140は、判別検証部420により各参考回帰学習モデルを用いた全シナリオに対する判別処理を行い、無人率を算出する(S500)。そして、評価値生成部140は、評価値決定部430により参考回帰学習モデル間の無人率の比較を行い、比較結果に応じた各シナリオの評価値を決定する(S600)。以下、上記の3つの処理について、順に説明する。
(2) Operation FIG. 18 is a flowchart illustrating a processing flow of the evaluation value generation unit 140 according to the second embodiment of the present invention. Referring to FIG. 18, the evaluation value generation unit 140 first generates a reference regression learning model corresponding to each data list by the reference model generation unit 410 (S400). Next, the evaluation value generation unit 140 performs a discrimination process for all scenarios using each reference regression learning model by the discrimination verification unit 420, and calculates an unmanned rate (S500). Then, the evaluation value generation unit 140 compares the unmanned rate between the reference regression learning models by the evaluation value determination unit 430, and determines the evaluation value of each scenario according to the comparison result (S600). Hereinafter, the above three processes will be described in order.

図19は、本発明の第2の実施形態に係る参考モデル生成部410の処理フローを示すフローチャートである。図19を参照すると、参考モデル生成部410は、まず一のデータリストを特徴量DB131より取得する(S401)。次に、参考モデル生成部410は、上記データリストに含まれている全てのシナリオに対応する特徴ベクトルを含む特徴量データを抽出する(S403)。また、参考モデル生成部410は、上記データリストに対応する参考評価値リストを参考評価値DB151より取得する(S405)。そして、参考モデル生成部410は、上記複数の特徴ベクトルからなる特徴空間と、参考評価値リストに含まれる参考評価値とを組とするデータに基づいて参考回帰学習モデルを生成する(S407)。参考モデル生成部410は、上述した処理を複数のデータリスト(および参考評価値リスト)に対して実施し、複数の参考回帰学習モデルを生成する。   FIG. 19 is a flowchart illustrating a processing flow of the reference model generation unit 410 according to the second embodiment of the present invention. Referring to FIG. 19, the reference model generation unit 410 first obtains one data list from the feature DB 131 (S401). Next, the reference model generation unit 410 extracts feature data including feature vectors corresponding to all scenarios included in the data list (S403). The reference model generation unit 410 acquires a reference evaluation value list corresponding to the data list from the reference evaluation value DB 151 (S405). Then, the reference model generation unit 410 generates a reference regression learning model based on data in which the feature space including the plurality of feature vectors and the reference evaluation value included in the reference evaluation value list are paired (S407). The reference model generation unit 410 performs the above-described processing on a plurality of data lists (and reference evaluation value lists), and generates a plurality of reference regression learning models.

図20は、本発明の第2の実施形態に係る判別検証部420の処理フローを示すフローチャートである。図20を参照すると、判別検証部420は、まず特徴量DB131に格納されている全てのデータリストから、各シナリオの特徴ベクトルを抽出する(S501)。次に、判別検証部420は、抽出した特徴ベクトルを一の参考回帰学習モデルにより構成される判別関数に代入することにより評価値を算出し、判別結果を出力する(S503)。そして、判別検証部420は、全てのシナリオに対応する判別結果を用いて、無人率を算出する(S505)。判別検証部420は、参考回帰学習モデル1および参考回帰学習モデル2を用いて、各々のモデルにおける無人率を全てのシナリオについて算出する。   FIG. 20 is a flowchart illustrating a processing flow of the discrimination verification unit 420 according to the second embodiment of the present invention. Referring to FIG. 20, the discriminating verification unit 420 first extracts a feature vector of each scenario from all data lists stored in the feature DB 131 (S501). Next, the discriminant verification unit 420 calculates an evaluation value by substituting the extracted feature vector into a discriminant function constituted by one reference regression learning model, and outputs a discrimination result (S503). Then, the discrimination verification unit 420 calculates an unmanned rate using the discrimination results corresponding to all scenarios (S505). Using the reference regression learning model 1 and the reference regression learning model 2, the discrimination verification unit 420 calculates the unmanned rate in each model for all scenarios.

図21は、本発明の第2の実施形態に係る評価値決定部430の処理フローを示すフローチャートである。図21を参照すると、評価値決定部430は、まず一のシナリオに対応する参考評価値を参考評価値DB151から取得する(S601)。次に、評価値決定部430は、判別検証部420において算出された各参考回帰学習モデルにおける無人率を取得する(S603)。評価値決定部430は、取得した各々の無人率の差(diff)を算出し(S605)、上記無人率の差diffと所定の閾値Thとの大小を比較する(S607)。無人率の差diffが閾値Th以上である場合(S607/YES)、評価値決定部430は、上記シナリオに対応する評価値を0.5と決定する(S609)。一方で、無人率の差diffが閾値Thを下回る場合、評価値決定部430は、上記シナリオに対応する参考評価値の値を評価値として決定する(S611)。評価値決定部430は、上述した評価値決定処理を全てのシナリオに対して実施する。 FIG. 21 is a flowchart illustrating a processing flow of the evaluation value determination unit 430 according to the second embodiment of the present invention. Referring to FIG. 21, the evaluation value determination unit 430 first obtains a reference evaluation value corresponding to one scenario from the reference evaluation value DB 151 (S601). Next, the evaluation value determination unit 430 acquires the unmanned rate in each reference regression learning model calculated by the discrimination verification unit 420 (S603). Evaluation value decision unit 430 calculates the difference between the unmanned rates obtained respectively (diff) (S605), compares the magnitude of the difference diff and the predetermined threshold value Th a of the unmanned rate (S607). If the difference diff unattended rate is the threshold value Th a higher (S607 / YES), the evaluation value determining unit 430, an evaluation value corresponding to the scenario to determine the 0.5 (S609). On the other hand, if the difference diff unmanned rate is below the threshold Th a, evaluation value determination unit 430 determines the value of the reference evaluation value corresponding to the scenario as the evaluation value (S611). The evaluation value determination unit 430 performs the above-described evaluation value determination processing for all scenarios.

[3.3.効果]
ここまで、図10〜図21を用いて、本発明の第2の実施形態について説明した。本発明の第2の実施形態によれば、評価値生成部140は、複数の異なるデータリストおよび参考評価値リストを組とする複数の参考回帰学習モデルを生成し、それらの参考回帰学習モデルを用いて、上記の複数のデータリストに含まれるシナリオについて、人物の存在の有無について判別する。そして、評価値生成部140は、各参考回帰学習モデル間における判別結果(無人率)の差に基づいて、各シナリオに対応する評価値を決定する。かかる構成において、回帰学習モデルの生成に用いられる評価値を回帰分析手法を用いて決定することにより、各シナリオに対応する評価値を、機械的に決定することができる。これにより、例えば、属性「無人(外乱あり)」や、シナリオ「座る」など、人物の動きか否かの判別が困難であるシナリオに対応する評価値を、ユーザ等の主観を排し、機械的に決定することができる。したがって、本実施形態に係るモデル生成装置10は、より適正な評価値を含む評価値リストを用いて回帰学習モデルを生成することができる。よって、動体の動きがある特定の動きであるか否かの判別精度をより向上させることができる。
[3.3. effect]
So far, the second embodiment of the present invention has been described with reference to FIGS. According to the second embodiment of the present invention, the evaluation value generation unit 140 generates a plurality of reference regression learning models each including a plurality of different data lists and reference evaluation value lists, and generates the reference regression learning models. The presence / absence of a person is determined for the scenarios included in the plurality of data lists. Then, the evaluation value generation unit 140 determines an evaluation value corresponding to each scenario based on the difference in the discrimination result (unmanned rate) between the reference regression learning models. In such a configuration, the evaluation value used for generating the regression learning model is determined using the regression analysis technique, so that the evaluation value corresponding to each scenario can be determined mechanically. Thus, for example, the evaluation value corresponding to a scenario in which it is difficult to determine whether or not a person is moving, such as the attribute “unmanned (disturbed)” or the scenario “sit”, excludes the subjectivity of the user or the like. Can be determined. Therefore, the model generation device 10 according to the present embodiment can generate a regression learning model using an evaluation value list including more appropriate evaluation values. Therefore, it is possible to further improve the accuracy of determining whether the movement of the moving object is a specific movement.

<4.ハードウェア構成例>
以上、本発明の各実施形態に係る判別システム1について説明した。次に、図22を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図22は、本開示の実施形態に係る情報処理装置900のハードウェア構成例を示すブロック図である。図示された情報処理装置900は、例えば、上記の実施形態におけるモデル生成装置10、および判別装置20を実現しうる。
<4. Example of hardware configuration>
As above, the discrimination system 1 according to each embodiment of the present invention has been described. Next, a hardware configuration of an information processing device according to an embodiment of the present disclosure will be described with reference to FIG. FIG. 22 is a block diagram illustrating a hardware configuration example of the information processing device 900 according to the embodiment of the present disclosure. The illustrated information processing device 900 can realize, for example, the model generation device 10 and the determination device 20 in the above embodiment.

図22を参照すると、情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、を備える。また、情報処理装置900は、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、ドライブ911と、ネットワークインタフェース912と、を備える。   Referring to FIG. 22, the information processing apparatus 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, and a host bus 904. Further, the information processing device 900 includes a bridge 905, an external bus 906, an interface 907, an input device 908, an output device 909, a storage device 910, a drive 911, and a network interface 912.

CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。なお、CPU901は、情報処理装置900内の各機能部を含む機能の動作全般またはその一部を制御する。例えば、CPU901は、ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904により相互に接続されている。   The CPU 901 functions as an arithmetic processing device and a control device, and controls overall operations in the information processing device 900 according to various programs. Further, the CPU 901 may be a microprocessor. Note that the CPU 901 controls the entire operation of a function including each functional unit in the information processing device 900 or a part of the operation. For example, in the CPU 901, the ROM 902 stores programs used by the CPU 901, calculation parameters, and the like. The RAM 903 temporarily stores a program used in the execution of the CPU 901 and parameters that change as appropriate in the execution. These are mutually connected by a host bus 904 including a CPU bus and the like.

ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。   The host bus 904 is connected via a bridge 905 to an external bus 906 such as a PCI (Peripheral Component Interconnect / Interface) bus. Note that the host bus 904, the bridge 905, and the external bus 906 do not necessarily need to be separately configured, and these functions may be implemented on one bus.

入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、当該入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。なお、入力装置908は、不図示の入力部の機能を実現する。   An input device 908 includes an input unit such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and a lever for a user to input information, and an input control circuit that generates an input signal based on an input by the user and outputs the input signal to the CPU 901. It is composed of By operating the input device 908, the user of the information processing device 900 can input various data to the information processing device 900 and instruct a processing operation. Note that the input device 908 implements a function of an input unit (not shown).

出力装置909は、例えば、CRTディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED装置およびランプなどの表示装置を含む。さらに、出力装置909は、スピーカ及びヘッドホンなどの音声出力装置を含む。出力装置909は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データや表示装置に表示されたテキストデータ等を音声に変換して出力する。なお、出力装置909は、不図示の表示部の機能を実現する。   The output device 909 includes a display device such as a CRT display device, a liquid crystal display (LCD) device, an OLED device, and a lamp. Further, the output device 909 includes a sound output device such as a speaker and headphones. The output device 909 outputs the reproduced content, for example. Specifically, the display device displays various information such as reproduced video data as text or images. On the other hand, the audio output device converts reproduced audio data, text data displayed on a display device, and the like into audio and outputs the audio. Note that the output device 909 implements the function of a display unit (not shown).

ストレージ装置910は、本発明の実施形態に係る情報処理装置900におけるデータ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読み出し装置および記憶媒体に記憶されたデータを削除する削除装置などを含んでも良い。ストレージ装置は、例えば、HDD(Hard Disc Drive)やSSD(Solid State Drive)で構成される。このストレージ装置910は、CPU901が実行するプログラムや各種データを格納する。なお、ストレージ装置910は、信号DB111など、各情報処理装置に備えられている各DBを格納する。なお、ストレージ装置910は、不図示の記憶部の機能を実現する。   The storage device 910 is a device for storing data in the information processing device 900 according to the embodiment of the present invention. The storage device 910 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data stored on the storage medium, and the like. The storage device is composed of, for example, a hard disk drive (HDD) or a solid state drive (SSD). The storage device 910 stores programs executed by the CPU 901 and various data. The storage device 910 stores each DB provided in each information processing device, such as the signal DB 111. Note that the storage device 910 implements the function of a storage unit (not shown).

ドライブ911は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ911は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体96に記録されている情報を読みだして、RAM903に出力する。また、ドライブ911は、リムーバブル記憶媒体96に情報を書き込むこともできる。   The drive 911 is a reader / writer for a storage medium, and is built in or external to the information processing apparatus 900. The drive 911 reads information recorded on a removable storage medium 96 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 903. The drive 911 can also write information to the removable storage medium 96.

ネットワークインタフェース912は、例えば、他の装置に接続するための通信デバイス等で構成された通信インタフェースである。また、ネットワークインタフェース912は、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、またはブルートゥース通信装置であってもよい。また、ネットワークインタフェース912は、有線による通信を行うワイヤー通信装置であってもよい。なお、ネットワークインタフェース912は、不図示の通信部の機能を実現する。   The network interface 912 is a communication interface including, for example, a communication device for connecting to another device. Further, the network interface 912 may be a communication device compatible with a wireless LAN (Local Area Network), a communication device compatible with LTE (Long Term Evolution), or a Bluetooth communication device. Further, the network interface 912 may be a wire communication device that performs wired communication. Note that the network interface 912 implements the function of a communication unit (not shown).

以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更され得る。   The example of the hardware configuration of the information processing apparatus 900 has been described above. Each of the above components may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.

<5.まとめ>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<5. Summary>
As described above, the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that those skilled in the art to which the present invention pertains can conceive various changes or modifications within the scope of the technical idea described in the claims. It is understood that these also belong to the technical scope of the present invention.

例えば、上記実施形態では、人物がセンサ2による検知が可能なエリアに存在していることが想定されていたが、本発明はかかる例に限定されない。例えば、人物が椅子やベッドなどの位置にいる場合に限定してセンサが人物を検知することができるように、センサが設置されてもよい。これにより、判別対象となるエリアを限定することが可能となるので、動体の動きの判別精度が向上する。また、判別装置は、人物の有無の結果を、他の情報処理装置(例えば人物の運動量や姿勢等を計測する装置)に組み合わせて用いられてもよい。かかる構成において、人物が特定のエリアに存在している場合に限定して、他の情報処理装置による処理を実施することができる。したがって、生じ得る外乱の影響が小さくなるため、人物の運動量や姿勢等の計測精度を向上させることができる。   For example, in the above embodiment, it is assumed that a person is present in an area where the sensor 2 can detect, but the present invention is not limited to this example. For example, a sensor may be provided so that the sensor can detect a person only when the person is in a position such as a chair or a bed. This makes it possible to limit the area to be determined, thereby improving the accuracy of determining the motion of the moving object. Further, the discrimination device may be used in combination with the result of the presence or absence of a person with another information processing device (for example, a device that measures the amount of movement and posture of the person). In such a configuration, processing by another information processing device can be performed only when a person is present in a specific area. Therefore, the influence of disturbance that can occur is reduced, and the measurement accuracy of the amount of movement and posture of the person can be improved.

また、判別装置は、モデル生成装置の有する各機能を含んでもよい。かかる構成において、判別装置は、回帰学習モデルDBに格納されている回帰学習モデルを用いて判別処理を行うだけではなく、外部から得られた信号データ等を用いて回帰学習モデルを生成することもできる。これにより、一般的な回帰学習モデルだけではなく、判別装置が適用される場所や場面に応じて特化された回帰学習モデルを生成することができる。したがって、判別したい動体の動きの判別精度をさらに向上させることができる。   Further, the determination device may include each function of the model generation device. In such a configuration, the discriminating apparatus not only performs the discriminating process using the regression learning model stored in the regression learning model DB, but also generates a regression learning model using signal data or the like obtained from outside. it can. This makes it possible to generate not only a general regression learning model but also a regression learning model specialized for a place or a scene to which the discriminating device is applied. Therefore, the accuracy of determining the motion of the moving object to be determined can be further improved.

また、上記実施形態では、人物の動きを判別対象とする例を説明したが、本発明はかかる例に限定されない。例えば、本発明は、他の生体、機械およびクランク等の運動など、多様な動体の動きに対して適用可能である。この場合、例えば、センサが電波式のセンサである場合、放射波の波長を判別対象の信号波形の変位に応じて適切に設定することにより、あらゆる動体の動きを表現する信号を抽出することが可能である。   Further, in the above-described embodiment, an example has been described in which a motion of a person is set as a determination target, but the present invention is not limited to such an example. For example, the present invention is applicable to various moving body movements such as movements of other living bodies, machines and cranks. In this case, for example, when the sensor is a radio wave type sensor, by appropriately setting the wavelength of the radiation wave in accordance with the displacement of the signal waveform to be determined, it is possible to extract a signal representing any motion of the moving object. It is possible.

また、本明細書の各装置および各機能部の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置および各機能部の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。   In addition, each step in the processing of each device and each functional unit in this specification does not necessarily need to be processed in a time series in the order described in the flowchart. For example, each step in the processing of each device and each functional unit may be processed in an order different from the order described in the flowchart, or may be processed in parallel.

また、モデル生成装置10および判別装置20に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記のモデル生成装置10および判別装置20の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。   Further, a computer program for causing hardware such as a CPU, a ROM, and a RAM built in the model generation device 10 and the discrimination device 20 to perform functions equivalent to those of the components of the model generation device 10 and the discrimination device 20 is also provided. Can be created. A storage medium storing the computer program is also provided.

1 判別システム
2 センサ
10 モデル生成装置
20 判別装置
110、210 信号取得部
120、220 フィルタ部
130、230 特徴量算出部
140 評価値生成部
150 モデル生成部
240 評価値算出部
250 判別部
260 調整部
410 参考モデル生成部
420 判別検証部
430 評価値決定部
Reference Signs List 1 discrimination system 2 sensor 10 model generation device 20 discrimination device 110, 210 signal acquisition unit 120, 220 filter unit 130, 230 feature amount calculation unit 140 evaluation value generation unit 150 model generation unit 240 evaluation value calculation unit 250 determination unit 260 adjustment unit 410 Reference model generation unit 420 Discrimination verification unit 430 Evaluation value determination unit

Claims (12)

センサにより検出された動体の動きを示すセンサ信号に基づいて、前記動体の動きの特徴量を算出する特徴量算出部と、
所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、前記特徴量算出部により算出された前記動体の動きの特徴量に応じて、前記動体の動きに対応する評価値を算出する評価値算出部と、
前記動体の動きの判別のために前記動体の動きに対応する前記評価値と比較される閾値を調整する調整部と、
を備え
前記所定の動きに対応する評価値は、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて決定される、判別装置。
A feature amount calculation unit that calculates a feature amount of the movement of the moving object based on a sensor signal indicating the movement of the moving object detected by the sensor;
Using a regression learning model generated based on a plurality of data that is a set of a feature amount of a predetermined motion and an evaluation value corresponding to the predetermined motion, the moving object calculated by the feature amount calculation unit. An evaluation value calculation unit that calculates an evaluation value corresponding to the motion of the moving object according to the feature amount of the motion,
An adjustment unit that adjusts a threshold value to be compared with the evaluation value corresponding to the movement of the moving object for determination of the movement of the moving object,
Equipped with a,
The evaluation value corresponding to the predetermined motion is a plurality of pieces of data generated based on a plurality of sets of a feature amount of the predetermined motion and an evaluation value set in advance corresponding to the predetermined motion. A discriminating apparatus , which is determined according to an error between a plurality of determination results corresponding to the predetermined motion determined using a regression learning model .
前記回帰学習モデルは、サポートベクタ回帰により生成される回帰学習モデルであり、
前記評価値算出部は、前記サポートベクタ回帰により生成される前記回帰学習モデルを構成するサポートベクタと、前記動体の動きの特徴量とを用いて、前記動体の動きに対応する評価値を算出する、請求項1に記載の判別装置。
The regression learning model is a regression learning model generated by support vector regression,
The evaluation value calculation unit calculates an evaluation value corresponding to the motion of the moving object by using a support vector included in the regression learning model generated by the support vector regression and a feature amount of the motion of the moving object. The discriminating apparatus according to claim 1.
前記特徴量算出部は、前記センサ信号の波形に基づいて前記特徴量を算出する、請求項1または2に記載の判別装置。   The discriminating apparatus according to claim 1, wherein the feature amount calculation unit calculates the feature amount based on a waveform of the sensor signal. 前記特徴量算出部は、前記センサ信号の振幅の大きさを前記特徴量として算出する、請求項3に記載の判別装置。   The discrimination device according to claim 3, wherein the feature amount calculation unit calculates the magnitude of the amplitude of the sensor signal as the feature amount. 前記特徴量算出部は、所定区間における前記センサ信号の波形の周波数を前記特徴量として算出する、請求項3または4に記載の判別装置。   The discrimination device according to claim 3, wherein the feature amount calculation unit calculates a frequency of the waveform of the sensor signal in a predetermined section as the feature amount. 前記調整部は、前記閾値を段階的に調整する、請求項1〜5のいずれか1項に記載の判別装置。 The adjustment section adjusts the threshold value stepwise, discriminating device according to any one of claims 1-5. 前記所定の動きは、生体の動きを含み、
前記動体の動きの判別は、前記動体の動きが前記生体の動きであるか否かの判別を含む、請求項1〜6のいずれか1項に記載の判別装置。
The predetermined movement includes movement of a living body,
The determination device according to any one of claims 1 to 6 , wherein the determination of the movement of the moving object includes determination of whether the movement of the moving object is the movement of the living body.
前記センサはドップラーセンサである、請求項1〜7のいずれか1項に記載の判別装置。 Wherein the sensor is a Doppler sensor, discriminating apparatus according to any one of claims 1-7. センサにより検出された動体の動きを示すセンサ信号に基づいて、前記動体の動きの特徴量を算出するステップと、
所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、前記動体の動きの特徴量に応じて、前記動体の動きに対応する評価値を算出するステップと、
前記動体の動きの判別のために前記動体の動きに対応する前記評価値と比較される閾値を調整するステップと、
を含み、
前記所定の動きに対応する評価値は、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて決定される、判別方法。
Calculating a feature amount of the motion of the moving object based on a sensor signal indicating the motion of the moving object detected by the sensor;
Using a regression learning model generated based on a plurality of data pairs of a predetermined motion feature amount and an evaluation value corresponding to the predetermined motion, according to the motion feature amount of the moving object, Calculating an evaluation value corresponding to the movement of the moving object;
Adjusting a threshold value to be compared with the evaluation value corresponding to the movement of the moving object for determination of the movement of the moving object;
Only including,
The evaluation value corresponding to the predetermined motion is a plurality of pieces of data generated based on a plurality of sets of a feature amount of the predetermined motion and an evaluation value set in advance corresponding to the predetermined motion. A discrimination method , wherein the discrimination method is determined according to an error between a plurality of determination results corresponding to the predetermined motion determined using a regression learning model .
コンピュータを、
センサにより検出された動体の動きを示すセンサ信号に基づいて、前記動体の動きの特徴量を算出する特徴量算出部と、
所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、前記特徴量算出部により算出された前記動体の動きの特徴量に応じて、前記動体の動きに対応する評価値を算出する評価値算出部と、
前記動体の動きの判別のために前記動体の動きに対応する前記評価値と比較される閾値を調整する調整部と、
として機能させ
前記所定の動きに対応する評価値は、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて決定される、プログラム。
Computer
A feature amount calculation unit that calculates a feature amount of the movement of the moving object based on a sensor signal indicating the movement of the moving object detected by the sensor;
Using a regression learning model generated based on a plurality of data that is a set of a feature amount of a predetermined motion and an evaluation value corresponding to the predetermined motion, the moving object calculated by the feature amount calculation unit. An evaluation value calculation unit that calculates an evaluation value corresponding to the motion of the moving object according to the feature amount of the motion,
An adjustment unit that adjusts a threshold value to be compared with the evaluation value corresponding to the movement of the moving object for determination of the movement of the moving object,
To function as,
The evaluation value corresponding to the predetermined motion is a plurality of pieces of data generated based on a plurality of sets of a feature amount of the predetermined motion and an evaluation value set in advance corresponding to the predetermined motion. A program that is determined according to an error between a plurality of determination results corresponding to the predetermined movement determined using a regression learning model .
センサにより検出された動体による所定の動きを示すセンサ信号に基づいて、前記所定の動きの特徴量を算出する特徴量算出部と、
前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された参考評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて、前記所定の動きに対応する評価値を決定する、回帰学習モデル評価値決定部と、
前記所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて回帰学習モデルを生成するモデル生成部と、
を備えるモデル生成装置。
A feature amount calculating unit that calculates a feature amount of the predetermined movement based on a sensor signal indicating a predetermined movement by the moving body detected by the sensor;
The feature amount of the predetermined motion and the plurality of regression learning models generated based on a plurality of data pairs of a reference evaluation value set in advance corresponding to the predetermined motion are determined. A regression learning model evaluation value determination unit that determines an evaluation value corresponding to the predetermined motion in accordance with an error between a plurality of determination results corresponding to the predetermined motion,
A model generation unit that generates a regression learning model based on a plurality of data sets each of which is a feature amount of the predetermined motion and an evaluation value corresponding to the predetermined motion;
A model generation device comprising:
センサにより検出された動体による所定の動きを示すセンサ信号に基づいて、前記所定の動きの特徴量を算出するステップと、
前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された参考評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて、前記所定の動きに対応する評価値を決定するステップと、
前記所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて回帰学習モデルを生成するステップと、
を含む、モデル生成方法。
Calculating a characteristic amount of the predetermined movement based on a sensor signal indicating a predetermined movement by the moving body detected by the sensor;
The feature amount of the predetermined motion and the plurality of regression learning models generated based on a plurality of data pairs of a reference evaluation value set in advance corresponding to the predetermined motion are determined. Determining an evaluation value corresponding to the predetermined motion according to an error between a plurality of determination results corresponding to the predetermined motion;
A step of generating a regression learning model based on a plurality of data pairs of the feature amount of the predetermined motion and an evaluation value corresponding to the predetermined motion;
And a model generation method.
JP2015145545A 2015-07-23 2015-07-23 Discrimination device, discrimination method, program, model generation device, and model generation method Active JP6648435B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015145545A JP6648435B2 (en) 2015-07-23 2015-07-23 Discrimination device, discrimination method, program, model generation device, and model generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015145545A JP6648435B2 (en) 2015-07-23 2015-07-23 Discrimination device, discrimination method, program, model generation device, and model generation method

Publications (2)

Publication Number Publication Date
JP2017026475A JP2017026475A (en) 2017-02-02
JP6648435B2 true JP6648435B2 (en) 2020-02-14

Family

ID=57949557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015145545A Active JP6648435B2 (en) 2015-07-23 2015-07-23 Discrimination device, discrimination method, program, model generation device, and model generation method

Country Status (1)

Country Link
JP (1) JP6648435B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9927519B1 (en) * 2017-03-16 2018-03-27 Cognitive Systems Corp. Categorizing motion detected using wireless signals
JP6944402B2 (en) * 2018-03-08 2021-10-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Absence determination method, program, sensor processing system, and sensor system
CN112444785B (en) * 2019-08-30 2024-04-12 华为技术有限公司 Target behavior recognition method, device and radar system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080119716A1 (en) * 2006-05-17 2008-05-22 Olga Boric-Lubecke Determining presence and/or physiological motion of one or more subjects with quadrature doppler radar receiver systems
JP5708294B2 (en) * 2011-06-22 2015-04-30 日本電気株式会社 Signal detection apparatus, signal detection method, and signal detection program
JP5333567B2 (en) * 2011-11-28 2013-11-06 沖電気工業株式会社 Data processing apparatus, motion recognition system, motion discrimination method, and program
JP5523534B2 (en) * 2012-10-22 2014-06-18 沖電気工業株式会社 Feature amount calculation apparatus and program
JP6127602B2 (en) * 2013-03-13 2017-05-17 沖電気工業株式会社 State recognition device, state recognition method, and computer program
NL2012327B1 (en) * 2013-12-13 2016-06-21 Utc Fire & Security B V Selective intrusion detection systems.

Also Published As

Publication number Publication date
JP2017026475A (en) 2017-02-02

Similar Documents

Publication Publication Date Title
Lee et al. Sleep monitoring system using kinect sensor
CN108597617B (en) Epidemic disease grading prediction method and device, computer device and readable storage medium
JP6648435B2 (en) Discrimination device, discrimination method, program, model generation device, and model generation method
CN109414174B (en) Method and system for probabilistically estimating pulse rate of an individual
JP6477199B2 (en) Vibration state estimation device, vibration state estimation method, and program
EP1702295A2 (en) Support vector regression for censored data
JP2016209327A (en) Sleep depth estimation device, sleep depth estimation method and program
US20220280098A1 (en) Assessing parkinson&#39;s disease symptoms
JP6684339B1 (en) Sound evaluation AI system and sound evaluation AI program
US20220076153A1 (en) System and method for optimal sensor placement
US20150209000A1 (en) Bioacoustic sound testing device and bioacoustic sound testing method
JP5718494B1 (en) Impression estimation device, method thereof, and program
US11854369B2 (en) Multi-computer processing system for compliance monitoring and control
US11751800B2 (en) Seizure detection using contextual motion
JP7006199B2 (en) Data generator, data generator, data generator and sensor device
Nienaber et al. Validation, optimisation and comparison of carbon dioxide-based occupancy estimation algorithms
EP3773225B1 (en) Detecting subjects with disordered breathing
Alinovi et al. Markov chain modeling and simulation of breathing patterns
JP7180819B1 (en) predictor
JP2017023449A (en) Activity amount estimation device, activity amount estimation method, program, model generation device, and model generation method
US20210012903A1 (en) A system and method for determining allergens which may present a risk of a respiratory attack to a user of the system
Lin et al. Ranking USRDS provider specific SMRs from 1998–2001
WO2022097273A1 (en) Apparatus control device, program, and apparatus control method
WO2020217494A1 (en) Fitting assistance device, fitting assistance method, and computer-readable recording medium
JP6944402B2 (en) Absence determination method, program, sensor processing system, and sensor system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190320

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191230

R150 Certificate of patent or registration of utility model

Ref document number: 6648435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150