JP2017026475A - Discrimination device, discrimination method, program, model generation device, and model generation method - Google Patents

Discrimination device, discrimination method, program, model generation device, and model generation method Download PDF

Info

Publication number
JP2017026475A
JP2017026475A JP2015145545A JP2015145545A JP2017026475A JP 2017026475 A JP2017026475 A JP 2017026475A JP 2015145545 A JP2015145545 A JP 2015145545A JP 2015145545 A JP2015145545 A JP 2015145545A JP 2017026475 A JP2017026475 A JP 2017026475A
Authority
JP
Japan
Prior art keywords
evaluation value
movement
moving object
feature amount
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015145545A
Other languages
Japanese (ja)
Other versions
JP6648435B2 (en
Inventor
美智代 松井
Michiyo Matsui
美智代 松井
前野 蔵人
Kurato Maeno
蔵人 前野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2015145545A priority Critical patent/JP6648435B2/en
Publication of JP2017026475A publication Critical patent/JP2017026475A/en
Application granted granted Critical
Publication of JP6648435B2 publication Critical patent/JP6648435B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To discriminate the movement of a moving body from a signal including various kinds of disturbance with higher accuracy.SOLUTION: A discrimination device includes: a feature amount calculation section for calculating feature amount of the movement of a moving body on the basis of a sensor signal indicating the movement of the moving body detected by a sensor; an evaluation value calculation section for calculating an evaluation value corresponding to the movement of the moving body according to the feature amount of the movement of the moving body calculated by the feature amount calculation section using a recurrence learning model generated on the basis of a plurality of pieces of data in which the feature amount of a prescribed movement and an evaluation value corresponding to the prescribed movement are made as a pair; and an adjustment section for adjusting a threshold compared with the evaluation value corresponding to the movement of the moving body to discriminate the movement of the moving body.SELECTED DRAWING: Figure 1

Description

本発明は、判別装置、判別方法、プログラム、モデル生成装置、及びモデル生成方法に関する。   The present invention relates to a discrimination device, a discrimination method, a program, a model generation device, and a model generation method.

近年、非接触のセンサにより検出された人物等の動体の動きに由来する信号に基づいて、動体の動きを判別する技術が開発されている。例えば、下記特許文献1には、センサにより検出された信号の処理において、センサの感度補正を行う感度補正手段を少なくとも一つ備えた制御回路に係る発明が開示されている。なお、感度補正手段は、例えば、制御回路内の増幅回路の増幅率を調整したり、1次遅れフィルタを用いて比較的早い動きの周波数成分を抑制したり、また、2次遅れフィルタを用いて比較的緩慢な動きの周波数成分を抑制する機能を含む。かかる構成において、上記の感度補正手段を切り替えることにより、人物の存在の有無について判別するための感度を調整することができる。   In recent years, a technique for discriminating the movement of a moving body based on a signal derived from the movement of a moving body such as a person detected by a non-contact sensor has been developed. For example, Patent Document 1 below discloses an invention relating to a control circuit including at least one sensitivity correction unit that performs sensor sensitivity correction in processing of a signal detected by a sensor. The sensitivity correction means adjusts the amplification factor of the amplifier circuit in the control circuit, suppresses a frequency component of relatively fast movement using a first-order lag filter, or uses a second-order lag filter. And the function of suppressing the frequency component of relatively slow movement. In such a configuration, the sensitivity for determining the presence or absence of a person can be adjusted by switching the sensitivity correction means.

特開2010−230492号公報JP 2010-230492 A

上記特許文献1に開示された技術によれば、動体の動きや動体の環境に応じて感度を調整することにより、人の存在の有無の判別の精度を向上させることができる。しかし、センサが設置されている環境においては、センサは、人の複雑な動きのみならず、様々な外乱(例えば、電気的なノイズや機械的な動き)も検出し得る。センサにより検出された信号には、複数の外乱が含まれ得る。そのため、上記特許文献1に開示されている感度補正手段を単に切り替えて感度を調整するのみでは、様々な外乱を含み得る環境において動体の動きを判別することに限界がある。   According to the technique disclosed in Patent Document 1 described above, by adjusting the sensitivity according to the movement of the moving body and the environment of the moving body, it is possible to improve the accuracy of determining the presence or absence of a person. However, in the environment where the sensor is installed, the sensor can detect not only complicated human movements but also various disturbances (for example, electrical noise and mechanical movements). The signal detected by the sensor can include a plurality of disturbances. For this reason, there is a limit to discriminating the motion of a moving object in an environment that can include various disturbances by simply switching the sensitivity correction means disclosed in Patent Document 1 and adjusting the sensitivity.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、様々な外乱を含む信号からより高精度で動体の動きを判別することが可能な、新規かつ改良された判別装置を提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is a novel and capable of discriminating the movement of a moving object with higher accuracy from a signal including various disturbances. An object of the present invention is to provide an improved discrimination device.

上記課題を解決するために、本発明のある観点によれば、センサにより検出された動体の動きを示すセンサ信号に基づいて、上記動体の動きの特徴量を算出する特徴量算出部と、所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、上記特徴量算出部により算出された上記動体の動きの特徴量に応じて、上記動体の動きに対応する評価値を算出する評価値算出部と、上記動体の動きの判別のために上記動体の動きに対応する上記評価値と比較される閾値を調整する調整部と、を備える判別装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, a feature amount calculation unit that calculates a feature amount of the moving body based on a sensor signal indicating the motion of the moving body detected by the sensor, and a predetermined amount The motion of the moving object calculated by the feature amount calculation unit using a regression learning model generated based on a plurality of data that is a set of the feature amount of the motion and the evaluation value corresponding to the predetermined motion An evaluation value calculation unit that calculates an evaluation value corresponding to the motion of the moving object, and a threshold value to be compared with the evaluation value corresponding to the motion of the moving object for discrimination of the motion of the moving object There is provided a determination device including an adjustment unit for adjustment.

上記回帰学習モデルは、サポートベクタ回帰により生成される回帰学習モデルであり、上記評価値算出部は、上記サポートベクタ回帰により生成される上記回帰学習モデルを構成するサポートベクタと、上記動体の動きの特徴量とを用いて、上記動体の動きに対応する評価値を算出してもよい。   The regression learning model is a regression learning model generated by support vector regression, and the evaluation value calculation unit includes a support vector constituting the regression learning model generated by the support vector regression, and a motion of the moving object. An evaluation value corresponding to the motion of the moving object may be calculated using the feature amount.

上記特徴量算出部は、上記センサ信号の波形に基づいて上記特徴量を算出してもよい。   The feature amount calculation unit may calculate the feature amount based on a waveform of the sensor signal.

上記特徴量算出部は、上記センサ信号の振幅の大きさを上記特徴量として算出してもよい。   The feature amount calculation unit may calculate the amplitude of the sensor signal as the feature amount.

上記特徴量算出部は、所定区間における上記センサ信号の波形の周波数を上記特徴量として算出してもよい。   The feature amount calculation unit may calculate the frequency of the waveform of the sensor signal in a predetermined section as the feature amount.

上記所定の動きに対応する評価値は、上記所定の動きの特徴量と、上記所定の動きに対応して予め設定された参考評価値とを組とする複数のデータに基づいて生成された複数の参考回帰学習モデルを用いて判別された上記所定の動きに対応する複数の判別結果間における誤差に応じて決定されてもよい。   The evaluation value corresponding to the predetermined motion is a plurality of values generated based on a plurality of data including the feature amount of the predetermined motion and a reference evaluation value set in advance corresponding to the predetermined motion. May be determined according to an error between a plurality of discrimination results corresponding to the predetermined movement discriminated using the reference regression learning model.

上記調整部は、上記閾値を段階的に調整してもよい。   The adjustment unit may adjust the threshold value stepwise.

上記所定の動きは、生体の動きを含み、上記動体の動きの判別は、上記動体の動きが上記生体の動きであるか否かの判別を含んでもよい。   The predetermined movement may include a movement of a living body, and the determination of the movement of the moving body may include determination of whether or not the movement of the moving body is the movement of the living body.

上記センサはドップラーセンサであってもよい。   The sensor may be a Doppler sensor.

また、上記課題を解決するために、本発明の別の観点によれば、センサにより検出された動体の動きを示すセンサ信号に基づいて、上記動体の動きの特徴量を算出するステップと、所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、上記動体の動きの特徴量に応じて、上記動体の動きに対応する評価値を算出するステップと、上記動体の動きの判別のために上記動体の動きに対応する上記評価値と比較される閾値を調整するステップと、を含む判別方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a step of calculating a feature quantity of the moving object based on a sensor signal indicating the movement of the moving object detected by the sensor, Using the regression learning model generated on the basis of a plurality of data in which the feature value of the motion and the evaluation value corresponding to the predetermined motion are paired, the moving object according to the feature value of the motion of the moving object And a step of adjusting a threshold value to be compared with the evaluation value corresponding to the movement of the moving object for the determination of the movement of the moving object. The

また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、センサにより検出された動体の動きを示すセンサ信号に基づいて、上記動体の動きの特徴量を算出する特徴量算出部と、所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、上記特徴量算出部により算出された上記動体の動きの特徴量に応じて、上記動体の動きに対応する評価値を算出する評価値算出部と、上記動体の動きの判別のために上記動体の動きに対応する上記評価値と比較される閾値を調整する調整部と、として機能させるためのプログラムが提供される。   In order to solve the above-described problem, according to another aspect of the present invention, the computer calculates a feature amount of the motion of the moving object based on a sensor signal indicating the motion of the moving object detected by the sensor. Calculated by the feature amount calculation unit using a regression learning model generated based on a plurality of data including a feature amount calculation unit, a feature amount of the predetermined motion, and an evaluation value corresponding to the predetermined motion An evaluation value calculation unit that calculates an evaluation value corresponding to the motion of the moving object in accordance with the feature amount of the motion of the moving object, and the evaluation value corresponding to the motion of the moving object for discrimination of the motion of the moving object A program for causing the program to function as an adjustment unit that adjusts a threshold value to be compared is provided.

また、上記課題を解決するために、本発明の別の観点によれば、センサにより検出された動体による所定の動きを示すセンサ信号に基づいて、上記所定の動きの特徴量を算出する特徴量算出部と、上記所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて回帰学習モデルを生成するモデル生成部と、を備えるモデル生成装置が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a feature amount for calculating a feature amount of the predetermined motion based on a sensor signal indicating the predetermined motion by the moving object detected by the sensor. A model generation apparatus comprising: a calculation unit; and a model generation unit that generates a regression learning model based on a plurality of pieces of data, each of which includes a feature amount of the predetermined motion and an evaluation value corresponding to the predetermined motion. Provided.

上記モデル生成装置は、上記所定の動きの特徴量と、上記所定の動きに対応して予め設定された参考評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された上記所定の動きに対応する複数の判別結果間における誤差に応じて、上記所定の動きに対応する評価値を決定する、回帰学習モデル評価値決定部をさらに備えてもよい。   The model generation device includes a plurality of regression learning models generated based on a plurality of data in which the feature quantity of the predetermined movement and a reference evaluation value set in advance corresponding to the predetermined movement are paired. A regression learning model evaluation value determining unit that determines an evaluation value corresponding to the predetermined movement according to an error between a plurality of determination results corresponding to the predetermined movement determined by using the predetermined movement may further be provided.

また、上記課題を解決するために、本発明の別の観点によれば、センサにより検出された動体による所定の動きを示すセンサ信号に基づいて、上記所定の動きの特徴量を算出するステップと、上記所定の動きの特徴量と、上記所定の動きに対応する評価値とを組とする複数のデータに基づいて回帰学習モデルを生成するステップと、を含む、モデル生成方法が提供される。   In order to solve the above problem, according to another aspect of the present invention, a step of calculating a feature amount of the predetermined movement based on a sensor signal indicating the predetermined movement by the moving object detected by the sensor; And a step of generating a regression learning model based on a plurality of data in which the feature quantity of the predetermined motion and the evaluation value corresponding to the predetermined motion are paired.

以上説明したように本発明によれば、様々な外乱を含む信号からより高精度で動体の動きを判別することが可能である。   As described above, according to the present invention, it is possible to determine the motion of a moving object with higher accuracy from a signal including various disturbances.

本発明の一実施形態に係る判別システムの概要を示す図である。It is a figure showing the outline of the discriminating system concerning one embodiment of the present invention. 本発明の第1の実施形態に係るモデル生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the model production | generation apparatus which concerns on the 1st Embodiment of this invention. 同実施形態に係る信号DBに格納されているデータリストの一例を示す図である。It is a figure showing an example of a data list stored in signal DB concerning the embodiment. 信号データの波形のゼロ交差数について説明するための図である。It is a figure for demonstrating the number of zero crossings of the waveform of signal data. 図3に示されたデータリストに格納された各データセットに対する評価値生成部による評価値の割り振り処理フローの例を示す図である。FIG. 4 is a diagram illustrating an example of an evaluation value allocation processing flow by an evaluation value generation unit for each data set stored in the data list illustrated in FIG. 3. 同実施形態に係る評価値DBに格納されている評価リストの一例を示す図である。It is a figure which shows an example of the evaluation list | wrist stored in evaluation value DB which concerns on the embodiment. 同実施形態に係るモデル生成装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the model production | generation apparatus which concerns on the same embodiment. 同実施形態に係る判別装置の構成例を示すブロック図である。It is a block diagram showing an example of composition of a discriminating device concerning the embodiment. 同実施形態に係る判別装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the discrimination | determination apparatus concerning the embodiment. 本発明の第2の実施形態に係るモデル生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the model production | generation apparatus which concerns on the 2nd Embodiment of this invention. 同実施形態に係る評価値生成部および評価値生成部において用いられる各種データを格納するデータベースの構成例を示すブロック図である。It is a block diagram which shows the structural example of the database which stores the various data used in the evaluation value generation part and evaluation value generation part which concern on the embodiment. 同実施形態に係る特徴量DBに格納されているデータリスト1(外乱なし)の一例を示す図である。It is a figure showing an example of data list 1 (there is no disturbance) stored in feature-value DB concerning the embodiment. 同実施形態に係る特徴量DBに格納されているデータリスト2(外乱あり)の一例を示す図である。It is a figure which shows an example of the data list 2 (with disturbance) stored in feature-value DB which concerns on the embodiment. 同実施形態に係る参考評価値DBに格納されている参考評価値リスト1(外乱なし)の一例を示す図である。It is a figure which shows an example of the reference evaluation value list | wrist 1 (no disturbance) stored in reference evaluation value DB which concerns on the embodiment. 同実施形態に係る参考評価値DBに格納されている参考評価値リスト2(外乱あり)の一例を示す図である。It is a figure showing an example of reference evaluation value list 2 (with disturbance) stored in reference evaluation value DB concerning the embodiment. 同実施形態に係る評価値決定部による評価値決定処理について説明するための図である。It is a figure for demonstrating the evaluation value determination process by the evaluation value determination part which concerns on the same embodiment. 各参考回帰学習モデルにより算出された無人率の分布を示すグラフである。It is a graph which shows distribution of the unattended rate calculated by each reference regression learning model. 同実施形態に係る評価値生成部の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the evaluation value generation part which concerns on the same embodiment. 同実施形態に係る参考モデル生成部の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the reference model production | generation part which concerns on the same embodiment. 同実施形態に係る判別検証部の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the discrimination verification part which concerns on the same embodiment. 同実施形態に係る評価値決定部の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of the evaluation value determination part which concerns on the same embodiment. 本発明の実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the information processing apparatus which concerns on embodiment of this invention.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

<1.判別システムの概要>
本発明の一実施形態に係る判別システム1は、予めモデル生成装置10により所定の動きに基づいて生成された回帰学習モデルを判別装置20に適用させ、センサ2により検出された動体の動きを判別装置20により判別するシステムである。以下、判別システム1の概要について説明する。
<1. Overview of discrimination system>
The discriminating system 1 according to an embodiment of the present invention applies a regression learning model generated based on a predetermined motion by the model generating device 10 in advance to the discriminating device 20 and discriminates the motion of the moving object detected by the sensor 2. This is a system for discriminating by the device 20. Hereinafter, an outline of the discrimination system 1 will be described.

図1は、本発明の一実施形態に係る判別システム1の概要を示す図である。判別システム1においては、実施される処理に応じて構成が異なる。例えば、図1を参照すると、回帰学習モデルを生成するモデル生成処理を実施する際は、判別システム1は、センサ2、およびモデル生成装置10を備える構成を有する。一方、動体の動きの判別処理を実施する際は、判別システム1は、センサ2、および判別装置20を備える構成を有する。なお、センサ2、およびモデル生成装置10は、一体となってモデル生成装置を構成してもよいし、センサ2、および判別装置20は、一体となって判別装置を構成してもよい。   FIG. 1 is a diagram showing an outline of a discrimination system 1 according to an embodiment of the present invention. The configuration of the discrimination system 1 varies depending on the processing to be performed. For example, referring to FIG. 1, when performing model generation processing for generating a regression learning model, the discrimination system 1 has a configuration including a sensor 2 and a model generation device 10. On the other hand, when performing the determination process of the motion of the moving object, the determination system 1 has a configuration including the sensor 2 and the determination device 20. Note that the sensor 2 and the model generation device 10 may integrally form a model generation device, and the sensor 2 and the determination device 20 may integrally form a determination device.

(センサ)
センサ2は、図1に示すように、部屋の天井等に設置される非接触型のセンサである。センサ2は、例えば、検出エリアである部屋の屋内に向けて、光、電磁波、または音波等の放射波を放射し、動体(例えば図1においては人物P、エアコンAC、またはカーテンCU等)により反射された反射波を受信する電波センサであってもよい。電波センサは、例えばドップラーセンサであってもよい。このとき、反射波の周波数は、物体の振動等の運動により生じるドップラー効果により、放射波の周波数から変化する。センサ2は、放射波の周波数と反射波の周波数との差分の周波数を有する信号を生成する。センサ2は、例えば直交検波方式を搭載してもよい。この場合、センサ2は、余弦波成分(I成分)および正弦波成分(Q成分)の2種類の信号を生成してもよい。センサ2は、生成した信号を、モデル生成装置10、または判別装置20のいずれかに出力する。
(Sensor)
As shown in FIG. 1, the sensor 2 is a non-contact sensor installed on the ceiling of a room. For example, the sensor 2 emits a radiation wave such as light, electromagnetic wave, or sound wave toward a room that is a detection area, and is moved by a moving object (for example, a person P, an air conditioner AC, or a curtain CU in FIG. 1). It may be a radio wave sensor that receives reflected reflected waves. The radio wave sensor may be a Doppler sensor, for example. At this time, the frequency of the reflected wave changes from the frequency of the radiated wave due to the Doppler effect caused by the motion of the object such as vibration. The sensor 2 generates a signal having a difference frequency between the frequency of the radiated wave and the frequency of the reflected wave. The sensor 2 may be mounted with, for example, a quadrature detection method. In this case, the sensor 2 may generate two types of signals, a cosine wave component (I component) and a sine wave component (Q component). The sensor 2 outputs the generated signal to either the model generation device 10 or the determination device 20.

なお、センサ2は、動体の動きが検出可能であれば任意の位置に設置可能である。また、図1に示した例では、センサ2は放射波の送信部と反射波の受信部とが一体となって構成されているが、センサ2は、送信部と受信部とを分離した構成により実現されてもよい。また、センサ2が放射する放射波は、物体の振動によりドップラー効果を生じさせることが可能であれば、任意の周波数帯の波であってもよい。例えば、放射波は、人の動きを検出可能な周波数帯の波であることが好ましい。また、センサ2は、モデル生成処理と判別処理とにおいて設置される環境が異なってもよい。例えば、モデル生成処理においては、動体の単一の動きの信号を検出する必要があるため、センサ2は、防音室等、外乱を遮断可能な部屋に設けられてもよい。一方、判別処理においては、人物等の動体の動きを検出することが求められる場所であれば、センサ2の設置場所は特に限定されない。例えば、センサ2は、部屋のみならず、パーティションや柵等で仕切られた区画に設置されてもよい。また、センサ2は、運動施設、医療施設、介護施設、養護施設、アトラクション施設、刑事施設、家、ホテル、マンション、ビル、自動車、鉄道車両、船舶等の建造物や車体の内部に設置されてもよい。また、動体の種類も、上述したような人物、家具、または家電等に限定されない。   The sensor 2 can be installed at any position as long as the motion of the moving object can be detected. In the example shown in FIG. 1, the sensor 2 is configured by integrating the transmission unit for the radiated wave and the reception unit for the reflected wave, but the sensor 2 has a configuration in which the transmission unit and the reception unit are separated. May be realized. Further, the radiation wave radiated from the sensor 2 may be a wave in an arbitrary frequency band as long as the Doppler effect can be generated by the vibration of the object. For example, it is preferable that the radiated wave is a wave in a frequency band in which human movement can be detected. The environment in which the sensor 2 is installed in the model generation process and the determination process may be different. For example, in the model generation process, since it is necessary to detect a signal of a single motion of a moving object, the sensor 2 may be provided in a room that can block disturbance, such as a soundproof room. On the other hand, in the determination process, the installation location of the sensor 2 is not particularly limited as long as it is a location where it is required to detect the movement of a moving object such as a person. For example, the sensor 2 may be installed not only in a room but also in a section partitioned by a partition or a fence. In addition, the sensor 2 is installed inside a structure or body of an exercise facility, a medical facility, a nursing facility, a nursing facility, an attraction facility, a criminal facility, a house, a hotel, a condominium, a building, a car, a railway vehicle, a ship, or the like. Also good. Also, the type of moving object is not limited to the person, furniture, or home appliance as described above.

なお、本実施形態においては、センサ2は電波センサ(ドップラーセンサ)であることが好ましい。例えば、センサ2が赤外線センサである場合、動体の動きを検出することは出来るが、動体が静止している場合に、その動体の検出が困難となる。一方で、センサ2が電波センサである場合、動体が静止している場合においても、動体の呼吸等による体幹の振動を検出することができる。そのため、動体が静止している状態の検出も容易である。   In the present embodiment, the sensor 2 is preferably a radio wave sensor (Doppler sensor). For example, when the sensor 2 is an infrared sensor, it is possible to detect the movement of the moving object, but it is difficult to detect the moving object when the moving object is stationary. On the other hand, when the sensor 2 is a radio wave sensor, the vibration of the trunk due to respiration of the moving body can be detected even when the moving body is stationary. Therefore, it is easy to detect the state where the moving body is stationary.

(モデル生成装置)
モデル生成装置10は、所定の動体の動きのモデル生成処理に用いられる装置である。モデル生成装置10は、例えば、ネットワーク上の一または複数の情報処理装置によって実現されてもよい。より具体的には、モデル生成装置10は、サーバやPC(Personal Computer)等により実現されてもよい。モデル生成装置10は、所定の動体の動きに由来する信号をセンサ2から取得するとともに、所定の動体の動きに対応する評価値を生成する。そして、モデル生成装置10は、各所定の動体の動きの信号と各動体の動きに対応する評価値とに基づいて回帰学習モデルを生成する。生成された回帰学習モデルは、判別装置20において用いられる。
(Model generator)
The model generation apparatus 10 is an apparatus used for a model generation process of a predetermined moving body motion. The model generation device 10 may be realized by one or a plurality of information processing devices on a network, for example. More specifically, the model generation device 10 may be realized by a server, a PC (Personal Computer), or the like. The model generation device 10 acquires a signal derived from the movement of a predetermined moving body from the sensor 2 and generates an evaluation value corresponding to the movement of the predetermined moving body. And the model production | generation apparatus 10 produces | generates a regression learning model based on the signal of the motion of each predetermined moving body, and the evaluation value corresponding to the motion of each moving body. The generated regression learning model is used in the discrimination device 20.

ここで、本明細書において動体の動きには、人物の動きのみならず、例えば、家電の動き、地面の振動や風による家具の振動等、人物以外の動きも含まれる。また、人物の動きもさらに細分化されてもよい。例えば、寝ているときの動きや、座っているときの動きも、人物の動きに含まれてよい。また、評価値とは、動体の動きの判別のために用いられる値であり、各々の動体の動きとひも付けられる。   Here, in the present specification, the movement of the moving body includes not only the movement of the person but also movements other than the person, such as movement of home appliances, vibration of the ground, and vibration of furniture due to wind. Further, the movement of the person may be further subdivided. For example, a movement when sleeping or a movement while sitting may be included in the movement of the person. The evaluation value is a value used for determining the movement of the moving object, and is associated with the movement of each moving object.

(判別装置)
判別装置20は、特定の動体の動きの判別処理に用いられる装置である。判別装置20は、例えば、ネットワーク上の一または複数の情報処理装置によって実現されてもよい。より具体的には、判別装置20は、サーバやPC等により実現されてもよい。判別装置20は、センサ2により検出された動体の動きに由来する信号と、モデル生成装置10により生成された回帰学習モデルとを用いることにより、動体の動きを判別する。例えば、判別装置20は、センサ2により検出された動体の動きについて回帰学習モデルを用いることにより得られた評価値と、調整可能な閾値とを比較することにより、動体の動きについて判別してもよい。判別装置20は、例えば、不図示の通信部を介して、判別結果を有線または無線により外部装置等に送信することが可能である。これにより、例えば、上記外部装置において、判別結果を用いた処理を行うことが可能となる。判別結果を用いた処理により、例えば、人物Pの存在の有無を把握することが可能となる。なお、判別結果を用いた処理については、上記のような外部装置ではなく、判別装置20本体において行うことも可能である。
(Determination device)
The discriminating device 20 is a device used for discriminating the movement of a specific moving object. The determination device 20 may be realized by one or a plurality of information processing devices on a network, for example. More specifically, the determination device 20 may be realized by a server, a PC, or the like. The discriminating device 20 discriminates the motion of the moving object by using a signal derived from the motion of the moving object detected by the sensor 2 and the regression learning model generated by the model generating apparatus 10. For example, the determination device 20 may determine the movement of the moving object by comparing the evaluation value obtained by using the regression learning model with respect to the movement of the moving object detected by the sensor 2 and an adjustable threshold value. Good. The determination device 20 can transmit the determination result to an external device or the like by wire or wireless via a communication unit (not shown), for example. As a result, for example, the external device can perform processing using the determination result. By using the determination result, for example, it is possible to grasp the presence or absence of the person P. Note that the processing using the discrimination result can be performed not in the external device as described above but in the discrimination device 20 main body.

なお、従来においても、人物の有無を判別する技術について開発が進められていた。例えば、特開2010−230492号公報に開示された発明によれば、人物の有無の判別のための感度を調整することができるが、温度の変化や動体の動きの速さなど、特定の外乱の要因を含む信号に対してしか感度を調整することができなかった。そのため、様々な外乱を含む複雑な信号について、判別精度を向上させるための感度調整は困難であった。   Conventionally, the development of a technique for determining the presence or absence of a person has been underway. For example, according to the invention disclosed in Japanese Patent Application Laid-Open No. 2010-230492, the sensitivity for determining the presence or absence of a person can be adjusted, but specific disturbances such as temperature changes and the speed of movement of moving objects can be adjusted. Sensitivity could be adjusted only for signals containing these factors. For this reason, it has been difficult to adjust the sensitivity for improving the discrimination accuracy for complex signals including various disturbances.

本発明の判別システム1においては、モデル生成装置10が複数の所定のシナリオに基づいて回帰学習モデルを生成し、判別装置20が回帰学習モデルを用いて動体の動きを判別する。かかる構成において、回帰学習モデルに動体の動きを当てはめることにより、動体の動きと、回帰学習モデルの構成要素である所定のシナリオとの類似度(評価値)を算出する。つまり、複数の外乱を含む信号についても、回帰学習モデルを適用させることにより、どのような動きと類似しているかを連続的な評価値として表すことができる。そのため、例えば、判別のための閾値を感度の調整要素として評価値の取り得る値の範囲内で設定することにより、動体の動きがある所定の動きか否かを閾値との比較により行うことができる。評価値が連続値であれば閾値も連続的に設定することが可能であるので、上記所定の動きの判別に係る感度を細かく調整することができる。したがって、従来においては判別の感度調整ができなかった複数の外乱が混在している信号についても、感度調整を行うことができる。よって、動体の動きの判別精度をより向上させることができる。   In the determination system 1 of the present invention, the model generation device 10 generates a regression learning model based on a plurality of predetermined scenarios, and the determination device 20 determines the motion of a moving object using the regression learning model. In such a configuration, by applying the motion of the moving object to the regression learning model, the similarity (evaluation value) between the motion of the moving object and a predetermined scenario that is a component of the regression learning model is calculated. That is, by applying the regression learning model to a signal including a plurality of disturbances, it is possible to represent what kind of motion is similar as a continuous evaluation value. Therefore, for example, by setting a threshold value for discrimination within a range of values that can be taken as an evaluation value as a sensitivity adjustment element, it is possible to determine whether or not the motion of a moving object is a predetermined motion by comparing with a threshold value. it can. Since the threshold value can be set continuously if the evaluation value is a continuous value, the sensitivity relating to the determination of the predetermined movement can be finely adjusted. Therefore, it is possible to adjust the sensitivity even for a signal in which a plurality of disturbances that cannot be conventionally adjusted for sensitivity can be mixed. Therefore, it is possible to further improve the determination accuracy of the motion of the moving object.

<2.第1の実施形態>
以下、本発明の第1の実施形態に係るモデル生成装置10、および判別装置20について説明する。
<2. First Embodiment>
Hereinafter, the model generation device 10 and the determination device 20 according to the first embodiment of the present invention will be described.

[2.1.モデル生成装置]
(1)構成
図2は、本発明の第1の実施形態に係るモデル生成装置10の構成例を示すブロック図である。図2を参照すると、モデル生成装置10は、信号取得部110、信号DB(データベース)111、フィルタ部120、特徴量算出部130、評価値生成部140、評価値DB141、モデル生成部150、および回帰学習モデルDB151を備える。モデル生成装置10は、センサ2により検出される既知の所定の動きに由来する信号から算出される特徴ベクトルから構成される特徴空間と上記所定の動きに対応する評価値とを組とする複数のデータから、回帰学習モデルを生成する。生成された回帰学習モデルは、判別装置20において用いられる。以下、本実施形態に係るモデル生成装置10について説明する。
[2.1. Model generator]
(1) Configuration FIG. 2 is a block diagram illustrating a configuration example of the model generation device 10 according to the first embodiment of the present invention. Referring to FIG. 2, the model generation apparatus 10 includes a signal acquisition unit 110, a signal DB (database) 111, a filter unit 120, a feature amount calculation unit 130, an evaluation value generation unit 140, an evaluation value DB 141, a model generation unit 150, and A regression learning model DB 151 is provided. The model generation device 10 includes a plurality of sets each including a feature space formed from a feature vector calculated from a signal derived from a known predetermined motion detected by the sensor 2 and an evaluation value corresponding to the predetermined motion. A regression learning model is generated from the data. The generated regression learning model is used in the discrimination device 20. Hereinafter, the model generation device 10 according to the present embodiment will be described.

(信号取得部)
信号取得部110は、不図示の通信部または入力部等を介して、センサ2から出力される信号データを取得する。本実施形態において、センサ2はドップラーセンサである。センサ2から出力される信号データは、時系列のデジタル信号からなるデータであり、I成分であるI(n)とQ成分であるQ(n)の2成分を有する。信号データは、センサ2により規定の時間収集される。規定の時間は、例えば10分間であってもよい。また、信号データのサンプリング周波数は特に限定されないが、人物の動きを判別するためには、100Hz以上であることが好ましい。信号取得部110は、所定の動きを検出した信号を信号データとして取得し、取得した信号データを信号DB111に出力する。
(Signal acquisition unit)
The signal acquisition unit 110 acquires signal data output from the sensor 2 via a communication unit or an input unit (not shown). In the present embodiment, the sensor 2 is a Doppler sensor. The signal data output from the sensor 2 is data composed of a time-series digital signal, and has two components of I (n) which is an I component and Q (n) which is a Q component. The signal data is collected by the sensor 2 for a specified time. The specified time may be, for example, 10 minutes. Further, the sampling frequency of the signal data is not particularly limited, but is preferably 100 Hz or more in order to determine the movement of the person. The signal acquisition unit 110 acquires a signal that has detected a predetermined movement as signal data, and outputs the acquired signal data to the signal DB 111.

(信号DB)
信号DB111は、信号取得部110より取得した信号データを格納するデータベースである。データベースは複数のデータリストを有し、データリストは複数のデータセットにより構成される。図3は、信号DB111に格納されているデータリストの一例を示す図である。図3を参照すると、データリスト1000には、信号取得部110より取得した所定の動きに由来する信号データのデータファイル(A1.dat、B2.dat、・・・、C6.dat)が、ID、属性、およびシナリオとともにデータセットとして記憶されている。IDは、取得された信号データごとに割り振られるインデックスである。属性は、動体の動きの種類を示す項目であり、一のデータリストに複数の属性が設定され得る。図3に示したデータリスト1000においては、例として、「無人(外乱なし)」、「無人(外乱あり)」、および「有人」の3種類の属性が設定されている。ここで、「無人(外乱なし)」とは、人物を含めた動体による動きが全く検出されない状態であることを意味する。「無人(外乱あり)」とは、人物は存在しないが、他の動体の動きが検出され得る状態であることを意味する。また、「有人」とは、人物による動きのみが検出され得る状態であることを意味する。
(Signal DB)
The signal DB 111 is a database that stores the signal data acquired from the signal acquisition unit 110. The database has a plurality of data lists, and the data list is composed of a plurality of data sets. FIG. 3 is a diagram illustrating an example of a data list stored in the signal DB 111. Referring to FIG. 3, the data list 1000 includes data files (A1.dat, B2.dat,..., C6.dat) of signal data derived from a predetermined movement acquired from the signal acquisition unit 110. , Attributes, and scenarios, stored as a data set. The ID is an index assigned for each acquired signal data. The attribute is an item indicating the type of motion of the moving object, and a plurality of attributes can be set in one data list. In the data list 1000 shown in FIG. 3, for example, three types of attributes “unmanned (without disturbance)”, “unmanned (with disturbance)”, and “manned” are set. Here, “unmanned (no disturbance)” means that no movement by a moving object including a person is detected. “Unmanned (with disturbance)” means that there is no person, but the movement of another moving object can be detected. “Manned” means a state in which only movement by a person can be detected.

シナリオは、各属性において予め設定された具体的な動体、および動体の動きを示す項目である。シナリオとして設定された所定の動きは、予めモデル生成装置10のユーザ等により選択される動きである。図3に示したデータリスト1000においては、属性「無人(外乱あり)」には、「エアコン」、および「カーテン」がシナリオとして設定されている。これは、「無人(外乱あり)」の属性として取得された信号データは、エアコン、およびカーテンの振動に由来する信号データであることを意味する。同様に、属性「有人」には、「座る」、「寝る」、および「歩く」がシナリオとして設定されている。これは、「有人」のシナリオとして取得された信号データは、人物の座る動き、寝る動き、および歩く動きに由来する信号データであることを意味する。   The scenario is an item indicating a specific moving object set in advance in each attribute and the movement of the moving object. The predetermined movement set as the scenario is a movement selected in advance by the user of the model generation apparatus 10 or the like. In the data list 1000 shown in FIG. 3, “air conditioner” and “curtain” are set as scenarios for the attribute “unmanned (with disturbance)”. This means that the signal data acquired as the attribute of “unmanned (with disturbance)” is signal data derived from vibrations of the air conditioner and the curtain. Similarly, in the attribute “manned”, “sit”, “sleep”, and “walk” are set as scenarios. This means that the signal data acquired as the “manned” scenario is signal data derived from a person's sitting movement, sleeping movement, and walking movement.

このように、信号DB111は、ID、属性、シナリオ、およびシナリオに対応する信号データを含む複数のデータセットからなるデータリストを格納する。なお、これらのデータセットおよびデータリストは、不図示の入力部や通信部などを介して、モデル生成装置10のユーザ等により適宜追加、修正、または削除されてもよい。生成されたデータリストは、フィルタ部120に出力される。   As described above, the signal DB 111 stores a data list including a plurality of data sets including an ID, an attribute, a scenario, and signal data corresponding to the scenario. Note that these data sets and data lists may be added, modified, or deleted as appropriate by the user of the model generation apparatus 10 via an input unit or a communication unit (not shown). The generated data list is output to the filter unit 120.

(フィルタ部)
フィルタ部120は、信号DB111から取得したデータリストに含まれている信号データにフィルタ処理を実施する。データリストに含まれている信号データには、動体の動きとは無関係の、高周波成分のノイズが多く含まれている。そのため、フィルタ部120は、LPF(Low Pass Filter:ローパスフィルタ)処理を実施することにより、これらのノイズを除去または低減する。
(Filter part)
The filter unit 120 performs a filtering process on the signal data included in the data list acquired from the signal DB 111. The signal data included in the data list includes a lot of high-frequency component noise that is unrelated to the movement of the moving object. Therefore, the filter unit 120 removes or reduces these noises by performing LPF (Low Pass Filter) processing.

フィルタ部120は、まず、データリストに格納されているID=mの信号データI(n)およびQ(n)を取得する(n=1〜N)。ここで、Nは、信号データに含まれるサンプリング数を示す。 First, the filter unit 120 acquires signal data I m (n) and Q m (n) of ID = m stored in the data list (n = 1 to N). Here, N indicates the number of samplings included in the signal data.

ここで、I(n)およびQ(n)は、2次のIIR(Infinite Impulse Response:無限インパルス応答)フィルタによるLPF処理が実施されてもよい。LPF処理におけるカットオフ周波数は、例えば50Hzであってもよい。かかるLPF処理により、信号データに含まれる高周波のノイズ成分を除去または減少することができる。ここで、IIRフィルタによるLPF処理が実施された後の信号データを、それぞれI’(n)およびQ’(n)とする。 Here, I m (n) and Q m (n) may be subjected to LPF processing by a second-order IIR (Infinite Impulse Response) filter. The cutoff frequency in the LPF process may be 50 Hz, for example. By such LPF processing, high-frequency noise components included in signal data can be removed or reduced. Here, the signal data after the LPF processing by the IIR filter is performed are I m ′ (n) and Q m ′ (n), respectively.

IIRフィルタによるLPF処理は、下記式(1)および式(2)を、n=1からNまで順に繰り返し計算を行うことにより実施される。ここで、x(n)は入力値、y(n)は出力値である。例えば、下記式(1)において、x(n)にはI(n)およびQ(n)が代入される。また、下記式(2)において、I’(n)およびQ’(n)がy(n)として出力される。また、k、a、a、a、b、およびbは、周波数帯域に応じて設計の段階で設定される係数である。 The LPF processing by the IIR filter is performed by repeatedly calculating the following formulas (1) and (2) from n = 1 to N in order. Here, x (n) is an input value and y (n) is an output value. For example, in the following formula (1), I m (n) and Q m (n) are substituted for x (n). In the following formula (2), I m ′ (n) and Q m ′ (n) are output as y (n). K, a 0 , a 1 , a 2 , b 1 , and b 2 are coefficients set at the design stage according to the frequency band.

Figure 2017026475
Figure 2017026475

Figure 2017026475
Figure 2017026475

なお、A(0)=A(−1)=0である。   Note that A (0) = A (−1) = 0.

’(n)およびQ’(n)が出力された後、A(n−2)にはA(n−1)の値が代入され、A(n−1)にはA(n)の値が代入される。この代入処理をn=1からNまで実施することにより、LPF処理が完了する。LPF処理が完了した信号データを含むデータリストは、特徴量算出部130に出力される。 After I m ′ (n) and Q m ′ (n) are output, the value of A (n−1) is assigned to A (n−2), and A (n−1) is assigned to A (n−1). ) Value is substituted. By performing this substitution process from n = 1 to N, the LPF process is completed. The data list including the signal data for which the LPF processing has been completed is output to the feature amount calculation unit 130.

なお、本実施形態にかかるフィルタ部120は、LPF処理としてIIRフィルタを用いたが、本発明はかかる例に限定されない。例えば、フィルタ部120は、信号をフーリエ変換により周波数領域に変換し、所定外の周波数帯域の周波数を除去したのち、逆フーリエ変換により再度時間領域に信号を変換することにより、LPF処理を行ってもよい。また、フィルタ部120は、上述した手法以外の公知の技術を用いてLPF処理を行ってもよい。   In addition, although the filter part 120 concerning this embodiment used the IIR filter as LPF processing, this invention is not limited to this example. For example, the filter unit 120 performs LPF processing by converting the signal to the frequency domain by Fourier transform, removing the frequency in a frequency band other than the predetermined frequency, and then converting the signal to the time domain again by inverse Fourier transform. Also good. The filter unit 120 may perform LPF processing using a known technique other than the above-described technique.

(特徴量算出部)
特徴量算出部130は、フィルタ部120から取得したデータリストに格納されているLPF処理後の信号データの特徴量を算出する。ここで、特徴量とは、信号データの波形に基づいて算出される特徴量である。例えば、特徴量には、信号データの波形の振幅や、波形の周波数成分等により算出される特徴量が含まれる。本実施形態においては、特徴量算出部130は、信号データの波形の振幅特徴量、および周波数特徴量を特徴量として算出する。
(Feature amount calculation unit)
The feature amount calculation unit 130 calculates the feature amount of the signal data after LPF processing stored in the data list acquired from the filter unit 120. Here, the feature amount is a feature amount calculated based on the waveform of the signal data. For example, the feature amount includes a feature amount calculated from the amplitude of the waveform of the signal data, the frequency component of the waveform, or the like. In the present embodiment, the feature amount calculation unit 130 calculates the amplitude feature amount and the frequency feature amount of the waveform of the signal data as the feature amount.

本実施形態において、振幅特徴量は、LPF処理後の信号データの時刻nにおける振幅の値である。振幅特徴量V(n)は、下記式(3)により算出される。また、振幅特徴量V(n)は、時刻nを先頭とする単位期間における各サンプリングデータの振幅の値の平均値や最大値等の統計量であってもよい。 In the present embodiment, the amplitude feature amount is the value of the amplitude at time n of the signal data after the LPF processing. The amplitude feature amount V m (n) is calculated by the following equation (3). Further, the amplitude feature amount V m (n) may be a statistic such as an average value or a maximum value of amplitude values of each sampling data in a unit period starting from the time n.

Figure 2017026475
Figure 2017026475

周波数特徴量は、例えば、単位期間における信号データの波形のゼロ交差数であってもよい。図4は、信号データの波形のゼロ交差数について説明するための図である。図4に丸印で示したように、ゼロ交差数は、信号データI’(n)またはQ’(n)の波形が、単位期間Tにおいて時間軸(振幅=ゼロ値)と交差する回数である。具体的には、ゼロ交差数は、時刻nを先頭とする単位期間TにおけるL個のサンプリングデータのうち、下記式(4)および式(5)を満たす数である。単位区間Tは、例えば1秒間であってもよく、その場合、Lは100(つまり、センサ2から出力される時系列デジタル信号データのサンプリング周波数=100Hz)であってもよい。 The frequency feature amount may be, for example, the number of zero crossings of the signal data waveform in the unit period. FIG. 4 is a diagram for explaining the number of zero crossings of the waveform of the signal data. As indicated by a circle in FIG. 4 crossing, zero crossing number, the waveform of the signal data I m '(n) or Q m' (n) is the time axis in the unit period T a and (amplitude = zero value) It is the number of times to do. Specifically, the zero crossing number, among the L sampling data in the unit period T a for the time n and the top is a number satisfying the following formulas (4) and (5). Unit interval T a may be, for example, one second, in which case, L represents 100 (i.e., sampling frequency = 100 Hz of the time-series digital signal data outputted from the sensor 2) may be used.

Figure 2017026475
Figure 2017026475

Figure 2017026475
Figure 2017026475

時刻nを先頭とする単位期間Tにおいて上記式(4)および式(5)を満たすiの数をそれぞれf1m(n)およびf2m(n)とすると、ゼロ交差数f(n)は、f1m(n)+f2m(n)である。 In the above formula unit period T a for the time n and the top (4) and (5) the number of i satisfying each f 1 m When (n) and f 2m (n), the zero crossing number f m (n) Is f 1m (n) + f 2m (n).

なお、特徴量算出部130は、上記の振幅特徴量V(n)およびゼロ交差数f(n)の他に、さらに信号データI’(n)またはQ’(n)の波形に基づく特徴量を算出してもよい。例えば、特徴量算出部130は、単位期間における波形の極大点もしくは極小点の数、複数の単位期間における極大点もしくは極小点のばらつきや平均値等の統計量、または周波数領域におけるパワースペクトル等を、特徴量として算出してもよい。特徴量の種類を増やすことにより、信号データの波形の特徴をより細かく抽出することができる。 In addition to the amplitude feature value V m (n) and the number of zero crossings f m (n), the feature value calculation unit 130 further generates a waveform of the signal data I m ′ (n) or Q m ′ (n). The feature amount based on the may be calculated. For example, the feature amount calculation unit 130 calculates the number of local maximum or minimum points of a waveform in a unit period, a statistic such as variation or average of local maximum or minimum points in a plurality of unit periods, or a power spectrum in a frequency domain. Alternatively, it may be calculated as a feature amount. By increasing the types of feature amounts, the features of the waveform of the signal data can be extracted more finely.

特徴量算出部130は、まず、信号データから単位区間Tに含まれるL個のサンプリングデータをJ組抽出し、単位区間Tのサンプリングデータごとに特徴量をそれぞれ算出する。つまり、一の信号データから、特徴量がC×J個抽出される(Cは特徴量の種類数)。次に、特徴量算出部130は、取得したデータリストに含まれるすべての信号データについて、特徴量を算出する。そして、特徴量算出部130は、算出した特徴量を成分とする特徴ベクトルを生成する。特徴ベクトルは、F(j)=[V(j),f(j)]というベクトルを構成する。ここで、jは、上述したようなL個のサンプリングデータのうち、最もサンプリング時刻の古い時刻を示す。特徴量算出部130は、データリストに格納された全ての信号データに対して上記の処理を行い、信号データごとに特徴ベクトルF(j)を生成する。そして、特徴量算出部130は、生成した特徴ベクトルF(j)をモデル生成部150に出力する。 Feature amount calculation unit 130, first, the L-number of sampling data included from the signal data to the unit interval T a and J pairs extracted, respectively calculates the feature quantity for each sampling data unit sections T a. That is, C × J feature quantities are extracted from one signal data (C is the number of feature quantity types). Next, the feature amount calculation unit 130 calculates feature amounts for all signal data included in the acquired data list. Then, the feature amount calculation unit 130 generates a feature vector having the calculated feature amount as a component. The feature vector constitutes a vector of F m (j) = [V m (j), f m (j)]. Here, j indicates the oldest sampling time among the L sampling data as described above. The feature amount calculation unit 130 performs the above processing on all signal data stored in the data list, and generates a feature vector F m (j) for each signal data. Then, the feature amount calculation unit 130 outputs the generated feature vector F m (j) to the model generation unit 150.

(評価値決定部)
評価値生成部140は、信号DB111に格納されたデータリストのシナリオごとに対応する評価値を生成する。ここで、評価値とは、特定の動体による動きを判別するために用いられるパラメータである。例えば、評価値を0から1の範囲で設定する場合、特定の動体による動き(ここでは人物の動きとする)であるシナリオについては、評価値として1が設定され、人物の動きでないシナリオについては、評価値として1以外の値が設定され得る。ここで、例えば、明らかに人物の動きでないシナリオについては、評価値として0が設定され得るが、人物の動きと紛らわしい動きであるシナリオについては、評価値として0と1の中間値が設定され得る。また、同じ属性であっても、シナリオごとに異なる評価値が設定されてもよい。このように、評価値をシナリオと対応させて設定することにより、のちの判別処理において、人物等の特定の動体による動きと紛らわしい動きを判別するための調整が容易となる。
(Evaluation value decision part)
The evaluation value generation unit 140 generates an evaluation value corresponding to each scenario in the data list stored in the signal DB 111. Here, the evaluation value is a parameter used for discriminating a movement by a specific moving object. For example, when an evaluation value is set in the range of 0 to 1, for a scenario that is a movement by a specific moving object (here, a person's movement), 1 is set as the evaluation value and a scenario that is not a person's movement A value other than 1 can be set as the evaluation value. Here, for example, 0 may be set as an evaluation value for a scenario that is clearly not a person's movement, but an intermediate value between 0 and 1 may be set as an evaluation value for a scenario that is confusing with a person's movement. . Moreover, even if the attributes are the same, different evaluation values may be set for each scenario. In this way, by setting the evaluation value in correspondence with the scenario, adjustment for discriminating a motion that is confused with a motion by a specific moving object such as a person is facilitated in later discrimination processing.

評価値生成部140は、例えば、信号DB111に格納されたデータリストの属性に応じて、規定の評価値を割り振ってもよい。図5は、図3に示されたデータリスト1000に格納された各データセットに対する評価値生成部140による評価値の割り振り処理フローの例を示す図である。図5を参照すると、まず、評価値生成部140は、信号DB111に格納されたデータリストを取得する(S101)。評価値生成部140は、データリストの属性を全てのシナリオについて読み込み、読み込んだ属性に応じて評価値を設定する。   For example, the evaluation value generation unit 140 may allocate a predetermined evaluation value according to the attribute of the data list stored in the signal DB 111. FIG. 5 is a diagram showing an example of an evaluation value allocation processing flow by the evaluation value generation unit 140 for each data set stored in the data list 1000 shown in FIG. Referring to FIG. 5, first, the evaluation value generation unit 140 acquires a data list stored in the signal DB 111 (S101). The evaluation value generation unit 140 reads the attributes of the data list for all scenarios, and sets evaluation values according to the read attributes.

評価値生成部140は、読み込んだ属性が「無人(外乱なし)」か否かを判定する(S103)。読み込んだ属性が「無人(外乱なし)」である場合(S103/YES)、評価値生成部140は、かかるデータセットについての評価値を0.0と設定する(S105)。次に、評価値生成部140は、読み込んだ属性が「無人(外乱あり)」か否かを判定する(S107)。読み込んだ属性が「無人(外乱あり)」である場合(S107/YES)、評価値生成部140は、かかるデータセットについての評価値を0.5と設定する(S109)。読み込んだ属性が「無人(外乱なし)」でも「無人(外乱あり)」でもない場合(図3に示した例においては「有人」)(S107/NO)、評価値生成部140は、かかるデータセットについての評価値を1.0と設定する(S101)。以上の処理フローに基づいて、評価値生成部140は、各データセットについて評価値を割り振ることができる。シナリオがM個ある場合、m番目のシナリオに対応する評価値Y(j)には、ステップS105、S109、またはS111において設定される値が代入される。 The evaluation value generation unit 140 determines whether or not the read attribute is “unmanned (no disturbance)” (S103). When the read attribute is “unattended (no disturbance)” (S103 / YES), the evaluation value generation unit 140 sets the evaluation value for the data set to 0.0 (S105). Next, the evaluation value generation unit 140 determines whether or not the read attribute is “unmanned (with disturbance)” (S107). When the read attribute is “unattended (with disturbance)” (S107 / YES), the evaluation value generation unit 140 sets the evaluation value for the data set as 0.5 (S109). When the read attribute is neither “unmanned (without disturbance)” nor “unmanned (with disturbance)” (“manned” in the example shown in FIG. 3) (S107 / NO), the evaluation value generation unit 140 receives the data The evaluation value for the set is set to 1.0 (S101). Based on the above processing flow, the evaluation value generation unit 140 can allocate an evaluation value for each data set. When there are M scenarios, the value set in step S105, S109, or S111 is substituted into the evaluation value Y m (j) corresponding to the mth scenario.

なお、本実施形態において評価値生成部140により評価値が各シナリオに対して割り振られたが、本発明はかかる例に限定されない。例えば、評価値生成部140は、不図示の入力部により入力された評価値の値を各シナリオに対して割り振ってもよい。これにより、モデル生成装置10のユーザ等が各シナリオに対する評価値の値を自由に設定することができる。また、評価値の範囲は、上記で示した範囲(0.0〜1.0)に限定されず、自由に設定され得る。   In the present embodiment, the evaluation value is assigned to each scenario by the evaluation value generation unit 140, but the present invention is not limited to such an example. For example, the evaluation value generation unit 140 may assign an evaluation value value input by an input unit (not shown) to each scenario. Thereby, the user of the model production | generation apparatus 10 etc. can set the value of the evaluation value with respect to each scenario freely. Moreover, the range of the evaluation value is not limited to the range (0.0 to 1.0) shown above, and can be set freely.

評価値生成部140は、各シナリオに対して評価値を割り振ったのち、各シナリオのIDと評価値をひも付けて、評価値リストとして評価値DB141に出力する。   After assigning the evaluation value to each scenario, the evaluation value generating unit 140 links the ID and evaluation value of each scenario, and outputs the result to the evaluation value DB 141 as an evaluation value list.

(評価値DB)
評価値DB141は、評価値生成部140より取得した評価値リストを記憶するデータベースである。図6は、評価値DB141に格納されている評価リストの一例を示す図である。図6を参照すると、評価値DB141に格納されている評価リスト2000において、評価値が、ID、属性、およびシナリオとともにデータセットとして記憶されている。ID、属性、およびシナリオの意味は、信号DB111に格納されているデータリストに含まれる各要素と同一であるため、説明を省略する。評価値DB141に格納された評価値リストは、モデル生成部150に出力される。なお、各データセットに記憶されている評価値の値は、不図示の入力部や通信部等を介して、モデル生成装置10のユーザ等により設定、追加、修正、または削除されてもよい。その場合、モデル生成装置10は、必ずしも評価値生成部140を含まなくてもよい。
(Evaluation value DB)
The evaluation value DB 141 is a database that stores the evaluation value list acquired from the evaluation value generation unit 140. FIG. 6 is a diagram illustrating an example of an evaluation list stored in the evaluation value DB 141. Referring to FIG. 6, in the evaluation list 2000 stored in the evaluation value DB 141, evaluation values are stored as a data set together with IDs, attributes, and scenarios. The meanings of the ID, attribute, and scenario are the same as those of each element included in the data list stored in the signal DB 111, and thus description thereof is omitted. The evaluation value list stored in the evaluation value DB 141 is output to the model generation unit 150. Note that the value of the evaluation value stored in each data set may be set, added, modified, or deleted by a user of the model generation device 10 or the like via an input unit or a communication unit (not shown). In that case, the model generation device 10 does not necessarily include the evaluation value generation unit 140.

(モデル生成部)
モデル生成部150は、特徴量算出部130から出力された特徴ベクトルと、評価値DB141より取得した評価値リストに含まれる評価値とを組とする複数のデータに基づいて、回帰学習モデルを生成する。具体的には、まず、モデル生成部150は、J個の抽出データおよびM個のシナリオに対応する特徴ベクトルF(j)〜F(j)からなる特徴空間を生成し、M個のシナリオに対応する評価値Y(j)〜Y(j)組とするデータに基づいて回帰学習モデルを生成する。なお、評価値は対応するシナリオごとに評価値生成部140において割り振られるので、同一のシナリオ(つまり信号データ)に対応する評価値Y(j)の値は、jの値によらず同一である。
(Model generator)
The model generation unit 150 generates a regression learning model based on a plurality of pieces of data including the feature vector output from the feature amount calculation unit 130 and the evaluation value included in the evaluation value list acquired from the evaluation value DB 141. To do. Specifically, first, the model generation unit 150 generates a feature space composed of feature vectors F 1 (j) to F M (j) corresponding to J pieces of extracted data and M scenarios. A regression learning model is generated based on the data of the evaluation values Y 1 (j) to Y M (j) corresponding to the scenario. Since the evaluation value is assigned by the evaluation value generation unit 140 for each corresponding scenario, the evaluation value Y m (j) corresponding to the same scenario (that is, signal data) is the same regardless of the value of j. is there.

ここで、本実施形態において、回帰学習モデルは、例えば、SVR(Support Vector Regression:サポートベクタ回帰)を用いて生成され得る。SVRは、例えば、SMOLA,Alex J. and Bernhard SCHOELKOPF,“A Tutorial on Support Vector Regression”,1998に開示されている内容に基づいて実現され得る。なお、回帰学習モデルは、上記の例に限定されず、例えば、カーネル法や重回帰分析等の公知の回帰分析手法により生成されてもよい。   Here, in the present embodiment, the regression learning model can be generated using, for example, SVR (Support Vector Regression). The SVR can be realized based on the contents disclosed in, for example, SMOLA, Alex J. and Bernhard SCHOELKOPF, “A Tutorial on Support Vector Regression”, 1998. The regression learning model is not limited to the above example, and may be generated by a known regression analysis method such as a kernel method or multiple regression analysis, for example.

SVRにより生成された回帰学習モデルは、K個の要素からなるサポートベクタ行列sと、それらの重みベクトルc、および閾値bにより構成される。具体的には、サポートベクタ行列sは下記式(6)で示す行列により定義され、重みベクトルcは下記式(7)で示すベクトルにより定義される。また、閾値bは一意に定まる値である。また、サポートベクタ行列sの要素の数Kは、SVRによる計算の過程において一意に定まる。   The regression learning model generated by SVR is composed of a support vector matrix s composed of K elements, a weight vector c thereof, and a threshold value b. Specifically, the support vector matrix s is defined by a matrix represented by the following formula (6), and the weight vector c is defined by a vector represented by the following formula (7). The threshold value b is a value that is uniquely determined. Further, the number K of elements of the support vector matrix s is uniquely determined in the process of calculation by SVR.

Figure 2017026475
Figure 2017026475

Figure 2017026475
Figure 2017026475

なお、特徴空間および評価値により構成されるデータについて、カーネルトリックを用いて非線形空間に写像することにより、回帰学習モデルを生成することも可能である。本実施形態においては、カーネルトリックとして、下記式(8)で示すガウシアン型カーネル関数が用いられてもよい。この場合、ガウス関数の広がりを定義する係数σは、回帰学習モデルを構成する要素となる。   Note that a regression learning model can be generated by mapping data composed of a feature space and an evaluation value to a nonlinear space using a kernel trick. In the present embodiment, a Gaussian kernel function represented by the following formula (8) may be used as a kernel trick. In this case, the coefficient σ that defines the spread of the Gaussian function is an element constituting the regression learning model.

Figure 2017026475
Figure 2017026475

モデル生成部150は、M個のシナリオに対応する特徴空間および評価値により構成されるデータからSVR等の回帰分析を用いて生成した回帰学習モデルを、回帰学習モデルDB151に出力する。   The model generation unit 150 outputs, to the regression learning model DB 151, a regression learning model generated from the data configured by the feature space corresponding to the M scenarios and the evaluation values by using regression analysis such as SVR.

(回帰学習モデルDB)
回帰学習モデルDB151は、モデル生成部150より出力された回帰学習モデルを記憶するデータベースである。回帰学習モデルDB151には、例えば、上記式(6)〜式(8)により生成された回帰学習モデルのサポートベクタ行列s、重みベクトルc、閾値b、およびガウシアン型カーネル関数の係数σ等が記憶される。回帰学習モデルDB151には、一または複数の回帰学習モデルが記憶されてもよい。例えば、後述する判別装置20により判別される動体の種類や動体の動きの種類に応じた回帰学習モデルが回帰学習モデルDB151に記憶されてもよい。
(Regression learning model DB)
The regression learning model DB 151 is a database that stores the regression learning model output from the model generation unit 150. The regression learning model DB 151 stores, for example, the support vector matrix s, the weight vector c, the threshold value b, the coefficient σ of the Gaussian kernel function, and the like of the regression learning model generated by the above equations (6) to (8). Is done. The regression learning model DB 151 may store one or a plurality of regression learning models. For example, a regression learning model corresponding to the type of moving object or the type of movement of the moving object determined by the determination device 20 described later may be stored in the regression learning model DB 151.

回帰学習モデルDB151に記憶された回帰学習モデルに係るデータは、判別装置20の回帰学習モデルDB231に複製されて記憶される。これにより、判別装置20は、モデル生成装置10により生成された回帰学習モデルを用いて、動体の動きの判別を実施することができる。   Data related to the regression learning model stored in the regression learning model DB 151 is duplicated and stored in the regression learning model DB 231 of the discrimination device 20. Thereby, the discriminating device 20 can discriminate the motion of the moving object using the regression learning model generated by the model generating device 10.

(2)動作
図7は、本発明の第1の実施形態に係るモデル生成装置10の動作例を示すフローチャートである。まず、信号取得部110は、センサ2が検出した所定の動きに由来する信号を信号データとして取得する(S201)。信号取得部110は、複数の所定の動きに由来する複数の信号データを信号DB111に出力する。信号DB111は、複数の信号データを、ID、属性、パラメータとともに、データリストとして記憶し、フィルタ部120、および評価値生成部140に出力する(S203)。
(2) Operation FIG. 7 is a flowchart showing an operation example of the model generation apparatus 10 according to the first embodiment of the present invention. First, the signal acquisition unit 110 acquires a signal derived from the predetermined movement detected by the sensor 2 as signal data (S201). The signal acquisition unit 110 outputs a plurality of signal data derived from a plurality of predetermined movements to the signal DB 111. The signal DB 111 stores a plurality of signal data as a data list together with IDs, attributes, and parameters, and outputs them to the filter unit 120 and the evaluation value generation unit 140 (S203).

次に、フィルタ部120は、データリストに含まれている各信号データについてLPF処理を実施する(S205)。LPF処理が実施された各信号データは、特徴量算出部130に出力される。特徴量算出部130は、LPF処理後の各信号データについて、特徴量を算出する(S207)。次に、特徴量算出部130は、算出した一または複数の特徴量により構成される特徴ベクトルを生成する(S209)。生成された特徴ベクトルを含むデータは、モデル生成部150に出力される。   Next, the filter unit 120 performs LPF processing on each signal data included in the data list (S205). Each signal data subjected to the LPF process is output to the feature amount calculation unit 130. The feature amount calculation unit 130 calculates a feature amount for each signal data after the LPF processing (S207). Next, the feature quantity calculation unit 130 generates a feature vector including the calculated one or more feature quantities (S209). Data including the generated feature vector is output to the model generation unit 150.

次に、モデル生成部150は、M個のシナリオに対応する特徴ベクトルからなる特徴空間を生成する(S211)。一方で、評価値生成部140は、評価値リストに含まれている属性に基づいて、各信号データについて評価値を決定する(S213)。なお、各信号データについて予め評価値が決定されている場合は、ステップS211は省略されてもよい。決定された評価値を含むデータは、モデル生成部150に出力される。   Next, the model generation unit 150 generates a feature space composed of feature vectors corresponding to M scenarios (S211). On the other hand, the evaluation value generation unit 140 determines an evaluation value for each signal data based on the attributes included in the evaluation value list (S213). If an evaluation value is determined in advance for each signal data, step S211 may be omitted. Data including the determined evaluation value is output to the model generation unit 150.

そして、モデル生成部150は、生成した特徴空間および評価値とを組とするデータに基づき、回帰学習モデルを生成する(S215)。その後、モデル生成部150は、生成した回帰学習モデルを回帰学習モデルDB151に出力する(S217)。   And the model production | generation part 150 produces | generates a regression learning model based on the data which made the produced | generated feature space and evaluation value a group (S215). Thereafter, the model generation unit 150 outputs the generated regression learning model to the regression learning model DB 151 (S217).

以上、本実施形態に係るモデル生成装置10について説明した。続いて、本実施形態に係る判別装置20について説明する。   The model generation device 10 according to the present embodiment has been described above. Next, the determination device 20 according to the present embodiment will be described.

[2.2.判別装置]
(1)構成
図8は、本発明の第1の実施形態に係る判別装置20の構成例を示すブロック図である。図8を参照すると、判別装置20は、信号取得部210、信号DB211、フィルタ部220、特徴量算出部230、評価値算出部240、回帰学習モデルDB241、判別部250、および調整部260を備える。
[2.2. Discriminator]
(1) Configuration FIG. 8 is a block diagram illustrating a configuration example of the determination device 20 according to the first embodiment of the present invention. Referring to FIG. 8, the determination device 20 includes a signal acquisition unit 210, a signal DB 211, a filter unit 220, a feature amount calculation unit 230, an evaluation value calculation unit 240, a regression learning model DB 241, a determination unit 250, and an adjustment unit 260. .

(信号取得部)
信号取得部210は、不図示の通信部または入力部等を介して、センサ2から出力される信号データを取得する。取得した信号についてリアルタイムに判別処理を実施する場合は、信号取得部210は、取得した信号データをフィルタ部220に出力する。また、取得した信号データについて事後的に判別処理を実施する場合は、信号取得部210は、信号DB211に取得した信号データを出力してもよい。
(Signal acquisition unit)
The signal acquisition unit 210 acquires signal data output from the sensor 2 via a communication unit or an input unit (not shown). When performing the discrimination process on the acquired signal in real time, the signal acquisition unit 210 outputs the acquired signal data to the filter unit 220. In addition, when performing a determination process on the acquired signal data afterwards, the signal acquisition unit 210 may output the acquired signal data to the signal DB 211.

(信号DB)
信号DB211は、信号取得部210が取得した信号データを逐次的に記憶するデータベースである。記憶された信号データについて判別処理を実施する場合は、信号DB211に記憶された信号データは、フィルタ部220に出力される。
(Signal DB)
The signal DB 211 is a database that sequentially stores the signal data acquired by the signal acquisition unit 210. When the determination processing is performed on the stored signal data, the signal data stored in the signal DB 211 is output to the filter unit 220.

(フィルタ部)
フィルタ部220は、信号取得部210、または信号DB211から取得した信号データにフィルタ処理を実施する。フィルタ部220により実施されるフィルタ処理は、モデル生成装置10のフィルタ部120と同様に、LPF処理であってもよい。この場合、LPF処理は、IIRフィルタによるものであってもよい。IIRフィルタについては、上述したIIRフィルタと同一であるので、説明を省略する。フィルタ部220は、LPF処理がされた信号データを、特徴量算出部230に出力する。
(Filter part)
The filter unit 220 performs a filtering process on the signal data acquired from the signal acquisition unit 210 or the signal DB 211. The filter process performed by the filter unit 220 may be an LPF process, like the filter unit 120 of the model generation device 10. In this case, the LPF process may be performed by an IIR filter. Since the IIR filter is the same as the IIR filter described above, the description thereof is omitted. The filter unit 220 outputs the signal data subjected to the LPF process to the feature amount calculation unit 230.

(特徴量算出部)
特徴量算出部230は、フィルタ部220から取得した信号データの特徴量を算出する。特徴量算出部230が算出する特徴量は、モデル生成装置10の特徴量算出部130により算出される特徴量と同一である。例えば、特徴量算出部230は、信号データの波形の振幅特徴量と、周波数特徴量とを、特徴量として算出する。これらの特徴量の具体的な算出方法については、モデル生成装置10の特徴量算出部130による算出方法と同一であるため、説明を省略する。
(Feature amount calculation unit)
The feature amount calculation unit 230 calculates the feature amount of the signal data acquired from the filter unit 220. The feature amount calculated by the feature amount calculation unit 230 is the same as the feature amount calculated by the feature amount calculation unit 130 of the model generation device 10. For example, the feature amount calculation unit 230 calculates the amplitude feature amount and the frequency feature amount of the waveform of the signal data as the feature amount. Since the specific calculation method of these feature values is the same as the calculation method by the feature value calculation unit 130 of the model generation device 10, description thereof will be omitted.

特徴量算出部230は、算出した特徴量を成分とする特徴ベクトルを生成する。具体的には、特徴量算出部230は、時刻kにおける信号データI(k)またはQ(k)から、F(k)=[V(k),f(k)]という2次元の特徴ベクトルを生成する。なお、V(k)は振幅特徴量であり、f(k)は単位期間におけるゼロ交差数である。上記の単位期間は、モデル生成装置10の特徴量算出部130によるゼロ交差数の算出の際に用いられる単位期間と同一である。特徴量算出部230は、生成した特徴ベクトルF(k)を評価値算出部240に出力する。   The feature amount calculation unit 230 generates a feature vector having the calculated feature amount as a component. Specifically, the feature quantity calculation unit 230 obtains a two-dimensional feature vector F (k) = [V (k), f (k)] from the signal data I (k) or Q (k) at time k. Is generated. V (k) is an amplitude feature amount, and f (k) is the number of zero crossings in the unit period. The unit period is the same as the unit period used when the feature amount calculation unit 130 of the model generation device 10 calculates the number of zero crossings. The feature amount calculation unit 230 outputs the generated feature vector F (k) to the evaluation value calculation unit 240.

(評価値算出部)
評価値算出部240は、特徴量算出部230から取得した特徴ベクトルF(k)と、回帰学習モデルDB241に記憶されている一の回帰学習モデルを用いて、センサ2により検出された動体の動きに対応する評価値を算出する。回帰学習モデルDB241に記憶されている回帰学習モデルは、モデル生成装置10により生成された回帰学習モデルである。評価値算出部240は、例えば、下記式(9)に示される判別関数に特徴ベクトルF(k)を代入することにより得られる出力値z(k)の値を、評価値として算出する。なお、下記式(9)に示される関数g(xi,k,σ)は、上記式(8)に示されるカーネル関数である。
(Evaluation value calculator)
The evaluation value calculation unit 240 uses the feature vector F (k) acquired from the feature amount calculation unit 230 and one regression learning model stored in the regression learning model DB 241 to detect the motion of the moving object detected by the sensor 2. An evaluation value corresponding to is calculated. The regression learning model stored in the regression learning model DB 241 is a regression learning model generated by the model generation device 10. The evaluation value calculation unit 240 calculates, for example, the value of the output value z (k) obtained by substituting the feature vector F (k) for the discriminant function represented by the following equation (9) as the evaluation value. A function g (x i, k , σ) shown in the following formula (9) is a kernel function shown in the above formula (8).

Figure 2017026475
Figure 2017026475

ここで、xi,kの値は下記式(10)により与えられる。なお、Vおよびfは、上記式(6)で示されるサポートベクタ行列sのi成分の値である。 Here, the value of x i, k is given by the following equation (10). Note that V i and f i are values of the i component of the support vector matrix s expressed by the above equation (6).

Figure 2017026475
Figure 2017026475

評価値算出部240により算出される出力値z(k)は、評価値として、判別部250に出力される。   The output value z (k) calculated by the evaluation value calculation unit 240 is output to the determination unit 250 as an evaluation value.

(回帰学習モデルDB)
回帰学習モデルDB241は、モデル生成装置10により算出された少なくとも一の回帰学習モデルを記憶する。回帰学習モデルDB241は、モデル生成装置10の回帰学習モデルDB151に記憶されている回帰学習モデルの一部または全部を記憶する。回帰学習モデルDB241に記憶されている回帰学習モデルは、評価値算出部240に出力される。評価値算出部240に出力される回帰学習モデルの種類については、判別装置20のユーザ等により、自由に選択される。例えば、判別装置20が用いられる環境や建物の構造、材質等に適した回帰学習モデルが選択されてもよい。なお、回帰学習モデルDB241に記憶されている回帰学習モデルは、不図示の入力部または通信部を介して、適宜追加、変更、または削除され得る。
(Regression learning model DB)
The regression learning model DB 241 stores at least one regression learning model calculated by the model generation device 10. The regression learning model DB 241 stores a part or all of the regression learning model stored in the regression learning model DB 151 of the model generation device 10. The regression learning model stored in the regression learning model DB 241 is output to the evaluation value calculation unit 240. The type of regression learning model output to the evaluation value calculation unit 240 is freely selected by the user of the discrimination device 20 or the like. For example, a regression learning model suitable for the environment in which the determination device 20 is used, the structure of the building, the material, and the like may be selected. The regression learning model stored in the regression learning model DB 241 can be appropriately added, changed, or deleted via an input unit or a communication unit (not shown).

(判別部)
判別部250は、評価値算出部240から算出される評価値(出力値)z(k)に基づいて、センサ2により検出された動体の動きを判別する。本実施形態においては、判別部250は、評価値z(k)に基づいて、センサ2により検出された動体の動きが人物の動きであるか否かを判別する。より具体的には、判別部250は、評価値z(k)と、感度閾値Thとを比較し、その大小関係に基づいて、動体の動きが人物の動きであるか否かを判別する。ここで、人物の動きであるか否かを示す判別結果値をdとすると、以下の比較式に基づいて、判別結果値をdの値が決定される。まず、z(k)≧Thの場合、d=1となる。d=1の場合、動体の動きは人物の動きであると判別される。一方、z(k)<Thの場合、d=0となる。d=0の場合、動体の動きは人物の動きではないと判別される。
(Determination part)
The determination unit 250 determines the movement of the moving object detected by the sensor 2 based on the evaluation value (output value) z (k) calculated from the evaluation value calculation unit 240. In the present embodiment, the determination unit 250 determines whether the motion of the moving object detected by the sensor 2 is a person's motion based on the evaluation value z (k). More specifically, the determination unit 250 compares the evaluation value z (k) with the sensitivity threshold Th, and determines whether the motion of the moving object is a person's motion based on the magnitude relationship. Here, if the determination result value indicating whether or not the movement is a person is d, the value of the determination result value d is determined based on the following comparison expression. First, when z (k) ≧ Th, d = 1. When d = 1, it is determined that the motion of the moving object is that of a person. On the other hand, if z (k) <Th, d = 0. When d = 0, it is determined that the motion of the moving object is not the motion of the person.

判別部250は、判別結果値dの値を、外部装置や判別装置20に含まれる不図示の記憶部等に出力する。また、判別部250は、判別結果値dに代えて、または判別結果値dとともに、評価値z(k)を出力してもよい。例えば、判別装置20の較正において、後述する調整部260により調整される感度閾値Thの適正値を較正する際に、実際の評価値z(k)の値と動体の動きとを検証するために、評価値z(k)の値が出力され得る。   The determination unit 250 outputs the value of the determination result value d to an external device or a storage unit (not shown) included in the determination device 20. Further, the determination unit 250 may output the evaluation value z (k) instead of the determination result value d or together with the determination result value d. For example, when the appropriate value of the sensitivity threshold Th adjusted by the adjusting unit 260 described later is calibrated in the calibration of the determination device 20, in order to verify the actual evaluation value z (k) and the motion of the moving object. The value of the evaluation value z (k) can be output.

(調整部)
調整部260は、判別部250による動体の動きの判別のために、動体の動きに対応する評価値と比較される感度閾値Thを調整する。調整部260は、不図示の入力部または通信部を介して、感度閾値Thを調整する。感度閾値Thの対象となる評価値z(k)は、上記式(9)により示される判別関数により得られる連続値である。上記判別関数は、回帰学習モデルに含まれるサポートベクタ行列s、重みベクトルc、および閾値bにより構成される連続関数である。つまり、回帰学習モデルは、個々のシナリオに基づいて生成された連続関数を構成する。そのため、例えば、センサ2により検出される信号が複数の外乱が混在する信号であったとしても、上記判別関数により、個々のシナリオに対応する信号の特徴を反映させた、一次元の評価値が出力される。したがって、調整部260は、感度閾値Thを任意の値に設定するだけで、複数の外乱が存在する環境における動体の動きの判別に対する感度を調整することができる。
(Adjustment part)
The adjustment unit 260 adjusts the sensitivity threshold Th that is compared with the evaluation value corresponding to the movement of the moving object in order for the determination unit 250 to determine the movement of the moving object. The adjustment unit 260 adjusts the sensitivity threshold Th via an input unit or a communication unit (not shown). The evaluation value z (k) that is the target of the sensitivity threshold Th is a continuous value obtained by the discriminant function represented by the above equation (9). The discriminant function is a continuous function including a support vector matrix s, a weight vector c, and a threshold value b included in the regression learning model. That is, the regression learning model constitutes a continuous function generated based on each scenario. Therefore, for example, even if the signal detected by the sensor 2 is a signal in which a plurality of disturbances are mixed, the one-dimensional evaluation value reflecting the characteristics of the signal corresponding to each scenario is obtained by the discriminant function. Is output. Therefore, the adjustment unit 260 can adjust the sensitivity to the determination of the movement of the moving object in an environment in which a plurality of disturbances exist only by setting the sensitivity threshold Th to an arbitrary value.

調整部260は、上記の判別関数により出力される評価値z(k)が取り得る値の範囲内において、任意の値を感度閾値Thとして設定する。感度閾値Thの値は、連続的に変化してもよいが、離散的に変化してもよい。例えば、調整部260は、感度閾値Thの値を段階的に調整してもよい。これにより、判別装置20を用いるユーザは、感度閾値Thの値の調整を容易に行うことができる。感度閾値Thの初期値として、予め所定の値が設定されてもよいし、判別装置20が用いられる環境に応じた値が設定されてもよい。また、感度閾値Thの値の調整は、判別装置20を用いるユーザによりマニュアルで設定されてもよいが、ロジスティック回帰分析や線形判別分析等の統計的手法を用いることにより、最適な感度閾値Thの値が設定されてもよい。設定された感度閾値Thの値は、判別部250に出力される。   The adjustment unit 260 sets an arbitrary value as the sensitivity threshold Th within a range of values that can be taken by the evaluation value z (k) output by the discriminant function. The value of the sensitivity threshold Th may change continuously, but may change discretely. For example, the adjustment unit 260 may adjust the value of the sensitivity threshold Th in a stepwise manner. As a result, the user using the determination device 20 can easily adjust the value of the sensitivity threshold Th. As the initial value of the sensitivity threshold Th, a predetermined value may be set in advance, or a value corresponding to the environment in which the determination device 20 is used may be set. Further, the adjustment of the value of the sensitivity threshold Th may be manually set by a user using the discriminating device 20, but by using a statistical method such as logistic regression analysis or linear discriminant analysis, the optimum sensitivity threshold Th can be set. A value may be set. The set sensitivity threshold value Th is output to the determination unit 250.

(2)動作
図9は、本発明の第1の実施形態に係る判別装置20の動作例を示すフローチャートである。まず、信号取得部210は、センサ2が検出した動体の動きに由来する信号を信号データとして取得する(S301)。信号取得部210は、取得した信号データを信号DB211、またはフィルタ部220に出力する。
(2) Operation FIG. 9 is a flowchart showing an operation example of the determination apparatus 20 according to the first embodiment of the present invention. First, the signal acquisition unit 210 acquires a signal derived from the motion of the moving object detected by the sensor 2 as signal data (S301). The signal acquisition unit 210 outputs the acquired signal data to the signal DB 211 or the filter unit 220.

次に、フィルタ部220は、取得した信号データについてLPF処理を実施する(S303)。LPF処理が実施された信号データは、特徴量算出部230に出力される。特徴量算出部230は、LPF処理後の信号データについて、特徴量を算出する(S305)。次に、特徴量算出部230は、算出した一または複数の特徴量により構成される特徴ベクトルを生成する(S307)。生成された特徴ベクトルを含むデータは、評価値算出部240に出力される。   Next, the filter unit 220 performs LPF processing on the acquired signal data (S303). The signal data subjected to the LPF process is output to the feature amount calculation unit 230. The feature amount calculation unit 230 calculates a feature amount for the signal data after the LPF processing (S305). Next, the feature amount calculation unit 230 generates a feature vector including the calculated one or more feature amounts (S307). Data including the generated feature vector is output to the evaluation value calculation unit 240.

評価値算出部240は、取得した特徴ベクトルと、回帰学習モデルDB241に記憶されている一の回帰学習モデルを用いて、上記動体の動きに対応する評価値を算出する(S309)。次に、判別部250は、評価値と、調整部260により調整された感度閾値との大小を比較することにより、動体の動きについて判別する(S311)。そして、判別部250は、判別結果を外部装置、または記憶部等に出力する(S313)。   The evaluation value calculation unit 240 calculates an evaluation value corresponding to the motion of the moving object using the acquired feature vector and one regression learning model stored in the regression learning model DB 241 (S309). Next, the determination unit 250 determines the movement of the moving object by comparing the evaluation value with the sensitivity threshold adjusted by the adjustment unit 260 (S311). Then, the determination unit 250 outputs the determination result to an external device or a storage unit (S313).

[2.3.効果]
ここまで、図1〜図9を用いて、本発明の第1の実施形態について説明した。本発明の第1の実施形態によれば、モデル生成装置10は、複数の所定の動きの特徴量と所定の動きに対応する評価値とを組とする複数のデータに基づいて、SVR等による回帰学習モデルを生成する。そして、判別装置20は、モデル生成装置10により生成された回帰学習モデルを用いて、センサ2により検出された動体の動きについて判別を行う。回帰学習モデルは、連続的な関数である判別関数を構成し、判別装置20は、判別関数を用いて、動体の動きに対応する一次元の評価値を算出する。そして、判別装置20は、評価値と任意の値に調整可能な感度閾値とを比較することにより、動体の動きについて判別する。かかる構成において、複数の所定の動きを反映させた回帰学習モデルを用いることにより、センサ2により検出された動体の動きに付随する様々な外乱が信号に含まれる場合であっても、判別装置20は、それらの外乱の種類に依存せず、自由に感度閾値を設定することができる。これにより、動体の動きの判別に係る感度を、より細かく調整することができる。したがって、例えば、感度補正手段の対象とはなっていない外乱や、複数の外乱の混在など、従来では判別し得なかった外乱が含まれる信号についても、判別のための感度調整を行うことができる。よって、動体の動きの判別精度をより向上させることができる。
[2.3. effect]
Up to this point, the first embodiment of the present invention has been described with reference to FIGS. According to the first embodiment of the present invention, the model generation device 10 uses SVR or the like based on a plurality of data including a plurality of predetermined motion feature quantities and evaluation values corresponding to the predetermined motion. Generate a regression learning model. Then, the determination device 20 determines the motion of the moving object detected by the sensor 2 using the regression learning model generated by the model generation device 10. The regression learning model constitutes a discriminant function that is a continuous function, and the discriminator 20 calculates a one-dimensional evaluation value corresponding to the motion of the moving object using the discriminant function. Then, the determination device 20 determines the movement of the moving object by comparing the evaluation value with a sensitivity threshold that can be adjusted to an arbitrary value. In such a configuration, by using a regression learning model in which a plurality of predetermined movements are reflected, even when various disturbances accompanying the movement of the moving object detected by the sensor 2 are included in the signal, the determination device 20 Can set the sensitivity threshold freely without depending on the type of the disturbance. Thereby, it is possible to finely adjust the sensitivity related to the determination of the movement of the moving object. Therefore, for example, it is possible to perform sensitivity adjustment for discrimination even for signals including disturbances that have not been conventionally discriminated, such as disturbances that are not targeted by the sensitivity correction means, or a mixture of a plurality of disturbances. . Therefore, it is possible to further improve the determination accuracy of the motion of the moving object.

<3.第2の実施形態>
続いて、本発明の第2の実施形態について説明する。本実施形態では、モデル生成装置10に含まれる評価値生成部140が、各シナリオに対応する評価値を適正に決定する機能を有する。本発明の第1の実施形態においては、シナリオ毎に予め所定の値が割り振られていたが、この所定の値は、モデル生成装置10のユーザ等の主観や経験により決定される値であった。そのため、回帰学習モデルを生成するにあたって、これらの評価値は必ずしも最適なモデルを生成するものではない。そこで、本実施形態に係る評価値生成部140は、複数の所定の動きに由来する信号データを含む複数のデータリストを用意し、各データリストごとに複数の参考回帰学習モデルを生成し、各参考回帰学習モデルを用いて、参考回帰学習モデルの生成に用いられた全てのデータリストについて判別処理を行う。そして、評価値生成部140は、各参考回帰学習モデルを用いて得られた判別結果について比較を行い、その比較結果に基づいて適正な評価値を決定する。これにより、所定の動きに対する評価値を、ユーザ等の主観を排し、機械的に決定することができる。したがって、モデル生成装置10による回帰学習モデルの質が向上し、判別装置20による判別結果の精度をさらに向上させることができる。以下、第2の実施形態に係るモデル生成装置10、および評価値生成部140について説明する。
<3. Second Embodiment>
Subsequently, a second embodiment of the present invention will be described. In the present embodiment, the evaluation value generation unit 140 included in the model generation device 10 has a function of appropriately determining an evaluation value corresponding to each scenario. In the first embodiment of the present invention, a predetermined value is assigned in advance for each scenario, but this predetermined value is a value determined by subjectivity or experience of the user of the model generation device 10 or the like. . Therefore, in generating a regression learning model, these evaluation values do not necessarily generate an optimal model. Therefore, the evaluation value generation unit 140 according to the present embodiment prepares a plurality of data lists including signal data derived from a plurality of predetermined movements, generates a plurality of reference regression learning models for each data list, Using the reference regression learning model, discrimination processing is performed for all data lists used to generate the reference regression learning model. Then, the evaluation value generation unit 140 compares the discrimination results obtained using each reference regression learning model, and determines an appropriate evaluation value based on the comparison results. As a result, the evaluation value for the predetermined movement can be mechanically determined without subjecting the user or the like. Therefore, the quality of the regression learning model by the model generation device 10 is improved, and the accuracy of the discrimination result by the discrimination device 20 can be further improved. Hereinafter, the model generation device 10 and the evaluation value generation unit 140 according to the second embodiment will be described.

[3.1.モデル生成装置]
(1)構成
図10は、本発明の第2の実施形態に係るモデル生成装置10の構成例を示すブロック図である。図10を参照すると、モデル生成装置10は、信号取得部110、信号DB111、フィルタ部120、特徴量算出部130、特徴量DB131、評価値生成部140、評価値DB141、モデル生成部150、および回帰学習モデルDB151を備える。本実施形態に係る信号取得部110、信号DB111、フィルタ部120、特徴量算出部130、評価値DB141、モデル生成部150、および回帰学習モデルDB151は、第1の実施形態に係る各構成要素と同一の機能を有するので、説明を省略する。特徴量DB131は、特徴量算出部130により算出された信号データの特徴量を含むデータを、信号DB111に記憶されているデータセットにひも付けて記憶するデータベースである。特徴量DB131については、詳しくは後述する。以下、評価値生成部140の構成等について説明する。
[3.1. Model generator]
(1) Configuration FIG. 10 is a block diagram illustrating a configuration example of the model generation device 10 according to the second embodiment of the present invention. Referring to FIG. 10, the model generation apparatus 10 includes a signal acquisition unit 110, a signal DB 111, a filter unit 120, a feature amount calculation unit 130, a feature amount DB 131, an evaluation value generation unit 140, an evaluation value DB 141, a model generation unit 150, and A regression learning model DB 151 is provided. The signal acquisition unit 110, the signal DB 111, the filter unit 120, the feature amount calculation unit 130, the evaluation value DB 141, the model generation unit 150, and the regression learning model DB 151 according to the present embodiment are the same as the components according to the first embodiment. Since it has the same function, description is abbreviate | omitted. The feature amount DB 131 is a database that stores data including the feature amount of the signal data calculated by the feature amount calculation unit 130 in association with the data set stored in the signal DB 111. The feature amount DB 131 will be described later in detail. Hereinafter, the configuration and the like of the evaluation value generation unit 140 will be described.

[3.2.評価値生成部]
(1)構成
図11は、評価値生成部140および評価値生成部140において用いられる各種データを格納するデータベースの構成例を示すブロック図である。図11を参照すると、評価値生成部140は、参考モデル生成部410、判別検証部420、および評価値決定部430を含む。
[3.2. Evaluation value generator]
(1) Configuration FIG. 11 is a block diagram illustrating a configuration example of a database storing various data used in the evaluation value generation unit 140 and the evaluation value generation unit 140. Referring to FIG. 11, the evaluation value generation unit 140 includes a reference model generation unit 410, a discrimination verification unit 420, and an evaluation value determination unit 430.

(参考モデル生成部)
参考モデル生成部410は、特徴量DB131に格納されている複数のデータリストに含まれる特徴量(特徴ベクトル)と、参考評価値DB151に格納されている、上記複数のデータリストの各々に対応する参考評価値リストに含まれる参考評価値を用いて、参考回帰学習モデルを生成する。参考回帰学習モデルとは、複数のデータリストの各々に含まれる特徴量と、参考評価値との組による複数のデータセットを用いて生成される回帰学習モデルである。本実施形態においては、データリストは2種類(データリスト1(外乱なし)、データリスト2(外乱あり))用意される。そのため、参考回帰学習モデルについて、データリスト1に対応するモデルと、データリスト2に対応するモデルの、2種類のモデルが生成される。なお、本実施形態においては、2種類の参考回帰学習モデルが生成されるが、本発明はかかる例に限定されず、3種類以上のデータリストを用いて、上記データリストにそれぞれ応じた参考回帰学習モデルが生成されてもよい。
(Reference model generator)
The reference model generation unit 410 corresponds to each of the feature amounts (feature vectors) included in the plurality of data lists stored in the feature amount DB 131 and each of the plurality of data lists stored in the reference evaluation value DB 151. A reference regression learning model is generated using the reference evaluation values included in the reference evaluation value list. The reference regression learning model is a regression learning model that is generated using a plurality of data sets including a combination of a feature amount included in each of a plurality of data lists and a reference evaluation value. In this embodiment, two types of data lists (data list 1 (without disturbance) and data list 2 (with disturbance)) are prepared. Therefore, two types of models are generated for the reference regression learning model: a model corresponding to the data list 1 and a model corresponding to the data list 2. In the present embodiment, two types of reference regression learning models are generated. However, the present invention is not limited to this example, and three or more types of data lists are used, and reference regressions corresponding to the data lists are used. A learning model may be generated.

上記複数のデータリストの構成はそれぞれ異なる。図12および図13は、特徴量DB131に格納されているデータリスト1(外乱なし)3000、およびデータリスト2(外乱あり)4000の一例を示す図である。図12および図13を参照すると、各々のデータリストは、ID、属性、シナリオ、信号データを含む信号データファイル、および特徴量データを含む特徴量データファイルを含むデータセットにより構成される。なお、特徴量データファイルに含まれる特徴量データは、予め特徴量算出部130により算出された、所定の動きの特徴量を含む。ここで、データリスト1には、属性が「無人(外乱なし)」、および「有人」のデータセットが含まれている。一方で、データリスト2には、属性が「無人(外乱なし)」、「無人(外乱あり)」、および「有人」のデータセットが含まれている。なお、データリスト1、およびデータリスト2には同一の属性およびシナリオのデータセットが含まれているが、各データセットに含まれる信号データは必ずしも同一でなくてもよい。また、同一内容のシナリオについて、複数の信号データが含まれていてもよい。   Each of the plurality of data lists has a different configuration. FIGS. 12 and 13 are diagrams showing examples of data list 1 (without disturbance) 3000 and data list 2 (with disturbance) 4000 stored in the feature amount DB 131. Referring to FIG. 12 and FIG. 13, each data list includes an ID, an attribute, a scenario, a signal data file including signal data, and a data set including a feature data file including feature data. Note that the feature amount data included in the feature amount data file includes a feature amount of a predetermined motion calculated by the feature amount calculation unit 130 in advance. Here, the data list 1 includes data sets whose attributes are “unmanned (no disturbance)” and “manned”. On the other hand, the data list 2 includes data sets whose attributes are “unmanned (no disturbance)”, “unmanned (with disturbance)”, and “manned”. The data list 1 and the data list 2 include data sets having the same attribute and scenario, but the signal data included in each data set may not necessarily be the same. A plurality of signal data may be included for the scenario having the same content.

図14および図15は、参考評価値DB151に格納されている参考評価値リスト1(外乱なし)5000、および参考評価値リスト2(外乱あり)の6000の構成を示す図である。図14および図15を参照すると、各々のデータリストは、ID、属性、シナリオ、および参考評価値を含むデータセットにより構成される。上記のデータリスト1およびデータリスト2と同様に、参考評価値リスト1には属性が「無人(外乱あり)」のデータセットが含まれていない一方で、参考評価値リスト2には属性が「無人(外乱あり)」のデータセットが含まれる。また、これらの参考評価値リストにおいて、属性が「無人」であるデータセットの参考評価値は0に設定され、属性が「有人」であるデータセットの参考評価値は1に設定される。データリスト1は参考評価値リスト1と対応しており、データリスト2は参考評価値リスト2と対応している。   FIG. 14 and FIG. 15 are diagrams showing the configurations of reference evaluation value list 1 (without disturbance) 5000 and reference evaluation value list 2 (with disturbance) 6000 stored in reference evaluation value DB 151. Referring to FIGS. 14 and 15, each data list is constituted by a data set including an ID, an attribute, a scenario, and a reference evaluation value. Similarly to the data list 1 and the data list 2 described above, the reference evaluation value list 1 does not include the data set having the attribute “unmanned (with disturbance)”, while the reference evaluation value list 2 has the attribute “ A data set of “Unattended (with disturbance)” is included. In these reference evaluation value lists, the reference evaluation value of the data set having the attribute “unmanned” is set to 0, and the reference evaluation value of the data set having the attribute “manned” is set to 1. The data list 1 corresponds to the reference evaluation value list 1, and the data list 2 corresponds to the reference evaluation value list 2.

データリスト1(および参考評価値リスト1)は、属性「無人(外乱あり)」のデータセットを含まない。そのため、データリスト1および参考評価値リスト1を用いて生成された参考回帰学習モデル(参考回帰学習モデル1と呼称する)を判別処理に適用させた場合、データリスト2および参考評価値リスト2を用いて生成された参考回帰学習モデル(参考回帰学習モデル2と呼称する)を判別処理に適用させた場合と比較して、人物以外の動きを人物の動きとして判別する確率が高くなると考えられる。一方で、参考評価値リスト2において属性「無人(外乱あり)」の参考評価値は0に設定されている。そのため、参考回帰学習モデル2を判別処理に適用させた場合、参考回帰学習モデル1を判別処理に適用させた場合と比較して、人物の動きを人物以外の動きとして判別する確率が高くなると考えられる。そこで、本実施形態に係る評価値生成部140は、参考回帰学習モデル間での判別結果の差異に応じて、全てのシナリオに対応する評価値を決定する。これにより、判別精度を向上させることが可能となる回帰学習モデルを生成することが可能となる。   The data list 1 (and the reference evaluation value list 1) does not include a data set of the attribute “unmanned (with disturbance)”. Therefore, when the reference regression learning model (referred to as reference regression learning model 1) generated using the data list 1 and the reference evaluation value list 1 is applied to the discrimination process, the data list 2 and the reference evaluation value list 2 are Compared with the case where the reference regression learning model (referred to as reference regression learning model 2) generated using the above is applied to the discrimination process, it is considered that the probability of discriminating a motion other than a person as a person's motion is increased. On the other hand, in the reference evaluation value list 2, the reference evaluation value of the attribute “unmanned (with disturbance)” is set to zero. Therefore, when the reference regression learning model 2 is applied to the discrimination process, the probability of discriminating a person's movement as a movement other than a person is higher than when the reference regression learning model 1 is applied to the discrimination process. It is done. Therefore, the evaluation value generation unit 140 according to the present embodiment determines evaluation values corresponding to all scenarios according to the difference in the discrimination results between the reference regression learning models. This makes it possible to generate a regression learning model that can improve discrimination accuracy.

参考モデル生成部410は、参考回帰学習モデル1および参考回帰学習モデル2を生成し、これらの参考回帰学習モデルを参考モデルDB161に格納する。   The reference model generation unit 410 generates a reference regression learning model 1 and a reference regression learning model 2, and stores these reference regression learning models in the reference model DB 161.

(判別検証部)
判別検証部420は、特徴量DB131に格納されているうちの、参考回帰学習モデルの生成に用いられた全てのデータリストに含まれる特徴量について、参考モデルDB161に格納されている参考回帰学習モデルの各々を用いて判別処理を行い、参考回帰学習モデル毎の判別結果について検証し、その検証結果に基づいて各シナリオに対応する評価値を決定する。具体的には、判別検証部420は、まず、データリスト1およびデータリスト2に含まれている全ての特徴量データから特徴量を取得する。そして、判別検証部420は、各々の特徴量について、参考回帰学習モデル1、および参考回帰学習モデル2を用いて、特定の動体の動きの有無(ここでは、人物の存在の有無)を判別する。判別検証部420は、人物の存在の有無の判別結果(無人率)について、各参考回帰学習モデル間における差を比較する。そして、判別検証部420は、上記差に基づいて、各シナリオに対応する評価値を決定する。以下、判別検証部420における処理について、順に説明する。
(Discriminant verification unit)
The discriminating / verifying unit 420 stores the reference regression learning model stored in the reference model DB 161 for the feature amounts included in all the data lists used for generating the reference regression learning model stored in the feature amount DB 131. Each of these is subjected to a discrimination process, the discrimination result for each reference regression learning model is verified, and an evaluation value corresponding to each scenario is determined based on the verification result. Specifically, the discrimination verification unit 420 first acquires feature amounts from all feature amount data included in the data list 1 and the data list 2. And the discrimination | determination verification part 420 discriminate | determines the presence or absence (here presence or absence of a person) of a specific moving body about each feature-value using the reference regression learning model 1 and the reference regression learning model 2. . The discrimination verification unit 420 compares the difference between the reference regression learning models with respect to the discrimination result (unmanned rate) of the presence or absence of a person. Then, the discrimination verification unit 420 determines an evaluation value corresponding to each scenario based on the difference. Hereinafter, processing in the discrimination verification unit 420 will be described in order.

まず、判別検証部420は、参考回帰学習モデルの生成に用いられた全てのデータリストに含まれている特徴量について、参考回帰学習モデルの各々を用いて判別処理を行う。判別検証部420による判別処理は、第1の実施形態に係る判別装置20の評価値算出部240、および判別部250による処理と同様の処理である。例えば、参考モデル生成部410により生成された一の参考回帰学習モデルが、以下のサポートベクタ行列s’、重みベクトルc’、および閾値b’によって構成されているとする。具体的には、サポートベクタ行列s’は下記式(11)で示す行列により定義され、重みベクトルc’は下記式(12)で示すベクトルにより定義される。また、閾値b’は一意に定まる値である。   First, the discrimination verification unit 420 performs discrimination processing on each feature amount included in all data lists used for generating the reference regression learning model using each of the reference regression learning models. The discrimination processing by the discrimination verification unit 420 is the same processing as the processing by the evaluation value calculation unit 240 and the discrimination unit 250 of the discrimination device 20 according to the first embodiment. For example, it is assumed that one reference regression learning model generated by the reference model generation unit 410 includes the following support vector matrix s ′, weight vector c ′, and threshold value b ′. Specifically, the support vector matrix s ′ is defined by a matrix represented by the following formula (11), and the weight vector c ′ is defined by a vector represented by the following formula (12). The threshold value b 'is a value that is uniquely determined.

Figure 2017026475
Figure 2017026475

Figure 2017026475
Figure 2017026475

また、第1の実施形態と同様に、特徴空間および評価値により構成されるデータについて、カーネルトリックを用いて非線形空間に写像することにより、回帰学習モデルを生成することも可能である。本実施形態においては、カーネルトリックとして、下記式(13)で示すガウシアン型カーネルが用いられてもよい。   Similarly to the first embodiment, it is also possible to generate a regression learning model by mapping data composed of a feature space and an evaluation value to a nonlinear space using a kernel trick. In the present embodiment, a Gaussian kernel represented by the following formula (13) may be used as a kernel trick.

Figure 2017026475
Figure 2017026475

ここで、全てのデータリストに含まれているシナリオの数をMとし、m番目のシナリオに対応する特徴ベクトルをF(k)とする。判別検証部420は、下記式(14)に示される判別関数に特徴ベクトルF(k)を代入することにより得られる出力値z(k)の値を、評価値として算出する。 Here, the number of scenarios included in all data lists is M, and the feature vector corresponding to the m-th scenario is F m (k). The discriminating / verifying unit 420 calculates the value of the output value z m (k) obtained by substituting the feature vector F m (k) into the discriminant function represented by the following formula (14) as an evaluation value.

Figure 2017026475
Figure 2017026475

ただし、xi,kの値は下記式(15)により与えられる。ここで、Vおよびfは、上記式(11)で示されるサポートベクタ行列sのi成分の値である。 However, the values of x i, k are given by the following equation (15). Here, V i and f i are values of the i component of the support vector matrix s expressed by the above equation (11).

Figure 2017026475
Figure 2017026475

次に、判別検証部420は、上記式(14)で得られた評価値z(k)に基づいて、m番目のシナリオが人体の動きか否かを判別する。より具体的には、判別検証部420は、評価値z(k)が0以上であるか否かに基づいて、m番目のシナリオが人体の動きか否かを判別する。ここで、人体の動きであるか否かを示す判別結果値をdとすると、以下の比較式に基づいて、判別結果値をdの値が決定される。まず、z(k)≧0の場合、d=1となる。d=1の場合、m番目のシナリオは人物の動きであると判別される。一方、z(k)<0の場合、d=0となる。d=0の場合、m番目のシナリオは人物の動きではないと判別される。 Next, the discrimination verifying unit 420 discriminates whether or not the mth scenario is a human body movement based on the evaluation value z m (k) obtained by the above equation (14). More specifically, the discrimination verifying unit 420 discriminates whether or not the m-th scenario is a human motion based on whether or not the evaluation value z m (k) is 0 or more. Here, if the determination result value indicating whether a human body motion and d m, based on the following comparison expression, the discrimination result value the value of d m are determined. First, when z m (k) ≧ 0, d m = 1. When d m = 1, it is determined that the m-th scenario is a person's movement. On the other hand, when z m (k) <0, d m = 0. When d m = 0, it is determined that the m-th scenario is not a person's movement.

判別検証部420は、全てのデータリストに含まれるすべてのシナリオについてdを算出する。そして、判別検証部420は、下記式(16)に従って、無人率eval[%]を算出する。 Determination verification section 420 calculates a d m for all scenarios included in all data lists. Then, the discrimination verifying unit 420 calculates the unmanned rate eval [%] according to the following equation (16).

Figure 2017026475
Figure 2017026475

判別検証部420は、上記の判別処理、および無人率(eval)算出処理を、参考モデル生成部410により生成された複数の参考回帰学習モデルごとに実施する。本実施形態においては、判別検証部420は、参考回帰学習モデル1、および参考回帰学習モデル2の各々を用いて全てのシナリオについて判別処理を実施し、判別結果に基づいて無人率算出処理を実施する。そして、判別検証部420は、無人率の算出結果を評価値決定部430に出力する。   The discrimination verification unit 420 performs the discrimination process and the unmanned rate (eval) calculation process for each of the plurality of reference regression learning models generated by the reference model generation unit 410. In the present embodiment, the discrimination verification unit 420 performs discrimination processing for all scenarios using each of the reference regression learning model 1 and the reference regression learning model 2, and performs unmanned rate calculation processing based on the discrimination result. To do. Then, the discrimination verification unit 420 outputs the calculation result of the unmanned rate to the evaluation value determination unit 430.

(評価値決定部)
評価値決定部430は、判別検証部420から取得した判別結果に基づいて、回帰学習モデルの生成処理に用いられる評価値を決定する。より具体的には、評価値決定部430は、判別検証部420から取得した無人率の参考回帰学習モデルごとの差に基づいて、評価値を決定する。以下、評価値決定部430による評価値決定処理について、図16を参照しながら説明する。
(Evaluation value decision part)
The evaluation value determination unit 430 determines an evaluation value used for the generation process of the regression learning model based on the determination result acquired from the determination verification unit 420. More specifically, the evaluation value determination unit 430 determines an evaluation value based on the difference of the unattended rate for each reference regression learning model acquired from the discrimination verification unit 420. Hereinafter, the evaluation value determination process by the evaluation value determination unit 430 will be described with reference to FIG.

図16は、評価値決定部430による評価値決定処理について説明するための図である。図16を参照すると、データリスト7000には、シナリオに対応するID、参考評価値、参考回帰学習モデル1での無人率、参考回帰学習モデル2での無人率、無人率の差、および評価値が含まれている。参考評価値は、参考評価値DB151に予め格納されている仮の評価値であり、属性が「無人」のシナリオは0に、また、属性が「有人」のシナリオは1に設定されている。参考回帰学習モデル1での無人率、および参考回帰学習モデル2での無人率は、各参考回帰学習モデルを用いて算出された無人率である。例えば、ID1001(属性「無人(外乱なし)」、シナリオ「なし」)では、両者とも無人率が100%を示している。この場合、評価値決定部430は、予め参考評価値として与えていた値(1)を、評価値として決定する。一方で、ID1004(属性「有人」、シナリオ「座る」)では、参考回帰学習モデル1での無人率は50%を示しているが、参考回帰学習モデル2での無人率は90%を示している。このように、シナリオによっては、算出される無人率が参考回帰学習モデルによって異なっている。そのため、判別が客観的に困難であるシナリオについて、想定する判別結果とは異なる結果を出力しないように評価値を決定する必要がある。   FIG. 16 is a diagram for describing the evaluation value determination process by the evaluation value determination unit 430. Referring to FIG. 16, the data list 7000 includes an ID corresponding to a scenario, a reference evaluation value, an unmanned rate in the reference regression learning model 1, an unattended rate in the reference regression learning model 2, a difference in unattended rate, and an evaluation value. It is included. The reference evaluation value is a temporary evaluation value stored in advance in the reference evaluation value DB 151, and the scenario with the attribute “unmanned” is set to 0, and the scenario with the attribute “manned” is set to 1. The unattended rate in the reference regression learning model 1 and the unattended rate in the reference regression learning model 2 are unattended rates calculated using each reference regression learning model. For example, in ID 1001 (attribute “unmanned (no disturbance)”, scenario “none”), the unmanned rate is 100% in both cases. In this case, the evaluation value determination unit 430 determines the value (1) given as the reference evaluation value in advance as the evaluation value. On the other hand, in the ID 1004 (attribute “manned”, scenario “sit”), the unattended rate in the reference regression learning model 1 shows 50%, but the unattended rate in the reference regression learning model 2 shows 90%. Yes. Thus, depending on the scenario, the calculated unmanned rate varies depending on the reference regression learning model. For this reason, it is necessary to determine an evaluation value so as not to output a result different from an assumed determination result for a scenario in which the determination is objectively difficult.

図17は、各参考回帰学習モデルにより算出された無人率の分布を示すグラフである。図17のグラフにおいて、○はデータリスト1に含まれる属性「無人」を含むシナリオの無人率、□はデータリスト1に含まれる属性「有人」を含むシナリオの無人率、×はデータリスト2に含まれる属性「無人」を含むシナリオの無人率、および、△はデータリスト2に含まれる属性「有人」を含むシナリオの無人率である。図17に示したように、○や△は、参考回帰学習モデルによる無人率の差は小さいが、□や×など、参考回帰学習モデルによって無人率の差が大きくなる場合も存在する。そのため、評価値決定部430は、無人率の差が大きくなる場合には、参考回帰学習モデルの違いによる影響を抑えるため、中間的な値として、評価値の値を0.5と決定する。一方で、無人率の差が小さい場合には、参考回帰学習モデルの違いによる影響が小さいと考えられるので、参考評価値として与えていた値をそのまま評価値として決定する。このように、無人率の差に応じて評価値を柔軟に変更することにより、主観を排した回帰学習モデルを生成することが可能となる。   FIG. 17 is a graph showing the unattended rate distribution calculated by each reference regression learning model. In the graph of FIG. 17, ○ is an unattended rate of a scenario including the attribute “unmanned” included in the data list 1, □ is an unattended rate of a scenario including the attribute “manned” included in the data list 1, and × is in the data list 2 The unattended rate of the scenario including the attribute “Unmanned” included, and Δ are the unattended rate of the scenario including the attribute “Manned” included in the data list 2. As shown in FIG. 17, ◯ and Δ are small in the difference in unattended rate by the reference regression learning model, but there are cases in which the difference in unattended rate is large by the reference regression learning model, such as □ and ×. Therefore, the evaluation value determination unit 430 determines the evaluation value as 0.5 as an intermediate value in order to suppress the influence due to the difference in the reference regression learning model when the difference in the unattended rate increases. On the other hand, when the difference in the unattended rate is small, it is considered that the influence due to the difference in the reference regression learning model is small. Therefore, the value given as the reference evaluation value is determined as it is as the evaluation value. In this way, it is possible to generate a regression learning model that excludes subjectivity by flexibly changing the evaluation value according to the difference in the unattended rate.

図16を再度参照すると、評価値決定部430は、上記の無人率の差に基づいて、全てのシナリオに対して評価値の値を決定する。例えば、評価値決定部430は、参考回帰学習モデル1と参考回帰学習モデル2との同一のシナリオに対する無人率の差が所定の閾値Th以上である場合に、評価値を0.5と決定する。本実施形態では、所定の閾値Thは20%とする。無人率の差が20%以上である場合、評価値決定部430は、上記シナリオに対して評価値を0.5と決定する。一方で、無人率の差が20%を下回る場合、評価値決定部430は、参考評価値として与えていた値を評価値として決定する。 Referring to FIG. 16 again, the evaluation value determination unit 430 determines evaluation value values for all scenarios based on the difference in the unattended rate. For example, the evaluation value determination unit 430 determines the evaluation value as 0.5 when the difference in the unattended rate for the same scenario between the reference regression learning model 1 and the reference regression learning model 2 is equal to or greater than a predetermined threshold Th a. To do. In the present embodiment, the predetermined threshold value Th a is 20%. When the difference in the unattended rate is 20% or more, the evaluation value determination unit 430 determines the evaluation value as 0.5 for the scenario. On the other hand, when the unmanned rate difference is less than 20%, the evaluation value determining unit 430 determines the value given as the reference evaluation value as the evaluation value.

なお、所定の閾値Thの値は、回帰学習モデルの精度の調整のために自由に変更され得る。また、本実施形態においては、所定の閾値Thにより3値の評価値が設定されるが、所定の閾値の数は複数であってもよい。また、無人率の差が大きい場合に評価値の中間値として0.5が設定されたが、中間値としての値については特に限定されない。例えば、上記のように所定の閾値が複数ある場合には、中間値として、閾値により設定される段階数に応じて種々の値が設定され得る。また、例えば、評価値決定部430により決定される評価値の値は、算出された無人率evalの値や統計量等に基づいて決定されてもよい。例えば、一のシナリオに対応する評価値の値は、複数の参考回帰学習モデルを用いて算出された無人率の平均値に応じた値であってもよい。 Note that the value of the predetermined threshold Th a can be freely changed in order to adjust the accuracy of the regression learning model. In the present embodiment, the three evaluation values are set by the predetermined threshold value Th a , but the number of the predetermined threshold values may be plural. Moreover, although 0.5 was set as the intermediate value of the evaluation values when the difference in the unattended rate is large, the value as the intermediate value is not particularly limited. For example, when there are a plurality of predetermined thresholds as described above, various values can be set as intermediate values according to the number of steps set by the thresholds. Further, for example, the value of the evaluation value determined by the evaluation value determination unit 430 may be determined based on the calculated unmanned rate eval value, a statistic, or the like. For example, the value of the evaluation value corresponding to one scenario may be a value corresponding to the average value of the unmanned rate calculated using a plurality of reference regression learning models.

評価値生成部140は、評価値決定部430により決定された評価値の値を含む評価値リストを、評価値DB141に出力する。   The evaluation value generation unit 140 outputs an evaluation value list including the value of the evaluation value determined by the evaluation value determination unit 430 to the evaluation value DB 141.

(2)動作
図18は、本発明の第2の実施形態に係る評価値生成部140の処理フローを示すフローチャートである。図18を参照すると、評価値生成部140は、まず参考モデル生成部410により各データリストに対応する参考回帰学習モデルを生成する(S400)。次に、評価値生成部140は、判別検証部420により各参考回帰学習モデルを用いた全シナリオに対する判別処理を行い、無人率を算出する(S500)。そして、評価値生成部140は、評価値決定部430により参考回帰学習モデル間の無人率の比較を行い、比較結果に応じた各シナリオの評価値を決定する(S600)。以下、上記の3つの処理について、順に説明する。
(2) Operation FIG. 18 is a flowchart showing a processing flow of the evaluation value generation unit 140 according to the second embodiment of the present invention. Referring to FIG. 18, the evaluation value generation unit 140 first generates a reference regression learning model corresponding to each data list by the reference model generation unit 410 (S400). Next, the evaluation value generation unit 140 performs discrimination processing for all scenarios using each reference regression learning model by the discrimination verification unit 420, and calculates an unmanned rate (S500). Then, the evaluation value generation unit 140 compares the unmanned rate between the reference regression learning models by the evaluation value determination unit 430, and determines the evaluation value of each scenario according to the comparison result (S600). Hereinafter, the above three processes will be described in order.

図19は、本発明の第2の実施形態に係る参考モデル生成部410の処理フローを示すフローチャートである。図19を参照すると、参考モデル生成部410は、まず一のデータリストを特徴量DB131より取得する(S401)。次に、参考モデル生成部410は、上記データリストに含まれている全てのシナリオに対応する特徴ベクトルを含む特徴量データを抽出する(S403)。また、参考モデル生成部410は、上記データリストに対応する参考評価値リストを参考評価値DB151より取得する(S405)。そして、参考モデル生成部410は、上記複数の特徴ベクトルからなる特徴空間と、参考評価値リストに含まれる参考評価値とを組とするデータに基づいて参考回帰学習モデルを生成する(S407)。参考モデル生成部410は、上述した処理を複数のデータリスト(および参考評価値リスト)に対して実施し、複数の参考回帰学習モデルを生成する。   FIG. 19 is a flowchart showing a process flow of the reference model generation unit 410 according to the second embodiment of the present invention. Referring to FIG. 19, the reference model generation unit 410 first acquires one data list from the feature amount DB 131 (S401). Next, the reference model generation unit 410 extracts feature amount data including feature vectors corresponding to all scenarios included in the data list (S403). Further, the reference model generation unit 410 acquires a reference evaluation value list corresponding to the data list from the reference evaluation value DB 151 (S405). Then, the reference model generation unit 410 generates a reference regression learning model based on data that is a combination of the feature space including the plurality of feature vectors and the reference evaluation value included in the reference evaluation value list (S407). The reference model generation unit 410 performs the above-described processing on a plurality of data lists (and a reference evaluation value list), and generates a plurality of reference regression learning models.

図20は、本発明の第2の実施形態に係る判別検証部420の処理フローを示すフローチャートである。図20を参照すると、判別検証部420は、まず特徴量DB131に格納されている全てのデータリストから、各シナリオの特徴ベクトルを抽出する(S501)。次に、判別検証部420は、抽出した特徴ベクトルを一の参考回帰学習モデルにより構成される判別関数に代入することにより評価値を算出し、判別結果を出力する(S503)。そして、判別検証部420は、全てのシナリオに対応する判別結果を用いて、無人率を算出する(S505)。判別検証部420は、参考回帰学習モデル1および参考回帰学習モデル2を用いて、各々のモデルにおける無人率を全てのシナリオについて算出する。   FIG. 20 is a flowchart showing a processing flow of the discrimination verifying unit 420 according to the second embodiment of the present invention. Referring to FIG. 20, the discrimination verification unit 420 first extracts feature vectors of each scenario from all data lists stored in the feature amount DB 131 (S501). Next, the discrimination verification unit 420 calculates an evaluation value by substituting the extracted feature vector into a discriminant function constituted by one reference regression learning model, and outputs a discrimination result (S503). Then, the discrimination verification unit 420 calculates the unmanned rate using discrimination results corresponding to all scenarios (S505). The discrimination verification unit 420 uses the reference regression learning model 1 and the reference regression learning model 2 to calculate the unattended rate in each model for all scenarios.

図21は、本発明の第2の実施形態に係る評価値決定部430の処理フローを示すフローチャートである。図21を参照すると、評価値決定部430は、まず一のシナリオに対応する参考評価値を参考評価値DB151から取得する(S601)。次に、評価値決定部430は、判別検証部420において算出された各参考回帰学習モデルにおける無人率を取得する(S603)。評価値決定部430は、取得した各々の無人率の差(diff)を算出し(S605)、上記無人率の差diffと所定の閾値Thとの大小を比較する(S607)。無人率の差diffが閾値Th以上である場合(S607/YES)、評価値決定部430は、上記シナリオに対応する評価値を0.5と決定する(S609)。一方で、無人率の差diffが閾値Thを下回る場合、評価値決定部430は、上記シナリオに対応する参考評価値の値を評価値として決定する(S611)。評価値決定部430は、上述した評価値決定処理を全てのシナリオに対して実施する。 FIG. 21 is a flowchart showing a process flow of the evaluation value determination unit 430 according to the second embodiment of the present invention. Referring to FIG. 21, the evaluation value determining unit 430 first acquires a reference evaluation value corresponding to one scenario from the reference evaluation value DB 151 (S601). Next, the evaluation value determination unit 430 acquires the unmanned rate in each reference regression learning model calculated by the discrimination verification unit 420 (S603). The evaluation value determination unit 430 calculates a difference (diff) between the acquired unmanned rates (S605), and compares the difference between the unattended rates diff and a predetermined threshold value Th a (S607). When the undifference rate difference diff is equal to or greater than the threshold Th a (S607 / YES), the evaluation value determination unit 430 determines that the evaluation value corresponding to the scenario is 0.5 (S609). On the other hand, when the undifference rate difference diff is less than the threshold value Th a , the evaluation value determination unit 430 determines the reference evaluation value corresponding to the scenario as an evaluation value (S611). The evaluation value determination unit 430 performs the above-described evaluation value determination process for all scenarios.

[3.3.効果]
ここまで、図10〜図21を用いて、本発明の第2の実施形態について説明した。本発明の第2の実施形態によれば、評価値生成部140は、複数の異なるデータリストおよび参考評価値リストを組とする複数の参考回帰学習モデルを生成し、それらの参考回帰学習モデルを用いて、上記の複数のデータリストに含まれるシナリオについて、人物の存在の有無について判別する。そして、評価値生成部140は、各参考回帰学習モデル間における判別結果(無人率)の差に基づいて、各シナリオに対応する評価値を決定する。かかる構成において、回帰学習モデルの生成に用いられる評価値を回帰分析手法を用いて決定することにより、各シナリオに対応する評価値を、機械的に決定することができる。これにより、例えば、属性「無人(外乱あり)」や、シナリオ「座る」など、人物の動きか否かの判別が困難であるシナリオに対応する評価値を、ユーザ等の主観を排し、機械的に決定することができる。したがって、本実施形態に係るモデル生成装置10は、より適正な評価値を含む評価値リストを用いて回帰学習モデルを生成することができる。よって、動体の動きがある特定の動きであるか否かの判別精度をより向上させることができる。
[3.3. effect]
Up to this point, the second embodiment of the present invention has been described with reference to FIGS. According to the second embodiment of the present invention, the evaluation value generation unit 140 generates a plurality of reference regression learning models each of which includes a plurality of different data lists and reference evaluation value lists, and uses these reference regression learning models. By using this, it is determined whether or not a person exists in the scenarios included in the plurality of data lists. Then, the evaluation value generation unit 140 determines an evaluation value corresponding to each scenario based on the difference in the discrimination result (unmanned rate) between the respective reference regression learning models. In such a configuration, the evaluation value corresponding to each scenario can be mechanically determined by determining the evaluation value used for generating the regression learning model using the regression analysis method. As a result, for example, the evaluation value corresponding to a scenario in which it is difficult to determine whether a person is moving, such as the attribute “unmanned (with disturbance)” or the scenario “sit”, excludes the subjectivity of the user, etc. Can be determined. Therefore, the model generation apparatus 10 according to the present embodiment can generate a regression learning model using an evaluation value list including more appropriate evaluation values. Therefore, it is possible to further improve the determination accuracy of whether or not the moving body is a specific movement.

<4.ハードウェア構成例>
以上、本発明の各実施形態に係る判別システム1について説明した。次に、図22を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図22は、本開示の実施形態に係る情報処理装置900のハードウェア構成例を示すブロック図である。図示された情報処理装置900は、例えば、上記の実施形態におけるモデル生成装置10、および判別装置20を実現しうる。
<4. Hardware configuration example>
The discrimination system 1 according to each embodiment of the present invention has been described above. Next, the hardware configuration of the information processing apparatus according to the embodiment of the present disclosure will be described with reference to FIG. FIG. 22 is a block diagram illustrating a hardware configuration example of the information processing apparatus 900 according to the embodiment of the present disclosure. The illustrated information processing apparatus 900 can realize, for example, the model generation apparatus 10 and the determination apparatus 20 in the above-described embodiment.

図22を参照すると、情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、を備える。また、情報処理装置900は、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、ドライブ911と、ネットワークインタフェース912と、を備える。   Referring to FIG. 22, the information processing apparatus 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, and a host bus 904. The information processing apparatus 900 includes a bridge 905, an external bus 906, an interface 907, an input device 908, an output device 909, a storage device 910, a drive 911, and a network interface 912.

CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。なお、CPU901は、情報処理装置900内の各機能部を含む機能の動作全般またはその一部を制御する。例えば、CPU901は、ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904により相互に接続されている。   The CPU 901 functions as an arithmetic processing device and a control device, and controls the overall operation in the information processing device 900 according to various programs. Further, the CPU 901 may be a microprocessor. Note that the CPU 901 controls the overall operation of the functions including the respective functional units in the information processing apparatus 900 or a part thereof. For example, the CPU 901 stores a program, calculation parameters, and the like used by the CPU 901 in the ROM 902. The RAM 903 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 904 including a CPU bus.

ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。   The host bus 904 is connected to an external bus 906 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 905. Note that the host bus 904, the bridge 905, and the external bus 906 are not necessarily configured separately, and these functions may be mounted on one bus.

入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、当該入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。なお、入力装置908は、不図示の入力部の機能を実現する。   The input device 908 includes input means for inputting information such as a mouse, keyboard, touch panel, button, microphone, switch, and lever, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 901. Etc. A user of the information processing apparatus 900 can input various data and instruct a processing operation to the information processing apparatus 900 by operating the input device 908. The input device 908 realizes the function of an input unit (not shown).

出力装置909は、例えば、CRTディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED装置およびランプなどの表示装置を含む。さらに、出力装置909は、スピーカ及びヘッドホンなどの音声出力装置を含む。出力装置909は、例えば、再生されたコンテンツを出力する。具体的には、表示装置は再生された映像データ等の各種情報をテキストまたはイメージで表示する。一方、音声出力装置は、再生された音声データや表示装置に表示されたテキストデータ等を音声に変換して出力する。なお、出力装置909は、不図示の表示部の機能を実現する。   The output device 909 includes display devices such as a CRT display device, a liquid crystal display (LCD) device, an OLED device, and a lamp. Furthermore, the output device 909 includes an audio output device such as a speaker and headphones. The output device 909 outputs the played content, for example. Specifically, the display device displays various information such as reproduced video data as text or images. On the other hand, the voice output device converts reproduced voice data, text data displayed on the display device, and the like into voice and outputs the voice. The output device 909 realizes the function of a display unit (not shown).

ストレージ装置910は、本発明の実施形態に係る情報処理装置900におけるデータ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読み出し装置および記憶媒体に記憶されたデータを削除する削除装置などを含んでも良い。ストレージ装置は、例えば、HDD(Hard Disc Drive)やSSD(Solid State Drive)で構成される。このストレージ装置910は、CPU901が実行するプログラムや各種データを格納する。なお、ストレージ装置910は、信号DB111など、各情報処理装置に備えられている各DBを格納する。なお、ストレージ装置910は、不図示の記憶部の機能を実現する。   The storage apparatus 910 is an apparatus for storing data in the information processing apparatus 900 according to the embodiment of the present invention. The storage device 910 may include a storage medium, a recording device that records data in the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data stored in the storage medium, and the like. The storage device is configured by, for example, an HDD (Hard Disc Drive) or an SSD (Solid State Drive). The storage device 910 stores programs executed by the CPU 901 and various data. The storage device 910 stores each DB provided in each information processing device such as the signal DB 111. Note that the storage device 910 realizes a function of a storage unit (not shown).

ドライブ911は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ911は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体96に記録されている情報を読みだして、RAM903に出力する。また、ドライブ911は、リムーバブル記憶媒体96に情報を書き込むこともできる。   The drive 911 is a storage medium reader / writer, and is built in or externally attached to the information processing apparatus 900. The drive 911 reads information recorded on a mounted removable storage medium 96 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs the information to the RAM 903. The drive 911 can also write information into the removable storage medium 96.

ネットワークインタフェース912は、例えば、他の装置に接続するための通信デバイス等で構成された通信インタフェースである。また、ネットワークインタフェース912は、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、またはブルートゥース通信装置であってもよい。また、ネットワークインタフェース912は、有線による通信を行うワイヤー通信装置であってもよい。なお、ネットワークインタフェース912は、不図示の通信部の機能を実現する。   The network interface 912 is a communication interface configured by a communication device or the like for connecting to another device, for example. The network interface 912 may be a wireless LAN (Local Area Network) compatible communication device, an LTE (Long Term Evolution) compatible communication device, or a Bluetooth communication device. The network interface 912 may be a wire communication device that performs wired communication. The network interface 912 implements the function of a communication unit (not shown).

以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更され得る。   Heretofore, an example of the hardware configuration of the information processing apparatus 900 has been shown. Each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.

<5.まとめ>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<5. Summary>
The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、上記実施形態では、人物がセンサ2による検知が可能なエリアに存在していることが想定されていたが、本発明はかかる例に限定されない。例えば、人物が椅子やベッドなどの位置にいる場合に限定してセンサが人物を検知することができるように、センサが設置されてもよい。これにより、判別対象となるエリアを限定することが可能となるので、動体の動きの判別精度が向上する。また、判別装置は、人物の有無の結果を、他の情報処理装置(例えば人物の運動量や姿勢等を計測する装置)に組み合わせて用いられてもよい。かかる構成において、人物が特定のエリアに存在している場合に限定して、他の情報処理装置による処理を実施することができる。したがって、生じ得る外乱の影響が小さくなるため、人物の運動量や姿勢等の計測精度を向上させることができる。   For example, in the above embodiment, it is assumed that a person exists in an area where the sensor 2 can detect, but the present invention is not limited to such an example. For example, the sensor may be installed so that the sensor can detect the person only when the person is in a position such as a chair or a bed. Thereby, since it becomes possible to limit the area used as a discrimination | determination object, the discrimination | determination precision of a moving body's motion improves. In addition, the determination device may be used in combination with the result of the presence or absence of a person in another information processing device (for example, a device that measures the amount or posture of a person). In such a configuration, processing by another information processing apparatus can be performed only when a person is present in a specific area. Accordingly, since the influence of a disturbance that can occur is reduced, the measurement accuracy of the person's momentum, posture, and the like can be improved.

また、判別装置は、モデル生成装置の有する各機能を含んでもよい。かかる構成において、判別装置は、回帰学習モデルDBに格納されている回帰学習モデルを用いて判別処理を行うだけではなく、外部から得られた信号データ等を用いて回帰学習モデルを生成することもできる。これにより、一般的な回帰学習モデルだけではなく、判別装置が適用される場所や場面に応じて特化された回帰学習モデルを生成することができる。したがって、判別したい動体の動きの判別精度をさらに向上させることができる。   Further, the determination device may include each function of the model generation device. In such a configuration, the discriminating apparatus not only performs discrimination processing using the regression learning model stored in the regression learning model DB, but also generates a regression learning model using signal data obtained from the outside. it can. Thereby, it is possible to generate not only a general regression learning model but also a regression learning model specialized depending on the place or scene to which the discrimination device is applied. Therefore, it is possible to further improve the discrimination accuracy of the motion of the moving object to be discriminated.

また、上記実施形態では、人物の動きを判別対象とする例を説明したが、本発明はかかる例に限定されない。例えば、本発明は、他の生体、機械およびクランク等の運動など、多様な動体の動きに対して適用可能である。この場合、例えば、センサが電波式のセンサである場合、放射波の波長を判別対象の信号波形の変位に応じて適切に設定することにより、あらゆる動体の動きを表現する信号を抽出することが可能である。   In the above-described embodiment, an example in which a person's movement is a discrimination target has been described. However, the present invention is not limited to such an example. For example, the present invention can be applied to movements of various moving objects such as movements of other living bodies, machines, and cranks. In this case, for example, when the sensor is a radio wave type sensor, it is possible to extract a signal expressing the motion of any moving object by appropriately setting the wavelength of the radiated wave according to the displacement of the signal waveform to be discriminated. Is possible.

また、本明細書の各装置および各機能部の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置および各機能部の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。   In addition, each step in the processing of each device and each functional unit in the present specification does not necessarily have to be processed in time series in the order described as a flowchart. For example, each step in the processing of each device and each functional unit may be processed in an order different from the order described as the flowchart, or may be processed in parallel.

また、モデル生成装置10および判別装置20に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記のモデル生成装置10および判別装置20の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。   A computer program for causing hardware such as a CPU, a ROM, and a RAM built in the model generation device 10 and the determination device 20 to exhibit functions equivalent to the configurations of the model generation device 10 and the determination device 20 described above. Can be created. A storage medium storing the computer program is also provided.

1 判別システム
2 センサ
10 モデル生成装置
20 判別装置
110、210 信号取得部
120、220 フィルタ部
130、230 特徴量算出部
140 評価値生成部
150 モデル生成部
240 評価値算出部
250 判別部
260 調整部
410 参考モデル生成部
420 判別検証部
430 評価値決定部
DESCRIPTION OF SYMBOLS 1 Discriminating system 2 Sensor 10 Model generator 20 Discriminator 110, 210 Signal acquisition part 120, 220 Filter part 130, 230 Feature amount calculation part 140 Evaluation value generation part 150 Model generation part 240 Evaluation value calculation part 250 Discrimination part 260 Adjustment part 410 Reference Model Generation Unit 420 Discrimination Verification Unit 430 Evaluation Value Determination Unit

Claims (14)

センサにより検出された動体の動きを示すセンサ信号に基づいて、前記動体の動きの特徴量を算出する特徴量算出部と、
所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、前記特徴量算出部により算出された前記動体の動きの特徴量に応じて、前記動体の動きに対応する評価値を算出する評価値算出部と、
前記動体の動きの判別のために前記動体の動きに対応する前記評価値と比較される閾値を調整する調整部と、
を備える判別装置。
Based on a sensor signal indicating the motion of the moving object detected by the sensor, a feature value calculating unit for calculating a feature value of the motion of the moving object;
Using the regression learning model generated based on a plurality of data in which a feature amount of a predetermined motion and an evaluation value corresponding to the predetermined motion are paired, the moving object calculated by the feature amount calculation unit An evaluation value calculating unit that calculates an evaluation value corresponding to the movement of the moving object according to a feature amount of the movement;
An adjustment unit that adjusts a threshold value to be compared with the evaluation value corresponding to the movement of the moving object in order to determine the movement of the moving object;
A discrimination device comprising:
前記回帰学習モデルは、サポートベクタ回帰により生成される回帰学習モデルであり、
前記評価値算出部は、前記サポートベクタ回帰により生成される前記回帰学習モデルを構成するサポートベクタと、前記動体の動きの特徴量とを用いて、前記動体の動きに対応する評価値を算出する、請求項1に記載の判別装置。
The regression learning model is a regression learning model generated by support vector regression,
The evaluation value calculation unit calculates an evaluation value corresponding to the motion of the moving object using a support vector constituting the regression learning model generated by the support vector regression and a feature amount of the motion of the moving object. The discrimination device according to claim 1.
前記特徴量算出部は、前記センサ信号の波形に基づいて前記特徴量を算出する、請求項1または2に記載の判別装置。   The determination device according to claim 1, wherein the feature amount calculation unit calculates the feature amount based on a waveform of the sensor signal. 前記特徴量算出部は、前記センサ信号の振幅の大きさを前記特徴量として算出する、請求項3に記載の判別装置。   The determination device according to claim 3, wherein the feature amount calculation unit calculates the magnitude of the amplitude of the sensor signal as the feature amount. 前記特徴量算出部は、所定区間における前記センサ信号の波形の周波数を前記特徴量として算出する、請求項3または4に記載の判別装置。   The discrimination device according to claim 3 or 4, wherein the feature amount calculation unit calculates a frequency of a waveform of the sensor signal in a predetermined section as the feature amount. 前記所定の動きに対応する評価値は、前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて決定される、請求項1〜5のいずれか1項に記載の判別装置。   The evaluation value corresponding to the predetermined movement is a plurality of data generated based on a plurality of data including sets of the feature amount of the predetermined movement and an evaluation value set in advance corresponding to the predetermined movement. The determination apparatus according to claim 1, wherein the determination apparatus is determined according to an error between a plurality of determination results corresponding to the predetermined movement determined using a regression learning model. 前記調整部は、前記閾値を段階的に調整する、請求項1〜6のいずれか1項に記載の判別装置。   The determination device according to claim 1, wherein the adjustment unit adjusts the threshold value in a stepwise manner. 前記所定の動きは、生体の動きを含み、
前記動体の動きの判別は、前記動体の動きが前記生体の動きであるか否かの判別を含む、請求項1〜7のいずれか1項に記載の判別装置。
The predetermined movement includes a biological movement,
The determination device according to any one of claims 1 to 7, wherein the determination of the movement of the moving object includes determination whether or not the movement of the moving object is the movement of the living body.
前記センサはドップラーセンサである、請求項1〜8のいずれか1項に記載の判別装置。   The discrimination device according to claim 1, wherein the sensor is a Doppler sensor. センサにより検出された動体の動きを示すセンサ信号に基づいて、前記動体の動きの特徴量を算出するステップと、
所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、前記動体の動きの特徴量に応じて、前記動体の動きに対応する評価値を算出するステップと、
前記動体の動きの判別のために前記動体の動きに対応する前記評価値と比較される閾値を調整するステップと、
を含む判別方法。
Calculating a feature quantity of the motion of the moving object based on a sensor signal indicating the motion of the moving object detected by the sensor;
Using a regression learning model generated on the basis of a plurality of data that is a set of a predetermined motion feature amount and an evaluation value corresponding to the predetermined motion, according to the motion feature amount of the moving object, Calculating an evaluation value corresponding to the movement of the moving object;
Adjusting a threshold to be compared with the evaluation value corresponding to the movement of the moving object for the determination of the movement of the moving object;
Method including
コンピュータを、
センサにより検出された動体の動きを示すセンサ信号に基づいて、前記動体の動きの特徴量を算出する特徴量算出部と、
所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて生成された回帰学習モデルを用いて、前記特徴量算出部により算出された前記動体の動きの特徴量に応じて、前記動体の動きに対応する評価値を算出する評価値算出部と、
前記動体の動きの判別のために前記動体の動きに対応する前記評価値と比較される閾値を調整する調整部と、
として機能させるためのプログラム。
Computer
Based on a sensor signal indicating the motion of the moving object detected by the sensor, a feature value calculating unit for calculating a feature value of the motion of the moving object;
Using the regression learning model generated based on a plurality of data in which a feature amount of a predetermined motion and an evaluation value corresponding to the predetermined motion are paired, the moving object calculated by the feature amount calculation unit An evaluation value calculating unit that calculates an evaluation value corresponding to the movement of the moving object according to a feature amount of the movement;
An adjustment unit that adjusts a threshold value to be compared with the evaluation value corresponding to the movement of the moving object in order to determine the movement of the moving object;
Program to function as.
センサにより検出された動体による所定の動きを示すセンサ信号に基づいて、前記所定の動きの特徴量を算出する特徴量算出部と、
前記所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて回帰学習モデルを生成するモデル生成部と、
を備えるモデル生成装置。
A feature amount calculation unit that calculates a feature amount of the predetermined movement based on a sensor signal indicating the predetermined movement of the moving object detected by the sensor;
A model generation unit that generates a regression learning model based on a plurality of data in which the feature quantity of the predetermined movement and an evaluation value corresponding to the predetermined movement are paired;
A model generation device comprising:
前記所定の動きの特徴量と、前記所定の動きに対応して予め設定された参考評価値とを組とする複数のデータに基づいて生成された複数の回帰学習モデルを用いて判別された前記所定の動きに対応する複数の判別結果間における誤差に応じて、前記所定の動きに対応する評価値を決定する、回帰学習モデル評価値決定部をさらに備える、請求項12に記載のモデル生成装置。   The determination is made using a plurality of regression learning models generated based on a plurality of data in which the feature quantity of the predetermined movement and a reference evaluation value set in advance corresponding to the predetermined movement are set. The model generation device according to claim 12, further comprising a regression learning model evaluation value determination unit that determines an evaluation value corresponding to the predetermined movement according to an error between a plurality of determination results corresponding to the predetermined movement. . センサにより検出された動体による所定の動きを示すセンサ信号に基づいて、前記所定の動きの特徴量を算出するステップと、
前記所定の動きの特徴量と、前記所定の動きに対応する評価値とを組とする複数のデータに基づいて回帰学習モデルを生成するステップと、
を含む、モデル生成方法。
Calculating a feature quantity of the predetermined movement based on a sensor signal indicating the predetermined movement by the moving object detected by the sensor;
Generating a regression learning model based on a plurality of data sets of the predetermined motion feature amount and an evaluation value corresponding to the predetermined motion;
A model generation method including
JP2015145545A 2015-07-23 2015-07-23 Discrimination device, discrimination method, program, model generation device, and model generation method Active JP6648435B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015145545A JP6648435B2 (en) 2015-07-23 2015-07-23 Discrimination device, discrimination method, program, model generation device, and model generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015145545A JP6648435B2 (en) 2015-07-23 2015-07-23 Discrimination device, discrimination method, program, model generation device, and model generation method

Publications (2)

Publication Number Publication Date
JP2017026475A true JP2017026475A (en) 2017-02-02
JP6648435B2 JP6648435B2 (en) 2020-02-14

Family

ID=57949557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015145545A Active JP6648435B2 (en) 2015-07-23 2015-07-23 Discrimination device, discrimination method, program, model generation device, and model generation method

Country Status (1)

Country Link
JP (1) JP6648435B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019158426A (en) * 2018-03-08 2019-09-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Presence determination method, program, sensor processing system, and sensor system
JP2020514749A (en) * 2017-03-16 2020-05-21 コグニティヴ システムズ コーポレイション Classification of motion detected using radio signals
JP2022501571A (en) * 2019-08-30 2022-01-06 華為技術有限公司Huawei Technologies Co., Ltd. Methods and devices for identifying target behavior, as well as radar systems

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080119716A1 (en) * 2006-05-17 2008-05-22 Olga Boric-Lubecke Determining presence and/or physiological motion of one or more subjects with quadrature doppler radar receiver systems
JP2012042485A (en) * 2011-11-28 2012-03-01 Oki Electric Ind Co Ltd Data processing apparatus, operation recognition system, operation discrimination method, and program
JP2013007578A (en) * 2011-06-22 2013-01-10 Nec Corp Signal detection device, signal detection method and signal detection program
JP2014083148A (en) * 2012-10-22 2014-05-12 Oki Electric Ind Co Ltd Feature amount calculation device and program
JP2014174965A (en) * 2013-03-13 2014-09-22 Oki Electric Ind Co Ltd State recognition device, state recognition method, and computer program
WO2015088664A1 (en) * 2013-12-13 2015-06-18 Utc Fire & Security Americas Corporation, Inc. Selective intrusion detection systems

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080119716A1 (en) * 2006-05-17 2008-05-22 Olga Boric-Lubecke Determining presence and/or physiological motion of one or more subjects with quadrature doppler radar receiver systems
JP2013007578A (en) * 2011-06-22 2013-01-10 Nec Corp Signal detection device, signal detection method and signal detection program
JP2012042485A (en) * 2011-11-28 2012-03-01 Oki Electric Ind Co Ltd Data processing apparatus, operation recognition system, operation discrimination method, and program
JP2014083148A (en) * 2012-10-22 2014-05-12 Oki Electric Ind Co Ltd Feature amount calculation device and program
JP2014174965A (en) * 2013-03-13 2014-09-22 Oki Electric Ind Co Ltd State recognition device, state recognition method, and computer program
WO2015088664A1 (en) * 2013-12-13 2015-06-18 Utc Fire & Security Americas Corporation, Inc. Selective intrusion detection systems

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020514749A (en) * 2017-03-16 2020-05-21 コグニティヴ システムズ コーポレイション Classification of motion detected using radio signals
JP7003147B2 (en) 2017-03-16 2022-01-20 コグニティヴ システムズ コーポレイション Classification of motion detected using wireless signals
JP2019158426A (en) * 2018-03-08 2019-09-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Presence determination method, program, sensor processing system, and sensor system
JP2022501571A (en) * 2019-08-30 2022-01-06 華為技術有限公司Huawei Technologies Co., Ltd. Methods and devices for identifying target behavior, as well as radar systems
JP7111843B2 (en) 2019-08-30 2022-08-02 華為技術有限公司 Method and apparatus for identifying target behavior and radar system

Also Published As

Publication number Publication date
JP6648435B2 (en) 2020-02-14

Similar Documents

Publication Publication Date Title
US10063965B2 (en) Sound source estimation using neural networks
JP6328954B2 (en) Automatic haptic effect adjustment system
JP6515670B2 (en) Sleep depth estimation device, sleep depth estimation method, and program
US8694447B2 (en) Information processing apparatus, information processing method, and program
KR20200005987A (en) System and method for diagnosing cognitive impairment using touch input
CN110088711A (en) Magnetic disturbance detection and correction
JP2022523932A (en) Offline tuning system for detecting new motion zones in motion detection systems
CN109414174B (en) Method and system for probabilistically estimating pulse rate of an individual
JP6477199B2 (en) Vibration state estimation device, vibration state estimation method, and program
JP6648435B2 (en) Discrimination device, discrimination method, program, model generation device, and model generation method
Elgendi et al. Arm movement speed assessment via a Kinect camera: a preliminary study in healthy subjects
US20220280098A1 (en) Assessing parkinson&#39;s disease symptoms
Speed et al. Modeling the vocal tract transfer function using a 3D digital waveguide mesh
Ciaburro et al. Acoustic characterization of rooms using reverberation time estimation based on supervised learning algorithm
JP2020095123A (en) Sound evaluation AI system and sound evaluation AI program
Feng et al. An adl recognition system on smart phone
JP5718494B1 (en) Impression estimation device, method thereof, and program
CN109993856A (en) Rays safety detection apparatus and method based on multi-biological characteristic
US11751800B2 (en) Seizure detection using contextual motion
JP7006199B2 (en) Data generator, data generator, data generator and sensor device
Chand et al. Tracking a person’s behaviour in a smart house
Pődör et al. Geo-tagged environmental noise measurement with smartphones: Accuracy and perspectives of crowdsourced mapping
Antonello et al. Source localization and signal reconstruction in a reverberant field using the FDTD method
CN112398952A (en) Electronic resource pushing method, system, equipment and storage medium
JP2017023449A (en) Activity amount estimation device, activity amount estimation method, program, model generation device, and model generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190320

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191230

R150 Certificate of patent or registration of utility model

Ref document number: 6648435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150