JP6943290B2 - Monitoring system, monitoring method and monitoring program - Google Patents

Monitoring system, monitoring method and monitoring program Download PDF

Info

Publication number
JP6943290B2
JP6943290B2 JP2019555100A JP2019555100A JP6943290B2 JP 6943290 B2 JP6943290 B2 JP 6943290B2 JP 2019555100 A JP2019555100 A JP 2019555100A JP 2019555100 A JP2019555100 A JP 2019555100A JP 6943290 B2 JP6943290 B2 JP 6943290B2
Authority
JP
Japan
Prior art keywords
monitored person
information
score
state transition
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019555100A
Other languages
Japanese (ja)
Other versions
JPWO2019102521A1 (en
Inventor
友嗣 大野
友嗣 大野
久保 雅洋
雅洋 久保
昌洋 林谷
昌洋 林谷
園 駱
園 駱
裕 宇野
裕 宇野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2019102521A1 publication Critical patent/JPWO2019102521A1/en
Application granted granted Critical
Publication of JP6943290B2 publication Critical patent/JP6943290B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Description

本発明は、異常行動を生じ得る対象者を監視する監視システム、監視方法および監視用プログラムに関する。 The present invention relates to a monitoring system, a monitoring method, and a monitoring program for monitoring a subject who may cause abnormal behavior.

全国に存在する数百もの矯正施設(刑務所)では、異常行動を起こすリスクのある被収容者が数多く存在すると言われている。ここで、異常行動とは、刑務官の指示に従わなかったり、通常とは違ったりする行動全般のことを意味する。多くの異常行動に伴い、自殺や暴力などの事象に代表される問題は、その問題発生後に発見されるため、発見が遅いと自殺といった重大な事故につながってしまう。そこで、被収容者(被監視者)を適切に監視することが社会的な課題になっている。 It is said that there are many inmates at risk of abnormal behavior in hundreds of correctional facilities (prisons) nationwide. Here, the abnormal behavior means all behaviors that do not follow the instructions of the prison officer or are unusual. With many abnormal behaviors, problems represented by events such as suicide and violence are discovered after the problem occurs, so if the discovery is delayed, it will lead to a serious accident such as suicide. Therefore, it has become a social issue to appropriately monitor inmates (monitored persons).

現在、多くの矯正施設では、定期的(例えば、15分ごと)に刑務官が巡回したり、監視カメラを配備したりすることにより、被収容者の監視が行われている。しかし、このような対応を行っていても、異常行動を生じ得る被収容者を十分に監視しきれないのが実情である。 Currently, many correctional facilities monitor inmates on a regular basis (eg, every 15 minutes) by patrols by prison officers and by deploying surveillance cameras. However, even if such measures are taken, the fact is that the inmates who may cause abnormal behavior cannot be sufficiently monitored.

巡回の合間を縫って異常行動を起こす被収容者も存在することから、巡回頻度を増加させることも考えられる。しかし、巡回頻度を増加させた場合、刑務官の負荷が増加してしまうという問題がある。また、監視カメラを設置する場所を増加させることで、監視範囲を増大させることも考えられる。しかし、監視カメラが増えすぎると、全ての場所の映像を目視確認する負荷が増加してしまうという問題もある。 Since some inmates may behave abnormally between patrols, it is possible to increase the frequency of patrols. However, if the patrol frequency is increased, there is a problem that the load on the prison officer increases. It is also conceivable to increase the surveillance range by increasing the number of places where surveillance cameras are installed. However, if the number of surveillance cameras increases too much, there is also a problem that the load of visually checking the images of all places increases.

このような問題を解決する方法として、特許文献1には、閉鎖施設における自殺の予防を図る自殺抑制システムが記載されている。特許文献1に記載されたシステムは、マイクロ波センサを用いて監視対象の生態を検出し、検出された信号を生体情報にデータ化する。そして、上記システムは、生体データの組合せから、施設内で生じ得る心拍状態や呼吸状態、運動状態、精神状態、在否状態など、様々な事象に振り分け、各事象の内容から生体因子又は生活パターンを導く。さらに、上記システムは、これらの程度に応じて、自殺のおそれ又は自殺行為の遂行の可能性を重みづける相応の地位またはパラメータを出力する。 As a method for solving such a problem, Patent Document 1 describes a suicide suppression system for preventing suicide in a closed facility. The system described in Patent Document 1 detects the ecology of the monitored object by using a microwave sensor, and converts the detected signal into biometric information. Then, the above system divides the combination of biological data into various events such as heartbeat state, respiratory state, motor state, mental state, and presence / absence state that can occur in the facility, and the biological factor or life pattern is determined from the contents of each event. To guide. In addition, the system outputs appropriate status or parameters that, depending on these degrees, weight the risk of suicide or the likelihood of committing suicide.

特開2016−85577号公報Japanese Unexamined Patent Publication No. 2016-85577

特許文献1に記載された方法では、生体因子、環境因子および補強因子並びに生活パターンの変化に対し、自殺のおそれ又は自殺行為の遂行の可能性を重み付ける相応の地位又はパラメータを設定し、各状況におけるパラメータの累積値に各々しきい値を設定することで、自殺のおそれおよび自殺行為の遂行を判定する。このように、特許文献1に記載された方法では、多くのパラメータの各々についてしきい値を設定する必要があり、人ごとの最適化が難しく、また、設定自体の負荷が非常に高くなってしまうという問題がある。 In the method described in Patent Document 1, appropriate positions or parameters that weight the risk of suicide or the possibility of committing suicide against changes in biological factors, environmental factors and reinforcing factors, and lifestyle patterns are set, and each of them is set. By setting thresholds for the cumulative values of parameters in a situation, the risk of suicide and the performance of suicide are determined. As described above, in the method described in Patent Document 1, it is necessary to set a threshold value for each of many parameters, it is difficult to optimize for each person, and the load of the setting itself becomes very high. There is a problem that it ends up.

また、特許文献1に記載された方法では、事象発生後に通報を行うことも想定されているが、問題の発見が遅れると重大な事故につながるおそれがある。そのため、監視者の負荷を軽減しつつ、異常行動のおそれがある被監視者を適切に監視できることが望まれている。 Further, in the method described in Patent Document 1, it is assumed that a notification is made after an event occurs, but if the discovery of a problem is delayed, a serious accident may occur. Therefore, it is desired to be able to appropriately monitor the monitored person who may behave abnormally while reducing the load on the monitor.

そこで、本発明は、監視者の負荷を軽減しつつ、異常行動のおそれがある被監視者を適切に監視できる監視システム、監視方法および監視用プログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a monitoring system, a monitoring method, and a monitoring program capable of appropriately monitoring a monitored person who may behave abnormally while reducing the load on the monitor.

本発明による監視システムは、被監視者の生体情報を取得する生体情報取得部と、被監視者を撮像した画像または映像に基づいて、その被監視者の様態である姿勢および位置の少なくとも一方を取得する様態取得部と、取得された生体情報および様態に基づいて、被監視者の特徴を表す特徴量を算出する特徴量算出部と、被監視者の状態を目的変数とし、被監視者の生体情報および様態を説明変数とするモデルに対して、特徴量を適用することにより、被監視者の平常状態を表すスコアである状態遷移スコアを算出するスコア算出部と、算出された状態遷移スコアが予め定めた基準を満たす被監視者の情報を監視者に通知する通知部とを備え、通知部が、状態遷移スコアが第一のしきい値を超えた場合に被監視者の映像を録画させ、その後にその被監視者の状態遷移スコアが第二のしきい値を超えた場合に、録画された映像を監視者に通知することを特徴とする。 The monitoring system according to the present invention has a biometric information acquisition unit that acquires biometric information of the monitored person, and at least one of the posture and the position, which is the mode of the monitored person, based on the image or video of the monitored person. The acquired mode acquisition unit, the feature amount calculation unit that calculates the feature amount representing the characteristics of the monitored person based on the acquired biological information and the mode, and the monitored person's state as the objective variable of the monitored person. A score calculation unit that calculates a state transition score, which is a score representing the normal state of a monitored person, and a calculated state transition score by applying feature quantities to a model that uses biological information and modes as explanatory variables. Equipped with a notification unit that notifies the observer of the information of the monitored person who meets the predetermined criteria, and the notification unit records the video of the monitored person when the state transition score exceeds the first threshold value. Then, when the state transition score of the monitored person exceeds the second threshold value, the recorded video is notified to the monitor .

本発明による監視方法は、被監視者の生体情報を取得し、被監視者を撮像した画像または映像に基づいて、その被監視者の様態である姿勢および位置の少なくとも一方を取得し、取得された生体情報および様態に基づいて、被監視者の特徴を表す特徴量を算出し、被監視者の状態を目的変数とし、被監視者の生体情報および様態を説明変数とするモデルに対して、特徴量を適用することにより、被監視者の平常状態を表すスコアである状態遷移スコアを算出し、算出された状態遷移スコアが予め定めた基準を満たす被監視者の情報を監視者に通知し、その通知の際、状態遷移スコアが第一のしきい値を超えた場合に被監視者の映像を録画させ、その後にその被監視者の状態遷移スコアが第二のしきい値を超えた場合に、録画された映像を監視者に通知することを特徴とする。 The monitoring method according to the present invention acquires the biological information of the monitored person, acquires at least one of the posture and the position, which is the mode of the monitored person, based on the image or the video image of the monitored person, and is acquired. For a model in which the feature amount representing the characteristics of the monitored person is calculated based on the biometric information and the mode, the state of the monitored person is used as the objective variable, and the biometric information and the mode of the monitored person are used as explanatory variables. by applying the feature amount, calculates a state transition score is the score representing the normal state of the monitored person, calculated state transition scores satisfies the predetermined reference notifies the watcher information on the person being monitored , At the time of the notification, if the state transition score exceeds the first threshold value, the video of the monitored person is recorded, and then the state transition score of the monitored person exceeds the second threshold value. In some cases, the recorded video is notified to the observer .

本発明による監視用プログラムは、コンピュータに、被監視者の生体情報を取得する生体情報取得処理、被監視者を撮像した画像または映像に基づいて、その被監視者の様態である姿勢および位置の少なくとも一方を取得する様態取得処理、取得された生体情報および様態に基づいて、被監視者の特徴を表す特徴量を算出する特徴量算出処理、被監視者の状態を目的変数とし、被監視者の生体情報および様態を説明変数とするモデルに対して、特徴量を適用することにより、被監視者の平常状態を表すスコアである状態遷移スコアを算出するスコア算出処理、および、算出された状態遷移スコアが予め定めた基準を満たす被監視者の情報を監視者に通知する通知処理を実行させ、通知処理で、状態遷移スコアが第一のしきい値を超えた場合に被監視者の映像を録画させ、その後にその被監視者の状態遷移スコアが第二のしきい値を超えた場合に、録画された映像を監視者に通知させることを特徴とする。 The monitoring program according to the present invention uses a computer for a biometric information acquisition process for acquiring the biometric information of the monitored person, and a posture and position which are the modes of the monitored person based on an image or a video image of the monitored person. A mode acquisition process for acquiring at least one, a feature amount calculation process for calculating a feature amount representing the characteristics of the monitored person based on the acquired biological information and the mode, and a monitored person with the state of the monitored person as an objective variable. A score calculation process for calculating a state transition score, which is a score representing the normal state of a monitored person, and a calculated state by applying a feature amount to a model using the biometric information and the mode as explanatory variables. A notification process is executed to notify the observer of the information of the monitored person whose transition score meets a predetermined standard, and when the state transition score exceeds the first threshold value in the notification process, the image of the monitored person is displayed. When the state transition score of the monitored person exceeds the second threshold value, the recorded video is notified to the monitor .

本発明によれば、監視者の負荷を軽減しつつ、異常行動のおそれがある被監視者を適切に監視できる。 According to the present invention, it is possible to appropriately monitor a monitored person who may behave abnormally while reducing the load on the monitor.

本発明の監視システムの第1の実施形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of the 1st Embodiment of the monitoring system of this invention. 生体情報の例を示す説明図である。It is explanatory drawing which shows the example of the biological information. 生体情報から生成された特徴量の例を示す説明図である。It is explanatory drawing which shows the example of the feature amount generated from the biological information. 生体情報から生成された特徴量の例を示す説明図である。It is explanatory drawing which shows the example of the feature amount generated from the biological information. 学習処理の例を示すフローチャートである。It is a flowchart which shows the example of the learning process. 学習データの例を示す説明図である。It is explanatory drawing which shows the example of the learning data. 状態遷移スコアを算出する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process of calculating the state transition score. 状態遷移スコアを算出した結果の例を示す説明図である。It is explanatory drawing which shows the example of the result of calculating the state transition score. 通知タイミングの例を示す説明図である。It is explanatory drawing which shows the example of the notification timing. 監視システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of a monitoring system. 本発明の監視システムの第2の実施形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of the 2nd Embodiment of the monitoring system of this invention. 状態遷移スコアを算出する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process of calculating the state transition score. 本発明による監視システムの概要を示すブロック図である。It is a block diagram which shows the outline of the monitoring system by this invention.

以下、本発明の実施形態を図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

実施形態1.
図1は、本発明の監視システムの第1の実施形態の構成例を示すブロック図である。本実施形態の監視システム100は、センサ10と、カメラ12と、記憶部14と、生体情報取得部20と、様態取得部30と、演算部40と、通知部50とを備えている。
Embodiment 1.
FIG. 1 is a block diagram showing a configuration example of a first embodiment of the monitoring system of the present invention. The monitoring system 100 of the present embodiment includes a sensor 10, a camera 12, a storage unit 14, a biological information acquisition unit 20, a mode acquisition unit 30, a calculation unit 40, and a notification unit 50.

センサ10は、被監視者の生体情報を検出するセンサである。センサ10の態様は任意であり、例えば、被監視者の生態を検出するマイクロ波センサや赤外線カメラ、可視光カメラ、マイクなどの非接触型のセンサなどにより実現される。なお、被監視者に直接装着させる接触型のセンサを使用した場合、そのセンサ自体を利用することによる事故(例えば、誤飲など)のおそれがあることから、センサ10は、非接触センサであることが好ましい。 The sensor 10 is a sensor that detects the biological information of the monitored person. The mode of the sensor 10 is arbitrary, and is realized by, for example, a microwave sensor for detecting the ecology of the monitored person, an infrared camera, a visible light camera, a non-contact type sensor such as a microphone, or the like. If a contact-type sensor that is directly attached to the monitored person is used, there is a risk of an accident (for example, accidental ingestion) due to the use of the sensor itself. Therefore, the sensor 10 is a non-contact sensor. Is preferable.

カメラ12は、被監視者を撮影する撮像装置である。カメラ12は、例えば、被監視者の専用又は共用の居室や、廊下など、被監視者の生活が把握できる位置に設置される。センサ10で、センサとして可視光カメラを用いた場合、センサ10とカメラ12を共通のカメラとしてもよい。 The camera 12 is an imaging device that photographs the monitored person. The camera 12 is installed at a position where the life of the monitored person can be grasped, such as a private or shared living room of the monitored person or a corridor. When a visible light camera is used as the sensor in the sensor 10, the sensor 10 and the camera 12 may be used as a common camera.

本実施形態では、監視システム100が、センサ10およびカメラ12が取得した情報に基づいて監視を行う場合について説明する。ただし、監視システム100は、被監視者の生体情報および被監視者の画像または映像を他のシステム(図示せず)から取得してもよい。この場合、監視システム100は、センサ10およびカメラ12を備えていなくてもよい。 In the present embodiment, a case where the monitoring system 100 performs monitoring based on the information acquired by the sensor 10 and the camera 12 will be described. However, the monitoring system 100 may acquire the biometric information of the monitored person and the image or video of the monitored person from another system (not shown). In this case, the surveillance system 100 may not include the sensor 10 and the camera 12.

記憶部14は、後述する演算部40が処理に用いる各種情報を記憶する。また、記憶部14は、センサ10が取得した情報や、カメラ12が撮像した画像を記憶していてもよい。記憶部14は、例えば、磁気ディスク装置等により実現される。 The storage unit 14 stores various information used for processing by the calculation unit 40, which will be described later. Further, the storage unit 14 may store the information acquired by the sensor 10 and the image captured by the camera 12. The storage unit 14 is realized by, for example, a magnetic disk device or the like.

生体情報取得部20は、センサ10が取得した情報に基づいて被監視者の生体情報を取得する。生体情報取得部20が取得する生体情報の内容は任意である。例えば、センサ10が非接触センサである場合、生体情報取得部20は、マイクロ波センサ等で取得可能な心拍数や呼吸数、体温、発声等の情報を生体情報として取得してもよい。 The biological information acquisition unit 20 acquires the biological information of the monitored person based on the information acquired by the sensor 10. The content of the biological information acquired by the biological information acquisition unit 20 is arbitrary. For example, when the sensor 10 is a non-contact sensor, the biological information acquisition unit 20 may acquire information such as heart rate, respiratory rate, body temperature, and vocalization that can be acquired by a microwave sensor or the like as biological information.

様態取得部30は、被監視者の様態を取得する。具体的には、様態取得部30は、被監視者を撮像した画像または映像に基づいて、その被監視者の姿勢や位置を取得する。この場合、様態取得部30は、被監視者の姿勢および位置の両方を取得してもよく、姿勢および位置の少なくとも一方のみ取得してもよい。また、姿勢には、被監視者の動きが含まれていてもよい。なお、画像または映像に基づいて撮影された対象者の姿勢や位置を取得する方法は一般に知られており、ここでは詳細な説明を省略する。 The mode acquisition unit 30 acquires the mode of the monitored person. Specifically, the mode acquisition unit 30 acquires the posture and position of the monitored person based on the image or video captured by the monitored person. In this case, the mode acquisition unit 30 may acquire both the posture and the position of the monitored person, or may acquire only at least one of the posture and the position. In addition, the posture may include the movement of the monitored person. It should be noted that a method of acquiring the posture and position of a subject photographed based on an image or a video is generally known, and detailed description thereof will be omitted here.

演算部40は、被監視者の異常状態を判断するための各種処理を行う。異常状態とは、上述する異常行動を起こしているときの状態を意味する。演算部40は、特徴量算出部42と、モデル学習部44と、スコア算出部46とを含む。 The calculation unit 40 performs various processes for determining the abnormal state of the monitored person. The abnormal state means a state when the above-mentioned abnormal behavior is occurring. The calculation unit 40 includes a feature amount calculation unit 42, a model learning unit 44, and a score calculation unit 46.

特徴量算出部42は、得られた生体情報および様態(具体的には姿勢および位置)に基づいて、被監視者の特徴を表す特徴量を算出する。特徴量算出部42が算出する特徴量は、生体情報若しくは様態、またはこれらの組合せから演算により生成される情報であり、例えば、被監視者の何らかの特徴的な値を一つ以上含むベクトルで表される。特徴量を表す情報は任意であり、例えば、特定時間範囲における生体情報の平均値、生体情報の特定周波数の値、特定時間における生体情報の相対値、生体情報の微分値などが挙げられる。特定時間における生体情報の相対値は、例えば、生体情報から平均値を引くことにより規格化された値であり、微分値は、生体情報の値の傾きを表す。 The feature amount calculation unit 42 calculates a feature amount representing the characteristics of the monitored person based on the obtained biological information and the mode (specifically, posture and position). The feature amount calculated by the feature amount calculation unit 42 is biometric information or mode, or information generated by calculation from a combination thereof, and is represented by, for example, a vector containing one or more characteristic values of the monitored person. Will be done. The information representing the feature amount is arbitrary, and examples thereof include an average value of biometric information in a specific time range, a value of a specific frequency of biometric information, a relative value of biometric information at a specific time, and a differential value of biometric information. The relative value of the biological information at a specific time is, for example, a value standardized by subtracting the average value from the biological information, and the differential value represents the slope of the value of the biological information.

また、特徴量算出部42が演算を行う方法も任意である。特徴量算出部42は、特定時間範囲の生体情報および様態に対して、平滑化フィルタやバンドパスフィルタ、微分フィルタ、複数のフィルタの組合せなどを用いて特徴量を算出してもよい。また、特徴量算出部42は、フィルタを使用せずに平均化処理、フーリエ変換処理、微分処理などにより特徴量を算出してもよい。 Further, the method in which the feature amount calculation unit 42 performs the calculation is also arbitrary. The feature amount calculation unit 42 may calculate the feature amount by using a smoothing filter, a bandpass filter, a differential filter, a combination of a plurality of filters, or the like for the biological information and the mode in a specific time range. Further, the feature amount calculation unit 42 may calculate the feature amount by an averaging process, a Fourier transform process, a differential process, or the like without using a filter.

図2は、生体情報の例を示す説明図である。図2には、心拍間隔を時系列に検出した結果の例と、皮膚温度を時系列に検出した結果の例が示されている。また、図3および図4は、生体情報から生成された特徴量の例を示す説明図である。 FIG. 2 is an explanatory diagram showing an example of biological information. FIG. 2 shows an example of the result of detecting the heartbeat interval in time series and an example of the result of detecting the skin temperature in time series. In addition, FIGS. 3 and 4 are explanatory views showing an example of a feature amount generated from biological information.

特徴量算出部42は、図2に例示する生体情報に基づいて特徴量(具体的には、特徴量ベクトルの一要素)を生成する。例えば、図2に例示する生体情報を、特定の時間範囲で平滑化して規格化(すなわち、平均値を引いて0から1の間の値に変換)した値の経時変化は、図3に例示するように算出される。また、図2に例示する生体情報に基づく微分値の経時変化は、図4に例示するように算出される。特徴量算出部42は、このように生成される特徴量から、特徴量ベクトルを生成する。 The feature amount calculation unit 42 generates a feature amount (specifically, one element of the feature amount vector) based on the biological information illustrated in FIG. For example, the time course of the value obtained by smoothing and normalizing the biometric information illustrated in FIG. 2 in a specific time range (that is, subtracting the average value and converting it to a value between 0 and 1) is illustrated in FIG. It is calculated to do. Further, the change with time of the differential value based on the biological information illustrated in FIG. 2 is calculated as illustrated in FIG. The feature amount calculation unit 42 generates a feature amount vector from the feature amount generated in this way.

モデル学習部44は、被監視者が正常状態か異常状態かを識別するモデルを学習する。具体的には、モデル学習部44は、被監視者の状態を目的変数とし、被監視者の生体情報および様態(具体的には姿勢および位置)を説明変数とするモデルを学習する。モデルは、例えば、いずれかの被監視者について、異常が発生した特定期間の生体情報および様態と、異常が発生していない特定期間の生体情報および様態とに基づいて学習される。 The model learning unit 44 learns a model for identifying whether the monitored person is in a normal state or an abnormal state. Specifically, the model learning unit 44 learns a model in which the state of the monitored person is used as an objective variable and the biological information and mode (specifically, posture and position) of the monitored person are used as explanatory variables. The model is learned, for example, for any of the monitored persons based on the biological information and mode of the specific period in which the abnormality occurred and the biological information and mode of the specific period in which the abnormality did not occur.

また、モデル学習部44は、生体情報および様態に基づいて算出される特徴量を説明変数に加えてもよい。なお、被監視者の状態を表す目的変数の値は、正常状態または異常状態を区別する値(0/1)で算出されてもよく、異常状態の程度を表す確率で算出されてもよい。 In addition, the model learning unit 44 may add a feature amount calculated based on biological information and a mode to the explanatory variables. The value of the objective variable representing the state of the monitored person may be calculated by a value (0/1) that distinguishes between a normal state and an abnormal state, or may be calculated with a probability indicating the degree of the abnormal state.

図5は、学習処理の例を示すフローチャートである。特徴量算出部42は、予めある時刻tにおける生体情報X´(t)および様態(姿勢/位置)に基づいて、特徴量Y´(t)を算出しておく(ステップS11)。モデル学習部44は、時刻tにおける状態(正常状態または異常状態)を目的変数とし、算出された特徴量を説明変数とする学習データを用いて、モデルMを生成する(ステップS12)。モデル学習部44は、生成したモデルを記憶部14に記憶してもよい(ステップS13)。FIG. 5 is a flowchart showing an example of learning processing. The feature amount calculation unit 42 calculates the feature amount Y'(t) based on the biological information X'(t) and the mode (posture / position) at a certain time t in advance (step S11). Model learning unit 44 states at time t (normal or abnormal conditions) and objective variables, using the training data to explanatory variables feature amount calculated to produce a model M i (step S12). The model learning unit 44 may store the generated model in the storage unit 14 (step S13).

図6は、学習データの例を示す説明図である。図6に示す例では、学習データが、1分おきに取得された被監視者の生体情報および様態から生成されるN個の特徴量を含む特徴量ベクトルと、そのときの被監視者の状態(正常:0、異常:1)とを含むことを示す。なお、図6に例示する特徴量ベクトルは、生体情報および様態そのものを特徴量として含んでいてもよく、生体情報および様態から算出される特徴量を含んでいてもよい。 FIG. 6 is an explanatory diagram showing an example of learning data. In the example shown in FIG. 6, the learning data is a feature amount vector including N feature amounts generated from the biometric information and the mode of the monitored person acquired every minute, and the state of the monitored person at that time. (Normal: 0, Abnormal: 1) is included. The feature amount vector illustrated in FIG. 6 may include the biological information and the mode itself as the feature amount, or may include the feature amount calculated from the biological information and the mode.

モデル学習部44は、図6に例示するように、過去のいずれかの被監視者について、異常が発生した特定期間の生体情報および様態と、異常が発生していない特定期間の生体情報および様態とを含む学習データとに基づいて、被監視者の状態を識別するモデルを学習する。図6に示す例では、2017年10月31日の22時3分から9分までの期間が、異常が発生した特定期間に該当する。このように学習されたモデルに対して、新たに得られた生体情報並びに姿勢および位置を適用することで、被監視者が正常状態か異常状態かを識別することが可能になる。 As illustrated in FIG. 6, the model learning unit 44 describes the biological information and mode of a specific period in which the abnormality occurred and the biological information and mode of the specific period in which the abnormality did not occur for any of the monitored persons in the past. Based on the learning data including and, the model that identifies the state of the monitored person is learned. In the example shown in FIG. 6, the period from 22:03 to 9 on October 31, 2017 corresponds to the specific period in which the abnormality occurred. By applying the newly obtained biological information as well as the posture and position to the model learned in this way, it becomes possible to identify whether the monitored person is in a normal state or an abnormal state.

スコア算出部46は、算出された特徴量および上記モデルを用いて、被監視者の平常状態または異常状態を表すスコア(以下、状態遷移スコアと記す。)を算出する。具体的には、スコア算出部46は、モデル学習部44が生成したモデルに、算出された特徴量を適用することにより、被監視者の状態を表す目的変数の値を状態遷移スコアとして算出する。 The score calculation unit 46 calculates a score (hereinafter, referred to as a state transition score) representing a normal state or an abnormal state of the monitored person by using the calculated feature amount and the above model. Specifically, the score calculation unit 46 calculates the value of the objective variable representing the state of the monitored person as the state transition score by applying the calculated feature amount to the model generated by the model learning unit 44. ..

例えば、モデルを表すパラメータ(例えば、各説明変数の係数)のベクトルをP、特徴量ベクトルをYとすると、状態遷移スコアI(t)を算出するモデルMは、以下に例示する式1で表される。なお、式1におけるαはバイアスである。スコア算出部46は、式1に例示するような行列演算を行うことにより、状態遷移スコアを算出してもよい。For example, parameters representing a model (e.g., the coefficient of each explanatory variable) a vector of P, the feature quantity vectors and Y, the model M i to calculate the state transition scores I (t) is a formula 1 illustrated below expressed. In addition, α in Equation 1 is a bias. The score calculation unit 46 may calculate the state transition score by performing a matrix operation as illustrated in Equation 1.

I(t)=P・Y+α (式1)I (t) = P · Y T + α (Equation 1)

図7は、状態遷移スコアを算出する処理の例を示すフローチャートである。特徴量算出部42は、時刻tにおいて取得した生体情報X(t)および様態(姿勢/位置)に基づいて、特徴量Y(t)を算出する(ステップS21)。スコア算出部46は、算出された特徴量Y(t)をモデルに適用して、状態遷移スコアを算出する(ステップS22)。スコア算出部46は、算出した状態遷移スコアを通知部50に出力する(ステップS23)。 FIG. 7 is a flowchart showing an example of processing for calculating the state transition score. The feature amount calculation unit 42 calculates the feature amount Y (t) based on the biological information X (t) acquired at time t and the mode (posture / position) (step S21). The score calculation unit 46 applies the calculated feature amount Y (t) to the model to calculate the state transition score (step S22). The score calculation unit 46 outputs the calculated state transition score to the notification unit 50 (step S23).

図8は、状態遷移スコアを算出した結果の例を示す説明図である。図8に示す例では、1分おきに被監視者の特徴量を算出し、算出した特徴量をモデルに適用してスコア(状態遷移スコア)を算出した結果を示す。 FIG. 8 is an explanatory diagram showing an example of the result of calculating the state transition score. In the example shown in FIG. 8, the feature amount of the monitored person is calculated every minute, and the calculated feature amount is applied to the model to calculate the score (state transition score).

通知部50は、算出された状態遷移スコアが予め定めた基準を満たす被監視者の情報を監視者に通知する。例えば、通知する状態遷移スコアのしきい値を予め定めておく場合、通知部50は、状態遷移スコアがそのしきい値を超えた被監視者の情報を監視者に通知してもよい。また、例えば、状態遷移スコアが上位の被監視者の情報を通知すると定めておく場合、通知部50は、状態遷移スコアが予め定めた数の上位の被監視者の情報を監視者に通知してもよい。 The notification unit 50 notifies the observer of the information of the monitored person whose calculated state transition score meets a predetermined standard. For example, when the threshold value of the state transition score to be notified is set in advance, the notification unit 50 may notify the observer of the information of the monitored person whose state transition score exceeds the threshold value. Further, for example, when it is determined that the information of the monitored person having a higher state transition score is notified, the notification unit 50 notifies the monitorer of the information of the higher monitored person having a predetermined number of state transition scores. You may.

図9は、通知タイミングの例を示す説明図である。通知する状態遷移スコアのしきい値を、例えば、0.5と定めた場合、通知部50は、図9に例示するタイミングT1およびT2で、被監視者の情報を監視者に通知してもよい。また、通知部50は、状態遷移スコアの変動を考慮し、しきい値を超えた後は一定時間通知を継続するようにしてもよい。 FIG. 9 is an explanatory diagram showing an example of notification timing. When the threshold value of the state transition score to be notified is set to, for example, 0.5, the notification unit 50 may notify the observer of the information of the monitored person at the timings T1 and T2 illustrated in FIG. good. Further, the notification unit 50 may continue the notification for a certain period of time after the threshold value is exceeded in consideration of the fluctuation of the state transition score.

また、通知部50が通知を行う方法も任意である。通知部50は、通知を行うと決定した被監視者の映像をモニタなどの表示装置(図示せず)に表示することにより、監視者に被監視者の情報を通知してもよい。また、通知部50は、通知対象となる被監視者の情報を他の被監視者と識別可能な態様で表示してもよい。また、通知部50は、音声で監視者に、通知を行うと決定した被監視者の情報を通知してもよい。 Further, the method in which the notification unit 50 gives a notification is also arbitrary. The notification unit 50 may notify the observer of the monitored person's information by displaying the image of the monitored person determined to perform the notification on a display device (not shown) such as a monitor. In addition, the notification unit 50 may display the information of the monitored person to be notified in a manner that can be distinguished from other monitored persons. In addition, the notification unit 50 may notify the observer of the information of the monitored person who has decided to notify the observer by voice.

さらに、通知部50は、通知するか判断するための基準を2種類以上設けてもよい。例えば、被監視者の情報を監視者に通知するか否か判断するためのしきい値を2段階設けてもよい。 Further, the notification unit 50 may provide two or more types of criteria for determining whether to notify. For example, a threshold value for determining whether or not to notify the observer of the monitored person's information may be set in two stages.

具体的には、通知部50は、状態遷移スコアが第一のしきい値を超えた場合に、カメラ12に対して被監視者の録画を開始させ、その後状態遷移スコアが第二のしきい値を超えた場合に、録画された映像を監視者に通知してもよい。一方、通知部50は、状態遷移スコアが第一のしきい値を超えた後、状態遷移スコアが第二のしきい値を超えずに第一のしきい値を下回った場合に、録画を停止し、録画された映像を通知しないようにしてもよい。そのようにすることで、異常状態の予兆を把握できる。 Specifically, the notification unit 50 causes the camera 12 to start recording the monitored person when the state transition score exceeds the first threshold value, and then the state transition score is the second threshold. When the value is exceeded, the recorded video may be notified to the observer. On the other hand, the notification unit 50 records when the state transition score exceeds the first threshold value and then falls below the first threshold value without exceeding the second threshold value. It may be stopped so that the recorded video is not notified. By doing so, it is possible to grasp the signs of an abnormal state.

生体情報取得部20と、様態取得部30と、演算部40(より具体的には、特徴量算出部42と、モデル学習部44と、スコア算出部46)と、通知部50とは、プログラム(監視用プログラム)に従って動作するコンピュータのプロセッサ(例えば、CPU(Central Processing Unit )、GPU(Graphics Processing Unit)、FPGA(field-programmable gate array ))によって実現される。 The biological information acquisition unit 20, the mode acquisition unit 30, the calculation unit 40 (more specifically, the feature amount calculation unit 42, the model learning unit 44, and the score calculation unit 46), and the notification unit 50 are programs. It is realized by a computer processor (for example, CPU (Central Processing Unit), GPU (Graphics Processing Unit), FPGA (field-programmable gate array)) that operates according to (monitoring program).

例えば、プログラムは、記憶部14に記憶され、プロセッサは、そのプログラムを読み込み、プログラムに従って、生体情報取得部20、様態取得部30、演算部40(より具体的には、特徴量算出部42、モデル学習部44およびスコア算出部46)および通知部50として動作してもよい。また、監視システムの機能がSaaS(Software as a Service )形式で提供されてもよい。 For example, the program is stored in the storage unit 14, the processor reads the program, and according to the program, the biological information acquisition unit 20, the mode acquisition unit 30, and the calculation unit 40 (more specifically, the feature amount calculation unit 42, It may operate as a model learning unit 44, a score calculation unit 46), and a notification unit 50. Further, the function of the monitoring system may be provided in the form of Software as a Service (SaaS).

生体情報取得部20と、様態取得部30と、演算部40(より具体的には、特徴量算出部42と、モデル学習部44と、スコア算出部46)と、通知部50とは、それぞれが専用のハードウェアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry )、プロセッサ等やこれらの組合せによって実現されもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。 The biological information acquisition unit 20, the mode acquisition unit 30, the calculation unit 40 (more specifically, the feature amount calculation unit 42, the model learning unit 44, and the score calculation unit 46), and the notification unit 50, respectively. May be realized by dedicated hardware. Further, a part or all of each component of each device may be realized by a general-purpose or dedicated circuitry, a processor, or a combination thereof. These may be composed of a single chip or may be composed of a plurality of chips connected via a bus. A part or all of each component of each device may be realized by a combination of the above-mentioned circuit or the like and a program.

また、監視システムの各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。 Further, when a part or all of each component of the monitoring system is realized by a plurality of information processing devices and circuits, the plurality of information processing devices and circuits may be centrally arranged or distributed. May be done. For example, the information processing device, the circuit, and the like may be realized as a form in which each of the client-server system, the cloud computing system, and the like is connected via a communication network.

次に、本実施形態の監視システムの動作を説明する。図10は、本実施形態の監視システムの動作例を示すフローチャートである。生体情報取得部20は、センサ10から被監視者の生体情報を取得する(ステップS31)。また、様態取得部30は、カメラ12が撮像した画像または映像に基づいて、被監視者の姿勢/位置を取得する(ステップS32)。スコア算出部46は、特徴量算出部42によって算出された特徴量と、モデル学習部44によって学習されたモデルとに基づいて、状態遷移スコアを算出する(ステップS33)。通知部50は、状態遷移スコアが予め定めた基準を満たすか否か判断する(ステップS34)。基準を満たす場合(ステップS34におけるYes)、通知部50は、被監視者の情報を監視者に通知する(ステップS35)。一方、基準を満たしていない場合(ステップS34におけるNo)、処理を終了する。 Next, the operation of the monitoring system of the present embodiment will be described. FIG. 10 is a flowchart showing an operation example of the monitoring system of the present embodiment. The biological information acquisition unit 20 acquires the biological information of the monitored person from the sensor 10 (step S31). Further, the mode acquisition unit 30 acquires the posture / position of the monitored person based on the image or video captured by the camera 12 (step S32). The score calculation unit 46 calculates the state transition score based on the feature amount calculated by the feature amount calculation unit 42 and the model learned by the model learning unit 44 (step S33). The notification unit 50 determines whether or not the state transition score satisfies a predetermined criterion (step S34). When the criterion is satisfied (Yes in step S34), the notification unit 50 notifies the observer of the information of the monitored person (step S35). On the other hand, if the criteria are not satisfied (No in step S34), the process ends.

以上のように、本実施形態では、生体情報取得部20が、被監視者の生体情報を取得し、様態取得部30が、被監視者を撮像した画像または映像に基づいて、その被監視者の様態である姿勢および位置の少なくとも一方を取得する。また、特徴量算出部42が、取得された生体情報および様態に基づいて、被監視者の特徴を表す特徴量を算出し、スコア算出部46が特徴量をモデルに適用することで、被監視者の状態遷移スコアを算出する。そして、通知部50が、算出された状態遷移スコアが予め定めた基準を満たす被監視者の情報を監視者に通知する。よって、監視者の負荷を軽減しつつ、異常行動のおそれがある被監視者を適切に監視できる。 As described above, in the present embodiment, the biometric information acquisition unit 20 acquires the biometric information of the monitored person, and the mode acquisition unit 30 acquires the monitored person based on the image or video captured by the monitored person. Acquire at least one of the posture and position, which is a mode of. Further, the feature amount calculation unit 42 calculates the feature amount representing the characteristics of the monitored person based on the acquired biological information and the mode, and the score calculation unit 46 applies the feature amount to the model to be monitored. Calculate the state transition score of the person. Then, the notification unit 50 notifies the observer of the information of the monitored person whose calculated state transition score satisfies the predetermined standard. Therefore, it is possible to appropriately monitor the monitored person who may behave abnormally while reducing the load on the monitor.

例えば、全てのカメラ映像を確認しようとすると監視者の負荷が大きくなってしまう。そこで、本実施形態では、通知部50が、状態遷移スコアを用いて特定の条件になった対象者のみを監視することができるため、監視者の負荷を軽減できる。また、設定すべき情報(例えば、評価パラメータ)の種類が多すぎると調整の負荷も大きくなってしまう。本実施形態では、機械学習により過去の事例を学習し、監視者に通知する基準を設定すればよいため、人ごとの調整を必要とせず、負荷を上げずに異常状態を検知することが可能になる。 For example, if you try to check all the camera images, the load on the observer will increase. Therefore, in the present embodiment, the notification unit 50 can monitor only the target person who meets the specific condition by using the state transition score, so that the load on the monitorer can be reduced. Further, if there are too many types of information (for example, evaluation parameters) to be set, the adjustment load becomes heavy. In the present embodiment, since it is sufficient to learn past cases by machine learning and set a standard for notifying the observer, it is possible to detect an abnormal state without increasing the load without requiring adjustment for each person. become.

なお、本実施形態では、モデル学習部44が、過去のデータに基づいてモデルを学習する場合について説明した。さらに、モデル学習部44は、被監視者について新たに取得した学習データ(より具体的には、被監視者について新たに取得した、異常が発生した特定期間の生体情報および様態と、異常が発生していない特定期間の生体情報および様態)に基づいて、モデルを更新してもよい。そのような構成によれば、状態遷移スコアを算出する精度を向上できる。 In this embodiment, the case where the model learning unit 44 learns the model based on the past data has been described. Further, the model learning unit 44 has newly acquired learning data about the monitored person (more specifically, the biological information and mode of the monitored person during a specific period in which the abnormality has occurred, and the abnormality has occurred. The model may be updated based on biometric information and modalities for a specific period of time that has not been done. According to such a configuration, the accuracy of calculating the state transition score can be improved.

実施形態2.
次に、本発明の監視システムの第2の実施形態を説明する。図11は、本発明の監視システムの第2の実施形態の構成例を示すブロック図である。本実施形態の監視システム200は、センサ10と、カメラ12と、記憶部14と、生体情報取得部20と、様態取得部30と、演算部40aと、通知部50とを備えている。
Embodiment 2.
Next, a second embodiment of the monitoring system of the present invention will be described. FIG. 11 is a block diagram showing a configuration example of a second embodiment of the monitoring system of the present invention. The monitoring system 200 of the present embodiment includes a sensor 10, a camera 12, a storage unit 14, a biological information acquisition unit 20, a mode acquisition unit 30, a calculation unit 40a, and a notification unit 50.

センサ10、カメラ12、記憶部14、生体情報取得部20、様態取得部30および通知部50の構成は、第1の実施形態と同様である。 The configuration of the sensor 10, the camera 12, the storage unit 14, the biological information acquisition unit 20, the mode acquisition unit 30, and the notification unit 50 is the same as in the first embodiment.

演算部40aは、特徴量算出部42と、モデル学習部44aと、スコア算出部46aとを含む。特徴量算出部42の構成は、第1の実施形態と同様である。 The calculation unit 40a includes a feature amount calculation unit 42, a model learning unit 44a, and a score calculation unit 46a. The configuration of the feature amount calculation unit 42 is the same as that of the first embodiment.

モデル学習部44aは、被監視者が正常状態か異常状態かを識別するモデルを学習する。本実施形態では、モデル学習部44aは、被監視者の状態を目的変数とし、被監視者の生体情報および様態並びに付加情報を説明変数とするモデルを学習する。すなわち、本実施形態のモデル学習部44aは、付加情報も考慮して被監視者の状態を識別するモデルを学習する点において、第1の実施形態と異なる。 The model learning unit 44a learns a model for identifying whether the monitored person is in a normal state or an abnormal state. In the present embodiment, the model learning unit 44a learns a model in which the state of the monitored person is used as an objective variable and the biological information and mode of the monitored person and additional information are used as explanatory variables. That is, the model learning unit 44a of the present embodiment is different from the first embodiment in that it learns a model for identifying the state of the monitored person in consideration of additional information.

付加情報は、被監視者の周囲環境を表す環境情報、および、被監視者の属性を表す対象者情報を含む。環境情報として、監視時点の時間帯(昼か夜か)、気温、湿度、天気、気圧などが挙げられる。また、対象者情報として、被監視者の年齢、性別、飲食摂取、家庭環境、健康状態などが挙げられる。付加情報のうち環境情報を、環境センサ(図示せず)から取得してもよいし、他のシステム(図示せず)から取得してもよい。付加情報のうち対象者情報を、他のシステム(図示せず)から取得してもよい。 The additional information includes environmental information representing the surrounding environment of the monitored person and target person information representing the attributes of the monitored person. Environmental information includes the time zone (day or night) at the time of monitoring, temperature, humidity, weather, atmospheric pressure, and the like. In addition, the target person information includes the age, gender, food and drink intake, home environment, health condition, etc. of the monitored person. Of the additional information, the environmental information may be acquired from an environmental sensor (not shown) or from another system (not shown). Of the additional information, the target person information may be acquired from another system (not shown).

スコア算出部46aは、算出された特徴量および付加情報、並びに、上記モデルを用いて状態遷移スコアを算出する。 The score calculation unit 46a calculates the state transition score using the calculated feature amount and additional information, and the above model.

図12は、状態遷移スコアを算出する処理の例を示すフローチャートである。特徴量Y(t)を算出する処理は、図7におけるステップS21と同様である。スコア算出部46aは、算出された特徴量Y(t)および付加情報をモデルに適用して、状態遷移スコアを算出する(ステップS41)。そして、スコア算出部46aは、算出した状態遷移スコアを通知部50に出力する(ステップS23)。 FIG. 12 is a flowchart showing an example of processing for calculating the state transition score. The process of calculating the feature amount Y (t) is the same as in step S21 in FIG. The score calculation unit 46a applies the calculated feature amount Y (t) and additional information to the model to calculate the state transition score (step S41). Then, the score calculation unit 46a outputs the calculated state transition score to the notification unit 50 (step S23).

生体情報取得部20と、様態取得部30と、演算部40a(より具体的には、特徴量算出部42と、モデル学習部44aと、スコア算出部46a)と、通知部50とは、プログラム(監視用プログラム)に従って動作するコンピュータのプロセッサによって実現される。 The biological information acquisition unit 20, the mode acquisition unit 30, the calculation unit 40a (more specifically, the feature amount calculation unit 42, the model learning unit 44a, and the score calculation unit 46a), and the notification unit 50 are programs. It is realized by the processor of the computer that operates according to (monitoring program).

以上のように、本実施形態ではモデル学習部44aは、第1の実施形態のモデル学習部44が用いる学習データに加え、付加情報として、被監視者の周囲環境を表す環境情報または被監視者の属性を表す対象者情報を含む学習データを用いて状態遷移スコアを算出するモデルを学習する。そのため、第1の実施形態の効果に加え、異常行動のおそれがある被監視者をより精度高く監視できる。 As described above, in the present embodiment, the model learning unit 44a, in addition to the learning data used by the model learning unit 44 of the first embodiment, provides additional information such as environmental information representing the surrounding environment of the monitored person or the monitored person. A model for calculating a state transition score is learned using learning data including subject information representing the attributes of. Therefore, in addition to the effect of the first embodiment, it is possible to monitor the monitored person who may have abnormal behavior with higher accuracy.

また、本実施形態のモデル学習部44aも、被監視者について新たに取得した学習データ(より具体的には、被監視者について新たに取得した、異常が発生した特定期間の生体情報および様態並びに付加情報と、異常が発生していない特定期間の生体情報および様態並びに付加情報)に基づいて、モデルを更新してもよい。そのような構成によれば、状態遷移スコアを算出する精度を向上できる。 In addition, the model learning unit 44a of the present embodiment also newly acquired learning data for the monitored person (more specifically, biological information and mode of the specified period in which the abnormality occurred, which was newly acquired for the monitored person, and The model may be updated based on the additional information and the biological information and mode and additional information during a specific period in which no abnormality has occurred. According to such a configuration, the accuracy of calculating the state transition score can be improved.

次に、本発明の概要を説明する。図13は、本発明による監視システムの概要を示すブロック図である。本発明による監視システム80(例えば、監視システム100)は、被監視者の生体情報を取得する生体情報取得部81(例えば、生体情報取得部20)と、被監視者を撮像した画像または映像に基づいて、その被監視者の様態である姿勢および位置の少なくとも一方を取得する様態取得部82(例えば、様態取得部30)と、取得された生体情報および様態に基づいて、被監視者の特徴を表す特徴量を算出する特徴量算出部83(例えば、特徴量算出部42)と、被監視者の状態を目的変数とし、被監視者の生体情報および様態を説明変数とするモデルに対して、特徴量を適用することにより、被監視者の平常状態を表すスコアである状態遷移スコアを算出するスコア算出部84(例えば、スコア算出部46)と、算出された状態遷移スコアが予め定めた基準を満たす被監視者の情報を監視者に通知する通知部85(例えば、通知部50)とを備えている。 Next, the outline of the present invention will be described. FIG. 13 is a block diagram showing an outline of the monitoring system according to the present invention. The monitoring system 80 (for example, the monitoring system 100) according to the present invention includes a biological information acquisition unit 81 (for example, a biological information acquisition unit 20) that acquires biological information of a monitored person, and an image or video image of the monitored person. Based on the mode acquisition unit 82 (for example, the mode acquisition unit 30) that acquires at least one of the posture and the position, which is the mode of the monitored person, and the characteristics of the monitored person based on the acquired biological information and the mode. For a feature amount calculation unit 83 (for example, a feature amount calculation unit 42) that calculates a feature amount representing the above, and a model in which the state of the monitored person is used as an objective variable and the biometric information and mode of the monitored person are used as explanatory variables. The score calculation unit 84 (for example, the score calculation unit 46) that calculates the state transition score, which is a score representing the normal state of the monitored person, and the calculated state transition score are predetermined by applying the feature amount. It is provided with a notification unit 85 (for example, a notification unit 50) that notifies the observer of information on the monitored person that meets the criteria.

そのような構成により、監視者の負荷を軽減しつつ、異常行動のおそれがある被監視者を適切に監視できる。 With such a configuration, it is possible to appropriately monitor the monitored person who may behave abnormally while reducing the load on the monitor.

また、監視システム80は、被監視者の生体情報および様態並びにその被監視者の状態を示す情報を含む学習データを用いて、被監視者の状態の識別に用いられる状態遷移スコアを算出するモデルを学習する学習部(例えば、モデル学習部44)を備えていてもよい。そして、スコア算出部84は、モデルに対して特徴量を適用することにより、状態遷移スコアを算出してもよい。 Further, the monitoring system 80 is a model for calculating a state transition score used for identifying the state of the monitored person by using learning data including the biological information and mode of the monitored person and information indicating the state of the monitored person. A learning unit (for example, a model learning unit 44) for learning the above may be provided. Then, the score calculation unit 84 may calculate the state transition score by applying the feature amount to the model.

さらに、学習部は、付加情報として、被監視者の周囲環境を表す環境情報または被監視者の属性を表す対象者情報を含む学習データを用いて状態遷移スコアを算出するモデルを学習し、スコア算出部は、被監視者の状態を目的変数とし、被監視者の生体情報および様態並びに付加情報を説明変数とするモデルに対して特徴量を適用することにより状態遷移スコアを算出してもよい。 Further, the learning unit learns a model for calculating the state transition score using learning data including environmental information representing the surrounding environment of the monitored person or target person information representing the attributes of the monitored person as additional information, and scores. The calculation unit may calculate the state transition score by applying the feature amount to the model in which the state of the monitored person is used as the objective variable and the biological information and mode of the monitored person and the additional information are used as explanatory variables. ..

具体的には、学習部は、過去のいずれかの被監視者について、異常が発生した特定期間の生体情報および様態と、異常が発生していない特定期間の生体情報および様態とを含む学習データを用いてモデルを学習してもよい。 Specifically, the learning unit provides learning data including biological information and mode of a specific period in which an abnormality has occurred and biological information and mode of a specific period in which an abnormality has not occurred for any of the past monitored persons. The model may be trained using.

また、学習部は、被監視者について新たに取得した学習データを用いてモデルを更新してもよい。 In addition, the learning unit may update the model using the newly acquired learning data for the monitored person.

また、生体情報取得部81は、非接触センサを用いて検出した情報から被監視者の生体情報を取得してもよい。 Further, the biometric information acquisition unit 81 may acquire the biometric information of the monitored person from the information detected by using the non-contact sensor.

また、通知部85は、状態遷移スコアが予め定めたしきい値を超えた被監視者の情報を監視者に通知してもよい。 Further, the notification unit 85 may notify the observer of the information of the monitored person whose state transition score exceeds a predetermined threshold value.

他にも、通知部85は、状態遷移スコアが予め定めた数の上位の被監視者の情報を監視者に通知してもよい。 In addition, the notification unit 85 may notify the observer of the information of the monitored person whose state transition score is higher than the predetermined number.

また、通知部85は、状態遷移スコアが第一のしきい値を超えた場合に被監視者の映像を録画させ、その後にその被監視者の状態遷移スコアが第二のしきい値を超えた場合に、録画された映像を監視者に通知してもよい。 Further, the notification unit 85 records the video of the monitored person when the state transition score exceeds the first threshold value, and then the state transition score of the monitored person exceeds the second threshold value. In that case, the recorded video may be notified to the observer.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 Some or all of the above embodiments may also be described, but not limited to:

(付記1)被監視者の生体情報を取得する生体情報取得部と、被監視者を撮像した画像または映像に基づいて、当該被監視者の様態である姿勢および位置の少なくとも一方を取得する様態取得部と、取得された生体情報および様態に基づいて、被監視者の特徴を表す特徴量を算出する特徴量算出部と、被監視者の状態を目的変数とし、被監視者の生体情報および様態を説明変数とするモデルに対して、前記特徴量を適用することにより、被監視者の平常状態を表すスコアである状態遷移スコアを算出するスコア算出部と、算出された状態遷移スコアが予め定めた基準を満たす被監視者の情報を監視者に通知する通知部とを備えたことを特徴とする監視システム。 (Appendix 1) A mode of acquiring at least one of the posture and the position, which are the modes of the monitored person, based on the biometric information acquisition unit that acquires the biometric information of the monitored person and the image or video of the monitored person. The acquisition unit, the feature amount calculation unit that calculates the feature amount representing the characteristics of the monitored person based on the acquired biological information and the mode, and the biological information of the monitored person and the biological information of the monitored person and the state of the monitored person as objective variables. By applying the feature amount to a model using a mode as an explanatory variable, a score calculation unit that calculates a state transition score, which is a score representing the normal state of the monitored person, and a calculated state transition score are obtained in advance. A monitoring system characterized in that it is equipped with a notification unit that notifies the monitor of the information of the monitored person who meets the set criteria.

(付記2)被監視者の生体情報および様態並びに当該被監視者の状態を示す情報を含む学習データを用いて、被監視者の状態の識別に用いられる状態遷移スコアを算出するモデルを学習する学習部を備え、スコア算出部は、前記モデルに対して特徴量を適用することにより、状態遷移スコアを算出する付記1記載の監視システム。 (Appendix 2) A model for calculating the state transition score used for identifying the state of the monitored person is learned by using the learning data including the biological information and mode of the monitored person and the information indicating the state of the monitored person. The monitoring system according to Appendix 1, which includes a learning unit, and the score calculation unit calculates a state transition score by applying a feature amount to the model.

(付記3)前記学習部は、付加情報として、被監視者の周囲環境を表す環境情報または被監視者の属性を表す対象者情報を含む学習データを用いて状態遷移スコアを算出するモデルを学習し、前記スコア算出部は、被監視者の状態を目的変数とし、被監視者の生体情報および様態並びに付加情報を説明変数とするモデルに対して特徴量を適用することにより状態遷移スコアを算出する付記2記載の監視システム。 (Appendix 3) The learning unit learns a model for calculating a state transition score using learning data including environmental information representing the surrounding environment of the monitored person or target person information representing the attributes of the monitored person as additional information. Then, the score calculation unit calculates the state transition score by applying the feature amount to the model in which the state of the monitored person is used as the objective variable and the biological information and mode of the monitored person and the additional information are used as explanatory variables. The monitoring system described in Appendix 2.

(付記4)前記学習部は、過去のいずれかの被監視者について、異常が発生した特定期間の生体情報および様態と、異常が発生していない特定期間の生体情報および様態とを含む学習データを用いてモデルを学習する付記2または付記3のうちのいずれか1つに記載の監視システム。 (Appendix 4) The learning unit includes learning data including biological information and mode of a specific period in which an abnormality has occurred and biological information and mode of a specific period in which an abnormality has not occurred for any of the past monitored persons. The monitoring system according to any one of Appendix 2 and Appendix 3 for learning a model using the above.

(付記5)前記学習部は、被監視者について新たに取得した学習データを用いてモデルを更新する付記2から付記4のうちのいずれか1項に記載の監視システム。 (Appendix 5) The monitoring system according to any one of Appendix 2 to Appendix 4, wherein the learning unit updates a model using newly acquired learning data for the monitored person.

(付記6)前記生体情報取得部は、非接触センサを用いて検出した情報から被監視者の生体情報を取得する付記1から付記5のうちのいずれか1つに記載の監視システム。 (Supplementary note 6) The monitoring system according to any one of Supplementary note 1 to Supplementary note 5, wherein the biometric information acquisition unit acquires biometric information of a monitored person from information detected by using a non-contact sensor.

(付記7)前記通知部は、状態遷移スコアが予め定めたしきい値を超えた被監視者の情報を監視者に通知する付記1から付記6のうちのいずれか1つに記載の監視システム。 (Appendix 7) The monitoring system according to any one of Appendix 1 to Appendix 6 in which the notification unit notifies the observer of information on a monitored person whose state transition score exceeds a predetermined threshold value. ..

(付記8)前記通知部は、状態遷移スコアが予め定めた数の上位の被監視者の情報を監視者に通知する付記1から付記6のうちのいずれか1つに記載の監視システム。 (Appendix 8) The monitoring system according to any one of Appendix 1 to Appendix 6 in which the notification unit notifies the observer of information on a monitored person having a state transition score higher than a predetermined number.

(付記9)前記通知部は、状態遷移スコアが第一のしきい値を超えた場合に被監視者の映像を録画させ、その後に当該被監視者の状態遷移スコアが第二のしきい値を超えた場合に、録画された映像を監視者に通知する付記1から付記8のうちのいずれか1つに記載の監視システム。 (Appendix 9) The notification unit records a video of the monitored person when the state transition score exceeds the first threshold value, and then the state transition score of the monitored person reaches the second threshold value. The monitoring system according to any one of Appendix 1 to Appendix 8 for notifying the observer of the recorded video when the above value is exceeded.

(付記10)被監視者の生体情報を取得し、被監視者を撮像した画像または映像に基づいて、当該被監視者の様態である姿勢および位置の少なくとも一方を取得し、取得された生体情報および様態に基づいて、被監視者の特徴を表す特徴量を算出し、被監視者の状態を目的変数とし、被監視者の生体情報および様態を説明変数とするモデルに対して、前記特徴量を適用することにより、被監視者の平常状態を表すスコアである状態遷移スコアを算出し、算出された状態遷移スコアが予め定めた基準を満たす被監視者の情報を監視者に通知することを特徴とする監視方法。 (Appendix 10) The biometric information of the monitored person is acquired, and at least one of the posture and the position, which is the mode of the monitored person, is acquired based on the image or video of the monitored person, and the acquired biometric information is obtained. Based on the above and the mode, the feature amount representing the characteristics of the monitored person is calculated, the state of the monitored person is used as the objective variable, and the biological information and the mode of the monitored person are used as explanatory variables. By applying, the state transition score, which is a score representing the normal state of the monitored person, is calculated, and the monitored person is notified of the information of the monitored person whose calculated state transition score meets a predetermined standard. A characteristic monitoring method.

(付記11)被監視者の生体情報および様態並びに当該被監視者の状態を示す情報を含む学習データを用いて、被監視者の状態の識別に用いられる状態遷移スコアを算出するモデルを学習し、前記モデルに対して特徴量を適用することにより、状態遷移スコアを算出する付記10記載の監視方法。 (Appendix 11) Using learning data including biometric information and mode of the monitored person and information indicating the state of the monitored person, a model for calculating a state transition score used for identifying the state of the monitored person is learned. , The monitoring method according to Appendix 10 for calculating a state transition score by applying a feature amount to the model.

(付記12)コンピュータに、被監視者の生体情報を取得する生体情報取得処理、被監視者を撮像した画像または映像に基づいて、当該被監視者の様態である姿勢および位置の少なくとも一方を取得する様態取得処理、取得された生体情報および様態に基づいて、被監視者の特徴を表す特徴量を算出する特徴量算出処理、被監視者の状態を目的変数とし、被監視者の生体情報および様態を説明変数とするモデルに対して、前記特徴量を適用することにより、被監視者の平常状態を表すスコアである状態遷移スコアを算出するスコア算出処理、および、算出された状態遷移スコアが予め定めた基準を満たす被監視者の情報を監視者に通知する通知処理を実行させるための監視用プログラム。 (Appendix 12) A computer acquires at least one of the posture and position, which are the modes of the monitored person, based on the biometric information acquisition process for acquiring the biometric information of the monitored person and the image or video of the monitored person. Mode acquisition process, feature amount calculation process to calculate the feature amount representing the characteristics of the monitored person based on the acquired biological information and mode, the biometric information of the monitored person and the biometric information of the monitored person with the state of the monitored person as the objective variable. By applying the feature amount to a model using a mode as an explanatory variable, a score calculation process for calculating a state transition score, which is a score representing the normal state of the monitored person, and a calculated state transition score are obtained. A monitoring program for executing a notification process that notifies the monitor of the information of the monitored person who meets the predetermined criteria.

(付記13)コンピュータに、被監視者の生体情報および様態並びに当該被監視者の状態を示す情報を含む学習データを用いて、被監視者の状態の識別に用いられる状態遷移スコアを算出するモデルを学習する学習処理を実行させ、スコア算出処理で、前記モデルに対して特徴量を適用することにより、状態遷移スコアを算出させる付記12記載の監視用プログラム。 (Appendix 13) A model for calculating a state transition score used for identifying the state of a monitored person by using learning data including biometric information and a mode of the monitored person and information indicating the state of the monitored person on a computer. The monitoring program according to Appendix 12, wherein a learning process for learning the above is executed, and a state transition score is calculated by applying a feature amount to the model in the score calculation process.

本発明は、例えば、刑務所、留置所および拘置所並びに精神科病棟などにおいて異常行動を生じ得る対象者を監視する監視システムに好適に適用される。 The present invention is suitably applied to, for example, a monitoring system for monitoring a subject who may cause abnormal behavior in a prison, a detention center, a detention center, a psychiatric ward, or the like.

10 センサ
12 カメラ
14 記憶部
20 生体情報取得部
30 様態取得部
40,40a 演算部
42 特徴量算出部
44,44a モデル学習部
46,46a スコア算出部
50 通知部
100,200 監視システム
10 Sensor 12 Camera 14 Storage unit 20 Biological information acquisition unit 30 Mode acquisition unit 40, 40a Calculation unit 42 Feature amount calculation unit 44, 44a Model learning unit 46, 46a Score calculation unit 50 Notification unit 100, 200 Monitoring system

Claims (10)

被監視者の生体情報を取得する生体情報取得部と、
被監視者を撮像した画像または映像に基づいて、当該被監視者の様態である姿勢および位置の少なくとも一方を取得する様態取得部と、
取得された生体情報および様態に基づいて、被監視者の特徴を表す特徴量を算出する特徴量算出部と、
被監視者の状態を目的変数とし、被監視者の生体情報および様態を説明変数とするモデルに対して、前記特徴量を適用することにより、被監視者の平常状態を表すスコアである状態遷移スコアを算出するスコア算出部と、
算出された状態遷移スコアが予め定めた基準を満たす被監視者の情報を監視者に通知する通知部とを備え
前記通知部は、前記状態遷移スコアが第一のしきい値を超えた場合に被監視者の映像を録画させ、その後に当該被監視者の前記状態遷移スコアが第二のしきい値を超えた場合に、録画された映像を監視者に通知する
ことを特徴とする監視システム。
The biometric information acquisition unit that acquires the biometric information of the monitored person,
A mode acquisition unit that acquires at least one of the posture and position, which is the mode of the monitored person, based on the image or video of the monitored person.
A feature amount calculation unit that calculates a feature amount representing the characteristics of the monitored person based on the acquired biological information and mode, and a feature amount calculation unit.
By applying the feature amount to a model whose objective variable is the state of the monitored person and the biological information and mode of the monitored person are used as explanatory variables, the state transition is a score representing the normal state of the monitored person. The score calculation unit that calculates the score and
It is equipped with a notification unit that notifies the observer of the information of the monitored person whose calculated state transition score meets a predetermined standard .
The notification unit records a video of the monitored person when the state transition score exceeds the first threshold value, and then the state transition score of the monitored person exceeds the second threshold value. A surveillance system characterized in that the recorded video is notified to the observer in the event of a failure.
被監視者の生体情報および様態並びに当該被監視者の状態を示す情報を含む学習データを用いて、被監視者の状態の識別に用いられる状態遷移スコアを算出するモデルを学習する学習部を備え、
前記スコア算出部は、前記モデルに対して特徴量を適用することにより、状態遷移スコアを算出する
請求項1記載の監視システム。
It is equipped with a learning unit that learns a model that calculates a state transition score used to identify the state of the monitored person using learning data that includes the biological information and mode of the monitored person and information indicating the state of the monitored person. ,
The monitoring system according to claim 1, wherein the score calculation unit calculates a state transition score by applying a feature amount to the model.
前記学習部は、付加情報として、被監視者の周囲環境を表す環境情報または被監視者の属性を表す対象者情報を含む学習データを用いて状態遷移スコアを算出するモデルを学習し、
前記スコア算出部は、被監視者の状態を目的変数とし、被監視者の生体情報および様態並びに付加情報を説明変数とするモデルに対して特徴量を適用することにより状態遷移スコアを算出する
請求項2記載の監視システム。
The learning unit learns a model for calculating a state transition score using learning data including environmental information representing the surrounding environment of the monitored person or target person information representing the attributes of the monitored person as additional information.
The score calculation unit calculates a state transition score by applying a feature amount to a model in which the state of the monitored person is used as an objective variable and the biological information and mode of the monitored person and additional information are used as explanatory variables. Item 2. The monitoring system according to item 2.
前記学習部は、過去のいずれかの被監視者について、異常が発生した特定期間の生体情報および様態と、異常が発生していない特定期間の生体情報および様態とを含む学習データを用いてモデルを学習する
請求項2または請求項3のうちのいずれか1項に記載の監視システム。
The learning unit uses learning data including biological information and mode of a specific period in which an abnormality has occurred and biological information and mode of a specific period in which an abnormality has not occurred for any of the past monitored persons. The monitoring system according to any one of claim 2 and 3.
前記学習部は、被監視者について新たに取得した学習データを用いてモデルを更新する
請求項2から請求項4のうちのいずれか1項に記載の監視システム。
The monitoring system according to any one of claims 2 to 4, wherein the learning unit updates a model using newly acquired learning data for the monitored person.
前記生体情報取得部は、非接触センサを用いて検出した情報から被監視者の生体情報を取得する
請求項1から請求項5のうちのいずれか1項に記載の監視システム。
The monitoring system according to any one of claims 1 to 5, wherein the biometric information acquisition unit acquires biometric information of a monitored person from information detected by using a non-contact sensor.
前記通知部は、状態遷移スコアが予め定めたしきい値を超えた被監視者の情報を監視者に通知する
請求項1から請求項6のうちのいずれか1項に記載の監視システム。
The monitoring system according to any one of claims 1 to 6, wherein the notification unit notifies the monitor of information on a monitored person whose state transition score exceeds a predetermined threshold value.
前記通知部は、状態遷移スコアが予め定めた数の上位の被監視者の情報を監視者に通知する
請求項1から請求項6のうちのいずれか1項に記載の監視システム。
The monitoring system according to any one of claims 1 to 6, wherein the notification unit notifies the monitor of information on a monitored person having a state transition score higher than a predetermined number.
被監視者の生体情報を取得し、
被監視者を撮像した画像または映像に基づいて、当該被監視者の様態である姿勢および位置の少なくとも一方を取得し、
取得された生体情報および様態に基づいて、被監視者の特徴を表す特徴量を算出し、
被監視者の状態を目的変数とし、被監視者の生体情報および様態を説明変数とするモデルに対して、前記特徴量を適用することにより、被監視者の平常状態を表すスコアである状態遷移スコアを算出し、
算出された状態遷移スコアが予め定めた基準を満たす被監視者の情報を監視者に通知し、
前記通知の際、前記状態遷移スコアが第一のしきい値を超えた場合に被監視者の映像を録画させ、その後に当該被監視者の前記状態遷移スコアが第二のしきい値を超えた場合に、録画された映像を監視者に通知する
ことを特徴とする監視方法。
Acquires the biometric information of the person being monitored,
Based on the image or video image of the monitored person, at least one of the posture and position, which is the mode of the monitored person, is acquired.
Based on the acquired biometric information and mode, the feature amount representing the characteristics of the monitored person is calculated.
By applying the feature amount to a model whose objective variable is the state of the monitored person and the biological information and mode of the monitored person are used as explanatory variables, the state transition is a score representing the normal state of the monitored person. Calculate the score,
Notify the observer of the information of the monitored person whose calculated state transition score meets a predetermined standard, and notify the observer .
At the time of the notification, when the state transition score exceeds the first threshold value, the video of the monitored person is recorded, and then the state transition score of the monitored person exceeds the second threshold value. A monitoring method characterized in that the recorded video is notified to the observer in the event of a failure.
コンピュータに、
被監視者の生体情報を取得する生体情報取得処理、
被監視者を撮像した画像または映像に基づいて、当該被監視者の様態である姿勢および位置の少なくとも一方を取得する様態取得処理、
取得された生体情報および様態に基づいて、被監視者の特徴を表す特徴量を算出する特徴量算出処理、
被監視者の状態を目的変数とし、被監視者の生体情報および様態を説明変数とするモデルに対して、前記特徴量を適用することにより、被監視者の平常状態を表すスコアである状態遷移スコアを算出するスコア算出処理、および、
算出された状態遷移スコアが予め定めた基準を満たす被監視者の情報を監視者に通知する通知処理を実行させ、
前記通知処理で、前記状態遷移スコアが第一のしきい値を超えた場合に被監視者の映像を録画させ、その後に当該被監視者の前記状態遷移スコアが第二のしきい値を超えた場合に、録画された映像を監視者に通知させる
ための監視用プログラム。
On the computer
Biometric information acquisition processing to acquire biometric information of the monitored person,
A mode acquisition process for acquiring at least one of the posture and position of the monitored person based on the image or video captured by the monitored person.
Feature amount calculation processing that calculates the feature amount representing the feature of the monitored person based on the acquired biological information and mode,
By applying the feature amount to a model whose objective variable is the state of the monitored person and the biological information and mode of the monitored person are used as explanatory variables, the state transition is a score representing the normal state of the monitored person. Score calculation process to calculate the score, and
A notification process is executed to notify the observer of the information of the monitored person whose calculated state transition score meets a predetermined standard.
In the notification process, when the state transition score exceeds the first threshold value, the video of the monitored person is recorded, and then the state transition score of the monitored person exceeds the second threshold value. A monitoring program for notifying the observer of the recorded video in the event of a failure.
JP2019555100A 2017-11-21 2017-11-21 Monitoring system, monitoring method and monitoring program Active JP6943290B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/041807 WO2019102521A1 (en) 2017-11-21 2017-11-21 Monitoring system, monitoring method, and monitoring program

Publications (2)

Publication Number Publication Date
JPWO2019102521A1 JPWO2019102521A1 (en) 2020-11-19
JP6943290B2 true JP6943290B2 (en) 2021-09-29

Family

ID=66630555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019555100A Active JP6943290B2 (en) 2017-11-21 2017-11-21 Monitoring system, monitoring method and monitoring program

Country Status (2)

Country Link
JP (1) JP6943290B2 (en)
WO (1) WO2019102521A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020160518A (en) * 2019-03-25 2020-10-01 新明工業株式会社 Failure prediction system
KR102385398B1 (en) * 2020-03-05 2022-04-13 주식회사 렙딥 Apparatus and Method for Detecting pessimistic Action based on IT-BT Convergence Technology
JP6897824B1 (en) * 2020-03-11 2021-07-07 株式会社リコー Information processing equipment, information processing systems, information provision methods, and programs
WO2023105725A1 (en) * 2021-12-09 2023-06-15 日本電気株式会社 Time series data processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11338848A (en) * 1998-05-26 1999-12-10 Ffc:Kk Data abnormality detector
JP6441639B2 (en) * 2014-10-24 2018-12-19 吉田 一雄 Suicide control system
US10846537B2 (en) * 2015-09-30 2020-11-24 Nec Corporation Information processing device, determination device, notification system, information transmission method, and program

Also Published As

Publication number Publication date
WO2019102521A1 (en) 2019-05-31
JPWO2019102521A1 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
JP6943290B2 (en) Monitoring system, monitoring method and monitoring program
US7613324B2 (en) Detection of change in posture in video
AU2018217437B2 (en) System for identifying a defined object
JP2022002399A (en) Monitoring system and monitoring method
US10841501B2 (en) Photographing control apparatus and photographing control method
Wang et al. Real-time camera anomaly detection for real-world video surveillance
JP6801459B2 (en) Information processing equipment, bullying detection methods, information processing systems, and computer programs
US20210124914A1 (en) Training method of network, monitoring method, system, storage medium and computer device
JP6336709B2 (en) Security device, security method and program
US11461441B2 (en) Machine learning-based anomaly detection for human presence verification
US11145174B2 (en) Methods and system for monitoring an environment
US20200311440A1 (en) Image processing apparatus and image processing method for image analysis process
US20230360796A1 (en) Systems and methods for determining and using health conditions based on machine learning algorithms and a smart vital device
Thummala et al. Fall detection using motion history image and shape deformation
CN114495270A (en) Real-time monitoring and early warning method, device and system and storage medium
JP7446060B2 (en) Information processing device, program and information processing method
KR101357721B1 (en) Apparatus for detecting of single elderly persons’ abnormal situation using image and method thereof
Bauer et al. Modeling bed exit likelihood in a camera-based automated video monitoring application
US20200226048A1 (en) Monitoring system, monitoring method, and computer program product
JP7211441B2 (en) Arousal level estimation device, arousal level estimation method, and program
US20220370009A1 (en) Stress estimation device, stress estimation method, and recording media
Lupión et al. Detection of unconsciousness in falls using thermal vision sensors
JP4637564B2 (en) Status detection device, status detection method, program, and recording medium
WO2024004210A1 (en) Information processing program, information processing method, and information processing device
Edgcomb et al. Automated in-home assistive monitoring with privacy-enhanced video

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210823

R150 Certificate of patent or registration of utility model

Ref document number: 6943290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150