JP7483486B2 - Monitoring system, monitoring device, monitoring method, and program - Google Patents

Monitoring system, monitoring device, monitoring method, and program Download PDF

Info

Publication number
JP7483486B2
JP7483486B2 JP2020083924A JP2020083924A JP7483486B2 JP 7483486 B2 JP7483486 B2 JP 7483486B2 JP 2020083924 A JP2020083924 A JP 2020083924A JP 2020083924 A JP2020083924 A JP 2020083924A JP 7483486 B2 JP7483486 B2 JP 7483486B2
Authority
JP
Japan
Prior art keywords
monitored
standing
movement
machine learning
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020083924A
Other languages
Japanese (ja)
Other versions
JP2021179726A (en
Inventor
賢也 小林
健宏 馬渕
智子 浅野
裕 香島
久尚 高橋
永勲 高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2020083924A priority Critical patent/JP7483486B2/en
Publication of JP2021179726A publication Critical patent/JP2021179726A/en
Application granted granted Critical
Publication of JP7483486B2 publication Critical patent/JP7483486B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Description

本開示は、監視システム、監視装置、監視方法、及びプログラムに関する。 This disclosure relates to a monitoring system, a monitoring device, a monitoring method, and a program.

例えば介護施設のような現場において、要看護者又は要介護者などのような被監視者の行動を監視する装置が提案されている。例えば、特許文献1は、撮像装置で得られた画像に基づいて、被監視者における所定の行動を検知する被監視者監視システムを開示している。特許文献2は、対象者の足に検出装置を装着することにより、対象者が歩行中に転倒するのを予防する転倒予防システムを開示している。また、特許文献3は、温度分布を検出することにより、人体の体位を判定する見守り支援装置を開示している。また、引用文献4は、在宅、又は老人ホーム若しくは介護施設における老年精神病患者を監視するための医療システムを開示している。 In a field such as a nursing home, for example, a device has been proposed for monitoring the behavior of a monitored person, such as a person requiring nursing care or long-term care. For example, Patent Document 1 discloses a monitored person monitoring system that detects a predetermined behavior of the monitored person based on an image obtained by an imaging device. Patent Document 2 discloses a fall prevention system that prevents a subject from falling while walking by attaching a detection device to the subject's foot. Patent Document 3 discloses a monitoring support device that determines the body position of the human body by detecting temperature distribution. Furthermore, Cited Document 4 discloses a medical system for monitoring geriatric mental patients at home or in a nursing home or care facility.

特開2017-91552号公報JP 2017-91552 A 特開2017-221502号公報JP 2017-221502 A 特開2014-106636号公報JP 2014-106636 A 特開2003-91790号公報JP 2003-91790 A

被監視対象を監視することにより、被監視対象の安全に供することができれば、有益である。 It would be beneficial if monitoring the monitored subject could contribute to their safety.

本開示の目的は、被監視対象の安全に供し得る監視システム、監視装置、監視方法、及びプログラムを提供することにある。 The objective of this disclosure is to provide a monitoring system, monitoring device, monitoring method, and program that can ensure the safety of monitored subjects.

一実施形態に係る監視システムは、
被監視対象を撮像する撮像部と、
前記撮像部によって撮像された画像から、前記被監視対象の特徴点の動きを抽出する抽出部と、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出部によって抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するコントローラと、
前記コントローラから出力される前記所定の警告信号に基づいて、所定の警告を発する警告部と、
を備える。
前記コントローラは、前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する。
A monitoring system according to an embodiment includes:
An imaging unit that images an object to be monitored;
an extraction unit that extracts a movement of a feature point of the monitored object from an image captured by the imaging unit;
a controller that outputs a predetermined warning signal before the monitored subject completes a standing-up motion, based on machine learning data obtained by machine learning of the movement of the feature points when the monitored subject stands up and the feature points extracted by the extraction unit;
a warning unit that issues a predetermined warning based on the predetermined warning signal output from the controller;
Equipped with.
The controller outputs the predetermined warning signal when the monitored object does not complete a standing up motion within a predetermined time.

一実施形態に係る監視装置は、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出する抽出部と、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出部によって抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するコントローラと、
を備える。
前記コントローラは、前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する。
A monitoring device according to an embodiment includes:
an extraction unit that extracts a movement of a feature point of a monitored object from an image of the monitored object;
a controller that outputs a predetermined warning signal before the monitored subject completes a standing-up motion, based on machine learning data obtained by machine learning of the movement of the feature points when the monitored subject stands up and the feature points extracted by the extraction unit;
Equipped with.
The controller outputs the predetermined warning signal when the monitored object does not complete the standing up action within a predetermined time.

一実施形態に係る監視方法は、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出するステップにおいて抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するステップと、
を含み、
前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する。
A monitoring method according to an embodiment includes the steps of:
extracting a movement of a feature point of a monitored object from an image of the monitored object;
a step of outputting a predetermined warning signal before the monitored subject completes a standing-up motion based on machine learning data obtained by machine learning the movement of the feature points when the monitored subject stands up and the feature points extracted in the extracting step;
Including,
If the monitored object does not complete the standing up action within a predetermined time, the predetermined warning signal is output.

一実施形態に係るプログラムは、
コンピュータに、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出するステップにおいて抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するステップと、
を実行させ
前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する。
A program according to an embodiment includes:
On the computer,
extracting a movement of a feature point of a monitored object from an image of the monitored object;
a step of outputting a predetermined warning signal before the monitored subject completes a standing-up motion based on machine learning data obtained by machine learning the movement of the feature points when the monitored subject stands up and the feature points extracted in the extracting step;
Run the command ,
If the monitored object does not complete the standing up action within a predetermined time, the predetermined warning signal is output.

一実施形態によれば、被監視対象の安全に供し得る監視システム、監視装置、監視方法、及びプログラムを提供することができる。 According to one embodiment, it is possible to provide a monitoring system, a monitoring device, a monitoring method, and a program that can ensure the safety of the monitored subject.

一実施形態に係る監視システムの概略構成を示す機能ブロック図である。1 is a functional block diagram showing a schematic configuration of a monitoring system according to an embodiment. 一実施形態に係る監視システムの動作の一例を示すフローチャートである。10 is a flowchart illustrating an example of an operation of the monitoring system according to an embodiment. 一実施形態に係る監視システムの動作の一例を示すフローチャートである。11 is a flowchart illustrating an example of an operation of the monitoring system according to an embodiment. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。1 is a diagram illustrating an example of feature points extracted in a surveillance system according to an embodiment. FIG. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。1 is a diagram illustrating an example of feature points extracted in a surveillance system according to an embodiment. FIG. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。1 is a diagram illustrating an example of feature points extracted in a surveillance system according to an embodiment. FIG. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。1 is a diagram illustrating an example of feature points extracted in a surveillance system according to an embodiment. FIG. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。1 is a diagram illustrating an example of feature points extracted in a surveillance system according to an embodiment. FIG. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。1 is a diagram illustrating an example of feature points extracted in a surveillance system according to an embodiment. FIG. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。1 is a diagram illustrating an example of feature points extracted in a surveillance system according to an embodiment. FIG. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。1 is a diagram illustrating an example of feature points extracted in a surveillance system according to an embodiment. FIG. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。1 is a diagram illustrating an example of feature points extracted in a surveillance system according to an embodiment. FIG. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。1 is a diagram illustrating an example of feature points extracted in a surveillance system according to an embodiment. FIG. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。1 is a diagram illustrating an example of feature points extracted in a surveillance system according to an embodiment. FIG.

本開示において、「監視装置」とは、電力により駆動する機器としてよい。また、「監視システム」とは、電力により駆動する機器を含むものとしてよい。また、「ユーザ」とは、一実施形態に係る監視システム及び/又は監視装置を使用する者(典型的には人間)としてよい。ユーザは、一実施形態に係る監視システム及び/又は監視装置を用いることで、被監視対象の監視を行う者を含んでもよい。また、「被監視対象」とは、一実施形態に係る監視システム及び/又は監視装置によって監視される対象となる者(例えば人間又は動物)としてよい。 In the present disclosure, a "monitoring device" may be a device that is powered by electricity. Furthermore, a "monitoring system" may include a device that is powered by electricity. Furthermore, a "user" may be a person (typically a human) that uses a monitoring system and/or a monitoring device according to an embodiment. A user may include a person who monitors a monitored subject by using a monitoring system and/or a monitoring device according to an embodiment. Furthermore, a "monitored subject" may be a person (e.g., a human or an animal) that is the subject of monitoring by a monitoring system and/or a monitoring device according to an embodiment.

一実施形態に係る監視システムが利用される場面として想定されるのは、例えば、会社、病院、老人ホーム、学校、スポーツジム、及び介護施設などのような、社会活動を行う者が使用する特定の施設などとしてよい。例えば、会社であれば従業員などの健康状態の把握及び/又は管理は、極めて重要である。同様に、病院であれば患者及び医療従事者など、また老人ホームであれば入居者及びスタッフなどの健康状態の把握及び/又は管理は、極めて重要である。一実施形態に係る監視システムが利用される場面は、上述の、会社、病院、及び老人ホームなどの施設に限定されず、被監視対象の健康状態の把握及び/又は管理などが望まれる任意の施設としてよい。任意の施設は、例えば、ユーザの自宅などの非商業施設も含んでもよい。また、一実施形態に係る監視システムが利用される場面は、例えば、電車、バス、及び飛行機などの移動体内、並びに、駅及び乗り場などとしてもよい。 The monitoring system according to one embodiment is assumed to be used in specific facilities used by people engaged in social activities, such as companies, hospitals, nursing homes, schools, sports gyms, and care facilities. For example, in a company, it is extremely important to understand and/or manage the health status of employees. Similarly, in a hospital, it is extremely important to understand and/or manage the health status of patients and medical professionals, and in a nursing home, it is extremely important to understand and/or manage the health status of residents and staff. The monitoring system according to one embodiment is not limited to the above-mentioned facilities such as companies, hospitals, and nursing homes, but may be any facility where it is desired to understand and/or manage the health status of a monitored subject. Any facility may also include non-commercial facilities such as a user's home. The monitoring system according to one embodiment may also be used in, for example, inside moving objects such as trains, buses, and airplanes, as well as at stations and boarding points.

一実施形態に係る監視システムは、例えば、介護施設などにおいて、要看護者又は要介護者などのような被監視対象の行動を監視する用途で用いられてよい。一実施形態に係る監視システムは、例えば要看護者又は要介護者などのような被監視対象の立ち上がり動作を監視することができる。ここで、被監視対象の立ち上がり動作とは、例えば被監視対象者が座っている状態又は横たわっている状態から立ち上がる動作としてよい。 The monitoring system according to one embodiment may be used, for example, in a care facility or the like to monitor the behavior of a monitored subject, such as a person requiring nursing care or care. The monitoring system according to one embodiment may monitor the standing up motion of a monitored subject, such as a person requiring nursing care or care. Here, the standing up motion of the monitored subject may be, for example, the motion of the monitored subject standing up from a sitting or lying position.

特に、一実施形態に係る監視システムは、例えば要看護者又は要介護者などのような被監視者が、立ち上がり動作をする前、例えば立ち上がり動作を完了する前に、所定の警告を発することができる。したがって、一実施形態に係る監視システムによれば、例えば介護施設などのスタッフは、例えば要看護者又は要介護者などのような被監視者が、立ち上がり動作を完了する前に、立ち上がり動作をしようとしていることを把握し得る。 In particular, the monitoring system according to one embodiment can issue a predetermined warning before a monitored person, such as a person requiring nursing care or care, stands up, for example, before completing the standing up motion. Therefore, according to the monitoring system according to one embodiment, staff at a care facility, for example, can know that a monitored person, such as a person requiring nursing care or care, is about to stand up before completing the standing up motion.

また、一実施形態に係る監視システムは、要看護者又は要介護者などのような被監視者が危険な立ち上がり動作をする前、例えば危険な立ち上がり動作を完了する前に、所定の警告を発することもできる。また、一実施形態に係る監視システムは、特定の被監視者が立ち上がり動作をする前、例えば立ち上がり動作を完了する前に、所定の警告を発することもできる。 The monitoring system according to one embodiment can also issue a predetermined warning before a monitored person, such as a person requiring nursing care or care, makes a dangerous standing-up motion, for example, before completing the dangerous standing-up motion. The monitoring system according to one embodiment can also issue a predetermined warning before a specific monitored person makes a standing-up motion, for example, before completing the standing-up motion.

以下、一実施形態に係る監視システムについて、図面を参照して詳細に説明する。 The monitoring system according to one embodiment will be described in detail below with reference to the drawings.

図1は、一実施形態に係る監視システムの概略構成を示す図である。図1に示すように、一実施形態に係る監視システム1は、監視装置10及び撮像部20を含んで構成されてよい。監視装置10と撮像部20とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。一実施形態に係る監視システム1は、図1に示す機能部の一部を含まなくてもよいし、図1に示す以外の機能部を含んでもよい。例えば、一実施形態に係る監視システム1は、警告部17及び通信部19の少なくとも一方を備えなくてもよい。 FIG. 1 is a diagram showing a schematic configuration of a monitoring system according to one embodiment. As shown in FIG. 1, the monitoring system 1 according to one embodiment may be configured to include a monitoring device 10 and an imaging unit 20. The monitoring device 10 and the imaging unit 20 may be connected by wire or wirelessly, or by a combination of wire and wireless. The monitoring system 1 according to one embodiment may not include some of the functional units shown in FIG. 1, or may include functional units other than those shown in FIG. 1. For example, the monitoring system 1 according to one embodiment may not include at least one of the warning unit 17 and the communication unit 19.

図1に示す撮像部20は、例えばデジタルカメラのような、電子的に画像を撮像するイメージセンサを含んで構成されてよい。撮像部20は、CCD(Charge Coupled Device Image Sensor)又はCMOS(Complementary Metal Oxide Semiconductor)センサ等のように、光電変換を行う撮像素子を含んで構成されてよい。撮像部20は、例えば図1に示すように、被監視対象Tを撮像してよい。ここで、被監視対象Tは、例えば人間としてよい。撮像部20は、撮像した画像を信号に変換して、監視装置10に送信してよい。例えば、撮像部20は、撮像した画像に基づく信号を、監視装置10の抽出部11、記憶部13、及び/又は、コントローラ15などに送信してよい。撮像部20は、被監視対象Tを撮像するものであれば、デジタルカメラのような撮像デバイスに限定されず、任意のデバイスとしてよい。 The imaging unit 20 shown in FIG. 1 may be configured to include an image sensor that electronically captures an image, such as a digital camera. The imaging unit 20 may be configured to include an imaging element that performs photoelectric conversion, such as a CCD (Charge Coupled Device Image Sensor) or a CMOS (Complementary Metal Oxide Semiconductor) sensor. The imaging unit 20 may capture an image of the monitored object T, for example, as shown in FIG. 1. Here, the monitored object T may be, for example, a human being. The imaging unit 20 may convert the captured image into a signal and transmit it to the monitoring device 10. For example, the imaging unit 20 may transmit a signal based on the captured image to the extraction unit 11, the storage unit 13, and/or the controller 15 of the monitoring device 10. The imaging unit 20 is not limited to an imaging device such as a digital camera, and may be any device that captures an image of the monitored object T.

一実施形態において、撮像部20は、例えば被監視対象Tを所定時間ごと(例えば0.5秒おき)の静止画として撮像してもよい。また、一実施形態において、撮像部20は、例えば被監視対象Tを連続した動画として撮像してもよい。 In one embodiment, the imaging unit 20 may capture, for example, still images of the monitored object T at predetermined time intervals (for example, every 0.5 seconds). Also, in one embodiment, the imaging unit 20 may capture, for example, continuous video of the monitored object T.

図1に示すように、一実施形態に係る監視装置10は、抽出部11、記憶部13、コントローラ15、警告部17、及び通信部19を備えてよい。一実施形態に係る監視装置10は、図1に示す機能部の一部を備えなくてもよいし、図1に示す以外の機能部を備えてもよい。例えば、一実施形態に係る監視装置10は、記憶部13に記憶される後述の機械学習データ132を備えてもよい。例えば、一実施形態に係る監視装置10は、後述の機械学習データ132の少なくとも一部が、外部サーバなどの外部機器に記憶されているとしてもよい。 As shown in FIG. 1, the monitoring device 10 according to one embodiment may include an extraction unit 11, a memory unit 13, a controller 15, a warning unit 17, and a communication unit 19. The monitoring device 10 according to one embodiment may not include some of the functional units shown in FIG. 1, or may include functional units other than those shown in FIG. 1. For example, the monitoring device 10 according to one embodiment may include machine learning data 132 (described below) stored in the memory unit 13. For example, the monitoring device 10 according to one embodiment may have at least a portion of the machine learning data 132 (described below) stored in an external device such as an external server.

抽出部11は、撮像部20によって撮像された画像から、所定の特徴点を抽出する機能を有してよい。例えば、抽出部11は、撮像部20によって撮像された被監視対象Tの画像から、当該被監視対象Tの特徴点の動きを抽出してもよい。ここで、特徴点については、さらに後述する。一実施形態において、抽出部11は、撮像部20によって撮像された被監視対象Tの画像から、当該被監視対象Tの頭部、体幹、四肢、及び/又は各関節などの各部の動きを抽出してもよい。抽出部11は、専用のハードウェアとして構成されてもよいし、少なくとも一部にソフトウェアを含めて構成されてもよいし、全てソフトウェアで構成されているとしてもよい。このように、抽出部11は、撮像部20によって撮像された画像から、被監視対象Tの特徴点の動きを抽出してよい。 The extraction unit 11 may have a function of extracting a predetermined feature point from an image captured by the imaging unit 20. For example, the extraction unit 11 may extract the movement of the feature point of the monitored target T from the image of the monitored target T captured by the imaging unit 20. Here, the feature point will be described further below. In one embodiment, the extraction unit 11 may extract the movement of each part of the monitored target T, such as the head, trunk, limbs, and/or each joint, from the image of the monitored target T captured by the imaging unit 20. The extraction unit 11 may be configured as dedicated hardware, may be configured to include software at least in part, or may be configured entirely by software. In this way, the extraction unit 11 may extract the movement of the feature point of the monitored target T from the image captured by the imaging unit 20.

記憶部13は、各種の情報を記憶するメモリとしての機能を有してよい。記憶部13は、例えばコントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などを記憶してよい。また、記憶部13は、コントローラ15のワークメモリとして機能してよい。記憶部13は、例えば半導体メモリ等により構成することができるが、これに限定されず、任意の記憶装置とすることができる。例えば、記憶部13は、一実施形態に係る監視装置10に挿入されたメモリカードのような記憶媒体としてもよい。また、記憶部13は、後述のコントローラ15として用いられるCPUの内部メモリであってもよいし、コントローラ15に別体として接続されるものとしてもよい。 The storage unit 13 may function as a memory that stores various types of information. The storage unit 13 may store, for example, a program executed in the controller 15 and the results of processing executed in the controller 15. The storage unit 13 may also function as a work memory for the controller 15. The storage unit 13 may be configured, for example, by a semiconductor memory or the like, but is not limited to this and may be any storage device. For example, the storage unit 13 may be a storage medium such as a memory card inserted into the monitoring device 10 according to one embodiment. The storage unit 13 may also be an internal memory of a CPU used as the controller 15 described below, or may be connected to the controller 15 as a separate unit.

図1に示すように、記憶部13は、例えば機械学習データ132を記憶してもよい。ここで、機械学習データ132は、機械学習によって生成されるデータとしてよい。また、機械学習とは、特定のタスクをトレーニングにより実行可能になるAI(Artificial Intelligence)の技術としてよい。より具体的には、機械学習とは、コンピュータのような情報処理装置が多くのデータを学習し、分類及び/又は予測などのタスクを遂行するアルゴリズム又はモデルを自動的に構築する技術としてよい。本明細書において、AI(Artificial Intelligence)の一部には、機械学習が含まれるとしてもよい。本明細書において、機械学習には、正解データをもとに入力データの特徴又はルールを学習する教師あり学習、正解データがない状態で入力データの特徴又はルールを学習する教師なし学習、及び、報酬や罰を与えて入力データの特徴又はルールを学習する強化学習などを含むとしてもよい。また、本明細書において、機械学習は、教師あり学習、教師なし学習、及び強化学習を任意に組み合わせたものとしてもよい。本実施形態の機械学習データ132の概念は、入力データに対して学習されたアルゴリズムを用いて所定の推論結果を出力するアルゴリズムを含むとしてもよい。本実施形態は、このアルゴリズムとして、例えば、従属変数と独立変数との関係を予測する線形回帰、人の脳神経系ニューロンを数理モデル化したニューラルネットワーク(NN)、誤差を二乗して算出する最小二乗法、問題解決を木構造にする決定木、及びデータを所定の方法で変形する正則化などその他適宜なアルゴリズムを用いることができる。本実施形態は、ニューラルネットワークの一種であるディープラーニングを利用するとしてよい。ディープラーニングは、ニューラルネットワークの一種であり、ネットワークの階層が深いニューラルネットワークがディープラーニングと呼ばれている。 As shown in FIG. 1, the storage unit 13 may store, for example, machine learning data 132. Here, the machine learning data 132 may be data generated by machine learning. Machine learning may be an AI (Artificial Intelligence) technology that enables a specific task to be executed by training. More specifically, machine learning may be a technology in which an information processing device such as a computer learns a large amount of data and automatically constructs an algorithm or model that performs tasks such as classification and/or prediction. In this specification, machine learning may be included as a part of AI (Artificial Intelligence). In this specification, machine learning may include supervised learning that learns the characteristics or rules of input data based on correct answer data, unsupervised learning that learns the characteristics or rules of input data in the absence of correct answer data, and reinforcement learning that learns the characteristics or rules of input data by giving rewards or punishments. In this specification, machine learning may be any combination of supervised learning, unsupervised learning, and reinforcement learning. The concept of the machine learning data 132 in this embodiment may include an algorithm that outputs a predetermined inference result using an algorithm learned for input data. In this embodiment, as the algorithm, for example, linear regression that predicts the relationship between dependent variables and independent variables, a neural network (NN) that mathematically models the neurons of the human nervous system, the least squares method that calculates by squaring the error, a decision tree that creates a tree structure for problem solving, regularization that transforms data in a predetermined manner, and other appropriate algorithms can be used. This embodiment may use deep learning, which is a type of neural network. Deep learning is a type of neural network, and a neural network with a deep network hierarchy is called deep learning.

特に、一実施形態において、機械学習データ132は、被監視対象Tが立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてよい。また、機械学習データ132は、被監視対象Tが危険な立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてもよい。さらに、機械学習データ132は、被監視対象Tとして特定の人物(例えば被監視対象T1)が立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてもよい。一実施形態に係る機械学習データ132については、さらに後述する。 In particular, in one embodiment, the machine learning data 132 may be data that has been machine-learned on the movement of characteristic points when the monitored target T stands up. The machine learning data 132 may also be data that has been machine-learned on the movement of characteristic points when the monitored target T makes a dangerous standing up motion. Furthermore, the machine learning data 132 may be data that has been machine-learned on the movement of characteristic points when a specific person (e.g., monitored target T1) as the monitored target T stands up. The machine learning data 132 according to one embodiment will be described further below.

コントローラ15は、監視装置10を構成する各機能部をはじめとして、監視装置10の全体を制御及び/又は管理する。コントローラ15は、種々の機能を実行するための制御及び処理能力を提供するために、例えばCPU(Central Processing Unit)のような、少なくとも1つのプロセッサを含んでよい。コントローラ15は、まとめて1つのプロセッサで実現してもよいし、いくつかのプロセッサで実現してもよいし、それぞれ個別のプロセッサで実現してもよい。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)ともいう。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。 The controller 15 controls and/or manages the entire monitoring device 10, including each functional unit constituting the monitoring device 10. The controller 15 may include at least one processor, such as a CPU (Central Processing Unit), to provide control and processing power for executing various functions. The controller 15 may be realized as a single processor, as a number of processors, or as individual processors. The processor may be realized as a single integrated circuit. An integrated circuit is also called an IC (Integrated Circuit). The processor may be realized as multiple communicatively connected integrated circuits and discrete circuits. The processor may be realized based on various other known technologies.

一実施形態において、コントローラ15は、例えばCPU及び当該CPUで実行されるプログラムとして構成されてよい。コントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などは、例えば記憶部13に記憶されてよい。コントローラ15は、コントローラ15の動作に必要なメモリを適宜含んでもよい。一実施形態に係る監視装置10のコントローラ15の動作については、さらに後述する。 In one embodiment, the controller 15 may be configured as, for example, a CPU and a program executed by the CPU. The program executed in the controller 15 and the results of the processing executed in the controller 15 may be stored in, for example, the storage unit 13. The controller 15 may include memory necessary for the operation of the controller 15 as appropriate. The operation of the controller 15 of the monitoring device 10 according to one embodiment will be described further below.

警告部17は、コントローラ15から出力される所定の警告信号に基づいて、監視システム1又は監視装置10のユーザなどに注意を促すための所定の警告を発してよい。警告部17は、所定の警告として、例えば音、音声、光、文字、映像、及び振動など、ユーザの聴覚、視覚、触覚の少なくともいずれかを刺激する任意の機能部としてよい。具体的には、警告部17は、例えばブザー又はスピーカのような音声出力部、LEDのような発光部、LCDのような表示部、及びバイブレータのような触感呈示部などの少なくともいずれかとしてよい。このように、警告部17は、コントローラ15から出力される所定の警告信号に基づいて、所定の警告を発してよい。一実施形態において、警告部17は、所定の警報を、聴覚、視覚、及び触覚の少なくともいずれかに作用する情報として発してもよい。 The warning unit 17 may issue a predetermined warning to alert the user of the monitoring system 1 or the monitoring device 10, based on a predetermined warning signal output from the controller 15. The warning unit 17 may be any functional unit that stimulates at least one of the user's hearing, vision, and touch, such as sound, voice, light, text, video, and vibration, as the predetermined warning. Specifically, the warning unit 17 may be at least one of a sound output unit such as a buzzer or speaker, a light-emitting unit such as an LED, a display unit such as an LCD, and a tactile sensation providing unit such as a vibrator. In this way, the warning unit 17 may issue a predetermined warning based on a predetermined warning signal output from the controller 15. In one embodiment, the warning unit 17 may issue the predetermined alarm as information that acts on at least one of hearing, vision, and touch.

一実施形態において、警告部17は、例えば被監視対象Tが立ち上がり動作をする前に、被監視対象Tが立ち上がり動作をする旨の警告を発してよい。また、一実施形態において、警告部17は、例えば被監視対象Tが危険な立ち上がり動作をする前に、被監視対象Tが危険な立ち上がり動作をする旨の警告を発してもよい。さらに、一実施形態において、警告部17は、例えば特定の人物が立ち上がり動作をする旨の警告を発してもよい。例えば、一実施形態において、視覚情報を出力する警告部17は、被監視対象Tが立ち上がり動作をする旨が検出されると、その旨を発光又は所定の表示などによってユーザに警告してよい。また、一実施形態において、聴覚情報を出力する警告部17は、被監視対象Tが立ち上がり動作をする旨が検出されると、その旨を所定の音又は音声などによってユーザに警告してよい。本実施形態では、上記警告は、発光又は所定の表示、及び所定の音又は音声を組み合わせてもよい。 In one embodiment, the warning unit 17 may issue a warning that the monitored object T is going to stand up before the monitored object T stands up. In one embodiment, the warning unit 17 may issue a warning that the monitored object T is going to stand up before the monitored object T stands up. In one embodiment, the warning unit 17 may issue a warning that a specific person is going to stand up. For example, in one embodiment, the warning unit 17 that outputs visual information may warn the user of the fact that the monitored object T is going to stand up by emitting light or a predetermined display when it is detected that the monitored object T is going to stand up. In one embodiment, the warning unit 17 that outputs audio information may warn the user of the fact that the monitored object T is going to stand up by a predetermined sound or voice when it is detected that the monitored object T is going to stand up. In this embodiment, the warning may be a combination of light emission or a predetermined display and a predetermined sound or voice.

図1に示す監視装置10は、警告部17を内蔵している。しかしながら、一実施形態に監視システム1において、警告部17は、監視装置10の外部に設けられてもよい。この場合、警告部17と監視装置10とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。 The monitoring device 10 shown in FIG. 1 has a built-in warning unit 17. However, in one embodiment of the monitoring system 1, the warning unit 17 may be provided outside the monitoring device 10. In this case, the warning unit 17 and the monitoring device 10 may be connected by wire or wirelessly, or by a combination of wire and wireless.

通信部19は、有線又は無線により通信するためのインタフェースの機能を有する。一実施形態の通信部19によって行われる通信方式は無線通信規格としてよい。例えば、無線通信規格は2G、3G、4G、及び5G等のセルラーフォンの通信規格を含む。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)、及びPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格は、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、WiFi、Bluetooth(登録商標)、IrDA(Infrared Data Association)、及びNFC(Near Field Communication)等を含む。通信部19は、上記の通信規格の1つ又は複数をサポートすることができる。通信部19は、例えば電波を送受信するアンテナ及び適当なRF部などを含めて構成してよい。また、通信部19は、外部に有線接続するためのコネクタなどのようなインタフェースとして構成してもよい。通信部19は、無線通信を行うための既知の技術により構成することができるため、より詳細なハードウェアの説明は省略する。 The communication unit 19 has an interface function for wired or wireless communication. The communication method performed by the communication unit 19 in one embodiment may be a wireless communication standard. For example, the wireless communication standard includes cellular phone communication standards such as 2G, 3G, 4G, and 5G. For example, the cellular phone communication standard includes LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (registered trademark) (Global System for Mobile communications), and PHS (Personal Handy-phone System). For example, the wireless communication standard includes WiMAX (Worldwide Interoperability for Microwave Access), IEEE 802.11, WiFi, Bluetooth (registered trademark), IrDA (Infrared Data Association), and NFC (Near Field Communication). The communication unit 19 can support one or more of the above communication standards. The communication unit 19 may be configured to include, for example, an antenna for transmitting and receiving radio waves and an appropriate RF unit. The communication unit 19 may also be configured as an interface such as a connector for wired connection to the outside. The communication unit 19 can be configured using known technology for wireless communication, so a detailed description of the hardware will be omitted.

通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に供給されてよい。通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に内蔵されたメモリに記憶してもよい。また、通信部19は、例えばコントローラ15による処理結果、抽出部11による抽出結果、及び/又は、記憶部13に記憶された情報などを外部に送信してもよい。 The various information received by the communication unit 19 may be supplied to, for example, the storage unit 13 and/or the controller 15. The various information received by the communication unit 19 may be stored in, for example, a memory built into the storage unit 13 and/or the controller 15. In addition, the communication unit 19 may transmit, for example, the processing results by the controller 15, the extraction results by the extraction unit 11, and/or information stored in the storage unit 13 to the outside.

図1に示すような、一実施形態に係る監視装置10を構成する各機能部の少なくとも一部は、ソフトウェアとハードウェア資源とが協働した具体的手段によって構成されてもよい。 As shown in FIG. 1, at least a portion of the functional units constituting the monitoring device 10 according to one embodiment may be constituted by specific means in which software and hardware resources work together.

次に、一実施形態に係る監視システム1の動作について説明する。 Next, we will explain the operation of the monitoring system 1 according to one embodiment.

図2は、一実施形態に係る監視システム1の動作の一例を示すフローチャートである。図2に示す動作は、例えば病院又は介護施設などにおいて、被監視対象Tの立ち上がり動作の監視を行う際に開始してよい。例えば介護施設又は病院などにおいて、お年寄り又は負傷者のように、足腰が弱くなっているため自力で立ち上がろうとすると転倒するリスクが高い者が存在し得る。また、例えば認知症を発症している患者などは、自力で立ち上がると、徘徊したり行方不明になったりするリスクもある。このような被監視対象Tを監視システム1によって監視することで、例えば介護施設又は病院などのスタッフは、被監視対象Tが自力で立ち上がろうとしていることを、被監視対象Tが実際に立ち上がり動作をする前に認識することができる。 FIG. 2 is a flowchart showing an example of the operation of the monitoring system 1 according to an embodiment. The operation shown in FIG. 2 may be started when monitoring the standing up motion of the monitored subject T in, for example, a hospital or a care facility. For example, in a care facility or hospital, there may be elderly or injured people whose legs are weak and who are at high risk of falling if they try to stand up on their own. In addition, for example, patients with dementia may be at risk of wandering or getting lost if they stand up on their own. By monitoring such a monitored subject T with the monitoring system 1, staff at, for example, a care facility or hospital can recognize that the monitored subject T is trying to stand up on his or her own before the monitored subject T actually stands up.

図2に示す動作が開始すると、一実施形態に係る監視システム1において、撮像部20は、被監視対象Tを撮像する(ステップS1)。ステップS1において、撮像部20は、被監視対象Tの画像を撮像してよい。ステップS1において、撮像部20は、この時点で被監視対象Tの撮像を開始してもよいし、すでに開始していた被監視対象Tの撮像を継続してもよい。また、ステップS1において、撮像部20は、被監視対象Tを例えば所定時間ごと(例えば0.5秒おき)の静止画として撮像してもよい。また、ステップS1において、撮像部20は、例えば被監視対象Tを連続した動画として撮像してもよい。ステップS1において撮像部20によって撮像された被監視対象Tの画像は、監視装置10の抽出部11に供給される。また、撮像部20は、例えば被監視対象Tを、例えば所定時間ごと(例えば0.5秒おき)の静止画及び連続した動画との組合せで撮像してもよい。本実施形態は、動画の撮像モードから静止画のモードに移行して画像データの容量を削減してもよい。本実施形態は、被監視対象Tの動作が少ない、例えば夜間などの場合に、動画の撮像モードから静止画のモードに移行して画像データの容量を削減してもよい。 2 starts, the imaging unit 20 captures an image of the monitored object T in the monitoring system 1 according to one embodiment (step S1). In step S1, the imaging unit 20 may capture an image of the monitored object T. In step S1, the imaging unit 20 may start capturing an image of the monitored object T at this point, or may continue capturing an image of the monitored object T that has already started. In addition, in step S1, the imaging unit 20 may capture an image of the monitored object T as a still image, for example, at predetermined intervals (for example, every 0.5 seconds). In addition, in step S1, the imaging unit 20 may capture an image of the monitored object T as a continuous video. The image of the monitored object T captured by the imaging unit 20 in step S1 is supplied to the extraction unit 11 of the monitoring device 10. In addition, the imaging unit 20 may capture an image of the monitored object T, for example, as a combination of a still image at predetermined intervals (for example, every 0.5 seconds) and a continuous video. In this embodiment, the capacity of the image data may be reduced by shifting from a video capture mode to a still image mode. In this embodiment, when there is little movement of the monitored subject T, such as at night, the volume of image data may be reduced by switching from video capture mode to still image mode.

ステップS1において被監視対象Tが撮像されたら、監視装置10の抽出部11は、撮像部20によって撮像された画像から、被監視対象Tの特徴点の動きを抽出する(ステップS2)。 When the monitored object T is imaged in step S1, the extraction unit 11 of the monitoring device 10 extracts the movement of the characteristic points of the monitored object T from the image captured by the imaging unit 20 (step S2).

図4以降は、撮像部20によって撮像された被監視対象Tの画像に基づいて、抽出部11によって抽出される被監視対象Tの特徴点の例を模式的に示す図である。図4は、椅子C1に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 Figures 4 and onward are diagrams that show examples of feature points of the monitored target T extracted by the extraction unit 11 based on the image of the monitored target T captured by the imaging unit 20. Figure 4 shows an example of feature points extracted from an image of the monitored target T sitting in a chair C1 captured from the left side.

一実施形態において、抽出部11によって抽出される被監視対象Tの特徴点は、例えば図4以降に示すように、次のような特徴点としてよい。
特徴点P1は、被監視対象Tの例えば頭部としてよい。
特徴点P2は、被監視対象Tの例えば頭部と首との接続部としてよい。
特徴点P3は、被監視対象Tの例えば首と体幹との接続部としてよい。
特徴点P4は、被監視対象Tの例えば体幹と脚との接続部としてよい。
特徴点P5は、被監視対象Tの例えば肩としてよい。
特徴点P6は、被監視対象Tの例えば肘としてよい。
特徴点P7は、被監視対象Tの例えば手としてよい。
特徴点P8は、被監視対象Tの例えば膝としてよい。
特徴点P9は、被監視対象Tの例えば足としてよい。
In one embodiment, the feature points of the monitored target T extracted by the extraction unit 11 may be the following feature points, for example, as shown in FIG. 4 and subsequent figures.
The characteristic point P1 may be, for example, the head of the monitored object T.
The characteristic point P2 may be, for example, the connection between the head and neck of the monitored subject T.
The characteristic point P3 may be, for example, the connection between the neck and torso of the monitored subject T.
The characteristic point P4 may be, for example, the connection between the trunk and the legs of the monitored subject T.
The characteristic point P5 may be, for example, the shoulder of the monitored object T.
The characteristic point P6 may be, for example, the elbow of the monitored object T.
The characteristic point P7 may be, for example, the hand of the monitored subject T.
The characteristic point P8 may be, for example, the knee of the monitored object T.
The characteristic point P9 may be, for example, the foot of the monitored object T.

図2の説明に戻り、ステップS2において、抽出部11は、既存の画像認識などの技術を用いて特徴点の抽出を行ってよい。また、ステップS2において、抽出部11は、例えばAIなどに基づく技術を用いて特徴点の抽出を行ってもよい。 Returning to the explanation of FIG. 2, in step S2, the extraction unit 11 may extract feature points using existing technology such as image recognition. Also, in step S2, the extraction unit 11 may extract feature points using technology based on, for example, AI.

ステップS2において、抽出部11は、撮像部20によって撮像された被監視対象Tの連続する複数の静止画から、特徴点の動きを抽出してもよい。また、ステップS2において、抽出部11は、撮像部20によって撮像された被監視対象Tの動画から、特徴点の動きを抽出してもよい。 In step S2, the extraction unit 11 may extract the movement of the characteristic points from a plurality of successive still images of the monitored object T captured by the imaging unit 20. Also, in step S2, the extraction unit 11 may extract the movement of the characteristic points from a video of the monitored object T captured by the imaging unit 20.

ステップS2において特徴点の動きが抽出されたら、監視装置10のコントローラ15は、機械学習データ132を取得する(ステップS3)。ステップS3において、コントローラ15は、記憶部13から機械学習データ132を読み出してもよい。また、必要な機械学習データ132が記憶部13に記憶されていない場合、コントローラ15は、必要な機械学習データ132を例えば外部サーバなどから取得してもよい。この場合、コントローラ15は、通信部19を介して、必要な機械学習データ132を受信してもよい。このようにして受信された機械学習データ132は、例えば記憶部13又はコントローラ15の内部メモリなどに記憶されてもよい。以下、機械学習データ132について、さらに説明する。 Once the movement of the feature points is extracted in step S2, the controller 15 of the monitoring device 10 acquires the machine learning data 132 (step S3). In step S3, the controller 15 may read the machine learning data 132 from the memory unit 13. Furthermore, if the necessary machine learning data 132 is not stored in the memory unit 13, the controller 15 may acquire the necessary machine learning data 132, for example, from an external server. In this case, the controller 15 may receive the necessary machine learning data 132 via the communication unit 19. The machine learning data 132 received in this manner may be stored, for example, in the memory unit 13 or an internal memory of the controller 15. The machine learning data 132 will be further described below.

上述のように、一実施形態に係る監視装置10は、被監視対象Tの特徴点の動きに基づいて、被監視対象Tが立ち上がり動作をする前に、被監視対象Tが立ち上がり動作をすると判定してよい。被監視対象Tが立ち上がり動作をする前は、例えば立ち上がり動作を完了する前としてよい。このため、一実施形態に係る監視装置10において、コントローラ15は、撮像された被監視対象Tの画像から抽出された特徴点の動きを監視してよい。具体的には、コントローラ15は、被監視対象Tの画像から抽出された複数の特徴点の所定のタイミングにおける位置を、それぞれ監視してよい。また、コントローラ15は、被監視対象Tの画像から抽出された複数の特徴点が所定の位置に到来するタイミングを、それぞれ監視してもよい。 As described above, the monitoring device 10 according to one embodiment may determine that the monitored subject T will stand up before the monitored subject T stands up, based on the movement of the characteristic points of the monitored subject T. Before the monitored subject T stands up may be, for example, before the monitored subject T completes the standing up movement. For this reason, in the monitoring device 10 according to one embodiment, the controller 15 may monitor the movement of the characteristic points extracted from the captured image of the monitored subject T. Specifically, the controller 15 may monitor the positions of the multiple characteristic points extracted from the image of the monitored subject T at a predetermined timing. The controller 15 may also monitor the timing at which the multiple characteristic points extracted from the image of the monitored subject T arrive at a predetermined position.

一実施形態において、被監視対象Tの画像から抽出された特徴点の動きと対比される対象として、機械学習データ132を使用してよい。この機会学習データ132には、機械学習を行うアルゴリズムも含まれるとしてもよい。ここで、一実施形態において、機械学習データ132として、被監視対象Tが立ち上がり動作をする際の特徴点の動きを機械学習したデータを用いてよい。例えば、機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作から抽出した特徴点の動きに基づくデータを含むとしてよい。特に、機械学習データ132は、例えば、これまでに被監視対象Tが実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータを含むとしてもよい。このような機械学習データ132は、例えば被監視対象Tが複数回の立ち上がり動作をした際の特徴点の動きに基づくデータを含むとしてもよい。このような機械学習データ132と、抽出部11によって抽出された特徴点の動きを対比させることによって、コントローラ15は、被監視対象Tが立ち上がり動作を行うか否かを判定するとことができる。また、本実施形態の機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータに限定されない。すなわち、機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作以外の動作などから抽出した特徴点の動きに基づくデータとしてもよい。例えば、機械学習データ132は、被監視対象Tが、コップを取る動作や、対話相手に向く動作など、立ち上がり動作以外の動作から抽出した特徴点の動きに基づくデータを含むとしてもよい。 In one embodiment, machine learning data 132 may be used as an object to be compared with the movement of the feature points extracted from the image of the monitored object T. This machine learning data 132 may also include an algorithm for performing machine learning. Here, in one embodiment, data obtained by machine learning the movement of the feature points when the monitored object T stands up may be used as the machine learning data 132. For example, the machine learning data 132 may include data based on the movement of the feature points extracted from the stand-up movement actually performed by the monitored object T in the past. In particular, the machine learning data 132 may include, for example, data based on the movement of the feature points extracted from the successful examples of the stand-up movement actually performed by the monitored object T in the past. Such machine learning data 132 may include, for example, data based on the movement of the feature points when the monitored object T stands up multiple times. By comparing such machine learning data 132 with the movement of the feature points extracted by the extraction unit 11, the controller 15 can determine whether the monitored object T stands up. In addition, the machine learning data 132 of this embodiment is not limited to data based on the movement of the feature points extracted from the successful examples of the stand-up movement actually performed by the monitored object T in the past. That is, the machine learning data 132 may be data based on the movement of feature points extracted from actions other than the standing up action actually performed by the monitored subject T up to now. For example, the machine learning data 132 may include data based on the movement of feature points extracted from actions other than the standing up action, such as the action of the monitored subject T picking up a cup or the action of turning toward a conversation partner.

後述のように、被監視対象Tが行う立ち上がり動作は、座っている状態から立ち上がり動作が完了するまでの一連の動作において、少なくとも1以上の部分的な動作を含む。したがって、座っている状態から立ち上がるまでの一連の動作に含まれる少なくとも1以上の部分的な動作の少なくとも一部が行われたことが判定できれば、被監視対象Tが立ち上がり動作をする(しようとしている)と推定できる。このような推定は、被監視対象Tが立ち上がり動作を完了する前に行うことができる。したがって、一実施形態に係る監視装置10によれば、被監視対象Tが立ち上がり動作を完了する前に、被監視対象Tが立ち上がり動作を行うことを察知して、所定の警告を発することができる。すなわち、監視装置10は、機械学習データ132に基づけば、被監視対象Tが立ち上がり動作をする前に、所定の警告を発することができる。 As described below, the standing up motion performed by the monitored subject T includes at least one or more partial motions in a series of motions from a sitting state to the completion of the standing up motion. Therefore, if it can be determined that at least a part of at least one or more partial motions included in the series of motions from a sitting state to standing up has been performed, it can be estimated that the monitored subject T is performing (or is about to perform) a standing up motion. Such an estimation can be made before the monitored subject T completes the standing up motion. Therefore, according to one embodiment of the monitoring device 10, it is possible to detect that the monitored subject T is performing a standing up motion before the monitored subject T completes the standing up motion and issue a predetermined warning. In other words, based on the machine learning data 132, the monitoring device 10 can issue a predetermined warning before the monitored subject T performs a standing up motion.

また、例えば、機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータに限定されない。すなわち、機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作の失敗例などから抽出した特徴点の動きに基づくデータとしてもよい。例えば、機械学習データ132は、被監視対象Tが立ち上がり動作をしようとしたが失敗(例えば転倒)した場合又は失敗しかけた場合の動作から抽出した特徴点の動きに基づくデータとしてもよい。このような機械学習データ132に基づけば、監視装置10は、被監視対象Tの立ち上がり動作が成功する(すなわち失敗しない)確率が所定以上の場合には、所定の警告を発しないようにしてもよい。一方、このような機械学習データ132に基づけば、監視装置10は、被監視対象Tの立ち上がり動作が成功しない(すなわち失敗する)確率が所定以上の場合には、所定の警告を発するようにしてもよい。 Also, for example, the machine learning data 132 is not limited to data based on the movement of characteristic points extracted from successful examples of the standing up movement actually performed by the monitored subject T. In other words, the machine learning data 132 may be data based on the movement of characteristic points extracted from failed examples of the standing up movement actually performed by the monitored subject T. For example, the machine learning data 132 may be data based on the movement of characteristic points extracted from the movement of the monitored subject T when the monitored subject T attempts to stand up but fails (e.g. falls) or is on the verge of failing. Based on such machine learning data 132, the monitoring device 10 may not issue a predetermined warning when the probability that the monitored subject T's standing up movement will be successful (i.e. will not fail) is equal to or higher than a predetermined value. On the other hand, based on such machine learning data 132, the monitoring device 10 may issue a predetermined warning when the probability that the monitored subject T's standing up movement will not be successful (i.e. will not fail) is equal to or higher than a predetermined value.

例えば、機械学習データ132は、教師あり学習データとして、人間がラベル付けしたデータを使用して、被監視対象Tの立ち上がり動作が成功するか否かを判定するアルゴリズムを訓練したものとしてもよい。ここで、機械学習データ132において、被監視対象Tの立ち上がり動作が成功する場合と失敗する場合とで、異なるラベル付けをしてもよい。また、機械学習データ132において、被監視対象Tの立ち上がり動作が単なる成功又は失敗する場合だけではなく、各立ち上がり動作のそれぞれに対して異なるラベルを付けてもよい。例えば、被監視対象Tの立ち上がり動作が一応成功したがスムーズな動作ではなかった場合などは、立ち上がり動作が成功した場合とは異なるラベル付けをしてもよい。 For example, the machine learning data 132 may be supervised learning data that uses data labeled by a human to train an algorithm that determines whether the standing up motion of the monitored subject T is successful or not. Here, in the machine learning data 132, cases where the standing up motion of the monitored subject T is successful and cases where it fails may be labeled differently. In addition, in the machine learning data 132, different labels may be attached not only to cases where the standing up motion of the monitored subject T is simply successful or unsuccessful, but also to each standing up motion. For example, when the standing up motion of the monitored subject T is successful but not smooth, a label different from the case where the standing up motion is successful may be attached.

一方、機械学習データ132は、教師なし学習データとして、ラベルなしのデータを与えて、被監視対象Tの立ち上がり動作が成功するか否かを判定するアルゴリズム自身にパターンを見出させるものとしてもよい。 On the other hand, the machine learning data 132 may be unlabeled data provided as unsupervised learning data, allowing the algorithm that determines whether the monitored subject T's rising action is successful to find patterns.

さらに、機械学習データ132は、被監視対象Tとして特定の人物(例えば被監視対象T1など)が立ち上がり動作をする際の特徴点の動きを機械学習したデータであってもよい。このような機械学習データ132に基づけば、監視装置10は、被監視対象T1のような特定の人物が立ち上がり動作をする前に、所定の警告を発することができる。 Furthermore, the machine learning data 132 may be data that is machine-learned about the movement of characteristic points when a specific person (e.g., monitored subject T1) as the monitored subject T stands up. Based on such machine learning data 132, the monitoring device 10 can issue a predetermined warning before a specific person such as monitored subject T1 stands up.

また、例えば、機械学習データ132は、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータに限定されない。すなわち、機械学習データ132は、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の失敗例などから抽出した特徴点の動きに基づくデータを含むとしてもよい。このような機械学習データ132に基づけば、監視装置10は、被監視対象T1のような特定の人物の立ち上がり動作が成功する(すなわち失敗しない)確率が所定以上の場合には、所定の警告を発しないようにしてもよい。一方、このような機械学習データ132に基づけば、監視装置10は、被監視対象T1のような特定の人物の立ち上がり動作が成功しない(すなわち失敗する)確率が所定以上の場合には、所定の警告を発するようにしてもよい。 Also, for example, the machine learning data 132 is not limited to data based on the movement of feature points extracted from successful examples of a standing up movement actually performed by a specific person such as the monitored subject T1. In other words, the machine learning data 132 may include data based on the movement of feature points extracted from failed examples of a standing up movement actually performed by a specific person such as the monitored subject T1. Based on such machine learning data 132, the monitoring device 10 may not issue a predetermined warning when the probability that a specific person such as the monitored subject T1 will succeed in standing up (i.e., will not fail) is equal to or higher than a predetermined value. On the other hand, based on such machine learning data 132, the monitoring device 10 may issue a predetermined warning when the probability that a specific person such as the monitored subject T1 will not succeed in standing up (i.e., will fail) is equal to or higher than a predetermined value.

ステップS3において機械学習データ132が取得されたら、コントローラ15は、抽出部11によって抽出された特徴点、及び、機械学習データ132に基づいて、被監視対象Tが立ち上がり動作をするか否か判定してよい(ステップS4)。ステップS4において、コントローラ15は、機械学習データ132を用いたAIの技術による機械学習アルゴリズムに基づいて、被監視対象Tが立ち上がり動作をするか否か判定してもよい。 When the machine learning data 132 is acquired in step S3, the controller 15 may determine whether or not the monitored subject T will stand up based on the feature points extracted by the extraction unit 11 and the machine learning data 132 (step S4). In step S4, the controller 15 may determine whether or not the monitored subject T will stand up based on a machine learning algorithm using AI technology that uses the machine learning data 132.

ステップS4において被監視対象Tが立ち上がり動作をしないと判定された場合、コントローラ15は、図2に示す動作を終了する。図2に示す動作を終了したら、コントローラ15は、連続して、又は所定の時間間隔ごとに、図2に示す動作を再び開始してもよい。 If it is determined in step S4 that the monitored subject T does not stand up, the controller 15 ends the operation shown in FIG. 2. After ending the operation shown in FIG. 2, the controller 15 may start the operation shown in FIG. 2 again continuously or at predetermined time intervals.

一方、ステップS4において被監視対象Tが立ち上がり動作をすると判定された場合、コントローラ15は、被監視対象Tが立ち上がり動作をする前に所定の警告信号を出力してよい(ステップS5)。ステップS5において、コントローラ15は、所定の警告信号を警告部17に出力してよい。ステップS5においてコントローラ15から出力された所定の警告信号に基づいて、警告部17は、所定の警告をユーザ発してよい。 On the other hand, if it is determined in step S4 that the monitored subject T is about to stand up, the controller 15 may output a predetermined warning signal before the monitored subject T stands up (step S5). In step S5, the controller 15 may output the predetermined warning signal to the warning unit 17. Based on the predetermined warning signal output from the controller 15 in step S5, the warning unit 17 may issue a predetermined warning to the user.

このように、コントローラ15は、抽出部11によって抽出された特徴点、及び、機械学習データ132に基づいて、被監視対象Tが立ち上がり動作をする前に所定の警告信号を出力してよい。 In this way, the controller 15 may output a predetermined warning signal before the monitored subject T stands up, based on the feature points extracted by the extraction unit 11 and the machine learning data 132.

図2に示すステップS4において、コントローラ15は、被監視対象Tが立ち上がり動作をするか否かを判定した。これにより、監視装置10は、被監視対象Tが立ち上がり動作をする前、例えば立ち上がり動作を完了する前に、所定の警告を発することができる。 In step S4 shown in FIG. 2, the controller 15 determines whether the monitored subject T stands up. This allows the monitoring device 10 to issue a predetermined warning before the monitored subject T stands up, for example, before the monitored subject T completes the standing up motion.

これに対し、上述したように、コントローラ15は、被監視対象Tが成功の可能性が比較的高い(すなわち安全な)立ち上がり動作をするか、又は失敗の可能性が比較的高い(すなわち危険な)立ち上がり動作をするか判定してもよい。この場合、機械学習データ132は、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータとしてもよい。また、この場合、機械学習データ132は、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の失敗例などから抽出した特徴点の動きに基づくデータとしてもよい。 In response to this, as described above, the controller 15 may determine whether the monitored subject T will perform a standing-up action that is relatively likely to be successful (i.e., safe) or a standing-up action that is relatively likely to fail (i.e., dangerous). In this case, the machine learning data 132 may be data based on the movement of characteristic points extracted from successful examples of standing-up actions actually performed by a specific person such as the monitored subject T1. In addition, in this case, the machine learning data 132 may be data based on the movement of characteristic points extracted from unsuccessful examples of standing-up actions actually performed by a specific person such as the monitored subject T1.

図3は、上述のような危険な立ち上がりを監視する監視システム1の動作の一例を示すフローチャートである。 Figure 3 is a flowchart showing an example of the operation of the monitoring system 1 for monitoring dangerous rises as described above.

図3は、図2におけるステップS4をステップS14に変更したものである。すなわち、図2のステップS4において、コントローラ15は、被監視対象Tが立ち上がり動作をするか否かを判定した。これに対し、図3のステップS14において、コントローラ15は、被監視対象Tが危険な(すなわち失敗の可能性が比較的高い)立ち上がり動作をするか否かを判定してよい。ステップS14における動作以外の動作は、図2において説明したのと同様に実施することができるため、より詳細な説明は省略する。 In FIG. 3, step S4 in FIG. 2 has been changed to step S14. That is, in step S4 in FIG. 2, the controller 15 judges whether the monitored object T will perform a standing up motion. In contrast, in step S14 in FIG. 3, the controller 15 may judge whether the monitored object T will perform a dangerous standing up motion (i.e., a motion with a relatively high probability of failure). Operations other than the operation in step S14 can be performed in the same manner as described in FIG. 2, and therefore further detailed description will be omitted.

このように、コントローラ15は、抽出部11によって抽出された特徴点及び機械学習データ132に基づいて、被監視対象Tが危険な立ち上がり動作をする前に所定の警告信号を出力してもよい。ここで、機械学習データ132は、被監視対象Tが危険な立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてもよい。 In this way, the controller 15 may output a predetermined warning signal before the monitored subject T performs a dangerous standing-up motion, based on the feature points extracted by the extraction unit 11 and the machine learning data 132. Here, the machine learning data 132 may be data that is machine-learned on the movement of the feature points when the monitored subject T performs a dangerous standing-up motion.

また、上述のように、監視装置10は、被監視対象T1のような特定の人物が立ち上がり動作をする前に、所定の警告を発してもよい。このように、コントローラ15は、抽出部11によって抽出された特徴点及び機械学習データ132に基づいて、特定の人物が立ち上がり動作をする前に所定の警告信号を出力してもよい。ここで、機械学習データ132は、被監視対象Tとして例えば特定の人物(被監視対象T1)が立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてもよい。 As described above, the monitoring device 10 may also issue a predetermined warning before a specific person, such as the monitored subject T1, stands up. In this way, the controller 15 may output a predetermined warning signal before the specific person stands up, based on the feature points extracted by the extraction unit 11 and the machine learning data 132. Here, the machine learning data 132 may be data that is machine-learned on the movement of the feature points when a specific person (monitored subject T1), for example, as the monitored subject T, stands up.

以下、抽出部11によって抽出される被監視対象Tの特徴点に基づいて機械学習データ132を生成するに際し、実証実験から得られた知見のいくつかについて、さらに説明する。 Below, we further explain some of the findings gained from the demonstration experiment when generating machine learning data 132 based on the feature points of the monitored object T extracted by the extraction unit 11.

(アームレストのない椅子から立ち上がる場合)
図4乃至図7は、被監視対象Tがアームレストのない椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図4から図7までは、アームレストのない椅子C1に座っている被監視対象Tが、徐々に立ち上がる際の特徴点の動きを示している。図4乃至図7は、被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C1は、図4乃至図7に示すように、アームレスト又は肘掛けなどのない構造の椅子としてよい。
(When standing up from a chair without armrests)
4 to 7 are diagrams for explaining an example of extracting feature points of the motion of the monitored target T standing up from a chair without armrests. Fig. 4 to Fig. 7 show the movement of feature points when the monitored target T sitting on a chair C1 without armrests gradually stands up. Fig. 4 to Fig. 7 show schematic examples of feature points extracted from an image of the monitored target T captured from the left side. Here, the chair C1 may be a chair without armrests or armrests as shown in Fig. 4 to Fig. 7.

図4から図7までに示すように、被監視対象Tが椅子C1に座っている状態から立ち上がる動作一連の動作には、いくつかの部分的な動作が含まれる。例えば、図4は、上述したように、椅子C1に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 As shown in Figures 4 to 7, the series of movements in which the monitored subject T stands up from a position where he is sitting in chair C1 includes several partial movements. For example, Figure 4 shows a schematic example of feature points extracted from an image of the monitored subject T sitting in chair C1 captured from the left side, as described above.

図4に示した状態から図5に示す状態までに、被監視対象Tが行う一例の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動(図5に示す距離d1及び角度a1))
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動(図5に示す角度a2))
(3)手を前に出す動作(特徴点P7及び/又はP6の移動(図5に示す距離d2))
A partial movement included in an example of a standing-up movement performed by the monitored target T from the state shown in FIG. 4 to the state shown in FIG. 5 may be, for example, the following movement.
(1) Movement of pulling back the leg (movement of feature point P9 (distance d1 and angle a1 shown in FIG. 5))
(2) Movement of taking a forward leaning posture (movement of the characteristic point P1, P2, or P3 (angle a2 shown in FIG. 5))
(3) Movement of putting the hand forward (movement of feature points P7 and/or P6 (distance d2 shown in FIG. 5))

ここで、被監視対象Tの通常の(安全な)立ち上がり動作において、上記(1)の距離d1は約10cm、角度a1は約70°になる傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(1)の距離d1は約20cm、角度a1は約50°になる傾向にある。以下、通常の(安全な)立ち上がり動作とは、例えば立ち上がり動作が成功する(すなわち失敗しない)確率が所定以上になる動作としてよい。また、危険な立ち上がり動作とは、例えば転倒するなど、立ち上がり動作が成功しない(すなわち失敗する)確率が所定以上になる動作としてよい。 Here, in a normal (safe) standing-up motion of the monitored subject T, the distance d1 in (1) above tends to be about 10 cm and the angle a1 to be about 70°. On the other hand, in a dangerous standing-up motion of the monitored subject T, the distance d1 in (1) above tends to be about 20 cm and the angle a1 to be about 50°. Hereinafter, a normal (safe) standing-up motion may be, for example, a motion where the probability of the standing-up motion being successful (i.e. not failing) is greater than or equal to a predetermined value. Also, a dangerous standing-up motion may be, for example, a motion where the probability of the standing-up motion not being successful (i.e. failing) is greater than or equal to a predetermined value, such as falling.

また、監視対象Tの通常の立ち上がり動作において、上記(2)の角度a2は約40°になる傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(2)の角度a2は約70°になる傾向にある。 In addition, in a normal standing motion of the monitored subject T, the angle a2 in (2) above tends to be approximately 40°. On the other hand, in a dangerous standing motion of the monitored subject T, the angle a2 in (2) above tends to be approximately 70°.

また、上記(3)の距離d2は、監視対象Tの通常の立ち上がり動作においても、危険な立ち上がり動作においても、約10cmになる傾向にある。 In addition, the distance d2 in (3) above tends to be about 10 cm, both in normal and dangerous standing-up movements of the monitored subject T.

次に、図5に示した状態から図6に示す状態を経て図7に示す状態までに、被監視対象Tが行う一例の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。図5及び図6は、被監視対象Tが行う一例の立ち上がり動作の途中の状態の画像から抽出された特徴点の例を模式的に示している。また、図7は、被監視対象Tが一例の立ち上がり動作を完了した状態の画像から抽出された特徴点の例を模式的に示している。
(4)お尻を持ち上げる動作(特徴点P4の移動(図6に示す距離d3))
(5)膝を伸ばす動作(特徴点P4及び/又はP9の移動(図6に示す角度a3))
(6)頭を持ち上げる動作(特徴点P1の移動(図6に示す距離d4))
(7)腕を伸ばす動作(特徴点P7の移動(図6に示す角度a4))
(8)背筋を伸ばす動作(特徴点P1,P2,又はP3の移動(図6に示す角度a5))
Next, partial movements included in an example of a standing up movement performed by the monitored target T from the state shown in Fig. 5 through the state shown in Fig. 6 to the state shown in Fig. 7 may be, for example, the following movements. Figs. 5 and 6 show examples of characteristic points extracted from an image of an example of a standing up movement performed by the monitored target T in the middle of the standing up movement. Fig. 7 shows an example of characteristic points extracted from an image of an example of a standing up movement completed by the monitored target T.
(4) Movement of lifting the buttocks (movement of the feature point P4 (distance d3 shown in FIG. 6))
(5) Knee straightening (movement of feature points P4 and/or P9 (angle a3 shown in FIG. 6))
(6) Head lifting motion (movement of feature point P1 (distance d4 shown in FIG. 6))
(7) Arm stretching motion (movement of feature point P7 (angle a4 shown in FIG. 6))
(8) Movement of straightening the back (movement of the characteristic point P1, P2, or P3 (angle a5 shown in FIG. 6))

ここで、被監視対象Tの通常の立ち上がり動作において、上記(5)の角度a3は約70°から約180°に変化する傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(5)の角度a3は約50°から約150°に変化する傾向にある。 Here, in a normal standing motion of the monitored subject T, the angle a3 in (5) above tends to change from about 70° to about 180°. On the other hand, in a dangerous standing motion of the monitored subject T, the angle a3 in (5) above tends to change from about 50° to about 150°.

また、被監視対象Tの通常の立ち上がり動作において、上記(6)の距離d4は、図6に示すP1の位置から図7に示すP1の位置まで変化する傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(6)の距離d4は、図6に示すP1の位置から図7に示すP1の位置までの距離に約20cm満たない位置まで変化する傾向にある。 Furthermore, in a normal standing-up motion of the monitored subject T, the distance d4 in (6) above tends to change from the position P1 shown in FIG. 6 to the position P1 shown in FIG. 7. On the other hand, in a dangerous standing-up motion of the monitored subject T, the distance d4 in (6) above tends to change from the position P1 shown in FIG. 6 to a position that is approximately 20 cm short of the distance to the position P1 shown in FIG. 7.

また、被監視対象Tの通常の立ち上がり動作において、上記(7)の角度a4は約90°から約170°に変化する傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(7)の角度a4は約90°から約160°に変化する傾向にある。 In addition, in a normal standing-up motion of the monitored subject T, the angle a4 in (7) above tends to change from approximately 90° to approximately 170°. On the other hand, in a dangerous standing-up motion of the monitored subject T, the angle a4 in (7) above tends to change from approximately 90° to approximately 160°.

さらに、被監視対象Tの通常の立ち上がり動作において、上記(8)の角度a5は約0°になる傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(8)の角度a5は約20°になる傾向にある。 Furthermore, in a normal standing-up motion of the monitored subject T, the angle a5 in (8) above tends to be approximately 0°. On the other hand, in a dangerous standing-up motion of the monitored subject T, the angle a5 in (8) above tends to be approximately 20°.

ここまで、被監視対象Tの立ち上がり動作における特徴点の動きについて説明した。以下、被監視対象Tの立ち上がり動作における特徴点の動くタイミングについて、さらに説明する。 So far, we have explained the movement of the characteristic points when the monitored subject T stands up. Below, we will further explain the timing of the movement of the characteristic points when the monitored subject T stands up.

実証実験の結果、被監視対象Tの通常の立ち上がり動作において、上記(1)から(3)までの動作は、約0.6秒の間に行われる傾向にある。また、被監視対象Tの通常の立ち上がり動作において、上記(4)から(8)までの動作は、約1.2秒の間に行われる傾向にある。すなわち、被監視対象Tの通常の立ち上がり動作は、全体として約2秒の間に行われる傾向にある。 The results of the demonstration experiment showed that in the normal standing-up motion of the monitored subject T, the above steps (1) to (3) tend to be performed within approximately 0.6 seconds. Also, in the normal standing-up motion of the monitored subject T, the above steps (4) to (8) tend to be performed within approximately 1.2 seconds. In other words, the normal standing-up motion of the monitored subject T tends to be performed overall within approximately 2 seconds.

一方、被監視対象Tの危険な立ち上がり動作において、上記(1)から(3)までの動作は、約3秒の間に行われる傾向にある。また、被監視対象Tの危険な立ち上がり動作において、上記(4)から(8)までの動作は、約3秒の間に行われる傾向にある。すなわち、被監視対象Tの危険な立ち上がり動作は、全体として約6秒の間に行われる傾向にある。言い換えると、被監視対象Tの危険な立ち上がり動作は、全体として、被監視対象Tの通常の立ち上がり動作のように約2秒の間には行われない傾向にある。 On the other hand, in the dangerous standing-up movement of the monitored subject T, the above actions (1) to (3) tend to occur over a period of about 3 seconds. Also, in the dangerous standing-up movement of the monitored subject T, the above actions (4) to (8) tend to occur over a period of about 3 seconds. In other words, the dangerous standing-up movement of the monitored subject T tends not to occur over a period of about 2 seconds, as is the case with the normal standing-up movement of the monitored subject T.

以上から、例えば、監視装置10のコントローラ15は、被監視対象Tが立ち上がり動作を開始してから2秒経過しても立ち上がり動作を完了していない場合、危険な立ち上がりである旨を示す警告信号を出力してもよい。このようにすれば、監視装置10は、被監視対象Tが危険な立ち上がりを完了する前に、被監視対象Tが危険な立ち上がり動作をしている旨の警告をユーザに発することができる。 From the above, for example, if the monitored subject T has not completed the standing up motion two seconds after starting the standing up motion, the controller 15 of the monitoring device 10 may output a warning signal indicating that the standing up motion is dangerous. In this way, the monitoring device 10 can issue a warning to the user that the monitored subject T is performing a dangerous standing up motion before the monitored subject T completes the dangerous standing up motion.

また、上記(1)から(8)までの動作は、被監視対象Tが行う一連の立ち上がり動作に含まれる。したがって、例えば上記(1)から(3)までの動作が行われると、その後引き続き上記(4)から(8)までの動作が行われるものと想定することができる。そこで、例えば、コントローラ15は、被監視対象Tが上記(1)から(3)までの動作を行うのに3秒以上かかった時点で、危険な立ち上がりである旨を示す警告信号を出力してもよい。このようにすれば、監視装置10は、被監視対象Tが危険な立ち上がりを完了する所定時間前(例えば3秒前)に、被監視対象Tが危険な立ち上がり動作をしている旨の警告をユーザに発することができる。このように、コントローラ15は、被監視対象Tが立ち上がり動作を完了する所定時間前に、所定の警告信号を出力してもよい。 The above actions (1) to (8) are included in a series of rising actions performed by the monitored object T. Therefore, for example, it can be assumed that when the above actions (1) to (3) are performed, the above actions (4) to (8) are subsequently performed. Therefore, for example, the controller 15 may output a warning signal indicating that the monitored object T is performing a dangerous rising action when it takes more than three seconds for the monitored object T to perform the above actions (1) to (3). In this way, the monitoring device 10 can issue a warning to the user that the monitored object T is performing a dangerous rising action a predetermined time (e.g., three seconds) before the monitored object T completes the dangerous rising action. In this way, the controller 15 may output a predetermined warning signal a predetermined time before the monitored object T completes the rising action.

さらに、本実施形態において、被監視対象Tの危険な立ち上がり動作において、コントローラ15は、被監視対象Tが立ち上がり動作を開始してから1秒以内に上記(1)から(3)までの動作を完了していなかった場合に、立ち上がり動作を行っている旨を示す警告信号を出力してもよい。さらに、被監視対象Tの危険な立ち上がり動作において、コントローラ15は、被監視対象Tが立ち上がり動作を開始してから1秒以内に上記(1)から(3)までの動作を完了していた場合に、立ち上がり動作を行っている旨を示す警告信号を出力しないとしてもよい。このようにすれば、監視装置10は、被監視対象Tが危険な立ち上がりを行う完了する所定時間前(例えば1秒前)に、被監視対象Tが危険な立ち上がり動作をしている旨の警告をユーザに発することができる。また、この場合、本実施形態では、警告をするか否かを、上記(1)から(3)までの動作の完了が1秒かかったか否かとしたため、通常の立ち上がりが可能な者の立ち上がりは警告せず、危険な立ち上がりを行う者の立ち上がりを警告できる。このため、本実施形態では、警告の信頼性や有用性を向上させることができる。また、本実施形態において、所定の警告信号を出力するか否かを判定するための経過時間は、上述のように1秒に限定されるものではない。つまり、通常の立ち上がり動作の動作時間T1と、危険な立ち上がり動作の動作時間をT2とした場合、所定の警告信号を出力するか否かを判定するための経過時間Tthは、T2≧Tth≧T1としてよい。経過時間TthをT1Tとした場合、本実施形態は、警告を迅速に出力することができる。経過時間TthをT2とした場合、本実施形態は、通常の立ち上がり動作を危険な立ち上がり動作と誤認識する確率を減らすことができる。経過時間TthをT2>Tth>T1とした場合、本実施形態は、警告出力の迅速性と誤認識の低減とをバランスよく設定することができる。また、本実施形態において、通常の立ち上がり動作の動作時間T1を0.6秒とし、危険な立ち上がり動作の動作時間T2を3秒とする場合を例にしたが、本実施形態は、T1、T2としてこのような値ではなく、被監視対象Tの年齢、体格、健康状態、心身の障害状態、時刻、例えば運動した後などのシチュエーションなどに基づいて適宜他の値を設定してもよい。 Furthermore, in this embodiment, in the dangerous standing-up motion of the monitored object T, the controller 15 may output a warning signal indicating that the monitored object T is standing up if the monitored object T has not completed the above steps (1) to (3) within one second after starting the standing-up motion. Furthermore, in the dangerous standing-up motion of the monitored object T, the controller 15 may not output a warning signal indicating that the monitored object T is standing up if the monitored object T has completed the above steps (1) to (3) within one second after starting the standing-up motion. In this way, the monitoring device 10 can issue a warning to the user that the monitored object T is standing up dangerously a predetermined time before (for example, one second before) the monitored object T completes the dangerous standing-up motion. In this case, in this embodiment, whether or not to issue a warning is determined based on whether or not it took one second to complete the above steps (1) to (3), so that a warning is not issued for a person who is capable of standing up normally, but a warning is issued for a person who stands up dangerously. Therefore, in this embodiment, the reliability and usefulness of the warning can be improved. In addition, in this embodiment, the elapsed time for determining whether or not to output a predetermined warning signal is not limited to one second as described above. That is, when the motion time of a normal standing-up motion is T1 and the motion time of a dangerous standing-up motion is T2, the elapsed time Tth for determining whether to output a predetermined warning signal may be T2≧Tth≧T1. When the elapsed time Tth is T1T, this embodiment can output a warning quickly. When the elapsed time Tth is T2, this embodiment can reduce the probability of misrecognizing a normal standing-up motion as a dangerous standing-up motion. When the elapsed time Tth is T2>Tth>T1, this embodiment can set a good balance between the promptness of warning output and the reduction of misrecognition. In addition, in this embodiment, the motion time T1 of a normal standing-up motion is 0.6 seconds, and the motion time T2 of a dangerous standing-up motion is 3 seconds, but in this embodiment, other values may be set as appropriate based on the age, physique, health condition, mental and physical disability state, time, and situations such as after exercise of the monitored subject T.

以上のような動作を、被監視対象Tの通常の立ち上がり動作において行ってもよい。例えば、被監視対象Tの通常の立ち上がり動作において、上記(1)から(3)までの動作が0.6秒の間に行われると、その後引き続き上記(4)から(8)までの動作が1.2秒の間に行われるものと想定することができる。 The above operations may be performed during the normal standing-up motion of the monitored subject T. For example, during the normal standing-up motion of the monitored subject T, it can be assumed that the above operations (1) to (3) are performed within 0.6 seconds, and then the above operations (4) to (8) are performed within 1.2 seconds.

そこで、コントローラ15は、被監視対象Tが立ち上がり動作を開始してから1秒以内に上記(1)から(3)までの動作を完了した場合に、立ち上がり動作を行っている旨を示す警告信号を出力してもよい。本実施形態は、所定の警告信号を出力するか否かを判定するための経過時間として1秒としてよい。このようにすれば、監視装置10は、被監視対象Tが通常の立ち上がりを完了する所定時間前(例えば約1秒前)に、被監視対象Tが立ち上がり動作を開始している旨の警告をユーザに発することができる。このように、コントローラ15は、被監視対象Tが立ち上がり動作をする所定時間前に、所定の警告信号を出力してもよい。ここで、本実施形態において、所定の警告信号を出力するか否かを判定するための経過時間は、上述のように1秒に限定されるものではない。つまり、通常の立ち上がり動作の動作時間T1と、危険な立ち上がり動作の動作時間をT2とした場合、所定の警告信号を出力するか否かを判定するための経過時間Tthは、T2≧Tth≧T1としてよい。経過時間TthをT1とした場合、本実施形態は、警告を迅速に出力することができる。経過時間TthをT2とした場合、本実施形態は、通常の立ち上がり動作を危険な立ち上がり動作と誤認識する確率を減らすことができる。経過時間TthをT2>Tth>T1とした場合、本実施形態は、警告出力の迅速性と誤認識の低減とをバランスよく設定することができる。また、本実施形態において、通常の立ち上がり動作の動作時間T1を0.6秒とし、危険な立ち上がり動作の動作時間T2を3秒とする場合を例にしたが、本実施形態は、T1、T2としてこのような値ではなく、被監視対象Tの年齢、体格、健康状態、心身の障害状態、時刻、例えば運動した後などのシチュエーションなどに基づいて適宜他の値を設定してもよい。 Therefore, the controller 15 may output a warning signal indicating that the monitored object T is performing a standing-up motion when the monitored object T completes the above-mentioned actions (1) to (3) within one second after starting the standing-up motion. In this embodiment, the elapsed time for determining whether or not to output a predetermined warning signal may be one second. In this way, the monitoring device 10 can issue a warning to the user that the monitored object T is starting a standing-up motion a predetermined time before the monitored object T completes a normal standing-up motion (for example, about one second before). In this way, the controller 15 may output a predetermined warning signal a predetermined time before the monitored object T performs a standing-up motion. Here, in this embodiment, the elapsed time for determining whether or not to output a predetermined warning signal is not limited to one second as described above. In other words, when the normal standing-up motion motion time T1 and the dangerous standing-up motion motion time T2 are taken as the motion time, the elapsed time Tth for determining whether or not to output a predetermined warning signal may be T2≧Tth≧T1. When the elapsed time Tth is taken as T1, this embodiment can quickly output a warning. When the elapsed time Tth is T2, this embodiment can reduce the probability of misrecognizing a normal standing-up motion as a dangerous standing-up motion. When the elapsed time Tth is T2>Tth>T1, this embodiment can set a good balance between the promptness of the warning output and the reduction of the false recognition. In addition, in this embodiment, the motion time T1 of the normal standing-up motion is 0.6 seconds, and the motion time T2 of the dangerous standing-up motion is 3 seconds, but in this embodiment, other values may be set as appropriate for T1 and T2 based on the age, physique, health condition, mental and physical disability state, time, and the situation, such as after exercise, of the monitored subject T.

いずれの場合も、監視装置10によれば、被監視対象Tが立ち上がり動作を完了する前に、被監視対象Tが立ち上がり動作を開始している旨の警告をユーザに発してよい。このように、コントローラ15は、被監視対象Tが立ち上がり動作を完了する前に、所定の警告信号を出力してもよい。以上説明したように、一実施形態において、コントローラ15は、抽出部11によって抽出された特徴点、及び、機械学習データ132に基づいて、被監視対象Tが立ち上がり動作をする前に所定の警告信号を出力してよい。 In either case, the monitoring device 10 may issue a warning to the user that the monitored subject T has started to stand up before the monitored subject T has completed the standing up motion. In this manner, the controller 15 may output a predetermined warning signal before the monitored subject T completes the standing up motion. As described above, in one embodiment, the controller 15 may output a predetermined warning signal before the monitored subject T stands up based on the feature points extracted by the extraction unit 11 and the machine learning data 132.

一実施形態に係る監視システム1によれば、被監視対象Tが例えば危険な立ち上がりを行おうとしている場合などに、危険な立ち上がり動作をする前に、ユーザに警告を発することができる。したがって、一実施形態に係る監視システム1によれば、被監視対象の安全に供し得る。 According to the monitoring system 1 of one embodiment, when the monitored subject T is about to perform a dangerous standing up motion, for example, a warning can be issued to the user before the dangerous standing up motion is performed. Therefore, the monitoring system 1 of one embodiment can contribute to the safety of the monitored subject.

(アームレスト付きの椅子から立ち上がる場合)
図8乃至図10は、被監視対象Tがアームレスト付きの椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図8乃至図10は、アームレスト付きの椅子C2に座っている被監視対象Tが立ち上がる際の特徴点の動きを示している。図8乃至図10は、被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C2は、図8乃至図10に示すように、アームレスト又は肘掛けなどの付いた構造の椅子としてよい。以下、上述した「アームレストのない椅子から立ち上がる場合」とは異なる点について、主に説明する。
(When standing up from a chair with armrests)
8 to 10 are diagrams for explaining an example of extracting feature points of the motion of the monitored target T standing up from a chair with armrests. FIG. 8 to FIG. 10 show the movement of feature points when the monitored target T, sitting on a chair C2 with armrests, stands up. FIG. 8 to FIG. 10 show a schematic example of feature points extracted from an image of the monitored target T captured from the left side. Here, the chair C2 may be a chair with an armrest or armrests, as shown in FIG. 8 to FIG. 10. Below, the points that are different from the above-mentioned "when standing up from a chair without armrests" will be mainly explained.

図8は、図4と同様に、椅子C2に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 As in FIG. 4, FIG. 8 shows a schematic example of feature points extracted from an image of the monitored subject T sitting in chair C2 captured from the left side.

図8に示した状態から図9に示す状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作は、上述のように、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動)
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動)
(3)手を前に出す動作(特徴点P7及び/又はP6の移動(図9に示す距離d5))
As described above, partial movements included in an example of a normal standing-up movement performed by the monitored subject T from the state shown in FIG. 8 to the state shown in FIG. 9 may be, for example, the following movements.
(1) Movement of pulling back the leg (movement of feature point P9)
(2) Movement of leaning forward (movement of feature points P1, P2, or P3)
(3) Movement of putting the hand forward (movement of feature points P7 and/or P6 (distance d5 shown in FIG. 9))

ここで、被監視対象Tの通常の立ち上がり動作において、上記(3)の距離d5は、図5に示した場合と同様に、約10cmになる傾向にある。 Here, in the normal standing-up motion of the monitored subject T, the distance d5 in (3) above tends to be about 10 cm, as in the case shown in Figure 5.

一方、被監視対象Tの危険な立ち上がり動作において、上記の「(3)手を前に出す動作」は、図10に示すように、「(3’)腕を後方に引き上げる動作(特徴点P7及びP6の移動)」に代わる傾向にある。「(3’)腕を後方に引き上げる動作」は、図10に示すように、特徴点P7の移動(図10に示す距離d6)及び特徴点P6の移動(図10に示す距離d7)を含んでよい。ここで、被監視対象Tの危険な立ち上がり動作において、上記の距離d6は約10cm、距離d7は約10cmになる傾向にある。 On the other hand, in the dangerous standing-up movement of the monitored subject T, the above-mentioned "(3) movement of putting the hand forward" tends to be replaced by "(3') movement of pulling the arm backward (movement of feature points P7 and P6)" as shown in FIG. 10. "(3') movement of pulling the arm backward" may include movement of feature point P7 (distance d6 shown in FIG. 10) and movement of feature point P6 (distance d7 shown in FIG. 10), as shown in FIG. 10. Here, in the dangerous standing-up movement of the monitored subject T, the above-mentioned distance d6 tends to be about 10 cm, and distance d7 tends to be about 10 cm.

すなわち、被監視対象Tの特徴点の動きを抽出する際に、被監視対象Tが上記(1)から(3)までの動作を完了した場合に図9のような特徴点になっていれば、被監視対象Tの通常の立ち上がり動作になる傾向にある。一方、被監視対象Tの特徴点の動きを抽出する際に、被監視対象Tが上記(1)から(3)までの動作を完了した場合に図10のような特徴点になっていれば、被監視対象Tの危険な立ち上がり動作になる傾向にある。 In other words, when extracting the movement of the characteristic points of the monitored subject T, if the characteristic points are as shown in FIG. 9 when the monitored subject T completes the above actions (1) to (3), the monitored subject T will tend to make a normal standing-up movement. On the other hand, when extracting the movement of the characteristic points of the monitored subject T, if the characteristic points are as shown in FIG. 10 when the monitored subject T completes the above actions (1) to (3), the monitored subject T will tend to make a dangerous standing-up movement.

(デスクとともに使用していた椅子から立ち上がる場合)
図11及び図12は、被監視対象Tがデスクとともに使用していた椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図11及び図12は、デスクD1とともに用いられる椅子C1に座っている被監視対象Tが立ち上がる際の特徴点の動きを示している。図11及び図12は、被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C1は、図4乃至図7に示したのと同様に、アームレスト又は肘掛けなどのない構造の椅子としてよい。以下、上述した説明とは異なる点について、主に説明する。
(When standing up from the chair you were using with your desk)
11 and 12 are diagrams for explaining an example of extracting feature points of the motion of the monitored object T standing up from a chair used together with the desk. FIG. 11 and FIG. 12 show the movement of feature points when the monitored object T, sitting on a chair C1 used together with the desk D1, stands up. FIG. 11 and FIG. 12 show a schematic example of feature points extracted from an image of the monitored object T captured from the left side. Here, the chair C1 may be a chair without armrests or armrests, as shown in FIG. 4 to FIG. 7. Below, differences from the above description will be mainly explained.

図11は、図5とほぼ同様に、椅子C1に座っている状態から立ち上がろうとしている被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 Figure 11, similar to Figure 5, shows a schematic example of feature points extracted from an image captured from the left side of a monitored subject T who is about to stand up from a seated position in a chair C1.

上述したように、図5に示した状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動)
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動)
(3)手を前に出す動作(特徴点P7及び/又はP6の移動)
As described above, partial movements included in an example of a normal standing-up movement performed by the monitored subject T up to the state shown in FIG. 5 may be, for example, the following movements.
(1) Movement of pulling back the leg (movement of feature point P9)
(2) Movement of leaning forward (movement of feature point P1, P2, or P3)
(3) Movement of putting the hand forward (movement of feature points P7 and/or P6)

これに対し、図11に示す状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作のうち、上記(1)及び(2)は、図5に示した状態と同様に含まれるものとしてよい。一方、上記の「(3)手を前に出す動作」は、図11に示す状態において、「(3”)手で机を押す動作、及び/又は、椅子を引く動作(特徴点P7及びP6の移動)」に代わる傾向にある。「(3”)手で机を押す動作、及び/又は、椅子を引く動作」は、図12に示すように、特徴点P7及び/又は特徴点P6の移動(図12に示す角度a6)を含んでよい。上記(3”)の動作における角度a6は、監視対象Tの通常の立ち上がり動作においても、危険な立ち上がり動作においても、約70°から約170°に変化する傾向にある。 In contrast, among the partial movements included in the example of normal standing-up movement performed by the monitored subject T up to the state shown in FIG. 11, the above (1) and (2) may be considered to be included in the same manner as the state shown in FIG. 5. On the other hand, the above "(3) movement of putting the hand forward" tends to be replaced by "(3") movement of pushing the desk with the hand and/or pulling the chair (movement of feature points P7 and P6)" in the state shown in FIG. 11. "(3") movement of pushing the desk with the hand and/or pulling the chair" may include movement of feature point P7 and/or feature point P6 (angle a6 shown in FIG. 12) as shown in FIG. 12. The angle a6 in the above (3") movement tends to change from about 70° to about 170° in both normal standing-up movement and dangerous standing-up movement of the monitored subject T.

以上のように、被監視対象Tの立ち上がり動作において、椅子のタイプ及び/又はデスクの有無に応じて、抽出される特徴点の動きは異なり得る。このため、各状況において抽出される特徴点に基づいて機械学習を行うことにより、監視システム1は、各状況に応じて被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 As described above, when the monitored subject T stands up, the movement of the extracted feature points may differ depending on the type of chair and/or the presence or absence of a desk. Therefore, by performing machine learning based on the feature points extracted in each situation, the monitoring system 1 can issue a predetermined warning before the monitored subject T stands up depending on each situation.

また、被監視対象Tの立ち上がり動作において、椅子のタイプ及び/又はデスクの有無に応じて、抽出される特徴点の動きは異なり得るが、共通して抽出される特徴点の動きも存在し得る。このため、異なる各状況において共通して抽出される特徴点に基づいて機械学習を行うことにより、監視システム1は、異なる各状況に依存せずに、被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 In addition, when the monitored subject T stands up, the movements of the extracted feature points may differ depending on the type of chair and/or the presence or absence of a desk, but there may also be movements of common feature points that are extracted. Therefore, by performing machine learning based on feature points that are commonly extracted in each of the different situations, the monitoring system 1 can issue a predetermined warning before the monitored subject T stands up, regardless of each of the different situations.

(半身麻痺がある被監視対象が立ち上がる場合)
図13及び図14は、例えば半身麻痺がある被監視対象Tが椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図13及び図14は、椅子C1に座っている被監視対象Tが立ち上がる際の特徴点の動きを示している。図13及び図14は、被監視対象Tが前方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C1は、図4乃至図7に示したのと同様に、アームレスト又は肘掛けなどのない構造の椅子としてよい。以下、上述した説明とは異なる点について、主に説明する。ここで、図13及び図14は、左半身の麻痺の被監視対象Tの図である。図14は、被監視対象Tの肩が下がっている側に麻痺がある例を示す。例えば、脳卒中の後遺症として、半身が麻痺になる(片麻痺)症状がある。半身麻痺は、左半身の上半身及び下半身の麻痺のケースと、左半身の上半身の麻痺のケースがある。図14の半身麻痺がある被監視対象Tは、左半身の上半身の麻痺のケースとしてよい。麻痺している側の左半身には力が入らないので、左側の上半身は下に下がりがちになる。また、この場合、足は地面に接しているため、左側の下半身は下に下がらない。したがって、この場合、左側の下半身が麻痺していない場合と変わらない体勢になる。
(When a monitored subject with hemiplegia stands up)
13 and 14 are diagrams for explaining an example of extracting feature points of the motion of a monitored target T with hemiplegia standing up from a chair. FIG. 13 and FIG. 14 show the movement of feature points when a monitored target T sitting on a chair C1 stands up. FIG. 13 and FIG. 14 show an example of feature points extracted from an image of a monitored target T captured from the front. Here, the chair C1 may be a chair with no armrest or armrest, as shown in FIG. 4 to FIG. 7. Hereinafter, differences from the above description will be mainly explained. Here, FIG. 13 and FIG. 14 are diagrams of a monitored target T with left hemiplegia. FIG. 14 shows an example of paralysis on the side where the shoulder of the monitored target T is lowered. For example, as a sequela of a stroke, there is a symptom of hemiplegia (hemiplegia). Hemiplegia can be a case of paralysis of the upper and lower halves of the left body, or a case of paralysis of the upper half of the left body. The monitored subject T with hemiplegia in Fig. 14 may be considered as a case of paralysis of the upper half of the left body. Since the paralyzed left half of the body cannot exert any strength, the upper half of the left side of the body tends to drop down. In this case, the feet are in contact with the ground, so the lower half of the left side of the body does not drop down. Therefore, in this case, the posture is the same as when the lower half of the left side of the body is not paralyzed.

図13は、図4とほぼ同様に、椅子C1に座っている状態の被監視対象Tが撮像された画像から抽出された特徴点の例を模式的に示している。図4は、椅子C1に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。これに対し、図13は、椅子C1に座っている状態の被監視対象Tが前方正面から撮像された画像から抽出された特徴点の例を模式的に示している。 FIG. 13, similar to FIG. 4, shows an example of feature points extracted from an image of the monitored subject T sitting in chair C1. FIG. 4 shows an example of feature points extracted from an image of the monitored subject T sitting in chair C1 taken from the left side. In contrast, FIG. 13 shows an example of feature points extracted from an image of the monitored subject T sitting in chair C1 taken from the front.

上述したように、図5に示した状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動)
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動)
(3)手を前に出す動作(特徴点P7及び/又はP6の移動)
As described above, partial movements included in an example of a normal standing-up movement performed by the monitored subject T up to the state shown in FIG. 5 may be, for example, the following movements.
(1) Movement of pulling back the leg (movement of feature point P9)
(2) Movement of leaning forward (movement of feature points P1, P2, or P3)
(3) Movement of putting the hand forward (movement of feature points P7 and/or P6)

ここで、図14に示すように、半身麻痺がある被監視対象Tが行う一例の立ち上がり動作に含まれる部分的な動作のうち、上記「(2)前傾姿勢を取る動作」は、図5に示した状態とは異なる動作に代わる傾向にある。したがって、この場合、上記「(2)前傾姿勢を取る動作」は、左右非対称な動きを含む「(2’)前傾姿勢を取る動作」に代えてよい。この場合、「(2’)前傾姿勢を取る動作」において、上述した特徴点P1,P2,又はP3の移動については、図5において説明した「(2)前傾姿勢を取る動作」の場合と同様にしてよい。一方、「(2’)前傾姿勢を取る動作」は、左右非対称な動きとして、例えば特徴点P5L及び/又はP5Rの移動(図14に示す角度a7)を含むものとしてよい。 Here, as shown in FIG. 14, among the partial movements included in an example of a standing-up movement performed by a monitored subject T with hemiplegia, the above-mentioned "(2) movement of leaning forward" tends to be replaced by a movement different from the state shown in FIG. 5. Therefore, in this case, the above-mentioned "(2) movement of leaning forward" may be replaced by "(2') movement of leaning forward" including an asymmetric movement. In this case, in the "(2') movement of leaning forward", the movement of the above-mentioned characteristic points P1, P2, or P3 may be the same as in the case of "(2) movement of leaning forward" described in FIG. 5. On the other hand, the "(2') movement of leaning forward" may include, for example, the movement of characteristic points P5L and/or P5R (angle a7 shown in FIG. 14) as an asymmetric movement.

以上のように、被監視対象Tの立ち上がり動作において、被監視対象Tの身体的特徴及び/又は障がいなどに応じて、抽出される特徴点の動きは異なり得る。このため、各被監視対象Tにおいて抽出される特徴点に基づいて機械学習を行うことにより、監視システム1は、各被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 As described above, when the monitored subject T stands up, the movement of the extracted feature points may differ depending on the physical characteristics and/or disabilities of the monitored subject T. Therefore, by performing machine learning based on the feature points extracted from each monitored subject T, the monitoring system 1 can issue a specified warning before each monitored subject T stands up.

また、被監視対象Tの立ち上がり動作において、被監視対象Tの身体的特徴及び/又は障がいなどに応じて、抽出される特徴点の動きは異なり得るが、共通して抽出される特徴点の動きも存在し得る。このため、異なる各被監視対象Tにおいて共通して抽出される特徴点に基づいて機械学習を行うことにより、監視システム1は、異なる各被監視対象Tに依存せずに、被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 In addition, when the monitored subject T stands up, the extracted feature points may vary depending on the physical characteristics and/or disabilities of the monitored subject T, but there may also be common feature points. Therefore, by performing machine learning based on feature points commonly extracted for each of the different monitored subjects T, the monitoring system 1 can issue a predetermined warning before the monitored subject T stands up, without depending on each of the different monitored subjects T.

本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態について装置を中心に説明してきたが、本開示に係る実施形態は装置の各構成部が実行するステップを含む方法としても実現し得るものである。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。 Although the embodiments of the present disclosure have been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications or corrections based on the present disclosure. Therefore, it should be noted that these modifications or corrections are included in the scope of the present disclosure. For example, the functions included in each component or each step can be rearranged so as not to cause logical inconsistencies, and multiple components or steps can be combined into one or divided. Although the embodiments of the present disclosure have been described mainly with respect to the device, the embodiments of the present disclosure can also be realized as a method including steps executed by each component of the device. The embodiments of the present disclosure can also be realized as a method, a program, or a storage medium on which a program is recorded, executed by a processor provided in the device. It should be understood that these are also included in the scope of the present disclosure.

上述した実施形態は、監視システム1としての実施のみに限定されるものではない。例えば、上述した実施形態は、監視システム1に含まれる監視装置10として実施してもよい。また、上述した実施形態は、例えば、監視装置10のような機器による監視方法として実施してもよい。さらに、上述した実施形態は、例えば、監視装置10のような機器又は情報処理装置(例えばコンピュータ)が実行するプログラムとして実施してもよい。 The above-described embodiment is not limited to implementation as a monitoring system 1. For example, the above-described embodiment may be implemented as a monitoring device 10 included in the monitoring system 1. The above-described embodiment may also be implemented as a monitoring method using equipment such as the monitoring device 10. Furthermore, the above-described embodiment may also be implemented as a program executed by equipment such as the monitoring device 10 or an information processing device (e.g., a computer).

1 監視システム
10 監視装置
11 抽出部
13 記憶部
132 機械学習データ
15 コントローラ
17 警告部
19 通信部
20 撮像部

REFERENCE SIGNS LIST 1 monitoring system 10 monitoring device 11 extraction unit 13 storage unit 132 machine learning data 15 controller 17 warning unit 19 communication unit 20 imaging unit

Claims (8)

被監視対象を撮像する撮像部と、
前記撮像部によって撮像された画像から、前記被監視対象の特徴点の動きを抽出する抽出部と、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出部によって抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するコントローラと、
前記コントローラから出力される前記所定の警告信号に基づいて、所定の警告を発する警告部と、
を備え
前記コントローラは、前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する、監視システム。
An imaging unit that images an object to be monitored;
an extraction unit that extracts a movement of a feature point of the monitored object from an image captured by the imaging unit;
a controller that outputs a predetermined warning signal before the monitored subject completes a standing-up motion, based on machine learning data obtained by machine learning of the movement of the feature points when the monitored subject stands up and the feature points extracted by the extraction unit;
a warning unit that issues a predetermined warning based on the predetermined warning signal output from the controller;
Equipped with
The controller outputs the predetermined warning signal when the monitored object does not complete a stand-up action within a predetermined time.
前記コントローラは、前記被監視対象が立ち上がり動作を完了する所定時間前に前記所定の警告信号を出力する、請求項1に記載の監視システム。 The monitoring system of claim 1, wherein the controller outputs the predetermined warning signal a predetermined time before the monitored subject completes a standing-up motion. 前記機械学習データは、前記被監視対象が危険な立ち上がり動作をする際の前記特徴点の動きを機械学習したデータであり、
前記コントローラは、前記抽出部によって抽出された特徴点及び前記機械学習データに基づいて、前記被監視対象が危険な立ち上がり動作を完了する前に所定の警告信号を出力する、請求項1又は2に記載の監視システム。
The machine learning data is data obtained by machine learning of the movement of the feature points when the monitored subject makes a dangerous standing-up motion,
The monitoring system according to claim 1 or 2, wherein the controller outputs a predetermined warning signal before the monitored subject completes a dangerous standing-up motion based on the feature points extracted by the extraction unit and the machine learning data.
前記機械学習データは、前記被監視対象として特定の人物が立ち上がり動作をする際の前記特徴点の動きを機械学習したデータであり、
前記コントローラは、前記抽出部によって抽出された特徴点及び前記機械学習データに基づいて、前記特定の人物が立ち上がり動作を完了する前に所定の警告信号を出力する、請求項1から3のいずれかに記載の監視システム。
The machine learning data is data obtained by machine learning of the movement of the feature points when a specific person as the monitored subject stands up,
The monitoring system according to claim 1 , wherein the controller outputs a predetermined warning signal before the specific person completes a standing-up motion based on the feature points extracted by the extraction unit and the machine learning data.
前記警告部は、前記所定の警告を、聴覚、視覚、及び触覚の少なくともいずれかに作用する情報として発する、請求項1から4のいずれかに記載の監視システム。 The monitoring system according to any one of claims 1 to 4, wherein the warning unit issues the predetermined warning as information that affects at least one of the senses of hearing, vision, and touch. 被監視対象の画像から前記被監視対象の特徴点の動きを抽出する抽出部と、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出部によって抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するコントローラと、
を備え
前記コントローラは、前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する、監視装置。
an extraction unit that extracts a movement of a feature point of a monitored object from an image of the monitored object;
a controller that outputs a predetermined warning signal before the monitored subject completes a standing-up motion, based on machine learning data obtained by machine learning of the movement of the feature points when the monitored subject stands up and the feature points extracted by the extraction unit;
Equipped with
The controller outputs the predetermined warning signal when the monitored object does not complete a standing-up action within a predetermined time.
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出するステップにおいて抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するステップと、
を含み、
前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する、監視方法。
extracting a movement of a feature point of a monitored object from an image of the monitored object;
a step of outputting a predetermined warning signal before the monitored subject completes a standing-up motion based on machine learning data obtained by machine learning the movement of the feature points when the monitored subject stands up and the feature points extracted in the extracting step;
Including,
a monitoring method, the predetermined warning signal being outputted if the monitored object does not complete a standing-up action within a predetermined time.
コンピュータに、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出するステップにおいて抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するステップと、
を実行させ
前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する、プログラム。
On the computer,
extracting a movement of a feature point of a monitored object from an image of the monitored object;
a step of outputting a predetermined warning signal before the monitored subject completes a standing-up motion based on machine learning data obtained by machine learning the movement of the feature points when the monitored subject stands up and the feature points extracted in the extracting step;
Run the command ,
a program that outputs the predetermined warning signal when the monitored object does not complete a standing-up action within a predetermined time.
JP2020083924A 2020-05-12 2020-05-12 Monitoring system, monitoring device, monitoring method, and program Active JP7483486B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020083924A JP7483486B2 (en) 2020-05-12 2020-05-12 Monitoring system, monitoring device, monitoring method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020083924A JP7483486B2 (en) 2020-05-12 2020-05-12 Monitoring system, monitoring device, monitoring method, and program

Publications (2)

Publication Number Publication Date
JP2021179726A JP2021179726A (en) 2021-11-18
JP7483486B2 true JP7483486B2 (en) 2024-05-15

Family

ID=78511443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020083924A Active JP7483486B2 (en) 2020-05-12 2020-05-12 Monitoring system, monitoring device, monitoring method, and program

Country Status (1)

Country Link
JP (1) JP7483486B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005152616A (en) 2003-10-30 2005-06-16 Technos Japan:Kk Method and system for informing rising from bed or absence from chair of nursed person
JP2015138427A (en) 2014-01-23 2015-07-30 シャープ株式会社 monitor
JP2020052867A (en) 2018-09-28 2020-04-02 株式会社Axive Posture analysis device, posture analysis method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005152616A (en) 2003-10-30 2005-06-16 Technos Japan:Kk Method and system for informing rising from bed or absence from chair of nursed person
JP2015138427A (en) 2014-01-23 2015-07-30 シャープ株式会社 monitor
JP2020052867A (en) 2018-09-28 2020-04-02 株式会社Axive Posture analysis device, posture analysis method and program

Also Published As

Publication number Publication date
JP2021179726A (en) 2021-11-18

Similar Documents

Publication Publication Date Title
US20170352240A1 (en) Method and system for motion analysis and fall prevention
US10004430B2 (en) Apparatus and method for detecting a fall
US20200245904A1 (en) Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
US20210236022A1 (en) Smart Interpretive Wheeled Walker using Sensors and Artificial Intelligence for Precision Assisted Mobility Medicine Improving the Quality of Life of the Mobility Impaired
KR102239671B1 (en) Method and system of predicting risk of falling down and dementia through gait information of the aged
JP6292283B2 (en) Behavior detection device, behavior detection method, and monitored person monitoring device
JP7483486B2 (en) Monitoring system, monitoring device, monitoring method, and program
JP7314939B2 (en) Image recognition program, image recognition device, learning program, and learning device
JP7438847B2 (en) Monitoring system, monitoring device, monitoring method, and program
Zhang et al. Context-aware fall detection using a bayesian network
Safarzadeh et al. Real-time fall detection and alert system using pose estimation
Nandi et al. Application of KNN for Fall Detection on Qualcomm SoCs
Jähne-Raden et al. Wireless sensor network for fall prevention on geriatric wards: A report
JP7467300B2 (en) SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM
JP7465773B2 (en) SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM
JP7518699B2 (en) SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM
Alejandro et al. ICFY (I Care For You): An IOT Based Fall Detection and Monitoring Device using ESP32-CAM and MPU 6050 Sensors
Saile et al. Smart IoT Devices for the Elderly and People with Disabilities
Patel et al. Vitafall: Nxtgeuh system for well-being monitoring with fall recognition and real-time vital sign monitoring
JP2022039814A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022050271A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
Oishi et al. Measuring Functional Independence of an Aged Person with a Combination of Machine Learning and Logical Reasoning.
JP2022050273A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022050272A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
WO2021033597A1 (en) Image processing system, image processing program, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221111

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240314

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240501

R150 Certificate of patent or registration of utility model

Ref document number: 7483486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150