JP7483486B2 - Monitoring system, monitoring device, monitoring method, and program - Google Patents
Monitoring system, monitoring device, monitoring method, and program Download PDFInfo
- Publication number
- JP7483486B2 JP7483486B2 JP2020083924A JP2020083924A JP7483486B2 JP 7483486 B2 JP7483486 B2 JP 7483486B2 JP 2020083924 A JP2020083924 A JP 2020083924A JP 2020083924 A JP2020083924 A JP 2020083924A JP 7483486 B2 JP7483486 B2 JP 7483486B2
- Authority
- JP
- Japan
- Prior art keywords
- monitored
- standing
- movement
- machine learning
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims description 62
- 238000000034 method Methods 0.000 title claims description 11
- 238000012806 monitoring device Methods 0.000 title description 50
- 230000033001 locomotion Effects 0.000 claims description 279
- 238000010801 machine learning Methods 0.000 claims description 90
- 238000000605 extraction Methods 0.000 claims description 35
- 238000003384 imaging method Methods 0.000 claims description 33
- 230000009471 action Effects 0.000 claims description 26
- 239000000284 extract Substances 0.000 claims description 12
- 238000004891 communication Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 19
- 230000000474 nursing effect Effects 0.000 description 11
- 206010019468 Hemiplegia Diseases 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 206010033799 Paralysis Diseases 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 210000002414 leg Anatomy 0.000 description 6
- 230000000630 rising effect Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000003862 health status Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000003340 mental effect Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010012289 Dementia Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010038743 Restlessness Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
- Closed-Circuit Television Systems (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
Description
本開示は、監視システム、監視装置、監視方法、及びプログラムに関する。 This disclosure relates to a monitoring system, a monitoring device, a monitoring method, and a program.
例えば介護施設のような現場において、要看護者又は要介護者などのような被監視者の行動を監視する装置が提案されている。例えば、特許文献1は、撮像装置で得られた画像に基づいて、被監視者における所定の行動を検知する被監視者監視システムを開示している。特許文献2は、対象者の足に検出装置を装着することにより、対象者が歩行中に転倒するのを予防する転倒予防システムを開示している。また、特許文献3は、温度分布を検出することにより、人体の体位を判定する見守り支援装置を開示している。また、引用文献4は、在宅、又は老人ホーム若しくは介護施設における老年精神病患者を監視するための医療システムを開示している。
In a field such as a nursing home, for example, a device has been proposed for monitoring the behavior of a monitored person, such as a person requiring nursing care or long-term care. For example, Patent Document 1 discloses a monitored person monitoring system that detects a predetermined behavior of the monitored person based on an image obtained by an imaging device.
被監視対象を監視することにより、被監視対象の安全に供することができれば、有益である。 It would be beneficial if monitoring the monitored subject could contribute to their safety.
本開示の目的は、被監視対象の安全に供し得る監視システム、監視装置、監視方法、及びプログラムを提供することにある。 The objective of this disclosure is to provide a monitoring system, monitoring device, monitoring method, and program that can ensure the safety of monitored subjects.
一実施形態に係る監視システムは、
被監視対象を撮像する撮像部と、
前記撮像部によって撮像された画像から、前記被監視対象の特徴点の動きを抽出する抽出部と、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出部によって抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するコントローラと、
前記コントローラから出力される前記所定の警告信号に基づいて、所定の警告を発する警告部と、
を備える。
前記コントローラは、前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する。
A monitoring system according to an embodiment includes:
An imaging unit that images an object to be monitored;
an extraction unit that extracts a movement of a feature point of the monitored object from an image captured by the imaging unit;
a controller that outputs a predetermined warning signal before the monitored subject completes a standing-up motion, based on machine learning data obtained by machine learning of the movement of the feature points when the monitored subject stands up and the feature points extracted by the extraction unit;
a warning unit that issues a predetermined warning based on the predetermined warning signal output from the controller;
Equipped with.
The controller outputs the predetermined warning signal when the monitored object does not complete a standing up motion within a predetermined time.
一実施形態に係る監視装置は、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出する抽出部と、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出部によって抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するコントローラと、
を備える。
前記コントローラは、前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する。
A monitoring device according to an embodiment includes:
an extraction unit that extracts a movement of a feature point of a monitored object from an image of the monitored object;
a controller that outputs a predetermined warning signal before the monitored subject completes a standing-up motion, based on machine learning data obtained by machine learning of the movement of the feature points when the monitored subject stands up and the feature points extracted by the extraction unit;
Equipped with.
The controller outputs the predetermined warning signal when the monitored object does not complete the standing up action within a predetermined time.
一実施形態に係る監視方法は、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出するステップにおいて抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するステップと、
を含み、
前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する。
A monitoring method according to an embodiment includes the steps of:
extracting a movement of a feature point of a monitored object from an image of the monitored object;
a step of outputting a predetermined warning signal before the monitored subject completes a standing-up motion based on machine learning data obtained by machine learning the movement of the feature points when the monitored subject stands up and the feature points extracted in the extracting step;
Including,
If the monitored object does not complete the standing up action within a predetermined time, the predetermined warning signal is output.
一実施形態に係るプログラムは、
コンピュータに、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出するステップにおいて抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するステップと、
を実行させ、
前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する。
A program according to an embodiment includes:
On the computer,
extracting a movement of a feature point of a monitored object from an image of the monitored object;
a step of outputting a predetermined warning signal before the monitored subject completes a standing-up motion based on machine learning data obtained by machine learning the movement of the feature points when the monitored subject stands up and the feature points extracted in the extracting step;
Run the command ,
If the monitored object does not complete the standing up action within a predetermined time, the predetermined warning signal is output.
一実施形態によれば、被監視対象の安全に供し得る監視システム、監視装置、監視方法、及びプログラムを提供することができる。 According to one embodiment, it is possible to provide a monitoring system, a monitoring device, a monitoring method, and a program that can ensure the safety of the monitored subject.
本開示において、「監視装置」とは、電力により駆動する機器としてよい。また、「監視システム」とは、電力により駆動する機器を含むものとしてよい。また、「ユーザ」とは、一実施形態に係る監視システム及び/又は監視装置を使用する者(典型的には人間)としてよい。ユーザは、一実施形態に係る監視システム及び/又は監視装置を用いることで、被監視対象の監視を行う者を含んでもよい。また、「被監視対象」とは、一実施形態に係る監視システム及び/又は監視装置によって監視される対象となる者(例えば人間又は動物)としてよい。 In the present disclosure, a "monitoring device" may be a device that is powered by electricity. Furthermore, a "monitoring system" may include a device that is powered by electricity. Furthermore, a "user" may be a person (typically a human) that uses a monitoring system and/or a monitoring device according to an embodiment. A user may include a person who monitors a monitored subject by using a monitoring system and/or a monitoring device according to an embodiment. Furthermore, a "monitored subject" may be a person (e.g., a human or an animal) that is the subject of monitoring by a monitoring system and/or a monitoring device according to an embodiment.
一実施形態に係る監視システムが利用される場面として想定されるのは、例えば、会社、病院、老人ホーム、学校、スポーツジム、及び介護施設などのような、社会活動を行う者が使用する特定の施設などとしてよい。例えば、会社であれば従業員などの健康状態の把握及び/又は管理は、極めて重要である。同様に、病院であれば患者及び医療従事者など、また老人ホームであれば入居者及びスタッフなどの健康状態の把握及び/又は管理は、極めて重要である。一実施形態に係る監視システムが利用される場面は、上述の、会社、病院、及び老人ホームなどの施設に限定されず、被監視対象の健康状態の把握及び/又は管理などが望まれる任意の施設としてよい。任意の施設は、例えば、ユーザの自宅などの非商業施設も含んでもよい。また、一実施形態に係る監視システムが利用される場面は、例えば、電車、バス、及び飛行機などの移動体内、並びに、駅及び乗り場などとしてもよい。 The monitoring system according to one embodiment is assumed to be used in specific facilities used by people engaged in social activities, such as companies, hospitals, nursing homes, schools, sports gyms, and care facilities. For example, in a company, it is extremely important to understand and/or manage the health status of employees. Similarly, in a hospital, it is extremely important to understand and/or manage the health status of patients and medical professionals, and in a nursing home, it is extremely important to understand and/or manage the health status of residents and staff. The monitoring system according to one embodiment is not limited to the above-mentioned facilities such as companies, hospitals, and nursing homes, but may be any facility where it is desired to understand and/or manage the health status of a monitored subject. Any facility may also include non-commercial facilities such as a user's home. The monitoring system according to one embodiment may also be used in, for example, inside moving objects such as trains, buses, and airplanes, as well as at stations and boarding points.
一実施形態に係る監視システムは、例えば、介護施設などにおいて、要看護者又は要介護者などのような被監視対象の行動を監視する用途で用いられてよい。一実施形態に係る監視システムは、例えば要看護者又は要介護者などのような被監視対象の立ち上がり動作を監視することができる。ここで、被監視対象の立ち上がり動作とは、例えば被監視対象者が座っている状態又は横たわっている状態から立ち上がる動作としてよい。 The monitoring system according to one embodiment may be used, for example, in a care facility or the like to monitor the behavior of a monitored subject, such as a person requiring nursing care or care. The monitoring system according to one embodiment may monitor the standing up motion of a monitored subject, such as a person requiring nursing care or care. Here, the standing up motion of the monitored subject may be, for example, the motion of the monitored subject standing up from a sitting or lying position.
特に、一実施形態に係る監視システムは、例えば要看護者又は要介護者などのような被監視者が、立ち上がり動作をする前、例えば立ち上がり動作を完了する前に、所定の警告を発することができる。したがって、一実施形態に係る監視システムによれば、例えば介護施設などのスタッフは、例えば要看護者又は要介護者などのような被監視者が、立ち上がり動作を完了する前に、立ち上がり動作をしようとしていることを把握し得る。 In particular, the monitoring system according to one embodiment can issue a predetermined warning before a monitored person, such as a person requiring nursing care or care, stands up, for example, before completing the standing up motion. Therefore, according to the monitoring system according to one embodiment, staff at a care facility, for example, can know that a monitored person, such as a person requiring nursing care or care, is about to stand up before completing the standing up motion.
また、一実施形態に係る監視システムは、要看護者又は要介護者などのような被監視者が危険な立ち上がり動作をする前、例えば危険な立ち上がり動作を完了する前に、所定の警告を発することもできる。また、一実施形態に係る監視システムは、特定の被監視者が立ち上がり動作をする前、例えば立ち上がり動作を完了する前に、所定の警告を発することもできる。 The monitoring system according to one embodiment can also issue a predetermined warning before a monitored person, such as a person requiring nursing care or care, makes a dangerous standing-up motion, for example, before completing the dangerous standing-up motion. The monitoring system according to one embodiment can also issue a predetermined warning before a specific monitored person makes a standing-up motion, for example, before completing the standing-up motion.
以下、一実施形態に係る監視システムについて、図面を参照して詳細に説明する。 The monitoring system according to one embodiment will be described in detail below with reference to the drawings.
図1は、一実施形態に係る監視システムの概略構成を示す図である。図1に示すように、一実施形態に係る監視システム1は、監視装置10及び撮像部20を含んで構成されてよい。監視装置10と撮像部20とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。一実施形態に係る監視システム1は、図1に示す機能部の一部を含まなくてもよいし、図1に示す以外の機能部を含んでもよい。例えば、一実施形態に係る監視システム1は、警告部17及び通信部19の少なくとも一方を備えなくてもよい。
FIG. 1 is a diagram showing a schematic configuration of a monitoring system according to one embodiment. As shown in FIG. 1, the monitoring system 1 according to one embodiment may be configured to include a
図1に示す撮像部20は、例えばデジタルカメラのような、電子的に画像を撮像するイメージセンサを含んで構成されてよい。撮像部20は、CCD(Charge Coupled Device Image Sensor)又はCMOS(Complementary Metal Oxide Semiconductor)センサ等のように、光電変換を行う撮像素子を含んで構成されてよい。撮像部20は、例えば図1に示すように、被監視対象Tを撮像してよい。ここで、被監視対象Tは、例えば人間としてよい。撮像部20は、撮像した画像を信号に変換して、監視装置10に送信してよい。例えば、撮像部20は、撮像した画像に基づく信号を、監視装置10の抽出部11、記憶部13、及び/又は、コントローラ15などに送信してよい。撮像部20は、被監視対象Tを撮像するものであれば、デジタルカメラのような撮像デバイスに限定されず、任意のデバイスとしてよい。
The
一実施形態において、撮像部20は、例えば被監視対象Tを所定時間ごと(例えば0.5秒おき)の静止画として撮像してもよい。また、一実施形態において、撮像部20は、例えば被監視対象Tを連続した動画として撮像してもよい。
In one embodiment, the
図1に示すように、一実施形態に係る監視装置10は、抽出部11、記憶部13、コントローラ15、警告部17、及び通信部19を備えてよい。一実施形態に係る監視装置10は、図1に示す機能部の一部を備えなくてもよいし、図1に示す以外の機能部を備えてもよい。例えば、一実施形態に係る監視装置10は、記憶部13に記憶される後述の機械学習データ132を備えてもよい。例えば、一実施形態に係る監視装置10は、後述の機械学習データ132の少なくとも一部が、外部サーバなどの外部機器に記憶されているとしてもよい。
As shown in FIG. 1, the
抽出部11は、撮像部20によって撮像された画像から、所定の特徴点を抽出する機能を有してよい。例えば、抽出部11は、撮像部20によって撮像された被監視対象Tの画像から、当該被監視対象Tの特徴点の動きを抽出してもよい。ここで、特徴点については、さらに後述する。一実施形態において、抽出部11は、撮像部20によって撮像された被監視対象Tの画像から、当該被監視対象Tの頭部、体幹、四肢、及び/又は各関節などの各部の動きを抽出してもよい。抽出部11は、専用のハードウェアとして構成されてもよいし、少なくとも一部にソフトウェアを含めて構成されてもよいし、全てソフトウェアで構成されているとしてもよい。このように、抽出部11は、撮像部20によって撮像された画像から、被監視対象Tの特徴点の動きを抽出してよい。
The extraction unit 11 may have a function of extracting a predetermined feature point from an image captured by the
記憶部13は、各種の情報を記憶するメモリとしての機能を有してよい。記憶部13は、例えばコントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などを記憶してよい。また、記憶部13は、コントローラ15のワークメモリとして機能してよい。記憶部13は、例えば半導体メモリ等により構成することができるが、これに限定されず、任意の記憶装置とすることができる。例えば、記憶部13は、一実施形態に係る監視装置10に挿入されたメモリカードのような記憶媒体としてもよい。また、記憶部13は、後述のコントローラ15として用いられるCPUの内部メモリであってもよいし、コントローラ15に別体として接続されるものとしてもよい。
The
図1に示すように、記憶部13は、例えば機械学習データ132を記憶してもよい。ここで、機械学習データ132は、機械学習によって生成されるデータとしてよい。また、機械学習とは、特定のタスクをトレーニングにより実行可能になるAI(Artificial Intelligence)の技術としてよい。より具体的には、機械学習とは、コンピュータのような情報処理装置が多くのデータを学習し、分類及び/又は予測などのタスクを遂行するアルゴリズム又はモデルを自動的に構築する技術としてよい。本明細書において、AI(Artificial Intelligence)の一部には、機械学習が含まれるとしてもよい。本明細書において、機械学習には、正解データをもとに入力データの特徴又はルールを学習する教師あり学習、正解データがない状態で入力データの特徴又はルールを学習する教師なし学習、及び、報酬や罰を与えて入力データの特徴又はルールを学習する強化学習などを含むとしてもよい。また、本明細書において、機械学習は、教師あり学習、教師なし学習、及び強化学習を任意に組み合わせたものとしてもよい。本実施形態の機械学習データ132の概念は、入力データに対して学習されたアルゴリズムを用いて所定の推論結果を出力するアルゴリズムを含むとしてもよい。本実施形態は、このアルゴリズムとして、例えば、従属変数と独立変数との関係を予測する線形回帰、人の脳神経系ニューロンを数理モデル化したニューラルネットワーク(NN)、誤差を二乗して算出する最小二乗法、問題解決を木構造にする決定木、及びデータを所定の方法で変形する正則化などその他適宜なアルゴリズムを用いることができる。本実施形態は、ニューラルネットワークの一種であるディープラーニングを利用するとしてよい。ディープラーニングは、ニューラルネットワークの一種であり、ネットワークの階層が深いニューラルネットワークがディープラーニングと呼ばれている。
As shown in FIG. 1, the
特に、一実施形態において、機械学習データ132は、被監視対象Tが立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてよい。また、機械学習データ132は、被監視対象Tが危険な立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてもよい。さらに、機械学習データ132は、被監視対象Tとして特定の人物(例えば被監視対象T1)が立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてもよい。一実施形態に係る機械学習データ132については、さらに後述する。
In particular, in one embodiment, the
コントローラ15は、監視装置10を構成する各機能部をはじめとして、監視装置10の全体を制御及び/又は管理する。コントローラ15は、種々の機能を実行するための制御及び処理能力を提供するために、例えばCPU(Central Processing Unit)のような、少なくとも1つのプロセッサを含んでよい。コントローラ15は、まとめて1つのプロセッサで実現してもよいし、いくつかのプロセッサで実現してもよいし、それぞれ個別のプロセッサで実現してもよい。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)ともいう。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。
The
一実施形態において、コントローラ15は、例えばCPU及び当該CPUで実行されるプログラムとして構成されてよい。コントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などは、例えば記憶部13に記憶されてよい。コントローラ15は、コントローラ15の動作に必要なメモリを適宜含んでもよい。一実施形態に係る監視装置10のコントローラ15の動作については、さらに後述する。
In one embodiment, the
警告部17は、コントローラ15から出力される所定の警告信号に基づいて、監視システム1又は監視装置10のユーザなどに注意を促すための所定の警告を発してよい。警告部17は、所定の警告として、例えば音、音声、光、文字、映像、及び振動など、ユーザの聴覚、視覚、触覚の少なくともいずれかを刺激する任意の機能部としてよい。具体的には、警告部17は、例えばブザー又はスピーカのような音声出力部、LEDのような発光部、LCDのような表示部、及びバイブレータのような触感呈示部などの少なくともいずれかとしてよい。このように、警告部17は、コントローラ15から出力される所定の警告信号に基づいて、所定の警告を発してよい。一実施形態において、警告部17は、所定の警報を、聴覚、視覚、及び触覚の少なくともいずれかに作用する情報として発してもよい。
The
一実施形態において、警告部17は、例えば被監視対象Tが立ち上がり動作をする前に、被監視対象Tが立ち上がり動作をする旨の警告を発してよい。また、一実施形態において、警告部17は、例えば被監視対象Tが危険な立ち上がり動作をする前に、被監視対象Tが危険な立ち上がり動作をする旨の警告を発してもよい。さらに、一実施形態において、警告部17は、例えば特定の人物が立ち上がり動作をする旨の警告を発してもよい。例えば、一実施形態において、視覚情報を出力する警告部17は、被監視対象Tが立ち上がり動作をする旨が検出されると、その旨を発光又は所定の表示などによってユーザに警告してよい。また、一実施形態において、聴覚情報を出力する警告部17は、被監視対象Tが立ち上がり動作をする旨が検出されると、その旨を所定の音又は音声などによってユーザに警告してよい。本実施形態では、上記警告は、発光又は所定の表示、及び所定の音又は音声を組み合わせてもよい。
In one embodiment, the
図1に示す監視装置10は、警告部17を内蔵している。しかしながら、一実施形態に監視システム1において、警告部17は、監視装置10の外部に設けられてもよい。この場合、警告部17と監視装置10とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。
The
通信部19は、有線又は無線により通信するためのインタフェースの機能を有する。一実施形態の通信部19によって行われる通信方式は無線通信規格としてよい。例えば、無線通信規格は2G、3G、4G、及び5G等のセルラーフォンの通信規格を含む。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)、及びPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格は、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、WiFi、Bluetooth(登録商標)、IrDA(Infrared Data Association)、及びNFC(Near Field Communication)等を含む。通信部19は、上記の通信規格の1つ又は複数をサポートすることができる。通信部19は、例えば電波を送受信するアンテナ及び適当なRF部などを含めて構成してよい。また、通信部19は、外部に有線接続するためのコネクタなどのようなインタフェースとして構成してもよい。通信部19は、無線通信を行うための既知の技術により構成することができるため、より詳細なハードウェアの説明は省略する。
The
通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に供給されてよい。通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に内蔵されたメモリに記憶してもよい。また、通信部19は、例えばコントローラ15による処理結果、抽出部11による抽出結果、及び/又は、記憶部13に記憶された情報などを外部に送信してもよい。
The various information received by the
図1に示すような、一実施形態に係る監視装置10を構成する各機能部の少なくとも一部は、ソフトウェアとハードウェア資源とが協働した具体的手段によって構成されてもよい。
As shown in FIG. 1, at least a portion of the functional units constituting the
次に、一実施形態に係る監視システム1の動作について説明する。 Next, we will explain the operation of the monitoring system 1 according to one embodiment.
図2は、一実施形態に係る監視システム1の動作の一例を示すフローチャートである。図2に示す動作は、例えば病院又は介護施設などにおいて、被監視対象Tの立ち上がり動作の監視を行う際に開始してよい。例えば介護施設又は病院などにおいて、お年寄り又は負傷者のように、足腰が弱くなっているため自力で立ち上がろうとすると転倒するリスクが高い者が存在し得る。また、例えば認知症を発症している患者などは、自力で立ち上がると、徘徊したり行方不明になったりするリスクもある。このような被監視対象Tを監視システム1によって監視することで、例えば介護施設又は病院などのスタッフは、被監視対象Tが自力で立ち上がろうとしていることを、被監視対象Tが実際に立ち上がり動作をする前に認識することができる。 FIG. 2 is a flowchart showing an example of the operation of the monitoring system 1 according to an embodiment. The operation shown in FIG. 2 may be started when monitoring the standing up motion of the monitored subject T in, for example, a hospital or a care facility. For example, in a care facility or hospital, there may be elderly or injured people whose legs are weak and who are at high risk of falling if they try to stand up on their own. In addition, for example, patients with dementia may be at risk of wandering or getting lost if they stand up on their own. By monitoring such a monitored subject T with the monitoring system 1, staff at, for example, a care facility or hospital can recognize that the monitored subject T is trying to stand up on his or her own before the monitored subject T actually stands up.
図2に示す動作が開始すると、一実施形態に係る監視システム1において、撮像部20は、被監視対象Tを撮像する(ステップS1)。ステップS1において、撮像部20は、被監視対象Tの画像を撮像してよい。ステップS1において、撮像部20は、この時点で被監視対象Tの撮像を開始してもよいし、すでに開始していた被監視対象Tの撮像を継続してもよい。また、ステップS1において、撮像部20は、被監視対象Tを例えば所定時間ごと(例えば0.5秒おき)の静止画として撮像してもよい。また、ステップS1において、撮像部20は、例えば被監視対象Tを連続した動画として撮像してもよい。ステップS1において撮像部20によって撮像された被監視対象Tの画像は、監視装置10の抽出部11に供給される。また、撮像部20は、例えば被監視対象Tを、例えば所定時間ごと(例えば0.5秒おき)の静止画及び連続した動画との組合せで撮像してもよい。本実施形態は、動画の撮像モードから静止画のモードに移行して画像データの容量を削減してもよい。本実施形態は、被監視対象Tの動作が少ない、例えば夜間などの場合に、動画の撮像モードから静止画のモードに移行して画像データの容量を削減してもよい。
2 starts, the
ステップS1において被監視対象Tが撮像されたら、監視装置10の抽出部11は、撮像部20によって撮像された画像から、被監視対象Tの特徴点の動きを抽出する(ステップS2)。
When the monitored object T is imaged in step S1, the extraction unit 11 of the
図4以降は、撮像部20によって撮像された被監視対象Tの画像に基づいて、抽出部11によって抽出される被監視対象Tの特徴点の例を模式的に示す図である。図4は、椅子C1に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。
Figures 4 and onward are diagrams that show examples of feature points of the monitored target T extracted by the extraction unit 11 based on the image of the monitored target T captured by the
一実施形態において、抽出部11によって抽出される被監視対象Tの特徴点は、例えば図4以降に示すように、次のような特徴点としてよい。
特徴点P1は、被監視対象Tの例えば頭部としてよい。
特徴点P2は、被監視対象Tの例えば頭部と首との接続部としてよい。
特徴点P3は、被監視対象Tの例えば首と体幹との接続部としてよい。
特徴点P4は、被監視対象Tの例えば体幹と脚との接続部としてよい。
特徴点P5は、被監視対象Tの例えば肩としてよい。
特徴点P6は、被監視対象Tの例えば肘としてよい。
特徴点P7は、被監視対象Tの例えば手としてよい。
特徴点P8は、被監視対象Tの例えば膝としてよい。
特徴点P9は、被監視対象Tの例えば足としてよい。
In one embodiment, the feature points of the monitored target T extracted by the extraction unit 11 may be the following feature points, for example, as shown in FIG. 4 and subsequent figures.
The characteristic point P1 may be, for example, the head of the monitored object T.
The characteristic point P2 may be, for example, the connection between the head and neck of the monitored subject T.
The characteristic point P3 may be, for example, the connection between the neck and torso of the monitored subject T.
The characteristic point P4 may be, for example, the connection between the trunk and the legs of the monitored subject T.
The characteristic point P5 may be, for example, the shoulder of the monitored object T.
The characteristic point P6 may be, for example, the elbow of the monitored object T.
The characteristic point P7 may be, for example, the hand of the monitored subject T.
The characteristic point P8 may be, for example, the knee of the monitored object T.
The characteristic point P9 may be, for example, the foot of the monitored object T.
図2の説明に戻り、ステップS2において、抽出部11は、既存の画像認識などの技術を用いて特徴点の抽出を行ってよい。また、ステップS2において、抽出部11は、例えばAIなどに基づく技術を用いて特徴点の抽出を行ってもよい。 Returning to the explanation of FIG. 2, in step S2, the extraction unit 11 may extract feature points using existing technology such as image recognition. Also, in step S2, the extraction unit 11 may extract feature points using technology based on, for example, AI.
ステップS2において、抽出部11は、撮像部20によって撮像された被監視対象Tの連続する複数の静止画から、特徴点の動きを抽出してもよい。また、ステップS2において、抽出部11は、撮像部20によって撮像された被監視対象Tの動画から、特徴点の動きを抽出してもよい。
In step S2, the extraction unit 11 may extract the movement of the characteristic points from a plurality of successive still images of the monitored object T captured by the
ステップS2において特徴点の動きが抽出されたら、監視装置10のコントローラ15は、機械学習データ132を取得する(ステップS3)。ステップS3において、コントローラ15は、記憶部13から機械学習データ132を読み出してもよい。また、必要な機械学習データ132が記憶部13に記憶されていない場合、コントローラ15は、必要な機械学習データ132を例えば外部サーバなどから取得してもよい。この場合、コントローラ15は、通信部19を介して、必要な機械学習データ132を受信してもよい。このようにして受信された機械学習データ132は、例えば記憶部13又はコントローラ15の内部メモリなどに記憶されてもよい。以下、機械学習データ132について、さらに説明する。
Once the movement of the feature points is extracted in step S2, the
上述のように、一実施形態に係る監視装置10は、被監視対象Tの特徴点の動きに基づいて、被監視対象Tが立ち上がり動作をする前に、被監視対象Tが立ち上がり動作をすると判定してよい。被監視対象Tが立ち上がり動作をする前は、例えば立ち上がり動作を完了する前としてよい。このため、一実施形態に係る監視装置10において、コントローラ15は、撮像された被監視対象Tの画像から抽出された特徴点の動きを監視してよい。具体的には、コントローラ15は、被監視対象Tの画像から抽出された複数の特徴点の所定のタイミングにおける位置を、それぞれ監視してよい。また、コントローラ15は、被監視対象Tの画像から抽出された複数の特徴点が所定の位置に到来するタイミングを、それぞれ監視してもよい。
As described above, the
一実施形態において、被監視対象Tの画像から抽出された特徴点の動きと対比される対象として、機械学習データ132を使用してよい。この機会学習データ132には、機械学習を行うアルゴリズムも含まれるとしてもよい。ここで、一実施形態において、機械学習データ132として、被監視対象Tが立ち上がり動作をする際の特徴点の動きを機械学習したデータを用いてよい。例えば、機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作から抽出した特徴点の動きに基づくデータを含むとしてよい。特に、機械学習データ132は、例えば、これまでに被監視対象Tが実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータを含むとしてもよい。このような機械学習データ132は、例えば被監視対象Tが複数回の立ち上がり動作をした際の特徴点の動きに基づくデータを含むとしてもよい。このような機械学習データ132と、抽出部11によって抽出された特徴点の動きを対比させることによって、コントローラ15は、被監視対象Tが立ち上がり動作を行うか否かを判定するとことができる。また、本実施形態の機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータに限定されない。すなわち、機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作以外の動作などから抽出した特徴点の動きに基づくデータとしてもよい。例えば、機械学習データ132は、被監視対象Tが、コップを取る動作や、対話相手に向く動作など、立ち上がり動作以外の動作から抽出した特徴点の動きに基づくデータを含むとしてもよい。
In one embodiment,
後述のように、被監視対象Tが行う立ち上がり動作は、座っている状態から立ち上がり動作が完了するまでの一連の動作において、少なくとも1以上の部分的な動作を含む。したがって、座っている状態から立ち上がるまでの一連の動作に含まれる少なくとも1以上の部分的な動作の少なくとも一部が行われたことが判定できれば、被監視対象Tが立ち上がり動作をする(しようとしている)と推定できる。このような推定は、被監視対象Tが立ち上がり動作を完了する前に行うことができる。したがって、一実施形態に係る監視装置10によれば、被監視対象Tが立ち上がり動作を完了する前に、被監視対象Tが立ち上がり動作を行うことを察知して、所定の警告を発することができる。すなわち、監視装置10は、機械学習データ132に基づけば、被監視対象Tが立ち上がり動作をする前に、所定の警告を発することができる。
As described below, the standing up motion performed by the monitored subject T includes at least one or more partial motions in a series of motions from a sitting state to the completion of the standing up motion. Therefore, if it can be determined that at least a part of at least one or more partial motions included in the series of motions from a sitting state to standing up has been performed, it can be estimated that the monitored subject T is performing (or is about to perform) a standing up motion. Such an estimation can be made before the monitored subject T completes the standing up motion. Therefore, according to one embodiment of the
また、例えば、機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータに限定されない。すなわち、機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作の失敗例などから抽出した特徴点の動きに基づくデータとしてもよい。例えば、機械学習データ132は、被監視対象Tが立ち上がり動作をしようとしたが失敗(例えば転倒)した場合又は失敗しかけた場合の動作から抽出した特徴点の動きに基づくデータとしてもよい。このような機械学習データ132に基づけば、監視装置10は、被監視対象Tの立ち上がり動作が成功する(すなわち失敗しない)確率が所定以上の場合には、所定の警告を発しないようにしてもよい。一方、このような機械学習データ132に基づけば、監視装置10は、被監視対象Tの立ち上がり動作が成功しない(すなわち失敗する)確率が所定以上の場合には、所定の警告を発するようにしてもよい。
Also, for example, the
例えば、機械学習データ132は、教師あり学習データとして、人間がラベル付けしたデータを使用して、被監視対象Tの立ち上がり動作が成功するか否かを判定するアルゴリズムを訓練したものとしてもよい。ここで、機械学習データ132において、被監視対象Tの立ち上がり動作が成功する場合と失敗する場合とで、異なるラベル付けをしてもよい。また、機械学習データ132において、被監視対象Tの立ち上がり動作が単なる成功又は失敗する場合だけではなく、各立ち上がり動作のそれぞれに対して異なるラベルを付けてもよい。例えば、被監視対象Tの立ち上がり動作が一応成功したがスムーズな動作ではなかった場合などは、立ち上がり動作が成功した場合とは異なるラベル付けをしてもよい。
For example, the
一方、機械学習データ132は、教師なし学習データとして、ラベルなしのデータを与えて、被監視対象Tの立ち上がり動作が成功するか否かを判定するアルゴリズム自身にパターンを見出させるものとしてもよい。
On the other hand, the
さらに、機械学習データ132は、被監視対象Tとして特定の人物(例えば被監視対象T1など)が立ち上がり動作をする際の特徴点の動きを機械学習したデータであってもよい。このような機械学習データ132に基づけば、監視装置10は、被監視対象T1のような特定の人物が立ち上がり動作をする前に、所定の警告を発することができる。
Furthermore, the
また、例えば、機械学習データ132は、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータに限定されない。すなわち、機械学習データ132は、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の失敗例などから抽出した特徴点の動きに基づくデータを含むとしてもよい。このような機械学習データ132に基づけば、監視装置10は、被監視対象T1のような特定の人物の立ち上がり動作が成功する(すなわち失敗しない)確率が所定以上の場合には、所定の警告を発しないようにしてもよい。一方、このような機械学習データ132に基づけば、監視装置10は、被監視対象T1のような特定の人物の立ち上がり動作が成功しない(すなわち失敗する)確率が所定以上の場合には、所定の警告を発するようにしてもよい。
Also, for example, the
ステップS3において機械学習データ132が取得されたら、コントローラ15は、抽出部11によって抽出された特徴点、及び、機械学習データ132に基づいて、被監視対象Tが立ち上がり動作をするか否か判定してよい(ステップS4)。ステップS4において、コントローラ15は、機械学習データ132を用いたAIの技術による機械学習アルゴリズムに基づいて、被監視対象Tが立ち上がり動作をするか否か判定してもよい。
When the
ステップS4において被監視対象Tが立ち上がり動作をしないと判定された場合、コントローラ15は、図2に示す動作を終了する。図2に示す動作を終了したら、コントローラ15は、連続して、又は所定の時間間隔ごとに、図2に示す動作を再び開始してもよい。
If it is determined in step S4 that the monitored subject T does not stand up, the
一方、ステップS4において被監視対象Tが立ち上がり動作をすると判定された場合、コントローラ15は、被監視対象Tが立ち上がり動作をする前に所定の警告信号を出力してよい(ステップS5)。ステップS5において、コントローラ15は、所定の警告信号を警告部17に出力してよい。ステップS5においてコントローラ15から出力された所定の警告信号に基づいて、警告部17は、所定の警告をユーザ発してよい。
On the other hand, if it is determined in step S4 that the monitored subject T is about to stand up, the
このように、コントローラ15は、抽出部11によって抽出された特徴点、及び、機械学習データ132に基づいて、被監視対象Tが立ち上がり動作をする前に所定の警告信号を出力してよい。
In this way, the
図2に示すステップS4において、コントローラ15は、被監視対象Tが立ち上がり動作をするか否かを判定した。これにより、監視装置10は、被監視対象Tが立ち上がり動作をする前、例えば立ち上がり動作を完了する前に、所定の警告を発することができる。
In step S4 shown in FIG. 2, the
これに対し、上述したように、コントローラ15は、被監視対象Tが成功の可能性が比較的高い(すなわち安全な)立ち上がり動作をするか、又は失敗の可能性が比較的高い(すなわち危険な)立ち上がり動作をするか判定してもよい。この場合、機械学習データ132は、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータとしてもよい。また、この場合、機械学習データ132は、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の失敗例などから抽出した特徴点の動きに基づくデータとしてもよい。
In response to this, as described above, the
図3は、上述のような危険な立ち上がりを監視する監視システム1の動作の一例を示すフローチャートである。 Figure 3 is a flowchart showing an example of the operation of the monitoring system 1 for monitoring dangerous rises as described above.
図3は、図2におけるステップS4をステップS14に変更したものである。すなわち、図2のステップS4において、コントローラ15は、被監視対象Tが立ち上がり動作をするか否かを判定した。これに対し、図3のステップS14において、コントローラ15は、被監視対象Tが危険な(すなわち失敗の可能性が比較的高い)立ち上がり動作をするか否かを判定してよい。ステップS14における動作以外の動作は、図2において説明したのと同様に実施することができるため、より詳細な説明は省略する。
In FIG. 3, step S4 in FIG. 2 has been changed to step S14. That is, in step S4 in FIG. 2, the
このように、コントローラ15は、抽出部11によって抽出された特徴点及び機械学習データ132に基づいて、被監視対象Tが危険な立ち上がり動作をする前に所定の警告信号を出力してもよい。ここで、機械学習データ132は、被監視対象Tが危険な立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてもよい。
In this way, the
また、上述のように、監視装置10は、被監視対象T1のような特定の人物が立ち上がり動作をする前に、所定の警告を発してもよい。このように、コントローラ15は、抽出部11によって抽出された特徴点及び機械学習データ132に基づいて、特定の人物が立ち上がり動作をする前に所定の警告信号を出力してもよい。ここで、機械学習データ132は、被監視対象Tとして例えば特定の人物(被監視対象T1)が立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてもよい。
As described above, the
以下、抽出部11によって抽出される被監視対象Tの特徴点に基づいて機械学習データ132を生成するに際し、実証実験から得られた知見のいくつかについて、さらに説明する。
Below, we further explain some of the findings gained from the demonstration experiment when generating
(アームレストのない椅子から立ち上がる場合)
図4乃至図7は、被監視対象Tがアームレストのない椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図4から図7までは、アームレストのない椅子C1に座っている被監視対象Tが、徐々に立ち上がる際の特徴点の動きを示している。図4乃至図7は、被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C1は、図4乃至図7に示すように、アームレスト又は肘掛けなどのない構造の椅子としてよい。
(When standing up from a chair without armrests)
4 to 7 are diagrams for explaining an example of extracting feature points of the motion of the monitored target T standing up from a chair without armrests. Fig. 4 to Fig. 7 show the movement of feature points when the monitored target T sitting on a chair C1 without armrests gradually stands up. Fig. 4 to Fig. 7 show schematic examples of feature points extracted from an image of the monitored target T captured from the left side. Here, the chair C1 may be a chair without armrests or armrests as shown in Fig. 4 to Fig. 7.
図4から図7までに示すように、被監視対象Tが椅子C1に座っている状態から立ち上がる動作一連の動作には、いくつかの部分的な動作が含まれる。例えば、図4は、上述したように、椅子C1に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 As shown in Figures 4 to 7, the series of movements in which the monitored subject T stands up from a position where he is sitting in chair C1 includes several partial movements. For example, Figure 4 shows a schematic example of feature points extracted from an image of the monitored subject T sitting in chair C1 captured from the left side, as described above.
図4に示した状態から図5に示す状態までに、被監視対象Tが行う一例の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動(図5に示す距離d1及び角度a1))
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動(図5に示す角度a2))
(3)手を前に出す動作(特徴点P7及び/又はP6の移動(図5に示す距離d2))
A partial movement included in an example of a standing-up movement performed by the monitored target T from the state shown in FIG. 4 to the state shown in FIG. 5 may be, for example, the following movement.
(1) Movement of pulling back the leg (movement of feature point P9 (distance d1 and angle a1 shown in FIG. 5))
(2) Movement of taking a forward leaning posture (movement of the characteristic point P1, P2, or P3 (angle a2 shown in FIG. 5))
(3) Movement of putting the hand forward (movement of feature points P7 and/or P6 (distance d2 shown in FIG. 5))
ここで、被監視対象Tの通常の(安全な)立ち上がり動作において、上記(1)の距離d1は約10cm、角度a1は約70°になる傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(1)の距離d1は約20cm、角度a1は約50°になる傾向にある。以下、通常の(安全な)立ち上がり動作とは、例えば立ち上がり動作が成功する(すなわち失敗しない)確率が所定以上になる動作としてよい。また、危険な立ち上がり動作とは、例えば転倒するなど、立ち上がり動作が成功しない(すなわち失敗する)確率が所定以上になる動作としてよい。 Here, in a normal (safe) standing-up motion of the monitored subject T, the distance d1 in (1) above tends to be about 10 cm and the angle a1 to be about 70°. On the other hand, in a dangerous standing-up motion of the monitored subject T, the distance d1 in (1) above tends to be about 20 cm and the angle a1 to be about 50°. Hereinafter, a normal (safe) standing-up motion may be, for example, a motion where the probability of the standing-up motion being successful (i.e. not failing) is greater than or equal to a predetermined value. Also, a dangerous standing-up motion may be, for example, a motion where the probability of the standing-up motion not being successful (i.e. failing) is greater than or equal to a predetermined value, such as falling.
また、監視対象Tの通常の立ち上がり動作において、上記(2)の角度a2は約40°になる傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(2)の角度a2は約70°になる傾向にある。 In addition, in a normal standing motion of the monitored subject T, the angle a2 in (2) above tends to be approximately 40°. On the other hand, in a dangerous standing motion of the monitored subject T, the angle a2 in (2) above tends to be approximately 70°.
また、上記(3)の距離d2は、監視対象Tの通常の立ち上がり動作においても、危険な立ち上がり動作においても、約10cmになる傾向にある。 In addition, the distance d2 in (3) above tends to be about 10 cm, both in normal and dangerous standing-up movements of the monitored subject T.
次に、図5に示した状態から図6に示す状態を経て図7に示す状態までに、被監視対象Tが行う一例の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。図5及び図6は、被監視対象Tが行う一例の立ち上がり動作の途中の状態の画像から抽出された特徴点の例を模式的に示している。また、図7は、被監視対象Tが一例の立ち上がり動作を完了した状態の画像から抽出された特徴点の例を模式的に示している。
(4)お尻を持ち上げる動作(特徴点P4の移動(図6に示す距離d3))
(5)膝を伸ばす動作(特徴点P4及び/又はP9の移動(図6に示す角度a3))
(6)頭を持ち上げる動作(特徴点P1の移動(図6に示す距離d4))
(7)腕を伸ばす動作(特徴点P7の移動(図6に示す角度a4))
(8)背筋を伸ばす動作(特徴点P1,P2,又はP3の移動(図6に示す角度a5))
Next, partial movements included in an example of a standing up movement performed by the monitored target T from the state shown in Fig. 5 through the state shown in Fig. 6 to the state shown in Fig. 7 may be, for example, the following movements. Figs. 5 and 6 show examples of characteristic points extracted from an image of an example of a standing up movement performed by the monitored target T in the middle of the standing up movement. Fig. 7 shows an example of characteristic points extracted from an image of an example of a standing up movement completed by the monitored target T.
(4) Movement of lifting the buttocks (movement of the feature point P4 (distance d3 shown in FIG. 6))
(5) Knee straightening (movement of feature points P4 and/or P9 (angle a3 shown in FIG. 6))
(6) Head lifting motion (movement of feature point P1 (distance d4 shown in FIG. 6))
(7) Arm stretching motion (movement of feature point P7 (angle a4 shown in FIG. 6))
(8) Movement of straightening the back (movement of the characteristic point P1, P2, or P3 (angle a5 shown in FIG. 6))
ここで、被監視対象Tの通常の立ち上がり動作において、上記(5)の角度a3は約70°から約180°に変化する傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(5)の角度a3は約50°から約150°に変化する傾向にある。 Here, in a normal standing motion of the monitored subject T, the angle a3 in (5) above tends to change from about 70° to about 180°. On the other hand, in a dangerous standing motion of the monitored subject T, the angle a3 in (5) above tends to change from about 50° to about 150°.
また、被監視対象Tの通常の立ち上がり動作において、上記(6)の距離d4は、図6に示すP1の位置から図7に示すP1の位置まで変化する傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(6)の距離d4は、図6に示すP1の位置から図7に示すP1の位置までの距離に約20cm満たない位置まで変化する傾向にある。 Furthermore, in a normal standing-up motion of the monitored subject T, the distance d4 in (6) above tends to change from the position P1 shown in FIG. 6 to the position P1 shown in FIG. 7. On the other hand, in a dangerous standing-up motion of the monitored subject T, the distance d4 in (6) above tends to change from the position P1 shown in FIG. 6 to a position that is approximately 20 cm short of the distance to the position P1 shown in FIG. 7.
また、被監視対象Tの通常の立ち上がり動作において、上記(7)の角度a4は約90°から約170°に変化する傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(7)の角度a4は約90°から約160°に変化する傾向にある。 In addition, in a normal standing-up motion of the monitored subject T, the angle a4 in (7) above tends to change from approximately 90° to approximately 170°. On the other hand, in a dangerous standing-up motion of the monitored subject T, the angle a4 in (7) above tends to change from approximately 90° to approximately 160°.
さらに、被監視対象Tの通常の立ち上がり動作において、上記(8)の角度a5は約0°になる傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(8)の角度a5は約20°になる傾向にある。 Furthermore, in a normal standing-up motion of the monitored subject T, the angle a5 in (8) above tends to be approximately 0°. On the other hand, in a dangerous standing-up motion of the monitored subject T, the angle a5 in (8) above tends to be approximately 20°.
ここまで、被監視対象Tの立ち上がり動作における特徴点の動きについて説明した。以下、被監視対象Tの立ち上がり動作における特徴点の動くタイミングについて、さらに説明する。 So far, we have explained the movement of the characteristic points when the monitored subject T stands up. Below, we will further explain the timing of the movement of the characteristic points when the monitored subject T stands up.
実証実験の結果、被監視対象Tの通常の立ち上がり動作において、上記(1)から(3)までの動作は、約0.6秒の間に行われる傾向にある。また、被監視対象Tの通常の立ち上がり動作において、上記(4)から(8)までの動作は、約1.2秒の間に行われる傾向にある。すなわち、被監視対象Tの通常の立ち上がり動作は、全体として約2秒の間に行われる傾向にある。 The results of the demonstration experiment showed that in the normal standing-up motion of the monitored subject T, the above steps (1) to (3) tend to be performed within approximately 0.6 seconds. Also, in the normal standing-up motion of the monitored subject T, the above steps (4) to (8) tend to be performed within approximately 1.2 seconds. In other words, the normal standing-up motion of the monitored subject T tends to be performed overall within approximately 2 seconds.
一方、被監視対象Tの危険な立ち上がり動作において、上記(1)から(3)までの動作は、約3秒の間に行われる傾向にある。また、被監視対象Tの危険な立ち上がり動作において、上記(4)から(8)までの動作は、約3秒の間に行われる傾向にある。すなわち、被監視対象Tの危険な立ち上がり動作は、全体として約6秒の間に行われる傾向にある。言い換えると、被監視対象Tの危険な立ち上がり動作は、全体として、被監視対象Tの通常の立ち上がり動作のように約2秒の間には行われない傾向にある。 On the other hand, in the dangerous standing-up movement of the monitored subject T, the above actions (1) to (3) tend to occur over a period of about 3 seconds. Also, in the dangerous standing-up movement of the monitored subject T, the above actions (4) to (8) tend to occur over a period of about 3 seconds. In other words, the dangerous standing-up movement of the monitored subject T tends not to occur over a period of about 2 seconds, as is the case with the normal standing-up movement of the monitored subject T.
以上から、例えば、監視装置10のコントローラ15は、被監視対象Tが立ち上がり動作を開始してから2秒経過しても立ち上がり動作を完了していない場合、危険な立ち上がりである旨を示す警告信号を出力してもよい。このようにすれば、監視装置10は、被監視対象Tが危険な立ち上がりを完了する前に、被監視対象Tが危険な立ち上がり動作をしている旨の警告をユーザに発することができる。
From the above, for example, if the monitored subject T has not completed the standing up motion two seconds after starting the standing up motion, the
また、上記(1)から(8)までの動作は、被監視対象Tが行う一連の立ち上がり動作に含まれる。したがって、例えば上記(1)から(3)までの動作が行われると、その後引き続き上記(4)から(8)までの動作が行われるものと想定することができる。そこで、例えば、コントローラ15は、被監視対象Tが上記(1)から(3)までの動作を行うのに3秒以上かかった時点で、危険な立ち上がりである旨を示す警告信号を出力してもよい。このようにすれば、監視装置10は、被監視対象Tが危険な立ち上がりを完了する所定時間前(例えば3秒前)に、被監視対象Tが危険な立ち上がり動作をしている旨の警告をユーザに発することができる。このように、コントローラ15は、被監視対象Tが立ち上がり動作を完了する所定時間前に、所定の警告信号を出力してもよい。
The above actions (1) to (8) are included in a series of rising actions performed by the monitored object T. Therefore, for example, it can be assumed that when the above actions (1) to (3) are performed, the above actions (4) to (8) are subsequently performed. Therefore, for example, the
さらに、本実施形態において、被監視対象Tの危険な立ち上がり動作において、コントローラ15は、被監視対象Tが立ち上がり動作を開始してから1秒以内に上記(1)から(3)までの動作を完了していなかった場合に、立ち上がり動作を行っている旨を示す警告信号を出力してもよい。さらに、被監視対象Tの危険な立ち上がり動作において、コントローラ15は、被監視対象Tが立ち上がり動作を開始してから1秒以内に上記(1)から(3)までの動作を完了していた場合に、立ち上がり動作を行っている旨を示す警告信号を出力しないとしてもよい。このようにすれば、監視装置10は、被監視対象Tが危険な立ち上がりを行う完了する所定時間前(例えば1秒前)に、被監視対象Tが危険な立ち上がり動作をしている旨の警告をユーザに発することができる。また、この場合、本実施形態では、警告をするか否かを、上記(1)から(3)までの動作の完了が1秒かかったか否かとしたため、通常の立ち上がりが可能な者の立ち上がりは警告せず、危険な立ち上がりを行う者の立ち上がりを警告できる。このため、本実施形態では、警告の信頼性や有用性を向上させることができる。また、本実施形態において、所定の警告信号を出力するか否かを判定するための経過時間は、上述のように1秒に限定されるものではない。つまり、通常の立ち上がり動作の動作時間T1と、危険な立ち上がり動作の動作時間をT2とした場合、所定の警告信号を出力するか否かを判定するための経過時間Tthは、T2≧Tth≧T1としてよい。経過時間TthをT1Tとした場合、本実施形態は、警告を迅速に出力することができる。経過時間TthをT2とした場合、本実施形態は、通常の立ち上がり動作を危険な立ち上がり動作と誤認識する確率を減らすことができる。経過時間TthをT2>Tth>T1とした場合、本実施形態は、警告出力の迅速性と誤認識の低減とをバランスよく設定することができる。また、本実施形態において、通常の立ち上がり動作の動作時間T1を0.6秒とし、危険な立ち上がり動作の動作時間T2を3秒とする場合を例にしたが、本実施形態は、T1、T2としてこのような値ではなく、被監視対象Tの年齢、体格、健康状態、心身の障害状態、時刻、例えば運動した後などのシチュエーションなどに基づいて適宜他の値を設定してもよい。
Furthermore, in this embodiment, in the dangerous standing-up motion of the monitored object T, the
以上のような動作を、被監視対象Tの通常の立ち上がり動作において行ってもよい。例えば、被監視対象Tの通常の立ち上がり動作において、上記(1)から(3)までの動作が0.6秒の間に行われると、その後引き続き上記(4)から(8)までの動作が1.2秒の間に行われるものと想定することができる。 The above operations may be performed during the normal standing-up motion of the monitored subject T. For example, during the normal standing-up motion of the monitored subject T, it can be assumed that the above operations (1) to (3) are performed within 0.6 seconds, and then the above operations (4) to (8) are performed within 1.2 seconds.
そこで、コントローラ15は、被監視対象Tが立ち上がり動作を開始してから1秒以内に上記(1)から(3)までの動作を完了した場合に、立ち上がり動作を行っている旨を示す警告信号を出力してもよい。本実施形態は、所定の警告信号を出力するか否かを判定するための経過時間として1秒としてよい。このようにすれば、監視装置10は、被監視対象Tが通常の立ち上がりを完了する所定時間前(例えば約1秒前)に、被監視対象Tが立ち上がり動作を開始している旨の警告をユーザに発することができる。このように、コントローラ15は、被監視対象Tが立ち上がり動作をする所定時間前に、所定の警告信号を出力してもよい。ここで、本実施形態において、所定の警告信号を出力するか否かを判定するための経過時間は、上述のように1秒に限定されるものではない。つまり、通常の立ち上がり動作の動作時間T1と、危険な立ち上がり動作の動作時間をT2とした場合、所定の警告信号を出力するか否かを判定するための経過時間Tthは、T2≧Tth≧T1としてよい。経過時間TthをT1とした場合、本実施形態は、警告を迅速に出力することができる。経過時間TthをT2とした場合、本実施形態は、通常の立ち上がり動作を危険な立ち上がり動作と誤認識する確率を減らすことができる。経過時間TthをT2>Tth>T1とした場合、本実施形態は、警告出力の迅速性と誤認識の低減とをバランスよく設定することができる。また、本実施形態において、通常の立ち上がり動作の動作時間T1を0.6秒とし、危険な立ち上がり動作の動作時間T2を3秒とする場合を例にしたが、本実施形態は、T1、T2としてこのような値ではなく、被監視対象Tの年齢、体格、健康状態、心身の障害状態、時刻、例えば運動した後などのシチュエーションなどに基づいて適宜他の値を設定してもよい。
Therefore, the
いずれの場合も、監視装置10によれば、被監視対象Tが立ち上がり動作を完了する前に、被監視対象Tが立ち上がり動作を開始している旨の警告をユーザに発してよい。このように、コントローラ15は、被監視対象Tが立ち上がり動作を完了する前に、所定の警告信号を出力してもよい。以上説明したように、一実施形態において、コントローラ15は、抽出部11によって抽出された特徴点、及び、機械学習データ132に基づいて、被監視対象Tが立ち上がり動作をする前に所定の警告信号を出力してよい。
In either case, the
一実施形態に係る監視システム1によれば、被監視対象Tが例えば危険な立ち上がりを行おうとしている場合などに、危険な立ち上がり動作をする前に、ユーザに警告を発することができる。したがって、一実施形態に係る監視システム1によれば、被監視対象の安全に供し得る。 According to the monitoring system 1 of one embodiment, when the monitored subject T is about to perform a dangerous standing up motion, for example, a warning can be issued to the user before the dangerous standing up motion is performed. Therefore, the monitoring system 1 of one embodiment can contribute to the safety of the monitored subject.
(アームレスト付きの椅子から立ち上がる場合)
図8乃至図10は、被監視対象Tがアームレスト付きの椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図8乃至図10は、アームレスト付きの椅子C2に座っている被監視対象Tが立ち上がる際の特徴点の動きを示している。図8乃至図10は、被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C2は、図8乃至図10に示すように、アームレスト又は肘掛けなどの付いた構造の椅子としてよい。以下、上述した「アームレストのない椅子から立ち上がる場合」とは異なる点について、主に説明する。
(When standing up from a chair with armrests)
8 to 10 are diagrams for explaining an example of extracting feature points of the motion of the monitored target T standing up from a chair with armrests. FIG. 8 to FIG. 10 show the movement of feature points when the monitored target T, sitting on a chair C2 with armrests, stands up. FIG. 8 to FIG. 10 show a schematic example of feature points extracted from an image of the monitored target T captured from the left side. Here, the chair C2 may be a chair with an armrest or armrests, as shown in FIG. 8 to FIG. 10. Below, the points that are different from the above-mentioned "when standing up from a chair without armrests" will be mainly explained.
図8は、図4と同様に、椅子C2に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 As in FIG. 4, FIG. 8 shows a schematic example of feature points extracted from an image of the monitored subject T sitting in chair C2 captured from the left side.
図8に示した状態から図9に示す状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作は、上述のように、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動)
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動)
(3)手を前に出す動作(特徴点P7及び/又はP6の移動(図9に示す距離d5))
As described above, partial movements included in an example of a normal standing-up movement performed by the monitored subject T from the state shown in FIG. 8 to the state shown in FIG. 9 may be, for example, the following movements.
(1) Movement of pulling back the leg (movement of feature point P9)
(2) Movement of leaning forward (movement of feature points P1, P2, or P3)
(3) Movement of putting the hand forward (movement of feature points P7 and/or P6 (distance d5 shown in FIG. 9))
ここで、被監視対象Tの通常の立ち上がり動作において、上記(3)の距離d5は、図5に示した場合と同様に、約10cmになる傾向にある。 Here, in the normal standing-up motion of the monitored subject T, the distance d5 in (3) above tends to be about 10 cm, as in the case shown in Figure 5.
一方、被監視対象Tの危険な立ち上がり動作において、上記の「(3)手を前に出す動作」は、図10に示すように、「(3’)腕を後方に引き上げる動作(特徴点P7及びP6の移動)」に代わる傾向にある。「(3’)腕を後方に引き上げる動作」は、図10に示すように、特徴点P7の移動(図10に示す距離d6)及び特徴点P6の移動(図10に示す距離d7)を含んでよい。ここで、被監視対象Tの危険な立ち上がり動作において、上記の距離d6は約10cm、距離d7は約10cmになる傾向にある。 On the other hand, in the dangerous standing-up movement of the monitored subject T, the above-mentioned "(3) movement of putting the hand forward" tends to be replaced by "(3') movement of pulling the arm backward (movement of feature points P7 and P6)" as shown in FIG. 10. "(3') movement of pulling the arm backward" may include movement of feature point P7 (distance d6 shown in FIG. 10) and movement of feature point P6 (distance d7 shown in FIG. 10), as shown in FIG. 10. Here, in the dangerous standing-up movement of the monitored subject T, the above-mentioned distance d6 tends to be about 10 cm, and distance d7 tends to be about 10 cm.
すなわち、被監視対象Tの特徴点の動きを抽出する際に、被監視対象Tが上記(1)から(3)までの動作を完了した場合に図9のような特徴点になっていれば、被監視対象Tの通常の立ち上がり動作になる傾向にある。一方、被監視対象Tの特徴点の動きを抽出する際に、被監視対象Tが上記(1)から(3)までの動作を完了した場合に図10のような特徴点になっていれば、被監視対象Tの危険な立ち上がり動作になる傾向にある。 In other words, when extracting the movement of the characteristic points of the monitored subject T, if the characteristic points are as shown in FIG. 9 when the monitored subject T completes the above actions (1) to (3), the monitored subject T will tend to make a normal standing-up movement. On the other hand, when extracting the movement of the characteristic points of the monitored subject T, if the characteristic points are as shown in FIG. 10 when the monitored subject T completes the above actions (1) to (3), the monitored subject T will tend to make a dangerous standing-up movement.
(デスクとともに使用していた椅子から立ち上がる場合)
図11及び図12は、被監視対象Tがデスクとともに使用していた椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図11及び図12は、デスクD1とともに用いられる椅子C1に座っている被監視対象Tが立ち上がる際の特徴点の動きを示している。図11及び図12は、被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C1は、図4乃至図7に示したのと同様に、アームレスト又は肘掛けなどのない構造の椅子としてよい。以下、上述した説明とは異なる点について、主に説明する。
(When standing up from the chair you were using with your desk)
11 and 12 are diagrams for explaining an example of extracting feature points of the motion of the monitored object T standing up from a chair used together with the desk. FIG. 11 and FIG. 12 show the movement of feature points when the monitored object T, sitting on a chair C1 used together with the desk D1, stands up. FIG. 11 and FIG. 12 show a schematic example of feature points extracted from an image of the monitored object T captured from the left side. Here, the chair C1 may be a chair without armrests or armrests, as shown in FIG. 4 to FIG. 7. Below, differences from the above description will be mainly explained.
図11は、図5とほぼ同様に、椅子C1に座っている状態から立ち上がろうとしている被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 Figure 11, similar to Figure 5, shows a schematic example of feature points extracted from an image captured from the left side of a monitored subject T who is about to stand up from a seated position in a chair C1.
上述したように、図5に示した状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動)
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動)
(3)手を前に出す動作(特徴点P7及び/又はP6の移動)
As described above, partial movements included in an example of a normal standing-up movement performed by the monitored subject T up to the state shown in FIG. 5 may be, for example, the following movements.
(1) Movement of pulling back the leg (movement of feature point P9)
(2) Movement of leaning forward (movement of feature point P1, P2, or P3)
(3) Movement of putting the hand forward (movement of feature points P7 and/or P6)
これに対し、図11に示す状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作のうち、上記(1)及び(2)は、図5に示した状態と同様に含まれるものとしてよい。一方、上記の「(3)手を前に出す動作」は、図11に示す状態において、「(3”)手で机を押す動作、及び/又は、椅子を引く動作(特徴点P7及びP6の移動)」に代わる傾向にある。「(3”)手で机を押す動作、及び/又は、椅子を引く動作」は、図12に示すように、特徴点P7及び/又は特徴点P6の移動(図12に示す角度a6)を含んでよい。上記(3”)の動作における角度a6は、監視対象Tの通常の立ち上がり動作においても、危険な立ち上がり動作においても、約70°から約170°に変化する傾向にある。 In contrast, among the partial movements included in the example of normal standing-up movement performed by the monitored subject T up to the state shown in FIG. 11, the above (1) and (2) may be considered to be included in the same manner as the state shown in FIG. 5. On the other hand, the above "(3) movement of putting the hand forward" tends to be replaced by "(3") movement of pushing the desk with the hand and/or pulling the chair (movement of feature points P7 and P6)" in the state shown in FIG. 11. "(3") movement of pushing the desk with the hand and/or pulling the chair" may include movement of feature point P7 and/or feature point P6 (angle a6 shown in FIG. 12) as shown in FIG. 12. The angle a6 in the above (3") movement tends to change from about 70° to about 170° in both normal standing-up movement and dangerous standing-up movement of the monitored subject T.
以上のように、被監視対象Tの立ち上がり動作において、椅子のタイプ及び/又はデスクの有無に応じて、抽出される特徴点の動きは異なり得る。このため、各状況において抽出される特徴点に基づいて機械学習を行うことにより、監視システム1は、各状況に応じて被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 As described above, when the monitored subject T stands up, the movement of the extracted feature points may differ depending on the type of chair and/or the presence or absence of a desk. Therefore, by performing machine learning based on the feature points extracted in each situation, the monitoring system 1 can issue a predetermined warning before the monitored subject T stands up depending on each situation.
また、被監視対象Tの立ち上がり動作において、椅子のタイプ及び/又はデスクの有無に応じて、抽出される特徴点の動きは異なり得るが、共通して抽出される特徴点の動きも存在し得る。このため、異なる各状況において共通して抽出される特徴点に基づいて機械学習を行うことにより、監視システム1は、異なる各状況に依存せずに、被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 In addition, when the monitored subject T stands up, the movements of the extracted feature points may differ depending on the type of chair and/or the presence or absence of a desk, but there may also be movements of common feature points that are extracted. Therefore, by performing machine learning based on feature points that are commonly extracted in each of the different situations, the monitoring system 1 can issue a predetermined warning before the monitored subject T stands up, regardless of each of the different situations.
(半身麻痺がある被監視対象が立ち上がる場合)
図13及び図14は、例えば半身麻痺がある被監視対象Tが椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図13及び図14は、椅子C1に座っている被監視対象Tが立ち上がる際の特徴点の動きを示している。図13及び図14は、被監視対象Tが前方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C1は、図4乃至図7に示したのと同様に、アームレスト又は肘掛けなどのない構造の椅子としてよい。以下、上述した説明とは異なる点について、主に説明する。ここで、図13及び図14は、左半身の麻痺の被監視対象Tの図である。図14は、被監視対象Tの肩が下がっている側に麻痺がある例を示す。例えば、脳卒中の後遺症として、半身が麻痺になる(片麻痺)症状がある。半身麻痺は、左半身の上半身及び下半身の麻痺のケースと、左半身の上半身の麻痺のケースがある。図14の半身麻痺がある被監視対象Tは、左半身の上半身の麻痺のケースとしてよい。麻痺している側の左半身には力が入らないので、左側の上半身は下に下がりがちになる。また、この場合、足は地面に接しているため、左側の下半身は下に下がらない。したがって、この場合、左側の下半身が麻痺していない場合と変わらない体勢になる。
(When a monitored subject with hemiplegia stands up)
13 and 14 are diagrams for explaining an example of extracting feature points of the motion of a monitored target T with hemiplegia standing up from a chair. FIG. 13 and FIG. 14 show the movement of feature points when a monitored target T sitting on a chair C1 stands up. FIG. 13 and FIG. 14 show an example of feature points extracted from an image of a monitored target T captured from the front. Here, the chair C1 may be a chair with no armrest or armrest, as shown in FIG. 4 to FIG. 7. Hereinafter, differences from the above description will be mainly explained. Here, FIG. 13 and FIG. 14 are diagrams of a monitored target T with left hemiplegia. FIG. 14 shows an example of paralysis on the side where the shoulder of the monitored target T is lowered. For example, as a sequela of a stroke, there is a symptom of hemiplegia (hemiplegia). Hemiplegia can be a case of paralysis of the upper and lower halves of the left body, or a case of paralysis of the upper half of the left body. The monitored subject T with hemiplegia in Fig. 14 may be considered as a case of paralysis of the upper half of the left body. Since the paralyzed left half of the body cannot exert any strength, the upper half of the left side of the body tends to drop down. In this case, the feet are in contact with the ground, so the lower half of the left side of the body does not drop down. Therefore, in this case, the posture is the same as when the lower half of the left side of the body is not paralyzed.
図13は、図4とほぼ同様に、椅子C1に座っている状態の被監視対象Tが撮像された画像から抽出された特徴点の例を模式的に示している。図4は、椅子C1に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。これに対し、図13は、椅子C1に座っている状態の被監視対象Tが前方正面から撮像された画像から抽出された特徴点の例を模式的に示している。 FIG. 13, similar to FIG. 4, shows an example of feature points extracted from an image of the monitored subject T sitting in chair C1. FIG. 4 shows an example of feature points extracted from an image of the monitored subject T sitting in chair C1 taken from the left side. In contrast, FIG. 13 shows an example of feature points extracted from an image of the monitored subject T sitting in chair C1 taken from the front.
上述したように、図5に示した状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動)
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動)
(3)手を前に出す動作(特徴点P7及び/又はP6の移動)
As described above, partial movements included in an example of a normal standing-up movement performed by the monitored subject T up to the state shown in FIG. 5 may be, for example, the following movements.
(1) Movement of pulling back the leg (movement of feature point P9)
(2) Movement of leaning forward (movement of feature points P1, P2, or P3)
(3) Movement of putting the hand forward (movement of feature points P7 and/or P6)
ここで、図14に示すように、半身麻痺がある被監視対象Tが行う一例の立ち上がり動作に含まれる部分的な動作のうち、上記「(2)前傾姿勢を取る動作」は、図5に示した状態とは異なる動作に代わる傾向にある。したがって、この場合、上記「(2)前傾姿勢を取る動作」は、左右非対称な動きを含む「(2’)前傾姿勢を取る動作」に代えてよい。この場合、「(2’)前傾姿勢を取る動作」において、上述した特徴点P1,P2,又はP3の移動については、図5において説明した「(2)前傾姿勢を取る動作」の場合と同様にしてよい。一方、「(2’)前傾姿勢を取る動作」は、左右非対称な動きとして、例えば特徴点P5L及び/又はP5Rの移動(図14に示す角度a7)を含むものとしてよい。 Here, as shown in FIG. 14, among the partial movements included in an example of a standing-up movement performed by a monitored subject T with hemiplegia, the above-mentioned "(2) movement of leaning forward" tends to be replaced by a movement different from the state shown in FIG. 5. Therefore, in this case, the above-mentioned "(2) movement of leaning forward" may be replaced by "(2') movement of leaning forward" including an asymmetric movement. In this case, in the "(2') movement of leaning forward", the movement of the above-mentioned characteristic points P1, P2, or P3 may be the same as in the case of "(2) movement of leaning forward" described in FIG. 5. On the other hand, the "(2') movement of leaning forward" may include, for example, the movement of characteristic points P5L and/or P5R (angle a7 shown in FIG. 14) as an asymmetric movement.
以上のように、被監視対象Tの立ち上がり動作において、被監視対象Tの身体的特徴及び/又は障がいなどに応じて、抽出される特徴点の動きは異なり得る。このため、各被監視対象Tにおいて抽出される特徴点に基づいて機械学習を行うことにより、監視システム1は、各被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 As described above, when the monitored subject T stands up, the movement of the extracted feature points may differ depending on the physical characteristics and/or disabilities of the monitored subject T. Therefore, by performing machine learning based on the feature points extracted from each monitored subject T, the monitoring system 1 can issue a specified warning before each monitored subject T stands up.
また、被監視対象Tの立ち上がり動作において、被監視対象Tの身体的特徴及び/又は障がいなどに応じて、抽出される特徴点の動きは異なり得るが、共通して抽出される特徴点の動きも存在し得る。このため、異なる各被監視対象Tにおいて共通して抽出される特徴点に基づいて機械学習を行うことにより、監視システム1は、異なる各被監視対象Tに依存せずに、被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 In addition, when the monitored subject T stands up, the extracted feature points may vary depending on the physical characteristics and/or disabilities of the monitored subject T, but there may also be common feature points. Therefore, by performing machine learning based on feature points commonly extracted for each of the different monitored subjects T, the monitoring system 1 can issue a predetermined warning before the monitored subject T stands up, without depending on each of the different monitored subjects T.
本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態について装置を中心に説明してきたが、本開示に係る実施形態は装置の各構成部が実行するステップを含む方法としても実現し得るものである。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。 Although the embodiments of the present disclosure have been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications or corrections based on the present disclosure. Therefore, it should be noted that these modifications or corrections are included in the scope of the present disclosure. For example, the functions included in each component or each step can be rearranged so as not to cause logical inconsistencies, and multiple components or steps can be combined into one or divided. Although the embodiments of the present disclosure have been described mainly with respect to the device, the embodiments of the present disclosure can also be realized as a method including steps executed by each component of the device. The embodiments of the present disclosure can also be realized as a method, a program, or a storage medium on which a program is recorded, executed by a processor provided in the device. It should be understood that these are also included in the scope of the present disclosure.
上述した実施形態は、監視システム1としての実施のみに限定されるものではない。例えば、上述した実施形態は、監視システム1に含まれる監視装置10として実施してもよい。また、上述した実施形態は、例えば、監視装置10のような機器による監視方法として実施してもよい。さらに、上述した実施形態は、例えば、監視装置10のような機器又は情報処理装置(例えばコンピュータ)が実行するプログラムとして実施してもよい。
The above-described embodiment is not limited to implementation as a monitoring system 1. For example, the above-described embodiment may be implemented as a
1 監視システム
10 監視装置
11 抽出部
13 記憶部
132 機械学習データ
15 コントローラ
17 警告部
19 通信部
20 撮像部
REFERENCE SIGNS LIST 1
Claims (8)
前記撮像部によって撮像された画像から、前記被監視対象の特徴点の動きを抽出する抽出部と、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出部によって抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するコントローラと、
前記コントローラから出力される前記所定の警告信号に基づいて、所定の警告を発する警告部と、
を備え、
前記コントローラは、前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する、監視システム。 An imaging unit that images an object to be monitored;
an extraction unit that extracts a movement of a feature point of the monitored object from an image captured by the imaging unit;
a controller that outputs a predetermined warning signal before the monitored subject completes a standing-up motion, based on machine learning data obtained by machine learning of the movement of the feature points when the monitored subject stands up and the feature points extracted by the extraction unit;
a warning unit that issues a predetermined warning based on the predetermined warning signal output from the controller;
Equipped with
The controller outputs the predetermined warning signal when the monitored object does not complete a stand-up action within a predetermined time.
前記コントローラは、前記抽出部によって抽出された特徴点及び前記機械学習データに基づいて、前記被監視対象が危険な立ち上がり動作を完了する前に所定の警告信号を出力する、請求項1又は2に記載の監視システム。 The machine learning data is data obtained by machine learning of the movement of the feature points when the monitored subject makes a dangerous standing-up motion,
The monitoring system according to claim 1 or 2, wherein the controller outputs a predetermined warning signal before the monitored subject completes a dangerous standing-up motion based on the feature points extracted by the extraction unit and the machine learning data.
前記コントローラは、前記抽出部によって抽出された特徴点及び前記機械学習データに基づいて、前記特定の人物が立ち上がり動作を完了する前に所定の警告信号を出力する、請求項1から3のいずれかに記載の監視システム。 The machine learning data is data obtained by machine learning of the movement of the feature points when a specific person as the monitored subject stands up,
The monitoring system according to claim 1 , wherein the controller outputs a predetermined warning signal before the specific person completes a standing-up motion based on the feature points extracted by the extraction unit and the machine learning data.
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出部によって抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するコントローラと、
を備え、
前記コントローラは、前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する、監視装置。 an extraction unit that extracts a movement of a feature point of a monitored object from an image of the monitored object;
a controller that outputs a predetermined warning signal before the monitored subject completes a standing-up motion, based on machine learning data obtained by machine learning of the movement of the feature points when the monitored subject stands up and the feature points extracted by the extraction unit;
Equipped with
The controller outputs the predetermined warning signal when the monitored object does not complete a standing-up action within a predetermined time.
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出するステップにおいて抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するステップと、
を含み、
前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する、監視方法。 extracting a movement of a feature point of a monitored object from an image of the monitored object;
a step of outputting a predetermined warning signal before the monitored subject completes a standing-up motion based on machine learning data obtained by machine learning the movement of the feature points when the monitored subject stands up and the feature points extracted in the extracting step;
Including,
a monitoring method, the predetermined warning signal being outputted if the monitored object does not complete a standing-up action within a predetermined time.
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出するステップにおいて抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作を完了する前に所定の警告信号を出力するステップと、
を実行させ、
前記被監視対象が立ち上がり動作を所定の時間内に完了しない場合、前記所定の警告信号を出力する、プログラム。 On the computer,
extracting a movement of a feature point of a monitored object from an image of the monitored object;
a step of outputting a predetermined warning signal before the monitored subject completes a standing-up motion based on machine learning data obtained by machine learning the movement of the feature points when the monitored subject stands up and the feature points extracted in the extracting step;
Run the command ,
a program that outputs the predetermined warning signal when the monitored object does not complete a standing-up action within a predetermined time.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020083924A JP7483486B2 (en) | 2020-05-12 | 2020-05-12 | Monitoring system, monitoring device, monitoring method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020083924A JP7483486B2 (en) | 2020-05-12 | 2020-05-12 | Monitoring system, monitoring device, monitoring method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021179726A JP2021179726A (en) | 2021-11-18 |
JP7483486B2 true JP7483486B2 (en) | 2024-05-15 |
Family
ID=78511443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020083924A Active JP7483486B2 (en) | 2020-05-12 | 2020-05-12 | Monitoring system, monitoring device, monitoring method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7483486B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005152616A (en) | 2003-10-30 | 2005-06-16 | Technos Japan:Kk | Method and system for informing rising from bed or absence from chair of nursed person |
JP2015138427A (en) | 2014-01-23 | 2015-07-30 | シャープ株式会社 | monitor |
JP2020052867A (en) | 2018-09-28 | 2020-04-02 | 株式会社Axive | Posture analysis device, posture analysis method and program |
-
2020
- 2020-05-12 JP JP2020083924A patent/JP7483486B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005152616A (en) | 2003-10-30 | 2005-06-16 | Technos Japan:Kk | Method and system for informing rising from bed or absence from chair of nursed person |
JP2015138427A (en) | 2014-01-23 | 2015-07-30 | シャープ株式会社 | monitor |
JP2020052867A (en) | 2018-09-28 | 2020-04-02 | 株式会社Axive | Posture analysis device, posture analysis method and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021179726A (en) | 2021-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20170352240A1 (en) | Method and system for motion analysis and fall prevention | |
US10004430B2 (en) | Apparatus and method for detecting a fall | |
US20200245904A1 (en) | Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method | |
US20210236022A1 (en) | Smart Interpretive Wheeled Walker using Sensors and Artificial Intelligence for Precision Assisted Mobility Medicine Improving the Quality of Life of the Mobility Impaired | |
KR102239671B1 (en) | Method and system of predicting risk of falling down and dementia through gait information of the aged | |
JP6292283B2 (en) | Behavior detection device, behavior detection method, and monitored person monitoring device | |
JP7483486B2 (en) | Monitoring system, monitoring device, monitoring method, and program | |
JP7314939B2 (en) | Image recognition program, image recognition device, learning program, and learning device | |
JP7438847B2 (en) | Monitoring system, monitoring device, monitoring method, and program | |
Zhang et al. | Context-aware fall detection using a bayesian network | |
Safarzadeh et al. | Real-time fall detection and alert system using pose estimation | |
Nandi et al. | Application of KNN for Fall Detection on Qualcomm SoCs | |
Jähne-Raden et al. | Wireless sensor network for fall prevention on geriatric wards: A report | |
JP7467300B2 (en) | SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM | |
JP7465773B2 (en) | SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM | |
JP7518699B2 (en) | SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM | |
Alejandro et al. | ICFY (I Care For You): An IOT Based Fall Detection and Monitoring Device using ESP32-CAM and MPU 6050 Sensors | |
Saile et al. | Smart IoT Devices for the Elderly and People with Disabilities | |
Patel et al. | Vitafall: Nxtgeuh system for well-being monitoring with fall recognition and real-time vital sign monitoring | |
JP2022039814A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
JP2022050271A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
Oishi et al. | Measuring Functional Independence of an Aged Person with a Combination of Machine Learning and Logical Reasoning. | |
JP2022050273A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
JP2022050272A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
WO2021033597A1 (en) | Image processing system, image processing program, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221111 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230501 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231130 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240314 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240321 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240501 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7483486 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |