JP2021179726A - Monitoring system, monitoring device, monitoring method, and program - Google Patents
Monitoring system, monitoring device, monitoring method, and program Download PDFInfo
- Publication number
- JP2021179726A JP2021179726A JP2020083924A JP2020083924A JP2021179726A JP 2021179726 A JP2021179726 A JP 2021179726A JP 2020083924 A JP2020083924 A JP 2020083924A JP 2020083924 A JP2020083924 A JP 2020083924A JP 2021179726 A JP2021179726 A JP 2021179726A
- Authority
- JP
- Japan
- Prior art keywords
- machine learning
- feature points
- monitored object
- movement
- monitored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 79
- 238000012806 monitoring device Methods 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 19
- 230000033001 locomotion Effects 0.000 claims abstract description 159
- 230000000630 rising effect Effects 0.000 claims abstract description 137
- 238000010801 machine learning Methods 0.000 claims abstract description 97
- 238000000605 extraction Methods 0.000 claims abstract description 43
- 238000003384 imaging method Methods 0.000 claims abstract description 22
- 239000000284 extract Substances 0.000 claims abstract description 12
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000035807 sensation Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 22
- 230000009471 action Effects 0.000 description 9
- 206010033799 Paralysis Diseases 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000000474 nursing effect Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 206010019468 Hemiplegia Diseases 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000007774 longterm Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 230000003862 health status Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 230000003340 mental effect Effects 0.000 description 2
- 208000024335 physical disease Diseases 0.000 description 2
- 208000020016 psychiatric disease Diseases 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010012289 Dementia Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本開示は、監視システム、監視装置、監視方法、及びプログラムに関する。 The present disclosure relates to monitoring systems, monitoring devices, monitoring methods, and programs.
例えば介護施設のような現場において、要看護者又は要介護者などのような被監視者の行動を監視する装置が提案されている。例えば、特許文献1は、撮像装置で得られた画像に基づいて、被監視者における所定の行動を検知する被監視者監視システムを開示している。特許文献2は、対象者の足に検出装置を装着することにより、対象者が歩行中に転倒するのを予防する転倒予防システムを開示している。また、特許文献3は、温度分布を検出することにより、人体の体位を判定する見守り支援装置を開示している。また、引用文献4は、在宅、又は老人ホーム若しくは介護施設における老年精神病患者を監視するための医療システムを開示している。
For example, in a field such as a long-term care facility, a device for monitoring the behavior of a monitored person such as a nurse or a care recipient has been proposed. For example, Patent Document 1 discloses a monitored person monitoring system that detects a predetermined behavior in a monitored person based on an image obtained by an image pickup device. Patent Document 2 discloses a fall prevention system that prevents a subject from falling while walking by attaching a detection device to the foot of the subject. Further,
被監視対象を監視することにより、被監視対象の安全に供することができれば、有益である。 It would be beneficial if the monitored object could be safely monitored by monitoring it.
本開示の目的は、被監視対象の安全に供し得る監視システム、監視装置、監視方法、及びプログラムを提供することにある。 An object of the present disclosure is to provide a monitoring system, a monitoring device, a monitoring method, and a program that can be safely provided to a monitored object.
一実施形態に係る監視システムは、
被監視対象を撮像する撮像部と、
前記撮像部によって撮像された画像から、前記被監視対象の特徴点の動きを抽出する抽出部と、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出部によって抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作をする前に所定の警告信号を出力するコントローラと、
前記コントローラから出力される前記所定の警告信号に基づいて、所定の警告を発する警告部と、
を備える。
The monitoring system according to one embodiment is
An imaging unit that captures the monitored object and
An extraction unit that extracts the movement of the feature point of the monitored object from the image captured by the imaging unit, and an extraction unit.
Based on the machine learning data obtained by machine learning the movement of the feature points when the monitored object starts up and the feature points extracted by the extraction unit, a predetermined value is set before the monitored object starts up. A controller that outputs a warning signal and
A warning unit that issues a predetermined warning based on the predetermined warning signal output from the controller.
To prepare for.
一実施形態に係る監視装置は、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出する抽出部と、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出部によって抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作をする前に所定の警告信号を出力するコントローラと、
を備える。
The monitoring device according to one embodiment is
An extraction unit that extracts the movement of the feature points of the monitored object from the image of the monitored object, and
Based on the machine learning data obtained by machine learning the movement of the feature points when the monitored object starts up and the feature points extracted by the extraction unit, a predetermined value is set before the monitored object starts up. A controller that outputs a warning signal and
To prepare for.
一実施形態に係る監視方法は、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出するステップにおいて抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作をする前に所定の警告信号を出力するステップと、
を含む。
The monitoring method according to one embodiment is
A step of extracting the movement of the feature point of the monitored object from the image of the monitored object, and
Based on the machine learning data obtained by machine learning the movement of the feature points when the monitored object makes a rising motion and the feature points extracted in the extraction step, it is determined before the monitored object makes a rising motion. And the step to output the warning signal of
including.
一実施形態に係るプログラムは、
コンピュータに、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出するステップにおいて抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作をする前に所定の警告信号を出力するステップと、
を実行させる。
The program according to one embodiment is
On the computer
A step of extracting the movement of the feature point of the monitored object from the image of the monitored object, and
Based on the machine learning data obtained by machine learning the movement of the feature points when the monitored object makes a rising motion and the feature points extracted in the extraction step, it is determined before the monitored object makes a rising motion. And the step to output the warning signal of
To execute.
一実施形態によれば、被監視対象の安全に供し得る監視システム、監視装置、監視方法、及びプログラムを提供することができる。 According to one embodiment, it is possible to provide a monitoring system, a monitoring device, a monitoring method, and a program that can be safely provided to the monitored object.
本開示において、「監視装置」とは、電力により駆動する機器としてよい。また、「監視システム」とは、電力により駆動する機器を含むものとしてよい。また、「ユーザ」とは、一実施形態に係る監視システム及び/又は監視装置を使用する者(典型的には人間)としてよい。ユーザは、一実施形態に係る監視システム及び/又は監視装置を用いることで、被監視対象の監視を行う者を含んでもよい。また、「被監視対象」とは、一実施形態に係る監視システム及び/又は監視装置によって監視される対象となる者(例えば人間又は動物)としてよい。 In the present disclosure, the "monitoring device" may be a device driven by electric power. Further, the "monitoring system" may include a device driven by electric power. Further, the "user" may be a person (typically a human being) who uses the monitoring system and / or the monitoring device according to the embodiment. The user may include a person who monitors the monitored object by using the monitoring system and / or the monitoring device according to the embodiment. Further, the “monitored target” may be a person (for example, a human or an animal) to be monitored by the monitoring system and / or the monitoring device according to the embodiment.
一実施形態に係る監視システムが利用される場面として想定されるのは、例えば、会社、病院、老人ホーム、学校、スポーツジム、及び介護施設などのような、社会活動を行う者が使用する特定の施設などとしてよい。例えば、会社であれば従業員などの健康状態の把握及び/又は管理は、極めて重要である。同様に、病院であれば患者及び医療従事者など、また老人ホームであれば入居者及びスタッフなどの健康状態の把握及び/又は管理は、極めて重要である。一実施形態に係る監視システムが利用される場面は、上述の、会社、病院、及び老人ホームなどの施設に限定されず、被監視対象の健康状態の把握及び/又は管理などが望まれる任意の施設としてよい。任意の施設は、例えば、ユーザの自宅などの非商業施設も含んでもよい。また、一実施形態に係る監視システムが利用される場面は、例えば、電車、バス、及び飛行機などの移動体内、並びに、駅及び乗り場などとしてもよい。 The scene in which the monitoring system according to one embodiment is used is assumed to be specified by a person engaged in social activities such as a company, a hospital, an elderly home, a school, a sports gym, and a long-term care facility. It may be a facility of. For example, in the case of a company, it is extremely important to understand and / or manage the health status of employees. Similarly, it is extremely important to understand and / or manage the health status of patients and medical staff in hospitals, and residents and staff in nursing homes. The scene in which the monitoring system according to the embodiment is used is not limited to the above-mentioned facilities such as companies, hospitals, and elderly housings, and any of the above-mentioned facilities for which it is desired to grasp and / or manage the health condition of the monitored object. Good as a facility. Any facility may also include non-commercial facilities, such as the user's home. Further, the scene in which the monitoring system according to the embodiment is used may be, for example, a moving body such as a train, a bus, or an airplane, a station, a platform, or the like.
一実施形態に係る監視システムは、例えば、介護施設などにおいて、要看護者又は要介護者などのような被監視対象の行動を監視する用途で用いられてよい。一実施形態に係る監視システムは、例えば要看護者又は要介護者などのような被監視対象の立ち上がり動作を監視することができる。ここで、被監視対象の立ち上がり動作とは、例えば被監視対象者が座っている状態又は横たわっている状態から立ち上がる動作としてよい。 The monitoring system according to one embodiment may be used for monitoring the behavior of a monitored object such as a nurse requiring nursing care or a person requiring nursing care in a nursing care facility or the like. The monitoring system according to one embodiment can monitor the rising motion of a monitored object such as a nurse or a care recipient. Here, the rising motion of the monitored object may be, for example, an motion of standing up from a state in which the monitored person is sitting or lying down.
特に、一実施形態に係る監視システムは、例えば要看護者又は要介護者などのような被監視者が、立ち上がり動作をする前、例えば立ち上がり動作を完了する前に、所定の警告を発することができる。したがって、一実施形態に係る監視システムによれば、例えば介護施設などのスタッフは、例えば要看護者又は要介護者などのような被監視者が、立ち上がり動作を完了する前に、立ち上がり動作をしようとしていることを把握し得る。 In particular, the monitoring system according to one embodiment may issue a predetermined warning before a monitored person such as a nurse or a care recipient performs a stand-up operation, for example, before completing the stand-up operation. can. Therefore, according to the monitoring system according to one embodiment, the staff of a nursing care facility, for example, will perform the standing-up operation before the monitored person such as a nurse or a person requiring nursing care completes the standing-up operation. You can understand what you are doing.
また、一実施形態に係る監視システムは、要看護者又は要介護者などのような被監視者が危険な立ち上がり動作をする前、例えば危険な立ち上がり動作を完了する前に、所定の警告を発することもできる。また、一実施形態に係る監視システムは、特定の被監視者が立ち上がり動作をする前、例えば立ち上がり動作を完了する前に、所定の警告を発することもできる。 In addition, the monitoring system according to the embodiment issues a predetermined warning before a monitored person such as a nurse or a care recipient performs a dangerous standing-up operation, for example, before completing a dangerous standing-up operation. You can also do it. Further, the monitoring system according to the embodiment can also issue a predetermined warning before the specific monitored person performs the stand-up operation, for example, before the stand-up operation is completed.
以下、一実施形態に係る監視システムについて、図面を参照して詳細に説明する。 Hereinafter, the monitoring system according to the embodiment will be described in detail with reference to the drawings.
図1は、一実施形態に係る監視システムの概略構成を示す図である。図1に示すように、一実施形態に係る監視システム1は、監視装置10及び撮像部20を含んで構成されてよい。監視装置10と撮像部20とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。一実施形態に係る監視システム1は、図1に示す機能部の一部を含まなくてもよいし、図1に示す以外の機能部を含んでもよい。例えば、一実施形態に係る監視システム1は、警告部17及び通信部19の少なくとも一方を備えなくてもよい。
FIG. 1 is a diagram showing a schematic configuration of a monitoring system according to an embodiment. As shown in FIG. 1, the monitoring system 1 according to the embodiment may be configured to include a
図1に示す撮像部20は、例えばデジタルカメラのような、電子的に画像を撮像するイメージセンサを含んで構成されてよい。撮像部20は、CCD(Charge Coupled Device Image Sensor)又はCMOS(Complementary Metal Oxide Semiconductor)センサ等のように、光電変換を行う撮像素子を含んで構成されてよい。撮像部20は、例えば図1に示すように、被監視対象Tを撮像してよい。ここで、被監視対象Tは、例えば人間としてよい。撮像部20は、撮像した画像を信号に変換して、監視装置10に送信してよい。例えば、撮像部20は、撮像した画像に基づく信号を、監視装置10の抽出部11、記憶部13、及び/又は、コントローラ15などに送信してよい。撮像部20は、被監視対象Tを撮像するものであれば、デジタルカメラのような撮像デバイスに限定されず、任意のデバイスとしてよい。
The
一実施形態において、撮像部20は、例えば被監視対象Tを所定時間ごと(例えば0.5秒おき)の静止画として撮像してもよい。また、一実施形態において、撮像部20は、例えば被監視対象Tを連続した動画として撮像してもよい。
In one embodiment, the
図1に示すように、一実施形態に係る監視装置10は、抽出部11、記憶部13、コントローラ15、警告部17、及び通信部19を備えてよい。一実施形態に係る監視装置10は、図1に示す機能部の一部を備えなくてもよいし、図1に示す以外の機能部を備えてもよい。例えば、一実施形態に係る監視装置10は、記憶部13に記憶される後述の機械学習データ132を備えてもよい。例えば、一実施形態に係る監視装置10は、後述の機械学習データ132の少なくとも一部が、外部サーバなどの外部機器に記憶されているとしてもよい。
As shown in FIG. 1, the
抽出部11は、撮像部20によって撮像された画像から、所定の特徴点を抽出する機能を有してよい。例えば、抽出部11は、撮像部20によって撮像された被監視対象Tの画像から、当該被監視対象Tの特徴点の動きを抽出してもよい。ここで、特徴点については、さらに後述する。一実施形態において、抽出部11は、撮像部20によって撮像された被監視対象Tの画像から、当該被監視対象Tの頭部、体幹、四肢、及び/又は各関節などの各部の動きを抽出してもよい。抽出部11は、専用のハードウェアとして構成されてもよいし、少なくとも一部にソフトウェアを含めて構成されてもよいし、全てソフトウェアで構成されているとしてもよい。このように、抽出部11は、撮像部20によって撮像された画像から、被監視対象Tの特徴点の動きを抽出してよい。
The extraction unit 11 may have a function of extracting a predetermined feature point from the image captured by the
記憶部13は、各種の情報を記憶するメモリとしての機能を有してよい。記憶部13は、例えばコントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などを記憶してよい。また、記憶部13は、コントローラ15のワークメモリとして機能してよい。記憶部13は、例えば半導体メモリ等により構成することができるが、これに限定されず、任意の記憶装置とすることができる。例えば、記憶部13は、一実施形態に係る監視装置10に挿入されたメモリカードのような記憶媒体としてもよい。また、記憶部13は、後述のコントローラ15として用いられるCPUの内部メモリであってもよいし、コントローラ15に別体として接続されるものとしてもよい。
The
図1に示すように、記憶部13は、例えば機械学習データ132を記憶してもよい。ここで、機械学習データ132は、機械学習によって生成されるデータとしてよい。また、機械学習とは、特定のタスクをトレーニングにより実行可能になるAI(Artificial Intelligence)の技術としてよい。より具体的には、機械学習とは、コンピュータのような情報処理装置が多くのデータを学習し、分類及び/又は予測などのタスクを遂行するアルゴリズム又はモデルを自動的に構築する技術としてよい。本明細書において、AI(Artificial Intelligence)の一部には、機械学習が含まれるとしてもよい。本明細書において、機械学習には、正解データをもとに入力データの特徴又はルールを学習する教師あり学習、正解データがない状態で入力データの特徴又はルールを学習する教師なし学習、及び、報酬や罰を与えて入力データの特徴又はルールを学習する強化学習などを含むとしてもよい。また、本明細書において、機械学習は、教師あり学習、教師なし学習、及び強化学習を任意に組み合わせたものとしてもよい。本実施形態の機械学習データ132の概念は、入力データに対して学習されたアルゴリズムを用いて所定の推論結果を出力するアルゴリズムを含むとしてもよい。本実施形態は、このアルゴリズムとして、例えば、従属変数と独立変数との関係を予測する線形回帰、人の脳神経系ニューロンを数理モデル化したニューラルネットワーク(NN)、誤差を二乗して算出する最小二乗法、問題解決を木構造にする決定木、及びデータを所定の方法で変形する正則化などその他適宜なアルゴリズムを用いることができる。本実施形態は、ニューラルネットワークの一種であるディープラーニングを利用するとしてよい。ディープラーニングは、ニューラルネットワークの一種であり、ネットワークの階層が深いニューラルネットワークがディープラーニングと呼ばれている。
As shown in FIG. 1, the
特に、一実施形態において、機械学習データ132は、被監視対象Tが立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてよい。また、機械学習データ132は、被監視対象Tが危険な立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてもよい。さらに、機械学習データ132は、被監視対象Tとして特定の人物(例えば被監視対象T1)が立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてもよい。一実施形態に係る機械学習データ132については、さらに後述する。
In particular, in one embodiment, the
コントローラ15は、監視装置10を構成する各機能部をはじめとして、監視装置10の全体を制御及び/又は管理する。コントローラ15は、種々の機能を実行するための制御及び処理能力を提供するために、例えばCPU(Central Processing Unit)のような、少なくとも1つのプロセッサを含んでよい。コントローラ15は、まとめて1つのプロセッサで実現してもよいし、いくつかのプロセッサで実現してもよいし、それぞれ個別のプロセッサで実現してもよい。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)ともいう。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。
The
一実施形態において、コントローラ15は、例えばCPU及び当該CPUで実行されるプログラムとして構成されてよい。コントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などは、例えば記憶部13に記憶されてよい。コントローラ15は、コントローラ15の動作に必要なメモリを適宜含んでもよい。一実施形態に係る監視装置10のコントローラ15の動作については、さらに後述する。
In one embodiment, the
警告部17は、コントローラ15から出力される所定の警告信号に基づいて、監視システム1又は監視装置10のユーザなどに注意を促すための所定の警告を発してよい。警告部17は、所定の警告として、例えば音、音声、光、文字、映像、及び振動など、ユーザの聴覚、視覚、触覚の少なくともいずれかを刺激する任意の機能部としてよい。具体的には、警告部17は、例えばブザー又はスピーカのような音声出力部、LEDのような発光部、LCDのような表示部、及びバイブレータのような触感呈示部などの少なくともいずれかとしてよい。このように、警告部17は、コントローラ15から出力される所定の警告信号に基づいて、所定の警告を発してよい。一実施形態において、警告部17は、所定の警報を、聴覚、視覚、及び触覚の少なくともいずれかに作用する情報として発してもよい。
The warning unit 17 may issue a predetermined warning to call attention to the user of the monitoring system 1 or the
一実施形態において、警告部17は、例えば被監視対象Tが立ち上がり動作をする前に、被監視対象Tが立ち上がり動作をする旨の警告を発してよい。また、一実施形態において、警告部17は、例えば被監視対象Tが危険な立ち上がり動作をする前に、被監視対象Tが危険な立ち上がり動作をする旨の警告を発してもよい。さらに、一実施形態において、警告部17は、例えば特定の人物が立ち上がり動作をする旨の警告を発してもよい。例えば、一実施形態において、視覚情報を出力する警告部17は、被監視対象Tが立ち上がり動作をする旨が検出されると、その旨を発光又は所定の表示などによってユーザに警告してよい。また、一実施形態において、聴覚情報を出力する警告部17は、被監視対象Tが立ち上がり動作をする旨が検出されると、その旨を所定の音又は音声などによってユーザに警告してよい。本実施形態では、上記警告は、発光又は所定の表示、及び所定の音又は音声を組み合わせてもよい。 In one embodiment, the warning unit 17 may issue a warning that the monitored target T starts up, for example, before the monitored target T starts up. Further, in one embodiment, the warning unit 17 may issue a warning that the monitored target T performs a dangerous rising operation, for example, before the monitored target T performs a dangerous rising operation. Further, in one embodiment, the warning unit 17 may issue a warning that, for example, a specific person stands up. For example, in one embodiment, the warning unit 17 that outputs visual information may warn the user by emitting light or a predetermined display when it is detected that the monitored target T starts up. Further, in one embodiment, the warning unit 17 that outputs auditory information may warn the user by a predetermined sound or voice when it is detected that the monitored target T starts up and operates. In the present embodiment, the warning may be a combination of light emission or a predetermined display, and a predetermined sound or voice.
図1に示す監視装置10は、警告部17を内蔵している。しかしながら、一実施形態に監視システム1において、警告部17は、監視装置10の外部に設けられてもよい。この場合、警告部17と監視装置10とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。
The
通信部19は、有線又は無線により通信するためのインタフェースの機能を有する。一実施形態の通信部19によって行われる通信方式は無線通信規格としてよい。例えば、無線通信規格は2G、3G、4G、及び5G等のセルラーフォンの通信規格を含む。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)、及びPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格は、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、WiFi、Bluetooth(登録商標)、IrDA(Infrared Data Association)、及びNFC(Near Field Communication)等を含む。通信部19は、上記の通信規格の1つ又は複数をサポートすることができる。通信部19は、例えば電波を送受信するアンテナ及び適当なRF部などを含めて構成してよい。また、通信部19は、外部に有線接続するためのコネクタなどのようなインタフェースとして構成してもよい。通信部19は、無線通信を行うための既知の技術により構成することができるため、より詳細なハードウェアの説明は省略する。
The
通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に供給されてよい。通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に内蔵されたメモリに記憶してもよい。また、通信部19は、例えばコントローラ15による処理結果、抽出部11による抽出結果、及び/又は、記憶部13に記憶された情報などを外部に送信してもよい。
Various types of information received by the
図1に示すような、一実施形態に係る監視装置10を構成する各機能部の少なくとも一部は、ソフトウェアとハードウェア資源とが協働した具体的手段によって構成されてもよい。
As shown in FIG. 1, at least a part of each functional unit constituting the
次に、一実施形態に係る監視システム1の動作について説明する。 Next, the operation of the monitoring system 1 according to the embodiment will be described.
図2は、一実施形態に係る監視システム1の動作の一例を示すフローチャートである。図2に示す動作は、例えば病院又は介護施設などにおいて、被監視対象Tの立ち上がり動作の監視を行う際に開始してよい。例えば介護施設又は病院などにおいて、お年寄り又は負傷者のように、足腰が弱くなっているため自力で立ち上がろうとすると転倒するリスクが高い者が存在し得る。また、例えば認知症を発症している患者などは、自力で立ち上がると、徘徊したり行方不明になったりするリスクもある。このような被監視対象Tを監視システム1によって監視することで、例えば介護施設又は病院などのスタッフは、被監視対象Tが自力で立ち上がろうとしていることを、被監視対象Tが実際に立ち上がり動作をする前に認識することができる。 FIG. 2 is a flowchart showing an example of the operation of the monitoring system 1 according to the embodiment. The operation shown in FIG. 2 may be started when monitoring the rising operation of the monitored target T, for example, in a hospital or a nursing care facility. For example, in a long-term care facility or a hospital, there may be a person such as an elderly person or an injured person who has a weak leg and has a high risk of falling if he / she tries to stand up by himself / herself. In addition, for example, a patient who develops dementia may wander or go missing if he / she stands up by himself / herself. By monitoring such a monitored target T by the monitoring system 1, for example, a staff member of a nursing care facility or a hospital actually starts up the monitored target T to indicate that the monitored target T is about to stand up by itself. Can be recognized before doing.
図2に示す動作が開始すると、一実施形態に係る監視システム1において、撮像部20は、被監視対象Tを撮像する(ステップS1)。ステップS1において、撮像部20は、被監視対象Tの画像を撮像してよい。ステップS1において、撮像部20は、この時点で被監視対象Tの撮像を開始してもよいし、すでに開始していた被監視対象Tの撮像を継続してもよい。また、ステップS1において、撮像部20は、被監視対象Tを例えば所定時間ごと(例えば0.5秒おき)の静止画として撮像してもよい。また、ステップS1において、撮像部20は、例えば被監視対象Tを連続した動画として撮像してもよい。ステップS1において撮像部20によって撮像された被監視対象Tの画像は、監視装置10の抽出部11に供給される。また、撮像部20は、例えば被監視対象Tを、例えば所定時間ごと(例えば0.5秒おき)の静止画及び連続した動画との組合せで撮像してもよい。本実施形態は、動画の撮像モードから静止画のモードに移行して画像データの容量を削減してもよい。本実施形態は、被監視対象Tの動作が少ない、例えば夜間などの場合に、動画の撮像モードから静止画のモードに移行して画像データの容量を削減してもよい。
When the operation shown in FIG. 2 starts, the
ステップS1において被監視対象Tが撮像されたら、監視装置10の抽出部11は、撮像部20によって撮像された画像から、被監視対象Tの特徴点の動きを抽出する(ステップS2)。
When the monitored target T is imaged in step S1, the extraction unit 11 of the
図4以降は、撮像部20によって撮像された被監視対象Tの画像に基づいて、抽出部11によって抽出される被監視対象Tの特徴点の例を模式的に示す図である。図4は、椅子C1に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。
4A and 4B are diagrams schematically showing an example of the feature points of the monitored object T extracted by the extraction unit 11 based on the image of the monitored object T captured by the
一実施形態において、抽出部11によって抽出される被監視対象Tの特徴点は、例えば図4以降に示すように、次のような特徴点としてよい。
特徴点P1は、被監視対象Tの例えば頭部としてよい。
特徴点P2は、被監視対象Tの例えば頭部と首との接続部としてよい。
特徴点P3は、被監視対象Tの例えば首と体幹との接続部としてよい。
特徴点P4は、被監視対象Tの例えば体幹と脚との接続部としてよい。
特徴点P5は、被監視対象Tの例えば肩としてよい。
特徴点P6は、被監視対象Tの例えば肘としてよい。
特徴点P7は、被監視対象Tの例えば手としてよい。
特徴点P8は、被監視対象Tの例えば膝としてよい。
特徴点P9は、被監視対象Tの例えば足としてよい。
In one embodiment, the feature points of the monitored target T extracted by the extraction unit 11 may be the following feature points, for example, as shown in FIGS. 4 and later.
The feature point P1 may be, for example, the head of the monitored target T.
The feature point P2 may be a connection portion between the head and the neck of the monitored target T, for example.
The feature point P3 may be a connection portion between the neck and the trunk of the monitored target T, for example.
The feature point P4 may be a connection portion between the trunk and the leg of the monitored target T, for example.
The feature point P5 may be, for example, a shoulder of the monitored target T.
The feature point P6 may be, for example, an elbow of the monitored target T.
The feature point P7 may be, for example, a hand of the monitored target T.
The feature point P8 may be, for example, the knee of the monitored target T.
The feature point P9 may be, for example, a foot of the monitored target T.
図2の説明に戻り、ステップS2において、抽出部11は、既存の画像認識などの技術を用いて特徴点の抽出を行ってよい。また、ステップS2において、抽出部11は、例えばAIなどに基づく技術を用いて特徴点の抽出を行ってもよい。 Returning to the description of FIG. 2, in step S2, the extraction unit 11 may extract feature points by using an existing technique such as image recognition. Further, in step S2, the extraction unit 11 may extract feature points by using a technique based on, for example, AI.
ステップS2において、抽出部11は、撮像部20によって撮像された被監視対象Tの連続する複数の静止画から、特徴点の動きを抽出してもよい。また、ステップS2において、抽出部11は、撮像部20によって撮像された被監視対象Tの動画から、特徴点の動きを抽出してもよい。
In step S2, the extraction unit 11 may extract the movement of the feature point from a plurality of continuous still images of the monitored target T imaged by the
ステップS2において特徴点の動きが抽出されたら、監視装置10のコントローラ15は、機械学習データ132を取得する(ステップS3)。ステップS3において、コントローラ15は、記憶部13から機械学習データ132を読み出してもよい。また、必要な機械学習データ132が記憶部13に記憶されていない場合、コントローラ15は、必要な機械学習データ132を例えば外部サーバなどから取得してもよい。この場合、コントローラ15は、通信部19を介して、必要な機械学習データ132を受信してもよい。このようにして受信された機械学習データ132は、例えば記憶部13又はコントローラ15の内部メモリなどに記憶されてもよい。以下、機械学習データ132について、さらに説明する。
When the movement of the feature point is extracted in step S2, the
上述のように、一実施形態に係る監視装置10は、被監視対象Tの特徴点の動きに基づいて、被監視対象Tが立ち上がり動作をする前に、被監視対象Tが立ち上がり動作をすると判定してよい。被監視対象Tが立ち上がり動作をする前は、例えば立ち上がり動作を完了する前としてよい。このため、一実施形態に係る監視装置10において、コントローラ15は、撮像された被監視対象Tの画像から抽出された特徴点の動きを監視してよい。具体的には、コントローラ15は、被監視対象Tの画像から抽出された複数の特徴点の所定のタイミングにおける位置を、それぞれ監視してよい。また、コントローラ15は、被監視対象Tの画像から抽出された複数の特徴点が所定の位置に到来するタイミングを、それぞれ監視してもよい。
As described above, the
一実施形態において、被監視対象Tの画像から抽出された特徴点の動きと対比される対象として、機械学習データ132を使用してよい。この機会学習データ132には、機械学習を行うアルゴリズムも含まれるとしてもよい。ここで、一実施形態において、機械学習データ132として、被監視対象Tが立ち上がり動作をする際の特徴点の動きを機械学習したデータを用いてよい。例えば、機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作から抽出した特徴点の動きに基づくデータを含むとしてよい。特に、機械学習データ132は、例えば、これまでに被監視対象Tが実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータを含むとしてもよい。このような機械学習データ132は、例えば被監視対象Tが複数回の立ち上がり動作をした際の特徴点の動きに基づくデータを含むとしてもよい。このような機械学習データ132と、抽出部11によって抽出された特徴点の動きを対比させることによって、コントローラ15は、被監視対象Tが立ち上がり動作を行うか否かを判定するとことができる。また、本実施形態の機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータに限定されない。すなわち、機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作以外の動作などから抽出した特徴点の動きに基づくデータとしてもよい。例えば、機械学習データ132は、被監視対象Tが、コップを取る動作や、対話相手に向く動作など、立ち上がり動作以外の動作から抽出した特徴点の動きに基づくデータを含むとしてもよい。
In one embodiment,
後述のように、被監視対象Tが行う立ち上がり動作は、座っている状態から立ち上がり動作が完了するまでの一連の動作において、少なくとも1以上の部分的な動作を含む。したがって、座っている状態から立ち上がるまでの一連の動作に含まれる少なくとも1以上の部分的な動作の少なくとも一部が行われたことが判定できれば、被監視対象Tが立ち上がり動作をする(しようとしている)と推定できる。このような推定は、被監視対象Tが立ち上がり動作を完了する前に行うことができる。したがって、一実施形態に係る監視装置10によれば、被監視対象Tが立ち上がり動作を完了する前に、被監視対象Tが立ち上がり動作を行うことを察知して、所定の警告を発することができる。すなわち、監視装置10は、機械学習データ132に基づけば、被監視対象Tが立ち上がり動作をする前に、所定の警告を発することができる。
As will be described later, the rising motion performed by the monitored target T includes at least one partial motion in a series of motions from the sitting state to the completion of the standing motion. Therefore, if it can be determined that at least a part of at least one or more partial movements included in the series of movements from the sitting state to standing up has been performed, the monitored target T will perform (trying to) stand up. ). Such an estimation can be performed before the monitored target T starts up and completes the operation. Therefore, according to the
また、例えば、機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータに限定されない。すなわち、機械学習データ132は、これまでに被監視対象Tが実際に行った立ち上がり動作の失敗例などから抽出した特徴点の動きに基づくデータとしてもよい。例えば、機械学習データ132は、被監視対象Tが立ち上がり動作をしようとしたが失敗(例えば転倒)した場合又は失敗しかけた場合の動作から抽出した特徴点の動きに基づくデータとしてもよい。このような機械学習データ132に基づけば、監視装置10は、被監視対象Tの立ち上がり動作が成功する(すなわち失敗しない)確率が所定以上の場合には、所定の警告を発しないようにしてもよい。一方、このような機械学習データ132に基づけば、監視装置10は、被監視対象Tの立ち上がり動作が成功しない(すなわち失敗する)確率が所定以上の場合には、所定の警告を発するようにしてもよい。
Further, for example, the
例えば、機械学習データ132は、教師あり学習データとして、人間がラベル付けしたデータを使用して、被監視対象Tの立ち上がり動作が成功するか否かを判定するアルゴリズムを訓練したものとしてもよい。ここで、機械学習データ132において、被監視対象Tの立ち上がり動作が成功する場合と失敗する場合とで、異なるラベル付けをしてもよい。また、機械学習データ132において、被監視対象Tの立ち上がり動作が単なる成功又は失敗する場合だけではなく、各立ち上がり動作のそれぞれに対して異なるラベルを付けてもよい。例えば、被監視対象Tの立ち上がり動作が一応成功したがスムーズな動作ではなかった場合などは、立ち上がり動作が成功した場合とは異なるラベル付けをしてもよい。
For example, the
一方、機械学習データ132は、教師なし学習データとして、ラベルなしのデータを与えて、被監視対象Tの立ち上がり動作が成功するか否かを判定するアルゴリズム自身にパターンを見出させるものとしてもよい。
On the other hand, the
さらに、機械学習データ132は、被監視対象Tとして特定の人物(例えば被監視対象T1など)が立ち上がり動作をする際の特徴点の動きを機械学習したデータであってもよい。このような機械学習データ132に基づけば、監視装置10は、被監視対象T1のような特定の人物が立ち上がり動作をする前に、所定の警告を発することができる。
Further, the
また、例えば、機械学習データ132は、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータに限定されない。すなわち、機械学習データ132は、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の失敗例などから抽出した特徴点の動きに基づくデータを含むとしてもよい。このような機械学習データ132に基づけば、監視装置10は、被監視対象T1のような特定の人物の立ち上がり動作が成功する(すなわち失敗しない)確率が所定以上の場合には、所定の警告を発しないようにしてもよい。一方、このような機械学習データ132に基づけば、監視装置10は、被監視対象T1のような特定の人物の立ち上がり動作が成功しない(すなわち失敗する)確率が所定以上の場合には、所定の警告を発するようにしてもよい。
Further, for example, the
ステップS3において機械学習データ132が取得されたら、コントローラ15は、抽出部11によって抽出された特徴点、及び、機械学習データ132に基づいて、被監視対象Tが立ち上がり動作をするか否か判定してよい(ステップS4)。ステップS4において、コントローラ15は、機械学習データ132を用いたAIの技術による機械学習アルゴリズムに基づいて、被監視対象Tが立ち上がり動作をするか否か判定してもよい。
When the
ステップS4において被監視対象Tが立ち上がり動作をしないと判定された場合、コントローラ15は、図2に示す動作を終了する。図2に示す動作を終了したら、コントローラ15は、連続して、又は所定の時間間隔ごとに、図2に示す動作を再び開始してもよい。
When it is determined in step S4 that the monitored target T does not start up, the
一方、ステップS4において被監視対象Tが立ち上がり動作をすると判定された場合、コントローラ15は、被監視対象Tが立ち上がり動作をする前に所定の警告信号を出力してよい(ステップS5)。ステップS5において、コントローラ15は、所定の警告信号を警告部17に出力してよい。ステップS5においてコントローラ15から出力された所定の警告信号に基づいて、警告部17は、所定の警告をユーザ発してよい。
On the other hand, when it is determined in step S4 that the monitored target T starts up, the
このように、コントローラ15は、抽出部11によって抽出された特徴点、及び、機械学習データ132に基づいて、被監視対象Tが立ち上がり動作をする前に所定の警告信号を出力してよい。
As described above, the
図2に示すステップS4において、コントローラ15は、被監視対象Tが立ち上がり動作をするか否かを判定した。これにより、監視装置10は、被監視対象Tが立ち上がり動作をする前、例えば立ち上がり動作を完了する前に、所定の警告を発することができる。
In step S4 shown in FIG. 2, the
これに対し、上述したように、コントローラ15は、被監視対象Tが成功の可能性が比較的高い(すなわち安全な)立ち上がり動作をするか、又は失敗の可能性が比較的高い(すなわち危険な)立ち上がり動作をするか判定してもよい。この場合、機械学習データ132は、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータとしてもよい。また、この場合、機械学習データ132は、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の失敗例などから抽出した特徴点の動きに基づくデータとしてもよい。
On the other hand, as described above, in the
図3は、上述のような危険な立ち上がりを監視する監視システム1の動作の一例を示すフローチャートである。 FIG. 3 is a flowchart showing an example of the operation of the monitoring system 1 for monitoring the dangerous rise as described above.
図3は、図2におけるステップS4をステップS14に変更したものである。すなわち、図2のステップS4において、コントローラ15は、被監視対象Tが立ち上がり動作をするか否かを判定した。これに対し、図3のステップS14において、コントローラ15は、被監視対象Tが危険な(すなわち失敗の可能性が比較的高い)立ち上がり動作をするか否かを判定してよい。ステップS14における動作以外の動作は、図2において説明したのと同様に実施することができるため、より詳細な説明は省略する。
FIG. 3 shows that step S4 in FIG. 2 is changed to step S14. That is, in step S4 of FIG. 2, the
このように、コントローラ15は、抽出部11によって抽出された特徴点及び機械学習データ132に基づいて、被監視対象Tが危険な立ち上がり動作をする前に所定の警告信号を出力してもよい。ここで、機械学習データ132は、被監視対象Tが危険な立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてもよい。
As described above, the
また、上述のように、監視装置10は、被監視対象T1のような特定の人物が立ち上がり動作をする前に、所定の警告を発してもよい。このように、コントローラ15は、抽出部11によって抽出された特徴点及び機械学習データ132に基づいて、特定の人物が立ち上がり動作をする前に所定の警告信号を出力してもよい。ここで、機械学習データ132は、被監視対象Tとして例えば特定の人物(被監視対象T1)が立ち上がり動作をする際の特徴点の動きを機械学習したデータとしてもよい。
Further, as described above, the
以下、抽出部11によって抽出される被監視対象Tの特徴点に基づいて機械学習データ132を生成するに際し、実証実験から得られた知見のいくつかについて、さらに説明する。
Hereinafter, some of the findings obtained from the demonstration experiment in generating the
(アームレストのない椅子から立ち上がる場合)
図4乃至図7は、被監視対象Tがアームレストのない椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図4から図7までは、アームレストのない椅子C1に座っている被監視対象Tが、徐々に立ち上がる際の特徴点の動きを示している。図4乃至図7は、被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C1は、図4乃至図7に示すように、アームレスト又は肘掛けなどのない構造の椅子としてよい。
(When standing up from a chair without armrests)
4 to 7 are diagrams illustrating an example of extracting characteristic points of an operation in which the monitored object T stands up from a chair without an armrest. 4 to 7 show the movement of the feature points when the monitored object T sitting on the chair C1 without armrests gradually stands up. 4 to 7 schematically show an example of feature points extracted from an image in which the monitored object T is captured from the left side. Here, as shown in FIGS. 4 to 7, the chair C1 may be a chair having a structure without armrests or armrests.
図4から図7までに示すように、被監視対象Tが椅子C1に座っている状態から立ち上がる動作一連の動作には、いくつかの部分的な動作が含まれる。例えば、図4は、上述したように、椅子C1に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 As shown in FIGS. 4 to 7, the series of movements in which the monitored object T stands up from the state of sitting on the chair C1 includes some partial movements. For example, as described above, FIG. 4 schematically shows an example of feature points extracted from an image of the monitored target T sitting on the chair C1 from the left side.
図4に示した状態から図5に示す状態までに、被監視対象Tが行う一例の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動(図5に示す距離d1及び角度a1))
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動(図5に示す角度a2))
(3)手を前に出す動作(特徴点P7及び/又はP6の移動(図5に示す距離d2))
From the state shown in FIG. 4 to the state shown in FIG. 5, the partial operation included in the rising operation of the example performed by the monitored target T may be, for example, the following operation.
(1) The action of pulling the foot backward (movement of the feature point P9 (distance d1 and angle a1 shown in FIG. 5))
(2) Action to take a forward leaning posture (movement of feature points P1, P2, or P3 (angle a2 shown in FIG. 5))
(3) Action to move the hand forward (movement of feature points P7 and / or P6 (distance d2 shown in FIG. 5))
ここで、被監視対象Tの通常の(安全な)立ち上がり動作において、上記(1)の距離d1は約10cm、角度a1は約70°になる傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(1)の距離d1は約20cm、角度a1は約50°になる傾向にある。以下、通常の(安全な)立ち上がり動作とは、例えば立ち上がり動作が成功する(すなわち失敗しない)確率が所定以上になる動作としてよい。また、危険な立ち上がり動作とは、例えば転倒するなど、立ち上がり動作が成功しない(すなわち失敗する)確率が所定以上になる動作としてよい。 Here, in the normal (safe) rising operation of the monitored object T, the distance d1 in (1) above tends to be about 10 cm, and the angle a1 tends to be about 70 °. On the other hand, in the dangerous rising motion of the monitored target T, the distance d1 in (1) above tends to be about 20 cm, and the angle a1 tends to be about 50 °. Hereinafter, the normal (safe) rising operation may be, for example, an operation in which the probability that the rising operation succeeds (that is, does not fail) becomes a predetermined value or more. Further, the dangerous rising motion may be an motion in which the probability that the rising motion does not succeed (that is, fails) becomes a predetermined value or more, for example, a fall.
また、監視対象Tの通常の立ち上がり動作において、上記(2)の角度a2は約40°になる傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(2)の角度a2は約70°になる傾向にある。 Further, in the normal rising operation of the monitored object T, the angle a2 in (2) above tends to be about 40 °. On the other hand, in the dangerous rising operation of the monitored target T, the angle a2 in (2) above tends to be about 70 °.
また、上記(3)の距離d2は、監視対象Tの通常の立ち上がり動作においても、危険な立ち上がり動作においても、約10cmになる傾向にある。 Further, the distance d2 in (3) above tends to be about 10 cm in both the normal rising operation and the dangerous rising operation of the monitored object T.
次に、図5に示した状態から図6に示す状態を経て図7に示す状態までに、被監視対象Tが行う一例の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。図5及び図6は、被監視対象Tが行う一例の立ち上がり動作の途中の状態の画像から抽出された特徴点の例を模式的に示している。また、図7は、被監視対象Tが一例の立ち上がり動作を完了した状態の画像から抽出された特徴点の例を模式的に示している。
(4)お尻を持ち上げる動作(特徴点P4の移動(図6に示す距離d3))
(5)膝を伸ばす動作(特徴点P4及び/又はP9の移動(図6に示す角度a3))
(6)頭を持ち上げる動作(特徴点P1の移動(図6に示す距離d4))
(7)腕を伸ばす動作(特徴点P7の移動(図6に示す角度a4))
(8)背筋を伸ばす動作(特徴点P1,P2,又はP3の移動(図6に示す角度a5))
Next, from the state shown in FIG. 5 through the state shown in FIG. 6 to the state shown in FIG. 7, the partial operation included in the rising operation of the example performed by the monitored target T is, for example, the following operation. May be. 5 and 6 schematically show an example of feature points extracted from an image of a state during a rising operation of an example performed by the monitored target T. Further, FIG. 7 schematically shows an example of feature points extracted from an image in which the monitored target T has completed an example of a rising operation.
(4) Operation of lifting the buttocks (movement of feature point P4 (distance d3 shown in FIG. 6))
(5) Knee extension motion (movement of feature points P4 and / or P9 (angle a3 shown in FIG. 6))
(6) Head lifting operation (movement of feature point P1 (distance d4 shown in FIG. 6))
(7) Arm extension motion (movement of feature point P7 (angle a4 shown in FIG. 6))
(8) Motion to stretch the back muscle (movement of feature points P1, P2, or P3 (angle a5 shown in FIG. 6))
ここで、被監視対象Tの通常の立ち上がり動作において、上記(5)の角度a3は約70°から約180°に変化する傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(5)の角度a3は約50°から約150°に変化する傾向にある。 Here, in the normal rising operation of the monitored target T, the angle a3 in (5) above tends to change from about 70 ° to about 180 °. On the other hand, in the dangerous rising motion of the monitored target T, the angle a3 in (5) above tends to change from about 50 ° to about 150 °.
また、被監視対象Tの通常の立ち上がり動作において、上記(6)の距離d4は、図6に示すP1の位置から図7に示すP1の位置まで変化する傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(6)の距離d4は、図6に示すP1の位置から図7に示すP1の位置までの距離に約20cm満たない位置まで変化する傾向にある。 Further, in the normal rising operation of the monitored target T, the distance d4 in (6) above tends to change from the position of P1 shown in FIG. 6 to the position of P1 shown in FIG. 7. On the other hand, in the dangerous rising motion of the monitored target T, the distance d4 in (6) above tends to change to a position less than about 20 cm from the position of P1 shown in FIG. 6 to the position of P1 shown in FIG. It is in.
また、被監視対象Tの通常の立ち上がり動作において、上記(7)の角度a4は約90°から約170°に変化する傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(7)の角度a4は約90°から約160°に変化する傾向にある。 Further, in the normal rising operation of the monitored target T, the angle a4 in (7) above tends to change from about 90 ° to about 170 °. On the other hand, in the dangerous rising motion of the monitored target T, the angle a4 in (7) above tends to change from about 90 ° to about 160 °.
さらに、被監視対象Tの通常の立ち上がり動作において、上記(8)の角度a5は約0°になる傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(8)の角度a5は約20°になる傾向にある。 Further, in the normal rising operation of the monitored target T, the angle a5 in (8) above tends to be about 0 °. On the other hand, in the dangerous rising motion of the monitored target T, the angle a5 in (8) above tends to be about 20 °.
ここまで、被監視対象Tの立ち上がり動作における特徴点の動きについて説明した。以下、被監視対象Tの立ち上がり動作における特徴点の動くタイミングについて、さらに説明する。 Up to this point, the movement of the feature points in the rising motion of the monitored target T has been described. Hereinafter, the timing of movement of the feature points in the rising operation of the monitored target T will be further described.
実証実験の結果、被監視対象Tの通常の立ち上がり動作において、上記(1)から(3)までの動作は、約0.6秒の間に行われる傾向にある。また、被監視対象Tの通常の立ち上がり動作において、上記(4)から(8)までの動作は、約1.2秒の間に行われる傾向にある。すなわち、被監視対象Tの通常の立ち上がり動作は、全体として約2秒の間に行われる傾向にある。 As a result of the demonstration experiment, in the normal rising operation of the monitored object T, the operations (1) to (3) tend to be performed within about 0.6 seconds. Further, in the normal rising operation of the monitored target T, the operations (4) to (8) tend to be performed within about 1.2 seconds. That is, the normal rising operation of the monitored target T tends to be performed in about 2 seconds as a whole.
一方、被監視対象Tの危険な立ち上がり動作において、上記(1)から(3)までの動作は、約3秒の間に行われる傾向にある。また、被監視対象Tの危険な立ち上がり動作において、上記(4)から(8)までの動作は、約3秒の間に行われる傾向にある。すなわち、被監視対象Tの危険な立ち上がり動作は、全体として約6秒の間に行われる傾向にある。言い換えると、被監視対象Tの危険な立ち上がり動作は、全体として、被監視対象Tの通常の立ち上がり動作のように約2秒の間には行われない傾向にある。 On the other hand, in the dangerous rising operation of the monitored target T, the operations (1) to (3) tend to be performed within about 3 seconds. Further, in the dangerous rising operation of the monitored target T, the operations (4) to (8) above tend to be performed within about 3 seconds. That is, the dangerous rising operation of the monitored target T tends to be performed in about 6 seconds as a whole. In other words, the dangerous rising motion of the monitored target T tends not to be performed in about 2 seconds as the normal rising motion of the monitored target T as a whole.
以上から、例えば、監視装置10のコントローラ15は、被監視対象Tが立ち上がり動作を開始してから2秒経過しても立ち上がり動作を完了していない場合、危険な立ち上がりである旨を示す警告信号を出力してもよい。このようにすれば、監視装置10は、被監視対象Tが危険な立ち上がりを完了する前に、被監視対象Tが危険な立ち上がり動作をしている旨の警告をユーザに発することができる。
From the above, for example, the
また、上記(1)から(8)までの動作は、被監視対象Tが行う一連の立ち上がり動作に含まれる。したがって、例えば上記(1)から(3)までの動作が行われると、その後引き続き上記(4)から(8)までの動作が行われるものと想定することができる。そこで、例えば、コントローラ15は、被監視対象Tが上記(1)から(3)までの動作を行うのに3秒以上かかった時点で、危険な立ち上がりである旨を示す警告信号を出力してもよい。このようにすれば、監視装置10は、被監視対象Tが危険な立ち上がりを完了する所定時間前(例えば3秒前)に、被監視対象Tが危険な立ち上がり動作をしている旨の警告をユーザに発することができる。このように、コントローラ15は、被監視対象Tが立ち上がり動作を完了する所定時間前に、所定の警告信号を出力してもよい。
Further, the operations (1) to (8) are included in a series of rising operations performed by the monitored target T. Therefore, for example, if the above operations (1) to (3) are performed, it can be assumed that the above operations (4) to (8) are subsequently performed. Therefore, for example, the
さらに、本実施形態において、被監視対象Tの危険な立ち上がり動作において、コントローラ15は、被監視対象Tが立ち上がり動作を開始してから1秒以内に上記(1)から(3)までの動作を完了していなかった場合に、立ち上がり動作を行っている旨を示す警告信号を出力してもよい。さらに、被監視対象Tの危険な立ち上がり動作において、コントローラ15は、被監視対象Tが立ち上がり動作を開始してから1秒以内に上記(1)から(3)までの動作を完了していた場合に、立ち上がり動作を行っている旨を示す警告信号を出力しないとしてもよい。このようにすれば、監視装置10は、被監視対象Tが危険な立ち上がりを行う完了する所定時間前(例えば1秒前)に、被監視対象Tが危険な立ち上がり動作をしている旨の警告をユーザに発することができる。また、この場合、本実施形態では、警告をするか否かを、上記(1)から(3)までの動作の完了が1秒かかったか否かとしたため、通常の立ち上がりが可能な者の立ち上がりは警告せず、危険な立ち上がりを行う者の立ち上がりを警告できる。このため、本実施形態では、警告の信頼性や有用性を向上させることができる。また、本実施形態において、所定の警告信号を出力するか否かを判定するための経過時間は、上述のように1秒に限定されるものではない。つまり、通常の立ち上がり動作の動作時間T1と、危険な立ち上がり動作の動作時間をT2とした場合、所定の警告信号を出力するか否かを判定するための経過時間Tthは、T2≧Tth≧T1としてよい。経過時間TthをT1Tとした場合、本実施形態は、警告を迅速に出力することができる。経過時間TthをT2とした場合、本実施形態は、通常の立ち上がり動作を危険な立ち上がり動作と誤認識する確率を減らすことができる。経過時間TthをT2>Tth>T1とした場合、本実施形態は、警告出力の迅速性と誤認識の低減とをバランスよく設定することができる。また、本実施形態において、通常の立ち上がり動作の動作時間T1を0.6秒とし、危険な立ち上がり動作の動作時間T2を3秒とする場合を例にしたが、本実施形態は、T1、T2としてこのような値ではなく、被監視対象Tの年齢、体格、健康状態、心身の障害状態、時刻、例えば運動した後などのシチュエーションなどに基づいて適宜他の値を設定してもよい。
Further, in the present embodiment, in the dangerous rising operation of the monitored target T, the
以上のような動作を、被監視対象Tの通常の立ち上がり動作において行ってもよい。例えば、被監視対象Tの通常の立ち上がり動作において、上記(1)から(3)までの動作が0.6秒の間に行われると、その後引き続き上記(4)から(8)までの動作が1.2秒の間に行われるものと想定することができる。 The above operation may be performed in the normal rising operation of the monitored target T. For example, in the normal rising operation of the monitored target T, if the above operations (1) to (3) are performed within 0.6 seconds, then the above operations (4) to (8) are continuously performed. It can be assumed that it takes place in 1.2 seconds.
そこで、コントローラ15は、被監視対象Tが立ち上がり動作を開始してから1秒以内に上記(1)から(3)までの動作を完了した場合に、立ち上がり動作を行っている旨を示す警告信号を出力してもよい。本実施形態は、所定の警告信号を出力するか否かを判定するための経過時間として1秒としてよい。このようにすれば、監視装置10は、被監視対象Tが通常の立ち上がりを完了する所定時間前(例えば約1秒前)に、被監視対象Tが立ち上がり動作を開始している旨の警告をユーザに発することができる。このように、コントローラ15は、被監視対象Tが立ち上がり動作をする所定時間前に、所定の警告信号を出力してもよい。ここで、本実施形態において、所定の警告信号を出力するか否かを判定するための経過時間は、上述のように1秒に限定されるものではない。つまり、通常の立ち上がり動作の動作時間T1と、危険な立ち上がり動作の動作時間をT2とした場合、所定の警告信号を出力するか否かを判定するための経過時間Tthは、T2≧Tth≧T1としてよい。経過時間TthをT1とした場合、本実施形態は、警告を迅速に出力することができる。経過時間TthをT2とした場合、本実施形態は、通常の立ち上がり動作を危険な立ち上がり動作と誤認識する確率を減らすことができる。経過時間TthをT2>Tth>T1とした場合、本実施形態は、警告出力の迅速性と誤認識の低減とをバランスよく設定することができる。また、本実施形態において、通常の立ち上がり動作の動作時間T1を0.6秒とし、危険な立ち上がり動作の動作時間T2を3秒とする場合を例にしたが、本実施形態は、T1、T2としてこのような値ではなく、被監視対象Tの年齢、体格、健康状態、心身の障害状態、時刻、例えば運動した後などのシチュエーションなどに基づいて適宜他の値を設定してもよい。
Therefore, the
いずれの場合も、監視装置10によれば、被監視対象Tが立ち上がり動作を完了する前に、被監視対象Tが立ち上がり動作を開始している旨の警告をユーザに発してよい。このように、コントローラ15は、被監視対象Tが立ち上がり動作を完了する前に、所定の警告信号を出力してもよい。以上説明したように、一実施形態において、コントローラ15は、抽出部11によって抽出された特徴点、及び、機械学習データ132に基づいて、被監視対象Tが立ち上がり動作をする前に所定の警告信号を出力してよい。
In either case, according to the
一実施形態に係る監視システム1によれば、被監視対象Tが例えば危険な立ち上がりを行おうとしている場合などに、危険な立ち上がり動作をする前に、ユーザに警告を発することができる。したがって、一実施形態に係る監視システム1によれば、被監視対象の安全に供し得る。 According to the monitoring system 1 according to the embodiment, when the monitored target T is about to perform a dangerous start-up operation, for example, a warning can be issued to the user before the dangerous start-up operation is performed. Therefore, according to the monitoring system 1 according to the embodiment, the monitored object can be safely provided.
(アームレスト付きの椅子から立ち上がる場合)
図8乃至図10は、被監視対象Tがアームレスト付きの椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図8乃至図10は、アームレスト付きの椅子C2に座っている被監視対象Tが立ち上がる際の特徴点の動きを示している。図8乃至図10は、被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C2は、図8乃至図10に示すように、アームレスト又は肘掛けなどの付いた構造の椅子としてよい。以下、上述した「アームレストのない椅子から立ち上がる場合」とは異なる点について、主に説明する。
(When standing up from a chair with armrests)
8 to 10 are diagrams illustrating an example of extracting the feature points of the operation in which the monitored object T stands up from the chair with the armrest. 8 to 10 show the movement of the feature points when the monitored object T sitting on the chair C2 with the armrest stands up. 8 to 10 schematically show an example of feature points extracted from an image in which the monitored object T is captured from the left side. Here, as shown in FIGS. 8 to 10, the chair C2 may be a chair having a structure such as an armrest or an armrest. Hereinafter, the points different from the above-mentioned "when standing up from a chair without armrests" will be mainly described.
図8は、図4と同様に、椅子C2に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 FIG. 8 schematically shows an example of feature points extracted from an image in which the monitored object T sitting on the chair C2 is captured from the left side, as in FIG. 4.
図8に示した状態から図9に示す状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作は、上述のように、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動)
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動)
(3)手を前に出す動作(特徴点P7及び/又はP6の移動(図9に示す距離d5))
From the state shown in FIG. 8 to the state shown in FIG. 9, the partial operation included in the normal rising operation of an example performed by the monitored target T may be, for example, the following operation as described above.
(1) Pulling the foot backward (movement of feature point P9)
(2) Action to take a forward leaning posture (movement of feature points P1, P2, or P3)
(3) Action to move the hand forward (movement of feature points P7 and / or P6 (distance d5 shown in FIG. 9))
ここで、被監視対象Tの通常の立ち上がり動作において、上記(3)の距離d5は、図5に示した場合と同様に、約10cmになる傾向にある。 Here, in the normal rising operation of the monitored target T, the distance d5 in (3) above tends to be about 10 cm, as in the case shown in FIG.
一方、被監視対象Tの危険な立ち上がり動作において、上記の「(3)手を前に出す動作」は、図10に示すように、「(3’)腕を後方に引き上げる動作(特徴点P7及びP6の移動)」に代わる傾向にある。「(3’)腕を後方に引き上げる動作」は、図10に示すように、特徴点P7の移動(図10に示す距離d6)及び特徴点P6の移動(図10に示す距離d7)を含んでよい。ここで、被監視対象Tの危険な立ち上がり動作において、上記の距離d6は約10cm、距離d7は約10cmになる傾向にある。 On the other hand, in the dangerous rising motion of the monitored target T, the above-mentioned "(3) motion of pushing the hand forward" is "(3') the motion of pulling the arm backward (feature point P7), as shown in FIG. And the movement of P6) ”. As shown in FIG. 10, the "(3') arm pulling motion" includes the movement of the feature point P7 (distance d6 shown in FIG. 10) and the movement of the feature point P6 (distance d7 shown in FIG. 10). It's fine. Here, in the dangerous rising operation of the monitored target T, the distance d6 tends to be about 10 cm and the distance d7 tends to be about 10 cm.
すなわち、被監視対象Tの特徴点の動きを抽出する際に、被監視対象Tが上記(1)から(3)までの動作を完了した場合に図9のような特徴点になっていれば、被監視対象Tの通常の立ち上がり動作になる傾向にある。一方、被監視対象Tの特徴点の動きを抽出する際に、被監視対象Tが上記(1)から(3)までの動作を完了した場合に図10のような特徴点になっていれば、被監視対象Tの危険な立ち上がり動作になる傾向にある。 That is, when the movement of the feature point of the monitored target T is extracted, if the monitored target T has the feature point as shown in FIG. 9 when the above operations (1) to (3) are completed. , There is a tendency for the monitored target T to be in the normal rising operation. On the other hand, when extracting the movement of the feature point of the monitored target T, if the monitored target T has the feature point as shown in FIG. 10 when the above operations (1) to (3) are completed. , There is a tendency for the monitored target T to be in a dangerous rising motion.
(デスクとともに使用していた椅子から立ち上がる場合)
図11及び図12は、被監視対象Tがデスクとともに使用していた椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図11及び図12は、デスクD1とともに用いられる椅子C1に座っている被監視対象Tが立ち上がる際の特徴点の動きを示している。図11及び図12は、被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C1は、図4乃至図7に示したのと同様に、アームレスト又は肘掛けなどのない構造の椅子としてよい。以下、上述した説明とは異なる点について、主に説明する。
(When standing up from the chair used with the desk)
11 and 12 are diagrams illustrating an example of extracting the feature points of the movement of the monitored object T to stand up from the chair used together with the desk. 11 and 12 show the movement of the feature points when the monitored object T sitting on the chair C1 used together with the desk D1 stands up. 11 and 12 schematically show an example of feature points extracted from an image in which the monitored object T is captured from the left side. Here, the chair C1 may be a chair having a structure without armrests or armrests, as shown in FIGS. 4 to 7. Hereinafter, points different from the above description will be mainly described.
図11は、図5とほぼ同様に、椅子C1に座っている状態から立ち上がろうとしている被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 FIG. 11 schematically shows an example of a feature point extracted from an image of a monitored object T trying to stand up from a state of sitting on a chair C1 from the left side, in substantially the same manner as in FIG. ..
上述したように、図5に示した状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動)
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動)
(3)手を前に出す動作(特徴点P7及び/又はP6の移動)
As described above, the partial operation included in the normal rising operation of one example performed by the monitored target T up to the state shown in FIG. 5 may be, for example, the following operation.
(1) Pulling the foot backward (movement of feature point P9)
(2) Action to take a forward leaning posture (movement of feature points P1, P2, or P3)
(3) Action to move the hand forward (movement of feature points P7 and / or P6)
これに対し、図11に示す状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作のうち、上記(1)及び(2)は、図5に示した状態と同様に含まれるものとしてよい。一方、上記の「(3)手を前に出す動作」は、図11に示す状態において、「(3”)手で机を押す動作、及び/又は、椅子を引く動作(特徴点P7及びP6の移動)」に代わる傾向にある。「(3”)手で机を押す動作、及び/又は、椅子を引く動作」は、図12に示すように、特徴点P7及び/又は特徴点P6の移動(図12に示す角度a6)を含んでよい。上記(3”)の動作における角度a6は、監視対象Tの通常の立ち上がり動作においても、危険な立ち上がり動作においても、約70°から約170°に変化する傾向にある。 On the other hand, among the partial operations included in the normal rising operation of the example performed by the monitored target T up to the state shown in FIG. 11, the above (1) and (2) are the states shown in FIG. It may be included in the same manner as. On the other hand, the above-mentioned "(3) operation of pushing the hand forward" is "(3") the operation of pushing the desk with the hand and / or the operation of pulling the chair (feature points P7 and P6) in the state shown in FIG. (Movement) ”has a tendency to replace. "(3") Pushing the desk by hand and / or pulling the chair "moves the feature points P7 and / or the feature points P6 (angle a6 shown in FIG. 12) as shown in FIG. May include. The angle a6 in the above operation (3 ″) tends to change from about 70 ° to about 170 ° in both the normal rising operation and the dangerous rising operation of the monitored object T.
以上のように、被監視対象Tの立ち上がり動作において、椅子のタイプ及び/又はデスクの有無に応じて、抽出される特徴点の動きは異なり得る。このため、各状況において抽出される特徴点に基づいて機械学習を行うことにより、監視システム1は、各状況に応じて被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 As described above, in the rising motion of the monitored target T, the movement of the extracted feature points may differ depending on the type of chair and / or the presence or absence of a desk. Therefore, by performing machine learning based on the feature points extracted in each situation, the monitoring system 1 can issue a predetermined warning before the monitored target T starts up and operates according to each situation. ..
また、被監視対象Tの立ち上がり動作において、椅子のタイプ及び/又はデスクの有無に応じて、抽出される特徴点の動きは異なり得るが、共通して抽出される特徴点の動きも存在し得る。このため、異なる各状況において共通して抽出される特徴点に基づいて機械学習を行うことにより、監視システム1は、異なる各状況に依存せずに、被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 Further, in the rising motion of the monitored target T, the movements of the feature points extracted may differ depending on the type of chair and / or the presence or absence of a desk, but the movements of the feature points extracted in common may also exist. .. Therefore, by performing machine learning based on the feature points commonly extracted in each different situation, the monitoring system 1 does not depend on each different situation and before the monitored target T starts up and operates. A predetermined warning can be issued.
(半身麻痺がある被監視対象が立ち上がる場合)
図13及び図14は、例えば半身麻痺がある被監視対象Tが椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図13及び図14は、椅子C1に座っている被監視対象Tが立ち上がる際の特徴点の動きを示している。図13及び図14は、被監視対象Tが前方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C1は、図4乃至図7に示したのと同様に、アームレスト又は肘掛けなどのない構造の椅子としてよい。以下、上述した説明とは異なる点について、主に説明する。ここで、図13及び図14は、左半身の麻痺の被監視対象Tの図である。図14は、被監視対象Tの肩が下がっている側に麻痺がある例を示す。例えば、脳卒中の後遺症として、半身が麻痺になる(片麻痺)症状がある。半身麻痺は、左半身の上半身及び下半身の麻痺のケースと、左半身の上半身の麻痺のケースがある。図14の半身麻痺がある被監視対象Tは、左半身の上半身の麻痺のケースとしてよい。麻痺している側の左半身には力が入らないので、左側の上半身は下に下がりがちになる。また、この場合、足は地面に接しているため、左側の下半身は下に下がらない。したがって、この場合、左側の下半身が麻痺していない場合と変わらない体勢になる。
(When a monitored subject with hemiplegia stands up)
13 and 14 are diagrams illustrating an example of extracting the characteristic points of the motion of the monitored target T having hemiplegia, for example, to stand up from the chair. 13 and 14 show the movement of the feature points when the monitored object T sitting on the chair C1 stands up. 13 and 14 schematically show an example of feature points extracted from an image in which the monitored object T is captured from the front. Here, the chair C1 may be a chair having a structure without armrests or armrests, as shown in FIGS. 4 to 7. Hereinafter, points different from the above description will be mainly described. Here, FIGS. 13 and 14 are diagrams of the monitored target T for paralysis of the left half of the body. FIG. 14 shows an example in which the monitored target T has paralysis on the side where the shoulder is lowered. For example, as a sequela of stroke, there is a symptom of paralysis of the half body (hemiplegia). Hemiplegia includes cases of paralysis of the upper and lower body of the left half of the body and cases of paralysis of the upper body of the left half of the body. The monitored target T having hemiplegia in FIG. 14 may be a case of paralysis of the upper body of the left half of the body. The left upper body on the paralyzed side tends to fall down because there is no force on the left half of the body. Also, in this case, since the feet are in contact with the ground, the lower half of the body on the left side does not go down. Therefore, in this case, the posture is the same as when the lower body on the left side is not paralyzed.
図13は、図4とほぼ同様に、椅子C1に座っている状態の被監視対象Tが撮像された画像から抽出された特徴点の例を模式的に示している。図4は、椅子C1に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。これに対し、図13は、椅子C1に座っている状態の被監視対象Tが前方正面から撮像された画像から抽出された特徴点の例を模式的に示している。 FIG. 13 schematically shows an example of feature points extracted from an image in which the monitored object T sitting on the chair C1 is captured, substantially similar to FIG. 4. FIG. 4 schematically shows an example of feature points extracted from an image of the monitored target T sitting on the chair C1 from the left side. On the other hand, FIG. 13 schematically shows an example of feature points extracted from an image of the monitored target T sitting on the chair C1 from the front front.
上述したように、図5に示した状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動)
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動)
(3)手を前に出す動作(特徴点P7及び/又はP6の移動)
As described above, the partial operation included in the normal rising operation of one example performed by the monitored target T up to the state shown in FIG. 5 may be, for example, the following operation.
(1) Pulling the foot backward (movement of feature point P9)
(2) Action to take a forward leaning posture (movement of feature points P1, P2, or P3)
(3) Action to move the hand forward (movement of feature points P7 and / or P6)
ここで、図14に示すように、半身麻痺がある被監視対象Tが行う一例の立ち上がり動作に含まれる部分的な動作のうち、上記「(2)前傾姿勢を取る動作」は、図5に示した状態とは異なる動作に代わる傾向にある。したがって、この場合、上記「(2)前傾姿勢を取る動作」は、左右非対称な動きを含む「(2’)前傾姿勢を取る動作」に代えてよい。この場合、「(2’)前傾姿勢を取る動作」において、上述した特徴点P1,P2,又はP3の移動については、図5において説明した「(2)前傾姿勢を取る動作」の場合と同様にしてよい。一方、「(2’)前傾姿勢を取る動作」は、左右非対称な動きとして、例えば特徴点P5L及び/又はP5Rの移動(図14に示す角度a7)を含むものとしてよい。 Here, as shown in FIG. 14, among the partial movements included in the standing-up movement of the monitored target T having hemiplegia, the above-mentioned "(2) movement of taking a forward leaning posture" is shown in FIG. It tends to replace the operation different from the state shown in. Therefore, in this case, the above-mentioned "(2) operation of taking a forward leaning posture" may be replaced with "(2') an operation of taking a forward leaning posture" including a left-right asymmetrical movement. In this case, regarding the movement of the above-mentioned feature points P1, P2, or P3 in the "(2') forward leaning posture", the case of the "(2) forward leaning posture" described in FIG. May be the same as. On the other hand, the "(2') forward leaning posture" may include, for example, the movement of the feature points P5L and / or P5R (angle a7 shown in FIG. 14) as a left-right asymmetrical movement.
以上のように、被監視対象Tの立ち上がり動作において、被監視対象Tの身体的特徴及び/又は障がいなどに応じて、抽出される特徴点の動きは異なり得る。このため、各被監視対象Tにおいて抽出される特徴点に基づいて機械学習を行うことにより、監視システム1は、各被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 As described above, in the rising motion of the monitored target T, the movement of the extracted feature points may differ depending on the physical characteristics and / or disability of the monitored target T. Therefore, by performing machine learning based on the feature points extracted in each monitored target T, the monitoring system 1 can issue a predetermined warning before each monitored target T starts up.
また、被監視対象Tの立ち上がり動作において、被監視対象Tの身体的特徴及び/又は障がいなどに応じて、抽出される特徴点の動きは異なり得るが、共通して抽出される特徴点の動きも存在し得る。このため、異なる各被監視対象Tにおいて共通して抽出される特徴点に基づいて機械学習を行うことにより、監視システム1は、異なる各被監視対象Tに依存せずに、被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 Further, in the rising motion of the monitored target T, the movement of the extracted feature points may differ depending on the physical characteristics and / or disability of the monitored target T, but the movements of the feature points extracted in common. Can also exist. Therefore, by performing machine learning based on the feature points commonly extracted in each different monitored target T, the monitoring system 1 does not depend on each different monitored target T, and the monitored target T can be monitored. A predetermined warning can be issued before the start-up operation is performed.
本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態について装置を中心に説明してきたが、本開示に係る実施形態は装置の各構成部が実行するステップを含む方法としても実現し得るものである。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。 Although the embodiments according to the present disclosure have been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications or modifications based on the present disclosure. It should be noted, therefore, that these modifications or modifications are within the scope of this disclosure. For example, the functions included in each component or each step can be rearranged so as not to be logically inconsistent, and a plurality of components or steps can be combined or divided into one. Is. Although the embodiment according to the present disclosure has been mainly described with respect to the apparatus, the embodiment according to the present disclosure can also be realized as a method including steps executed by each component of the apparatus. The embodiments according to the present disclosure can also be realized as a method, a program, or a storage medium on which a program is recorded, which is executed by a processor included in the apparatus. It should be understood that these are also included in the scope of this disclosure.
上述した実施形態は、監視システム1としての実施のみに限定されるものではない。例えば、上述した実施形態は、監視システム1に含まれる監視装置10として実施してもよい。また、上述した実施形態は、例えば、監視装置10のような機器による監視方法として実施してもよい。さらに、上述した実施形態は、例えば、監視装置10のような機器又は情報処理装置(例えばコンピュータ)が実行するプログラムとして実施してもよい。
The above-described embodiment is not limited to the implementation as the monitoring system 1. For example, the above-described embodiment may be implemented as a
1 監視システム
10 監視装置
11 抽出部
13 記憶部
132 機械学習データ
15 コントローラ
17 警告部
19 通信部
20 撮像部
1 Monitoring
Claims (10)
前記撮像部によって撮像された画像から、前記被監視対象の特徴点の動きを抽出する抽出部と、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出部によって抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作をする前に所定の警告信号を出力するコントローラと、
前記コントローラから出力される前記所定の警告信号に基づいて、所定の警告を発する警告部と、
を備える、監視システム。 An imaging unit that captures the monitored object and
An extraction unit that extracts the movement of the feature point of the monitored object from the image captured by the imaging unit, and an extraction unit.
Based on the machine learning data obtained by machine learning the movement of the feature points when the monitored object starts up and the feature points extracted by the extraction unit, a predetermined value is set before the monitored object starts up. A controller that outputs a warning signal and
A warning unit that issues a predetermined warning based on the predetermined warning signal output from the controller.
A monitoring system equipped with.
前記コントローラは、前記抽出部によって抽出された特徴点及び前記機械学習データに基づいて、前記被監視対象が危険な立ち上がり動作をする前に所定の警告信号を出力する、請求項1から4のいずれかに記載の監視システム。 The machine learning data is data obtained by machine learning the movement of the feature points when the monitored object makes a dangerous rising motion.
Any of claims 1 to 4, wherein the controller outputs a predetermined warning signal before the monitored object performs a dangerous rising operation based on the feature points extracted by the extraction unit and the machine learning data. The monitoring system described in Crab.
前記コントローラは、前記抽出部によって抽出された特徴点及び前記機械学習データに基づいて、前記特定の人物が立ち上がり動作をする前に所定の警告信号を出力する、請求項1から5のいずれかに記載の監視システム。 The machine learning data is data obtained by machine learning the movement of the feature points when a specific person stands up as a monitored object.
The controller according to any one of claims 1 to 5, which outputs a predetermined warning signal before the specific person starts up, based on the feature points extracted by the extraction unit and the machine learning data. The monitoring system described.
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出部によって抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作をする前に所定の警告信号を出力するコントローラと、
を備える、監視装置。 An extraction unit that extracts the movement of the feature points of the monitored object from the image of the monitored object, and
Based on the machine learning data obtained by machine learning the movement of the feature points when the monitored object starts up and the feature points extracted by the extraction unit, a predetermined value is set before the monitored object starts up. A controller that outputs a warning signal and
A monitoring device.
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出するステップにおいて抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作をする前に所定の警告信号を出力するステップと、
を含む、監視方法。 A step of extracting the movement of the feature point of the monitored object from the image of the monitored object, and
Based on the machine learning data obtained by machine learning the movement of the feature points when the monitored object makes a rising motion and the feature points extracted in the extraction step, it is determined before the monitored object makes a rising motion. And the step to output the warning signal of
Monitoring methods, including.
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記被監視対象が立ち上がり動作をする際の前記特徴点の動きを機械学習した機械学習データ及び前記抽出するステップにおいて抽出された特徴点に基づいて、前記被監視対象が立ち上がり動作をする前に所定の警告信号を出力するステップと、
を実行させる、プログラム。
On the computer
A step of extracting the movement of the feature point of the monitored object from the image of the monitored object, and
Based on the machine learning data obtained by machine learning the movement of the feature points when the monitored object makes a rising motion and the feature points extracted in the extraction step, it is determined before the monitored object makes a rising motion. And the step to output the warning signal of
A program that runs.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020083924A JP7483486B2 (en) | 2020-05-12 | 2020-05-12 | Monitoring system, monitoring device, monitoring method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020083924A JP7483486B2 (en) | 2020-05-12 | 2020-05-12 | Monitoring system, monitoring device, monitoring method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021179726A true JP2021179726A (en) | 2021-11-18 |
JP7483486B2 JP7483486B2 (en) | 2024-05-15 |
Family
ID=78511443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020083924A Active JP7483486B2 (en) | 2020-05-12 | 2020-05-12 | Monitoring system, monitoring device, monitoring method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7483486B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005152616A (en) * | 2003-10-30 | 2005-06-16 | Technos Japan:Kk | Method and system for informing rising from bed or absence from chair of nursed person |
JP2015138427A (en) * | 2014-01-23 | 2015-07-30 | シャープ株式会社 | monitor |
JP2020052867A (en) * | 2018-09-28 | 2020-04-02 | 株式会社Axive | Posture analysis device, posture analysis method and program |
-
2020
- 2020-05-12 JP JP2020083924A patent/JP7483486B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005152616A (en) * | 2003-10-30 | 2005-06-16 | Technos Japan:Kk | Method and system for informing rising from bed or absence from chair of nursed person |
JP2015138427A (en) * | 2014-01-23 | 2015-07-30 | シャープ株式会社 | monitor |
JP2020052867A (en) * | 2018-09-28 | 2020-04-02 | 株式会社Axive | Posture analysis device, posture analysis method and program |
Also Published As
Publication number | Publication date |
---|---|
JP7483486B2 (en) | 2024-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102204265B1 (en) | Smart wearable devices and methods for acquisition of sensorial information from wearable devices to activate functions in other devices | |
Parajuli et al. | Senior health monitoring using Kinect | |
US20150310629A1 (en) | Motion information processing device | |
US20170147772A1 (en) | Wireless patient verification | |
US20210236022A1 (en) | Smart Interpretive Wheeled Walker using Sensors and Artificial Intelligence for Precision Assisted Mobility Medicine Improving the Quality of Life of the Mobility Impaired | |
JP6292283B2 (en) | Behavior detection device, behavior detection method, and monitored person monitoring device | |
JP2021179726A (en) | Monitoring system, monitoring device, monitoring method, and program | |
WO2020008995A1 (en) | Image recognition program, image recognition device, learning program, and learning device | |
JP7438847B2 (en) | Monitoring system, monitoring device, monitoring method, and program | |
Safarzadeh et al. | Real-time fall detection and alert system using pose estimation | |
Zhang et al. | Context-aware fall detection using a bayesian network | |
WO2022111704A1 (en) | Heart rate measurement method and electronic device | |
JP2022039814A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
JP7467300B2 (en) | SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM | |
JP7465773B2 (en) | SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM | |
JP2022050271A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
JP2023047410A (en) | Portable device, program and method for presenting information based on object recognition in accordance with user's dynamic state | |
Patel et al. | Vitafall: Nxtgeuh system for well-being monitoring with fall recognition and real-time vital sign monitoring | |
JP2022050273A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
JP2022050272A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
Saile et al. | Smart IoT Devices for the Elderly and People with Disabilities | |
JP7518699B2 (en) | SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM | |
JP2022055253A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
CN113544736A (en) | Lower limb muscle strength estimation system, lower limb muscle strength estimation method, and program | |
JP7449211B2 (en) | Systems, electronic devices, control methods for electronic devices, and programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221111 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230501 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231130 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240314 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240321 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240501 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7483486 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |