JP2021179723A - Monitoring system, monitoring device, monitoring method, and program - Google Patents

Monitoring system, monitoring device, monitoring method, and program Download PDF

Info

Publication number
JP2021179723A
JP2021179723A JP2020083881A JP2020083881A JP2021179723A JP 2021179723 A JP2021179723 A JP 2021179723A JP 2020083881 A JP2020083881 A JP 2020083881A JP 2020083881 A JP2020083881 A JP 2020083881A JP 2021179723 A JP2021179723 A JP 2021179723A
Authority
JP
Japan
Prior art keywords
monitored object
movement
monitored
controller
monitored target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020083881A
Other languages
Japanese (ja)
Other versions
JP7438847B2 (en
Inventor
賢也 小林
Kenya Kobayashi
健宏 馬渕
Takehiro Mabuchi
智子 浅野
Tomoko Asano
裕 香島
Yu Kashima
久尚 高橋
Hisanao Takahashi
永勲 高
Younghun Ko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2020083881A priority Critical patent/JP7438847B2/en
Publication of JP2021179723A publication Critical patent/JP2021179723A/en
Priority to JP2024020325A priority patent/JP2024069214A/en
Application granted granted Critical
Publication of JP7438847B2 publication Critical patent/JP7438847B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

To provide a monitoring system, a monitoring device, a monitoring method, and a program that can contribute to the safety of an object to be monitored.SOLUTION: A monitoring system 1 comprises: an imaging unit 20 that picks up an image of an object to be monitored T; an extraction unit 11 that extracts the movement of feature points of the object to be monitored from the image picked up by the imaging unit; a controller 15 that outputs a predetermined warning signal when, in the movement of the feature points of the object to be monitored extracted by the extraction unit, a motion consisting of a first motion in which the object to be monitored pulls the legs backward, a second motion in which the object to be monitored takes a forward-tilted posture, and a third motion in which the object to be monitored extends the hands forward is not completed after the lapse of one second from the start of the first motion; and a warning unit 17 that issues a predetermined warning based on the predetermined warning signal output from the controller.SELECTED DRAWING: Figure 1

Description

本開示は、監視システム、監視装置、監視方法、及びプログラムに関する。 The present disclosure relates to monitoring systems, monitoring devices, monitoring methods, and programs.

例えば介護施設のような現場において、要看護者又は要介護者などのような被監視者の行動を監視する装置が提案されている。例えば、特許文献1は、撮像装置で得られた画像に基づいて、被監視者における所定の行動を検知する被監視者監視システムを開示している。特許文献2は、対象者の足に検出装置を装着することにより、対象者が歩行中に転倒するのを予防する転倒予防システムを開示している。また、特許文献3は、温度分布を検出することにより、人体の体位を判定する見守り支援装置を開示している。また、引用文献4は、在宅、又は老人ホーム若しくは介護施設における老年精神病患者を監視するための医療システムを開示している。 For example, in a field such as a long-term care facility, a device for monitoring the behavior of a monitored person such as a nurse or a care recipient has been proposed. For example, Patent Document 1 discloses a monitored person monitoring system that detects a predetermined behavior in a monitored person based on an image obtained by an image pickup device. Patent Document 2 discloses a fall prevention system that prevents a subject from falling while walking by attaching a detection device to the foot of the subject. Further, Patent Document 3 discloses a monitoring support device for determining the body position of a human body by detecting a temperature distribution. Cited Document 4 also discloses a medical system for monitoring elderly psychiatric patients at home or in elderly housing with care or long-term care facilities.

特開2017−91552号公報Japanese Unexamined Patent Publication No. 2017-91552 特開2017−221502号公報Japanese Unexamined Patent Publication No. 2017-221502 特開2014−106636号公報Japanese Unexamined Patent Publication No. 2014-106636 特開2003−91790号公報Japanese Patent Application Laid-Open No. 2003-91790

被監視対象を監視することにより、被監視対象の安全に供することができれば、有益である。 It would be beneficial if the monitored object could be safely monitored by monitoring it.

本開示の目的は、被監視対象の安全に供し得る監視システム、監視装置、監視方法、及びプログラムを提供することにある。 An object of the present disclosure is to provide a monitoring system, a monitoring device, a monitoring method, and a program that can be safely provided to a monitored object.

一実施形態に係る監視システムは、
被監視対象を撮像する撮像部と、
前記撮像部によって撮像された画像から、前記被監視対象の特徴点の動きを抽出する抽出部と、
前記抽出部によって抽出された前記被監視対象の特徴点の動きにおいて、
前記被監視対象が足を後方に引く第1動作と、
前記被監視対象が前傾姿勢をとる第2動作と、
前記被監視対象が手を前に出す第3動作と、
からなる動作が、前記第1動作の開始から1秒経過時点で完了していない場合、所定の警告信号を出力するコントローラと、
前記コントローラから出力される前記所定の警告信号に基づいて、所定の警告を発する警告部と、
を備える。
The monitoring system according to one embodiment is
An imaging unit that captures the monitored object and
An extraction unit that extracts the movement of the feature point of the monitored object from the image captured by the imaging unit, and an extraction unit.
In the movement of the feature points of the monitored object extracted by the extraction unit,
The first movement in which the monitored object pulls its foot backward,
The second movement in which the monitored object takes a forward leaning posture,
The third action in which the monitored object puts his hand forward,
When the operation consisting of the above is not completed within 1 second from the start of the first operation, a controller that outputs a predetermined warning signal and a controller.
A warning unit that issues a predetermined warning based on the predetermined warning signal output from the controller.
To prepare for.

また、一実施形態に係る監視システムは、
被監視対象を撮像する撮像部と、
前記撮像部によって撮像された画像から、前記被監視対象の特徴点の動きを抽出する抽出部と、
前記抽出部によって抽出された前記被監視対象の特徴点の動きにおいて、
前記被監視対象が足を後方に引く第1動作と、
前記被監視対象が前傾姿勢をとる第2動作と、
前記被監視対象が手を前に出す第3動作と、
の少なくともいずれかの開始から1秒経過時点において、前記第1動作から前記第3動作までの少なくともいずれかが完了していない場合、所定の警告信号を出力するコントローラと、
前記コントローラから出力される前記所定の警告信号に基づいて、所定の警告を発する警告部と、
を備える。
In addition, the monitoring system according to one embodiment is
An imaging unit that captures the monitored object and
An extraction unit that extracts the movement of the feature point of the monitored object from the image captured by the imaging unit, and an extraction unit.
In the movement of the feature points of the monitored object extracted by the extraction unit,
The first movement in which the monitored object pulls its foot backward,
The second movement in which the monitored object takes a forward leaning posture,
The third action in which the monitored object puts his hand forward,
A controller that outputs a predetermined warning signal when at least one of the first operation to the third operation is not completed at least one second after the start of any of the above.
A warning unit that issues a predetermined warning based on the predetermined warning signal output from the controller.
To prepare for.

一実施形態に係る監視装置は、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出する抽出部と、
前記抽出部によって抽出された前記被監視対象の特徴点の動きにおいて、
前記被監視対象が足を後方に引く第1動作と、
前記被監視対象が前傾姿勢をとる第2動作と、
前記被監視対象が手を前に出す第3動作と、
からなる動作が、前記第1動作の開始から1秒経過時点で完了していない場合、所定の警告信号を出力するコントローラと、
を備える。
The monitoring device according to one embodiment is
An extraction unit that extracts the movement of the feature points of the monitored object from the image of the monitored object, and
In the movement of the feature points of the monitored object extracted by the extraction unit,
The first movement in which the monitored object pulls its foot backward,
The second movement in which the monitored object takes a forward leaning posture,
The third action in which the monitored object puts his hand forward,
When the operation consisting of the above is not completed within 1 second from the start of the first operation, a controller that outputs a predetermined warning signal and a controller.
To prepare for.

一実施形態に係る監視方法は、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記抽出部によって抽出された前記被監視対象の特徴点の動きにおいて、
前記被監視対象が足を後方に引く第1動作と、
前記被監視対象が前傾姿勢をとる第2動作と、
前記被監視対象が手を前に出す第3動作と、
からなる動作が、前記第1動作の開始から1秒経過時点で完了しているか否か判定するステップと、
前記判定するステップにおいて、前記第1動作乃至前記第3動作からなる動作が前記第1動作の開始から1秒経過時点で完了していない場合、所定の警告信号を出力するステップと、
を含む。
The monitoring method according to one embodiment is
A step of extracting the movement of the feature point of the monitored object from the image of the monitored object, and
In the movement of the feature points of the monitored object extracted by the extraction unit,
The first movement in which the monitored object pulls its foot backward,
The second movement in which the monitored object takes a forward leaning posture,
The third action in which the monitored object puts his hand forward,
A step of determining whether or not the operation consisting of the above is completed at the time when one second has elapsed from the start of the first operation, and
In the determination step, if the operation consisting of the first operation to the third operation is not completed within 1 second from the start of the first operation, a step of outputting a predetermined warning signal and a step of outputting a predetermined warning signal.
including.

一実施形態に係るプログラムは、
コンピュータに、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記抽出部によって抽出された前記被監視対象の特徴点の動きにおいて、
前記被監視対象が足を後方に引く第1動作と、
前記被監視対象が前傾姿勢をとる第2動作と、
前記被監視対象が手を前に出す第3動作と、
からなる動作が、前記第1動作の開始から1秒経過時点で完了しているか否か判定するステップと、
前記判定するステップにおいて、前記第1動作乃至前記第3動作からなる動作が前記第1動作の開始から1秒経過時点で完了していない場合、所定の警告信号を出力するステップと、
を実行させる。
The program according to one embodiment is
On the computer
A step of extracting the movement of the feature point of the monitored object from the image of the monitored object, and
In the movement of the feature points of the monitored object extracted by the extraction unit,
The first movement in which the monitored object pulls its foot backward,
The second movement in which the monitored object takes a forward leaning posture,
The third action in which the monitored object puts his hand forward,
A step of determining whether or not the operation consisting of the above is completed at the time when one second has elapsed from the start of the first operation, and
In the determination step, if the operation consisting of the first operation to the third operation is not completed within 1 second from the start of the first operation, a step of outputting a predetermined warning signal and a step of outputting a predetermined warning signal.
To execute.

一実施形態によれば、被監視対象の安全に供し得る監視システム、監視装置、監視方法、及びプログラムを提供することができる。 According to one embodiment, it is possible to provide a monitoring system, a monitoring device, a monitoring method, and a program that can be safely provided to the monitored object.

一実施形態に係る監視システムの概略構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure of the monitoring system which concerns on one Embodiment. 一実施形態に係る監視システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the monitoring system which concerns on one Embodiment. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。It is a figure explaining the example of the feature point extracted in the monitoring system which concerns on one Embodiment. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。It is a figure explaining the example of the feature point extracted in the monitoring system which concerns on one Embodiment. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。It is a figure explaining the example of the feature point extracted in the monitoring system which concerns on one Embodiment. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。It is a figure explaining the example of the feature point extracted in the monitoring system which concerns on one Embodiment. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。It is a figure explaining the example of the feature point extracted in the monitoring system which concerns on one Embodiment. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。It is a figure explaining the example of the feature point extracted in the monitoring system which concerns on one Embodiment. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。It is a figure explaining the example of the feature point extracted in the monitoring system which concerns on one Embodiment. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。It is a figure explaining the example of the feature point extracted in the monitoring system which concerns on one Embodiment. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。It is a figure explaining the example of the feature point extracted in the monitoring system which concerns on one Embodiment. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。It is a figure explaining the example of the feature point extracted in the monitoring system which concerns on one Embodiment. 一実施形態に係る監視システムにおいて抽出される特徴点の例について説明する図である。It is a figure explaining the example of the feature point extracted in the monitoring system which concerns on one Embodiment.

本開示において、「監視装置」とは、電力により駆動する機器としてよい。また、「監視システム」とは、電力により駆動する機器を含むものとしてよい。また、「ユーザ」とは、一実施形態に係る監視システム及び/又は監視装置を使用する者(典型的には人間)としてよい。ユーザは、一実施形態に係る監視システム及び/又は監視装置を用いることで、被監視対象の監視を行う者を含んでもよい。また、「被監視対象」とは、一実施形態に係る監視システム及び/又は監視装置によって監視される対象となる者(例えば人間又は動物)としてよい。 In the present disclosure, the "monitoring device" may be a device driven by electric power. Further, the "monitoring system" may include a device driven by electric power. Further, the "user" may be a person (typically a human being) who uses the monitoring system and / or the monitoring device according to the embodiment. The user may include a person who monitors the monitored object by using the monitoring system and / or the monitoring device according to the embodiment. Further, the “monitored target” may be a person (for example, a human or an animal) to be monitored by the monitoring system and / or the monitoring device according to the embodiment.

一実施形態に係る監視システムが利用される場面として想定されるのは、例えば、会社、病院、老人ホーム、学校、スポーツジム、及び介護施設などのような、社会活動を行う者が使用する特定の施設などとしてよい。例えば、会社であれば従業員などの健康状態の把握及び/又は管理は、極めて重要である。同様に、病院であれば患者及び医療従事者など、また老人ホームであれば入居者及びスタッフなどの健康状態の把握及び/又は管理は、極めて重要である。一実施形態に係る監視システムが利用される場面は、上述の、会社、病院、及び老人ホームなどの施設に限定されず、被監視対象の健康状態の把握及び/又は管理などが望まれる任意の施設としてよい。任意の施設は、例えば、ユーザの自宅などの非商業施設も含んでもよい。また、一実施形態に係る監視システムが利用される場面は、例えば、電車、バス、及び飛行機などの移動体内、並びに、駅及び乗り場などとしてもよい。 The scene in which the monitoring system according to one embodiment is used is assumed to be specified by a person engaged in social activities such as a company, a hospital, an elderly home, a school, a sports gym, and a long-term care facility. It may be a facility of. For example, in the case of a company, it is extremely important to understand and / or manage the health status of employees. Similarly, it is extremely important to understand and / or manage the health status of patients and medical staff in hospitals, and residents and staff in nursing homes. The scene in which the monitoring system according to the embodiment is used is not limited to the above-mentioned facilities such as companies, hospitals, and elderly housings, and any of the above-mentioned facilities for which it is desired to grasp and / or manage the health condition of the monitored object. Good as a facility. Any facility may also include non-commercial facilities, such as the user's home. Further, the scene in which the monitoring system according to the embodiment is used may be, for example, a moving body such as a train, a bus, or an airplane, a station, a platform, or the like.

一実施形態に係る監視システムは、例えば、介護施設などにおいて、要看護者又は要介護者などのような被監視対象の行動を監視する用途で用いられてよい。一実施形態に係る監視システムは、例えば要看護者又は要介護者などのような被監視対象の立ち上がり動作を監視することができる。ここで、被監視対象の立ち上がり動作とは、例えば被監視対象者が座っている状態又は横たわっている状態から立ち上がる動作としてよい。 The monitoring system according to one embodiment may be used for monitoring the behavior of a monitored object such as a nurse requiring nursing care or a person requiring nursing care in a nursing care facility or the like. The monitoring system according to one embodiment can monitor the rising motion of a monitored object such as a nurse or a care recipient. Here, the rising motion of the monitored object may be, for example, an motion of standing up from a state in which the monitored person is sitting or lying down.

特に、一実施形態に係る監視システムは、例えば要看護者又は要介護者などのような被監視者が、立ち上がり動作をする前、例えば立ち上がり動作を完了する前に、所定の警告を発することができる。したがって、一実施形態に係る監視システムによれば、例えば介護施設などのスタッフは、例えば要看護者又は要介護者などのような被監視者が、立ち上がり動作を完了する前に、立ち上がり動作をしようとしていることを把握し得る。 In particular, the monitoring system according to one embodiment may issue a predetermined warning before a monitored person such as a nurse or a care recipient performs a stand-up operation, for example, before completing the stand-up operation. can. Therefore, according to the monitoring system according to one embodiment, the staff of a nursing care facility, for example, will perform the standing-up operation before the monitored person such as a nurse or a person requiring nursing care completes the standing-up operation. You can understand what you are doing.

また、一実施形態に係る監視システムは、要看護者又は要介護者などのような被監視者が危険な立ち上がり動作をする前、例えば危険な立ち上がり動作を完了する前に、所定の警告を発することもできる。また、一実施形態に係る監視システムは、特定の被監視者が立ち上がり動作をする前、例えば立ち上がり動作を完了する前に、所定の警告を発することもできる。 In addition, the monitoring system according to the embodiment issues a predetermined warning before a monitored person such as a nurse or a care recipient performs a dangerous standing-up operation, for example, before completing a dangerous standing-up operation. You can also do it. Further, the monitoring system according to the embodiment can also issue a predetermined warning before the specific monitored person performs the stand-up operation, for example, before the stand-up operation is completed.

以下、一実施形態に係る監視システムについて、図面を参照して詳細に説明する。 Hereinafter, the monitoring system according to the embodiment will be described in detail with reference to the drawings.

図1は、一実施形態に係る監視システムの概略構成を示す図である。図1に示すように、一実施形態に係る監視システム1は、監視装置10及び撮像部20を含んで構成されてよい。監視装置10と撮像部20とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。一実施形態に係る監視システム1は、図1に示す機能部の一部を含まなくてもよいし、図1に示す以外の機能部を含んでもよい。例えば、一実施形態に係る監視システム1は、警告部17及び通信部19の少なくとも一方を備えなくてもよい。 FIG. 1 is a diagram showing a schematic configuration of a monitoring system according to an embodiment. As shown in FIG. 1, the monitoring system 1 according to the embodiment may be configured to include a monitoring device 10 and an imaging unit 20. The monitoring device 10 and the imaging unit 20 may be connected by wire or wireless, or a combination of wired and wireless. The monitoring system 1 according to the embodiment may not include a part of the functional unit shown in FIG. 1, or may include a functional unit other than that shown in FIG. For example, the monitoring system 1 according to the embodiment may not include at least one of the warning unit 17 and the communication unit 19.

図1に示す撮像部20は、例えばデジタルカメラのような、電子的に画像を撮像するイメージセンサを含んで構成されてよい。撮像部20は、CCD(Charge Coupled Device Image Sensor)又はCMOS(Complementary Metal Oxide Semiconductor)センサ等のように、光電変換を行う撮像素子を含んで構成されてよい。撮像部20は、例えば図1に示すように、被監視対象Tを撮像してよい。ここで、被監視対象Tは、例えば人間としてよい。撮像部20は、撮像した画像を信号に変換して、監視装置10に送信してよい。例えば、撮像部20は、撮像した画像に基づく信号を、監視装置10の抽出部11、記憶部13、及び/又は、コントローラ15などに送信してよい。撮像部20は、被監視対象Tを撮像するものであれば、デジタルカメラのような撮像デバイスに限定されず、任意のデバイスとしてよい。 The image pickup unit 20 shown in FIG. 1 may include an image sensor that electronically captures an image, such as a digital camera. The image pickup unit 20 may be configured to include an image pickup element that performs photoelectric conversion, such as a CCD (Charge Coupled Device Image Sensor) or a CMOS (Complementary Metal Oxide Semiconductor) sensor. The image pickup unit 20 may take an image of the monitored target T, for example, as shown in FIG. Here, the monitored target T may be, for example, a human being. The image pickup unit 20 may convert the captured image into a signal and transmit it to the monitoring device 10. For example, the image pickup unit 20 may transmit a signal based on the captured image to the extraction unit 11, the storage unit 13, and / or the controller 15 of the monitoring device 10. The image pickup unit 20 is not limited to an image pickup device such as a digital camera as long as it captures the monitored target T, and may be any device.

一実施形態において、撮像部20は、例えば被監視対象Tを所定時間ごと(例えば0.5秒おき)の静止画として撮像してもよい。また、一実施形態において、撮像部20は、例えば被監視対象Tを連続した動画として撮像してもよい。 In one embodiment, the image pickup unit 20 may take an image of the monitored target T, for example, as a still image at predetermined time intervals (for example, every 0.5 seconds). Further, in one embodiment, the imaging unit 20 may image, for example, the monitored target T as a continuous moving image.

図1に示すように、一実施形態に係る監視装置10は、抽出部11、記憶部13、コントローラ15、警告部17、及び通信部19を備えてよい。一実施形態に係る監視装置10は、図1に示す機能部の一部を備えなくてもよいし、図1に示す以外の機能部を備えてもよい。 As shown in FIG. 1, the monitoring device 10 according to the embodiment may include an extraction unit 11, a storage unit 13, a controller 15, a warning unit 17, and a communication unit 19. The monitoring device 10 according to the embodiment may not include a part of the functional unit shown in FIG. 1, or may include a functional unit other than that shown in FIG.

抽出部11は、撮像部20によって撮像された画像から、所定の特徴点を抽出する機能を有してよい。例えば、抽出部11は、撮像部20によって撮像された被監視対象Tの画像から、当該被監視対象Tの特徴点の動きを抽出してもよい。ここで、特徴点については、さらに後述する。一実施形態において、抽出部11は、撮像部20によって撮像された被監視対象Tの画像から、当該被監視対象Tの頭部、体幹、四肢、及び/又は各関節などの各部の動きを抽出してもよい。抽出部11は、専用のハードウェアとして構成されてもよいし、少なくとも一部にソフトウェアを含めて構成されてもよいし、全てソフトウェアで構成されているとしてもよい。このように、抽出部11は、撮像部20によって撮像された画像から、被監視対象Tの特徴点の動きを抽出してよい。 The extraction unit 11 may have a function of extracting a predetermined feature point from the image captured by the image pickup unit 20. For example, the extraction unit 11 may extract the movement of the feature point of the monitored target T from the image of the monitored target T captured by the imaging unit 20. Here, the feature points will be further described later. In one embodiment, the extraction unit 11 obtains the movement of each part such as the head, trunk, limbs, and / or joints of the monitored object T from the image of the monitored object T captured by the imaging unit 20. It may be extracted. The extraction unit 11 may be configured as dedicated hardware, may be configured to include software at least in part, or may be configured entirely by software. In this way, the extraction unit 11 may extract the movement of the feature point of the monitored target T from the image captured by the image pickup unit 20.

記憶部13は、各種の情報を記憶するメモリとしての機能を有してよい。記憶部13は、例えばコントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などを記憶してよい。また、記憶部13は、コントローラ15のワークメモリとして機能してよい。記憶部13は、例えば半導体メモリ等により構成することができるが、これに限定されず、任意の記憶装置とすることができる。例えば、記憶部13は、一実施形態に係る監視装置10に挿入されたメモリカードのような記憶媒体としてもよい。また、記憶部13は、後述のコントローラ15として用いられるCPUの内部メモリであってもよいし、コントローラ15に別体として接続されるものとしてもよい。 The storage unit 13 may have a function as a memory for storing various types of information. The storage unit 13 may store, for example, a program executed by the controller 15, the result of processing executed by the controller 15, and the like. Further, the storage unit 13 may function as a work memory of the controller 15. The storage unit 13 can be configured by, for example, a semiconductor memory or the like, but is not limited to this, and can be any storage device. For example, the storage unit 13 may be a storage medium such as a memory card inserted in the monitoring device 10 according to the embodiment. Further, the storage unit 13 may be the internal memory of the CPU used as the controller 15 described later, or may be connected to the controller 15 as a separate body.

特に、一実施形態において、記憶部13は、被監視対象Tが立ち上がり動作をする際の特徴点の動きについて、コントローラ15が判定処理を行うための種々のアルゴリズムなどを記憶してよい。コントローラ15が判定処理を行うための種々のアルゴリズムについては、さらに後述する。 In particular, in one embodiment, the storage unit 13 may store various algorithms and the like for the controller 15 to perform a determination process on the movement of the feature points when the monitored target T starts up and operates. Various algorithms for the controller 15 to perform the determination process will be further described later.

コントローラ15は、監視装置10を構成する各機能部をはじめとして、監視装置10の全体を制御及び/又は管理する。コントローラ15は、種々の機能を実行するための制御及び処理能力を提供するために、例えばCPU(Central Processing Unit)のような、少なくとも1つのプロセッサを含んでよい。コントローラ15は、まとめて1つのプロセッサで実現してもよいし、いくつかのプロセッサで実現してもよいし、それぞれ個別のプロセッサで実現してもよい。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)ともいう。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。 The controller 15 controls and / or manages the entire monitoring device 10 including each functional unit constituting the monitoring device 10. The controller 15 may include at least one processor, such as a CPU (Central Processing Unit), to provide control and processing power to perform various functions. The controller 15 may be realized collectively by one processor, by several processors, or by individual processors. The processor may be realized as a single integrated circuit. The integrated circuit is also referred to as an IC (Integrated Circuit). The processor may be realized as a plurality of communicably connected integrated circuits and discrete circuits. The processor may be implemented on the basis of various other known techniques.

一実施形態において、コントローラ15は、例えばCPU及び当該CPUで実行されるプログラムとして構成されてよい。コントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などは、例えば記憶部13に記憶されてよい。コントローラ15は、コントローラ15の動作に必要なメモリを適宜含んでもよい。一実施形態に係る監視装置10のコントローラ15の動作については、さらに後述する。 In one embodiment, the controller 15 may be configured as, for example, a CPU and a program executed by the CPU. The program executed by the controller 15, the result of the process executed by the controller 15, and the like may be stored in, for example, the storage unit 13. The controller 15 may appropriately include a memory necessary for the operation of the controller 15. The operation of the controller 15 of the monitoring device 10 according to the embodiment will be further described later.

警告部17は、コントローラ15から出力される所定の警告信号に基づいて、監視システム1又は監視装置10のユーザなどに注意を促すための所定の警告を発してよい。警告部17は、所定の警告として、例えば音、音声、光、文字、映像、及び振動など、ユーザの聴覚、視覚、触覚の少なくともいずれかを刺激する任意の機能部としてよい。具体的には、警告部17は、例えばブザー又はスピーカのような音声出力部、LEDのような発光部、LCDのような表示部、及びバイブレータのような触感呈示部などの少なくともいずれかとしてよい。このように、警告部17は、コントローラ15から出力される所定の警告信号に基づいて、所定の警告を発してよい。一実施形態において、警告部17は、所定の警報を、聴覚、視覚、及び触覚の少なくともいずれかに作用する情報として発してもよい。 The warning unit 17 may issue a predetermined warning to call attention to the user of the monitoring system 1 or the monitoring device 10 based on the predetermined warning signal output from the controller 15. As a predetermined warning, the warning unit 17 may be any functional unit that stimulates at least one of the user's auditory sense, visual sense, and tactile sense, such as sound, voice, light, characters, video, and vibration. Specifically, the warning unit 17 may be at least one of, for example, an audio output unit such as a buzzer or a speaker, a light emitting unit such as an LED, a display unit such as an LCD, and a tactile presentation unit such as a vibrator. .. In this way, the warning unit 17 may issue a predetermined warning based on the predetermined warning signal output from the controller 15. In one embodiment, the warning unit 17 may issue a predetermined alarm as information acting on at least one of auditory, visual, and tactile sensations.

一実施形態において、警告部17は、例えば被監視対象Tが立ち上がり動作をする前に、被監視対象Tが立ち上がり動作をする旨の警告を発してよい。また、一実施形態において、警告部17は、例えば被監視対象Tが危険な立ち上がり動作をする前に、被監視対象Tが危険な立ち上がり動作をする旨の警告を発してもよい。さらに、一実施形態において、警告部17は、例えば特定の人物が立ち上がり動作をする旨の警告を発してもよい。例えば、一実施形態において、視覚情報を出力する警告部17は、被監視対象Tが立ち上がり動作をする旨が検出されると、その旨を発光又は所定の表示などによってユーザに警告してよい。また、一実施形態において、聴覚情報を出力する警告部17は、被監視対象Tが立ち上がり動作をする旨が検出されると、その旨を所定の音又は音声などによってユーザに警告してよい。本実施形態では、上記警告は、発光又は所定の表示、及び所定の音又は音声を組み合わせてもよい。 In one embodiment, the warning unit 17 may issue a warning that the monitored target T starts up, for example, before the monitored target T starts up. Further, in one embodiment, the warning unit 17 may issue a warning that the monitored target T performs a dangerous rising operation, for example, before the monitored target T performs a dangerous rising operation. Further, in one embodiment, the warning unit 17 may issue a warning that, for example, a specific person stands up. For example, in one embodiment, the warning unit 17 that outputs visual information may warn the user by emitting light or a predetermined display when it is detected that the monitored target T starts up. Further, in one embodiment, the warning unit 17 that outputs auditory information may warn the user by a predetermined sound or voice when it is detected that the monitored target T starts up and operates. In the present embodiment, the warning may be a combination of light emission or a predetermined display, and a predetermined sound or voice.

図1に示す監視装置10は、警告部17を内蔵している。しかしながら、一実施形態に監視システム1において、警告部17は、監視装置10の外部に設けられてもよい。この場合、警告部17と監視装置10とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。 The monitoring device 10 shown in FIG. 1 has a built-in warning unit 17. However, in one embodiment, in the monitoring system 1, the warning unit 17 may be provided outside the monitoring device 10. In this case, the warning unit 17 and the monitoring device 10 may be connected by wire or wireless, or a combination of wired and wireless.

通信部19は、有線又は無線により通信するためのインタフェースの機能を有する。一実施形態の通信部19によって行われる通信方式は無線通信規格としてよい。例えば、無線通信規格は2G、3G、4G、及び5G等のセルラーフォンの通信規格を含む。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)、及びPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格は、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、WiFi、Bluetooth(登録商標)、IrDA(Infrared Data Association)、及びNFC(Near Field Communication)等を含む。通信部19は、上記の通信規格の1つ又は複数をサポートすることができる。通信部19は、例えば電波を送受信するアンテナ及び適当なRF部などを含めて構成してよい。また、通信部19は、外部に有線接続するためのコネクタなどのようなインタフェースとして構成してもよい。通信部19は、無線通信を行うための既知の技術により構成することができるため、より詳細なハードウェアの説明は省略する。 The communication unit 19 has an interface function for communicating by wire or wirelessly. The communication method performed by the communication unit 19 of one embodiment may be a wireless communication standard. For example, wireless communication standards include communication standards for cellular phones such as 2G, 3G, 4G, and 5G. For example, the communication standards for cellular phones are LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (Registered Trademark) (Global System for Mobile communications), and PHS. (Personal Handy-phone System) etc. are included. For example, wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), 802.11, WiFi, Bluetooth®, Infrared Data Association (IrDA), NFC (Near Field Communication) and the like. The communication unit 19 can support one or more of the above communication standards. The communication unit 19 may be configured to include, for example, an antenna for transmitting and receiving radio waves, an appropriate RF unit, and the like. Further, the communication unit 19 may be configured as an interface such as a connector for making a wired connection to the outside. Since the communication unit 19 can be configured by a known technique for performing wireless communication, a more detailed description of the hardware will be omitted.

通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に供給されてよい。通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に内蔵されたメモリに記憶してもよい。また、通信部19は、例えばコントローラ15による処理結果、抽出部11による抽出結果、及び/又は、記憶部13に記憶された情報などを外部に送信してもよい。 Various types of information received by the communication unit 19 may be supplied to, for example, the storage unit 13 and / or the controller 15. Various information received by the communication unit 19 may be stored in, for example, a memory built in the storage unit 13 and / or the controller 15. Further, the communication unit 19 may transmit, for example, the processing result by the controller 15, the extraction result by the extraction unit 11, and / or the information stored in the storage unit 13 to the outside.

図1に示すような、一実施形態に係る監視装置10を構成する各機能部の少なくとも一部は、ソフトウェアとハードウェア資源とが協働した具体的手段によって構成されてもよい。 As shown in FIG. 1, at least a part of each functional unit constituting the monitoring device 10 according to the embodiment may be configured by a specific means in which software and hardware resources cooperate.

次に、一実施形態に係る監視システム1の動作について説明する。 Next, the operation of the monitoring system 1 according to the embodiment will be described.

図2は、一実施形態に係る監視システム1の動作の一例を示すフローチャートである。図2に示す動作は、例えば病院又は介護施設などにおいて、被監視対象Tの立ち上がり動作の監視を行う際に開始してよい。例えば介護施設又は病院などにおいて、お年寄り又は負傷者のように、足腰が弱くなっているため自力で立ち上がろうとすると転倒するリスクが高い者が存在し得る。また、例えば認知症を発症している患者などは、自力で立ち上がると、徘徊したり行方不明になったりするリスクもある。このような被監視対象Tを監視システム1によって監視することで、例えば介護施設又は病院などのスタッフは、被監視対象Tが自力で立ち上がろうとしていることを、被監視対象Tが実際に立ち上がり動作をする前に認識することができる。 FIG. 2 is a flowchart showing an example of the operation of the monitoring system 1 according to the embodiment. The operation shown in FIG. 2 may be started when monitoring the rising operation of the monitored target T, for example, in a hospital or a nursing care facility. For example, in a long-term care facility or a hospital, there may be a person such as an elderly person or an injured person who has a weak leg and has a high risk of falling if he / she tries to stand up by himself / herself. In addition, for example, a patient who develops dementia may wander or go missing if he / she stands up by himself / herself. By monitoring such a monitored target T by the monitoring system 1, for example, a staff member of a nursing care facility or a hospital actually starts up the monitored target T to indicate that the monitored target T is about to stand up by itself. Can be recognized before doing.

図2に示す動作が開始すると、一実施形態に係る監視システム1において、撮像部20は、被監視対象Tを撮像する(ステップS1)。ステップS1において、撮像部20は、被監視対象Tの画像を撮像してよい。ステップS1において、撮像部20は、この時点で被監視対象Tの撮像を開始してもよいし、すでに開始していた被監視対象Tの撮像を継続してもよい。また、ステップS1において、撮像部20は、被監視対象Tを例えば所定時間ごと(例えば0.5秒おき)の静止画として撮像してもよい。また、ステップS1において、撮像部20は、例えば被監視対象Tを連続した動画として撮像してもよい。ステップS1において撮像部20によって撮像された被監視対象Tの画像は、監視装置10の抽出部11に供給される。また、撮像部20は、例えば被監視対象Tを、例えば所定時間ごと(例えば0.5秒おき)の静止画及び連続した動画との組合せで撮像してもよい。本実施形態は、動画の撮像モードから静止画のモードに移行して画像データの容量を削減してもよい。本実施形態は、被監視対象Tの動作が少ない、例えば夜間などの場合に、動画の撮像モードから静止画のモードに移行して画像データの容量を削減してもよい。 When the operation shown in FIG. 2 starts, the image pickup unit 20 takes an image of the monitored target T in the monitoring system 1 according to the embodiment (step S1). In step S1, the image pickup unit 20 may capture an image of the monitored target T. In step S1, the imaging unit 20 may start imaging of the monitored target T at this point, or may continue imaging of the monitored target T that has already started. Further, in step S1, the imaging unit 20 may capture the monitored target T as a still image, for example, at predetermined time intervals (for example, every 0.5 seconds). Further, in step S1, the imaging unit 20 may image, for example, the monitored target T as a continuous moving image. The image of the monitored object T captured by the imaging unit 20 in step S1 is supplied to the extraction unit 11 of the monitoring device 10. Further, the image pickup unit 20 may take an image of the monitored object T, for example, in combination with a still image and a continuous moving image at predetermined time intervals (for example, every 0.5 seconds). In this embodiment, the amount of image data may be reduced by shifting from the moving image imaging mode to the still image mode. In the present embodiment, when the operation of the monitored target T is small, for example, at night, the image data capacity may be reduced by shifting from the moving image imaging mode to the still image mode.

ステップS1において被監視対象Tが撮像されたら、監視装置10の抽出部11は、撮像部20によって撮像された画像から、被監視対象Tの特徴点の動きを抽出する(ステップS2)。 When the monitored target T is imaged in step S1, the extraction unit 11 of the monitoring device 10 extracts the movement of the feature point of the monitored target T from the image captured by the imaging unit 20 (step S2).

図3以降は、撮像部20によって撮像された被監視対象Tの画像に基づいて、抽出部11によって抽出される被監視対象Tの特徴点の例を模式的に示す図である。図3は、椅子C1に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 3A and 3B are diagrams schematically showing an example of the feature points of the monitored object T extracted by the extraction unit 11 based on the image of the monitored object T captured by the imaging unit 20. FIG. 3 schematically shows an example of feature points extracted from an image of the monitored target T sitting on the chair C1 from the left side.

一実施形態において、抽出部11によって抽出される被監視対象Tの特徴点は、例えば図3以降に示すように、次のような特徴点としてよい。
特徴点P1は、被監視対象Tの例えば頭部としてよい。
特徴点P2は、被監視対象Tの例えば頭部と首との接続部としてよい。
特徴点P3は、被監視対象Tの例えば首と体幹との接続部としてよい。
特徴点P4は、被監視対象Tの例えば体幹と脚との接続部としてよい。
特徴点P5は、被監視対象Tの例えば肩としてよい。
特徴点P6は、被監視対象Tの例えば肘としてよい。
特徴点P7は、被監視対象Tの例えば手としてよい。
特徴点P8は、被監視対象Tの例えば膝としてよい。
特徴点P9は、被監視対象Tの例えば足としてよい。
In one embodiment, the feature points of the monitored target T extracted by the extraction unit 11 may be the following feature points, for example, as shown in FIGS. 3 and later.
The feature point P1 may be, for example, the head of the monitored target T.
The feature point P2 may be a connection portion between the head and the neck of the monitored target T, for example.
The feature point P3 may be a connection portion between the neck and the trunk of the monitored target T, for example.
The feature point P4 may be a connection portion between the trunk and the leg of the monitored target T, for example.
The feature point P5 may be, for example, a shoulder of the monitored target T.
The feature point P6 may be, for example, an elbow of the monitored target T.
The feature point P7 may be, for example, a hand of the monitored target T.
The feature point P8 may be, for example, the knee of the monitored target T.
The feature point P9 may be, for example, a foot of the monitored target T.

図2の説明に戻り、ステップS2において、抽出部11は、既存の画像認識などの技術を用いて特徴点の抽出を行ってよい。また、ステップS2において、抽出部11は、例えばAIなどに基づく技術を用いて特徴点の抽出を行ってもよい。 Returning to the description of FIG. 2, in step S2, the extraction unit 11 may extract feature points by using an existing technique such as image recognition. Further, in step S2, the extraction unit 11 may extract feature points by using a technique based on, for example, AI.

ステップS2において、抽出部11は、撮像部20によって撮像された被監視対象Tの連続する複数の静止画から、特徴点の動きを抽出してもよい。また、ステップS2において、抽出部11は、撮像部20によって撮像された被監視対象Tの動画から、特徴点の動きを抽出してもよい。 In step S2, the extraction unit 11 may extract the movement of the feature point from a plurality of continuous still images of the monitored target T imaged by the image pickup unit 20. Further, in step S2, the extraction unit 11 may extract the movement of the feature point from the moving image of the monitored target T imaged by the image pickup unit 20.

ステップS2において特徴点の動きが抽出されたら、監視装置10のコントローラ15は、抽出された特徴点の動きが所定の条件を満たすか否かを判定する(ステップS3及びステップS4)。この判定の際、コントローラ15は、特徴点の動きについて判定処理を行うためのアルゴリズムを読み出してもよい。ステップS3及びステップS4において、コントローラ15は、記憶部13から前記アルゴリズムを読み出してもよい。また、必要なアルゴリズムが記憶部13に記憶されていない場合、コントローラ15は、必要なアルゴリズムを例えば外部サーバなどから取得してもよい。この場合、コントローラ15は、通信部19を介して、必要なアルゴリズムを受信してもよい。このようにして受信されたアルゴリズムは、例えば記憶部13又はコントローラ15の内部メモリなどに記憶されてもよい。以下、コントローラ15が判定処理を行うためのアルゴリズムについて、さらに説明する。 When the movement of the feature point is extracted in step S2, the controller 15 of the monitoring device 10 determines whether or not the movement of the extracted feature point satisfies a predetermined condition (step S3 and step S4). At the time of this determination, the controller 15 may read out an algorithm for performing determination processing on the movement of the feature point. In step S3 and step S4, the controller 15 may read the algorithm from the storage unit 13. Further, when the necessary algorithm is not stored in the storage unit 13, the controller 15 may acquire the necessary algorithm from, for example, an external server. In this case, the controller 15 may receive the required algorithm via the communication unit 19. The algorithm received in this way may be stored in, for example, the internal memory of the storage unit 13 or the controller 15. Hereinafter, the algorithm for the controller 15 to perform the determination process will be further described.

上述のように、一実施形態に係る監視装置10は、被監視対象Tの特徴点の動きに基づいて、被監視対象Tが立ち上がり動作をする前に、被監視対象Tが立ち上がり動作をすると判定してよい。本実施形態では、被監視対象Tが立ち上がり動作をする前とは、例えば立ち上がり動作を完了する前としてよい。このため、一実施形態に係る監視装置10において、コントローラ15は、撮像された被監視対象Tの画像から抽出された特徴点の動きを監視してよい。具体的には、コントローラ15は、被監視対象Tの画像から抽出された複数の特徴点の所定のタイミングにおける位置を、それぞれ監視してよい。また、コントローラ15は、被監視対象Tの画像から抽出された複数の特徴点が所定の位置に到来するタイミングを、それぞれ監視してもよい。 As described above, the monitoring device 10 according to the embodiment determines that the monitored target T makes a rising operation before the monitored target T makes a rising operation based on the movement of the feature points of the monitored target T. You can do it. In the present embodiment, the time before the monitored target T starts up may be, for example, before the start-up operation is completed. Therefore, in the monitoring device 10 according to the embodiment, the controller 15 may monitor the movement of the feature points extracted from the captured image of the monitored object T. Specifically, the controller 15 may monitor the positions of the plurality of feature points extracted from the image of the monitored target T at predetermined timings. Further, the controller 15 may monitor the timing at which the plurality of feature points extracted from the image of the monitored target T arrive at a predetermined position.

一実施形態において、被監視対象Tの画像から抽出された特徴点の動きと対比することにより所定の判定処理を行うアルゴリズムを使用してよい。ここで、一実施形態において、被監視対象Tが立ち上がり動作をする際の特徴点の動きを予めサンプリングした結果に基づくアルゴリズムを用いてよい。例えば、アルゴリズムは、これまでに被監視対象Tが実際に行った立ち上がり動作から抽出した特徴点の動きに基づくデータとしてよい。特に、アルゴリズムは、例えば、これまでに被監視対象Tが実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータとしてもよい。このようなアルゴリズムは、例えば被監視対象Tが複数回の立ち上がり動作をした際の特徴点の動きに基づくデータとしてもよい。このようなアルゴリズムと、抽出部11によって抽出された特徴点の動きを対比させることによって、コントローラ15は、被監視対象Tが立ち上がり動作を行うか否かを判定することができる。 In one embodiment, an algorithm that performs a predetermined determination process by comparing with the movement of feature points extracted from the image of the monitored target T may be used. Here, in one embodiment, an algorithm based on the result of sampling in advance the movement of the feature points when the monitored target T starts up may be used. For example, the algorithm may be data based on the movement of feature points extracted from the rising motion actually performed by the monitored target T so far. In particular, the algorithm may be, for example, data based on the movement of feature points extracted from successful examples of the rising operation actually performed by the monitored target T so far. Such an algorithm may be, for example, data based on the movement of feature points when the monitored target T makes a plurality of rising operations. By comparing such an algorithm with the movement of the feature points extracted by the extraction unit 11, the controller 15 can determine whether or not the monitored target T performs a rising operation.

後述のように、被監視対象Tが行う立ち上がり動作は、座っている状態から立ち上がり動作が完了するまでの一連の動作において、少なくとも1以上の部分的な動作を含む。したがって、座っている状態から立ち上がるまでの一連の動作に含まれる少なくとも1以上の部分的な動作の少なくとも一部が行われたことが判定できれば、被監視対象Tが立ち上がり動作をする若しくは被監視対象Tが立ち上がり動作をしようとしていると推定できる。このような推定は、被監視対象Tが立ち上がり動作を完了する前に行うことができる。したがって、一実施形態に係る監視装置10によれば、被監視対象Tが立ち上がり動作を完了する前に、被監視対象Tが立ち上がり動作を行うことを察知して、所定の警告を発することができる。すなわち、監視装置10は、アルゴリズムを用いた判定処理によって、被監視対象Tが立ち上がり動作をする前に、所定の警告を発することができる。 As will be described later, the rising motion performed by the monitored target T includes at least one partial motion in a series of motions from the sitting state to the completion of the standing motion. Therefore, if it can be determined that at least a part of at least one or more partial movements included in the series of movements from the sitting state to standing up has been performed, the monitored target T makes a standing up movement or is a monitored target. It can be estimated that T is about to start up. Such an estimation can be performed before the monitored target T starts up and completes the operation. Therefore, according to the monitoring device 10 according to the embodiment, it is possible to detect that the monitored target T performs the rising operation and issue a predetermined warning before the monitored target T completes the rising operation. .. That is, the monitoring device 10 can issue a predetermined warning before the monitored target T starts up and operates by the determination process using the algorithm.

また、例えば、上述のアルゴリズムは、これまでに被監視対象Tが実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータに限定されない。すなわち、アルゴリズムは、これまでに被監視対象Tが実際に行った立ち上がり動作の失敗例などから抽出した特徴点の動きに基づくデータとしてもよい。例えば、アルゴリズムは、被監視対象Tが立ち上がり動作をしようとしたが失敗(例えば転倒)した場合又は失敗しかけた場合の動作から抽出した特徴点の動きに基づくデータとしてもよい。このようなアルゴリズムを用いて、監視装置10は、被監視対象Tの立ち上がり動作が成功する(すなわち失敗しない)確率が所定以上の場合には、所定の警告を発しないようにしてもよい。一方、このようなアルゴリズムを用いて、監視装置10は、被監視対象Tの立ち上がり動作が成功しない(すなわち失敗する)確率が所定以上の場合には、所定の警告を発するようにしてもよい。 Further, for example, the above-mentioned algorithm is not limited to the data based on the movement of the feature points extracted from the successful examples of the rising operation actually performed by the monitored target T so far. That is, the algorithm may be data based on the movement of the feature points extracted from the failure examples of the rising operation actually performed by the monitored target T so far. For example, the algorithm may be data based on the movement of feature points extracted from the movement when the monitored target T tries to start up but fails (for example, falls) or is about to fail. Using such an algorithm, the monitoring device 10 may not issue a predetermined warning when the probability that the rising operation of the monitored target T succeeds (that is, does not fail) is equal to or higher than a predetermined value. On the other hand, using such an algorithm, the monitoring device 10 may issue a predetermined warning when the probability that the rising operation of the monitored target T does not succeed (that is, fails) is equal to or higher than a predetermined value.

さらに、上述のアルゴリズムは、被監視対象Tとして特定の人物(例えば被監視対象T1など)が立ち上がり動作をする際の特徴点の動きに基づくデータであってもよい。このようなアルゴリズムを用いて、監視装置10は、被監視対象T1のような特定の人物が立ち上がり動作をする前に、所定の警告を発することができる。 Further, the above-mentioned algorithm may be data based on the movement of feature points when a specific person (for example, the monitored target T1 or the like) stands up as a monitored target T. Using such an algorithm, the monitoring device 10 can issue a predetermined warning before a specific person such as the monitored target T1 stands up.

また、例えば、上述のアルゴリズムは、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくデータに限定されない。すなわち、アルゴリズムは、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の失敗例などから抽出した特徴点の動きに基づくデータとしてもよい。このようなアルゴリズムを用いて、監視装置10は、被監視対象T1のような特定の人物の立ち上がり動作が成功する(すなわち失敗しない)確率が所定以上の場合には、所定の警告を発しないようにしてもよい。一方、このようなアルゴリズムを用いて、監視装置10は、被監視対象T1のような特定の人物の立ち上がり動作が成功しない(すなわち失敗する)確率が所定以上の場合には、所定の警告を発するようにしてもよい。 Further, for example, the above-mentioned algorithm is not limited to data based on the movement of feature points extracted from a successful example of a rising motion actually performed by a specific person such as the monitored target T1. That is, the algorithm may be data based on the movement of the feature points extracted from the failure example of the rising operation actually performed by a specific person such as the monitored target T1. Using such an algorithm, the monitoring device 10 does not issue a predetermined warning when the probability that the rising operation of a specific person such as the monitored target T1 succeeds (that is, does not fail) is more than a predetermined value. You may do it. On the other hand, using such an algorithm, the monitoring device 10 issues a predetermined warning when the probability that the rising operation of a specific person such as the monitored target T1 does not succeed (that is, fails) is more than a predetermined value. You may do so.

ステップS3(及びステップS4)の動作として、コントローラ15は、被監視対象Tの特徴点の動きにおいて所定の条件が満たされたか否かに応じて、被監視対象Tが立ち上がりの動作が行われるか否かを判定する処理としてよい。ここで、所定の条件が満たされる場合とは、例えば、所定の動作が所定のタイミングで行われた場合としてよい。例えば、ステップS3及びステップS4において、コントローラ15は、所定のいくつかの動作、所定のタイミングにおいて完了した場合としてもよい。 As an operation of step S3 (and step S4), the controller 15 performs an operation of raising the monitored target T depending on whether or not a predetermined condition is satisfied in the movement of the feature point of the monitored target T. It may be a process of determining whether or not. Here, the case where a predetermined condition is satisfied may be, for example, a case where a predetermined operation is performed at a predetermined timing. For example, in step S3 and step S4, the controller 15 may be completed at a predetermined number of operations and a predetermined timing.

例えば、コントローラ15は、所定の第1動作、所定の第2動作、及び所定の第3動作の少なくともいずれかが開始したか否か判定してもよい(ステップS3)。所定の第1動作、所定の第2動作、及び所定の第3動作については、さらに後述する。ステップS3において第1動作乃至第3動作のいずれも開始していないと判定された場合、コントローラ15は、図2に示す動作を終了してよい。コントローラ15が判定する開始動作は3つに限定するものではなく、少なくとも1以上の任意の数でもよい。 For example, the controller 15 may determine whether or not at least one of a predetermined first operation, a predetermined second operation, and a predetermined third operation has started (step S3). The predetermined first operation, the predetermined second operation, and the predetermined third operation will be further described later. If it is determined in step S3 that neither the first operation to the third operation has started, the controller 15 may end the operation shown in FIG. The start operation determined by the controller 15 is not limited to three, and may be any number of at least one or more.

一方、ステップS3において第1動作乃至第3動作のいずれかが開始したと判定された場合、コントローラ15は、所定の第1動作、所定の第2動作、及び所定の第3動作の全てを合わせた動作が1秒以内に完了したか否か判定してよい(ステップS4)。 On the other hand, when it is determined in step S3 that any of the first operation to the third operation has started, the controller 15 combines all of the predetermined first operation, the predetermined second operation, and the predetermined third operation. It may be determined whether or not the operation is completed within 1 second (step S4).

ステップS4において所定の第1動作、所定の第2動作、及び所定の第3動作の全てを合わせた動作が1秒以内に完了したと判定された場合、コントローラ15は、図2に示す動作を終了する。図2に示す動作を終了したら、コントローラ15は、連続して、又は所定の時間間隔ごとに、図2に示す動作を再び開始してもよい。また、コントローラ15は、例えば不規則的な時間間隔など、任意の時間間隔ごとに、図2に示す動作を再び開始してもよい。 When it is determined in step S4 that the combined operation of all of the predetermined first operation, the predetermined second operation, and the predetermined third operation is completed within 1 second, the controller 15 performs the operation shown in FIG. finish. After completing the operation shown in FIG. 2, the controller 15 may restart the operation shown in FIG. 2 continuously or at predetermined time intervals. Further, the controller 15 may restart the operation shown in FIG. 2 at arbitrary time intervals such as irregular time intervals.

一方、ステップS4において所定の第1動作、所定の第2動作、及び所定の第3動作の全てを合わせた動作が1秒以内に完了しなかったと判定された場合、コントローラ15は、所定の警告信号を出力してよい(ステップS5)。ステップS5において、コントローラ15は、所定の警告信号を警告部17に出力してよい。ステップS5においてコントローラ15から出力された所定の警告信号に基づいて、警告部17は、所定の警告をユーザ発してよい。 On the other hand, if it is determined in step S4 that the combined operation of all of the predetermined first operation, the predetermined second operation, and the predetermined third operation is not completed within 1 second, the controller 15 gives a predetermined warning. A signal may be output (step S5). In step S5, the controller 15 may output a predetermined warning signal to the warning unit 17. Based on the predetermined warning signal output from the controller 15 in step S5, the warning unit 17 may issue a predetermined warning to the user.

このように、コントローラ15は、抽出部11によって抽出された被監視対象Tの特徴点の動きにおいて、所定の条件が満たされる場合、所定の警告信号を出力してよい。一実施形態において、所定の条件とは、第1動作、第2動作、及び第3動作の少なくともいずれかの開始から1秒経過時点において、第1動作から第3動作までの少なくともいずれかが完了していないこととしてもよい。 As described above, the controller 15 may output a predetermined warning signal when a predetermined condition is satisfied in the movement of the feature point of the monitored target T extracted by the extraction unit 11. In one embodiment, the predetermined condition is that at least one of the first operation to the third operation is completed at the time when one second has elapsed from the start of at least one of the first operation, the second operation, and the third operation. It may not be done.

また、一実施形態において、所定の条件とは、第1動作、第2動作、及び第3動作の少なくともいずれかの開始から1秒経過時点において、第1動作から第3動作までのいずれもが完了していないこととしてもよい。さらに、一実施形態において、所定の条件とは、第1動作と、第2動作と、第3動作と、からなる動作が、第1動作の開始から1秒経過時点で完了していないこととしてもよい。 Further, in one embodiment, the predetermined condition is that any of the first operation to the third operation is performed at the time when one second has elapsed from the start of at least one of the first operation, the second operation, and the third operation. It may not be completed. Further, in one embodiment, the predetermined condition is that the operation including the first operation, the second operation, and the third operation is not completed at the time when one second has elapsed from the start of the first operation. May be good.

図2に示すステップS3及びステップS4において、コントローラ15は、被監視対象Tが立ち上がり動作の初動をするか否かを判定した。これにより、監視装置10は、被監視対象Tが立ち上がり動作をする前、例えば立ち上がり動作を完了する前に、所定の警告を発することができる。 In step S3 and step S4 shown in FIG. 2, the controller 15 determines whether or not the monitored target T makes the initial movement of the rising operation. As a result, the monitoring device 10 can issue a predetermined warning before the monitored target T starts the rising operation, for example, before the rising operation is completed.

これに対し、上述したように、コントローラ15は、被監視対象Tが成功の可能性が比較的高い(すなわち安全な)立ち上がり動作の初動をするか、又は失敗の可能性が比較的高い(すなわち危険な)立ち上がり動作の初動をするか判定してもよい。この場合、コントローラ15が行う判定処理に用いるアルゴリズムは、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の成功例から抽出した特徴点の動きに基づくものとしてもよい。また、この場合、アルゴリズムは、被監視対象T1のような特定の人物が実際に行った立ち上がり動作の失敗例などから抽出した特徴点の動きに基づくものとしてもよい。 On the other hand, as described above, in the controller 15, the monitored target T has a relatively high possibility of success (that is, a safe) start-up operation, or has a relatively high possibility of failure (that is, a failure). It may be determined whether or not the initial movement of the (dangerous) rising motion is performed. In this case, the algorithm used for the determination process performed by the controller 15 may be based on the movement of the feature points extracted from the successful example of the rising operation actually performed by a specific person such as the monitored target T1. Further, in this case, the algorithm may be based on the movement of the feature points extracted from the failure example of the rising operation actually performed by a specific person such as the monitored target T1.

以下、コントローラ15が行う判定処理に用いられるアルゴリズムについて、さらに説明する。ここでは、抽出部11によって抽出される被監視対象Tの特徴点の動きにおける判定処理を行うためのアルゴリズムについて、実証実験から得られた知見のいくつかに基づいて説明する。 Hereinafter, the algorithm used for the determination process performed by the controller 15 will be further described. Here, an algorithm for performing a determination process in the movement of the feature point of the monitored target T extracted by the extraction unit 11 will be described based on some of the findings obtained from the demonstration experiment.

(アームレストのない椅子から立ち上がる場合)
図3乃至図6は、被監視対象Tがアームレストのない椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図3から図6までは、アームレストのない椅子C1に座っている被監視対象Tが、徐々に立ち上がる際の特徴点の動きを示している。図3乃至図6は、被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C1は、図3乃至図6に示すように、アームレスト又は肘掛けなどのない構造の椅子としてよい。
(When standing up from a chair without armrests)
3 to 6 are diagrams illustrating an example of extracting the feature points of the operation in which the monitored object T stands up from a chair without an armrest. 3 to 6 show the movement of the feature points when the monitored object T sitting on the chair C1 without armrests gradually stands up. 3 to 6 schematically show an example of feature points extracted from an image in which the monitored object T is captured from the left side. Here, as shown in FIGS. 3 to 6, the chair C1 may be a chair having a structure without armrests or armrests.

図3から図6までに示すように、被監視対象Tが椅子C1に座っている状態から立ち上がる動作一連の動作には、いくつかの部分的な動作が含まれる。例えば、図3は、上述したように、椅子C1に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 As shown in FIGS. 3 to 6, the series of movements in which the monitored object T stands up from the state of sitting on the chair C1 includes some partial movements. For example, as described above, FIG. 3 schematically shows an example of feature points extracted from an image of the monitored target T sitting on the chair C1 from the left side.

図3に示した状態から図4に示す状態までに、被監視対象Tが行う一例の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動(図4に示す距離d1及び角度a1))
このように、被監視対象Tが足を後方に引く動作は、上述の第1動作としてよい。
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動(図4に示す角度a2))
このように、被監視対象Tが前傾姿勢をとる動作は、上述の第2動作としてよい。
(3)手を前に出す動作(特徴点P7及び/又はP6の移動(図4に示す距離d2))
このように、被監視対象Tが手を前に出す動作は、上述の第3動作としてよい。
また、図3乃至図6に示すように、第1動作乃至第3動作の少なくともいずれかは、被監視対象Tが例えば椅子などに座っている体勢から開始される動作としてもよい。また、本実施形態において、第1動作、第2の動作及び第3動作はこの順序で行われる場合に限定されず、第1動作、第2の動作、第3動作の順序は任意の順序であってよい。本実施形態では、第1動作、第2の動作及び第3動作のいずれかの動作がこの3つの動作の最初の動作となってもよい。
From the state shown in FIG. 3 to the state shown in FIG. 4, the partial operation included in the rising operation of the example performed by the monitored target T may be, for example, the following operation.
(1) The action of pulling the foot backward (movement of the feature point P9 (distance d1 and angle a1 shown in FIG. 4))
In this way, the motion of the monitored target T pulling the foot backward may be the first motion described above.
(2) Action to take a forward leaning posture (movement of feature points P1, P2, or P3 (angle a2 shown in FIG. 4))
As described above, the operation in which the monitored target T takes a forward leaning posture may be the above-mentioned second operation.
(3) Action to move the hand forward (movement of feature points P7 and / or P6 (distance d2 shown in FIG. 4))
As described above, the operation of the monitored target T to move forward may be the above-mentioned third operation.
Further, as shown in FIGS. 3 to 6, at least one of the first operation to the third operation may be an operation started from a posture in which the monitored target T is sitting in a chair or the like, for example. Further, in the present embodiment, the first operation, the second operation, and the third operation are not limited to the case where they are performed in this order, and the order of the first operation, the second operation, and the third operation is arbitrary. It may be there. In the present embodiment, any one of the first operation, the second operation, and the third operation may be the first operation of these three operations.

ここで、被監視対象Tの通常の(安全な)立ち上がり動作において、上記(1)の距離d1は約10cm、角度a1は約70°になる傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(1)の距離d1は約20cm、角度a1は約50°になる傾向にある。したがって、第1動作は、被監視対象Tが足を床面上において被監視対象Tの後方に10cm又は20cmの長さまで動かす動作としてもよい。また、第1動作は、被監視対象Tが膝を70°又は50°の角度になるまで曲げる動作としてもよい。以下、通常の(安全な)立ち上がり動作とは、例えば立ち上がり動作が成功する(すなわち失敗しない)確率が所定以上になる動作としてよい。また、危険な立ち上がり動作とは、例えば転倒するなど、立ち上がり動作が成功しない(すなわち失敗する)確率が所定以上になる動作としてよい。 Here, in the normal (safe) rising operation of the monitored object T, the distance d1 in (1) above tends to be about 10 cm, and the angle a1 tends to be about 70 °. On the other hand, in the dangerous rising motion of the monitored target T, the distance d1 in (1) above tends to be about 20 cm, and the angle a1 tends to be about 50 °. Therefore, the first motion may be an motion in which the monitored object T moves the foot on the floor surface to a length of 10 cm or 20 cm behind the monitored object T. Further, the first motion may be an motion in which the monitored object T bends the knee to an angle of 70 ° or 50 °. Hereinafter, the normal (safe) rising operation may be, for example, an operation in which the probability that the rising operation succeeds (that is, does not fail) becomes a predetermined value or more. Further, the dangerous rising motion may be an motion in which the probability that the rising motion does not succeed (that is, fails) becomes a predetermined value or more, for example, a fall.

また、監視対象Tの通常の立ち上がり動作において、上記(2)の角度a2は約40°になる傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(2)の角度a2は約70°になる傾向にある。したがって、第2動作は、被監視対象Tが上半身の少なくとも一部を床面に垂直な方向から40°又は70度の角度になるまで前傾させる姿勢をとる動作としてもよい。 Further, in the normal rising operation of the monitored object T, the angle a2 in (2) above tends to be about 40 °. On the other hand, in the dangerous rising operation of the monitored target T, the angle a2 in (2) above tends to be about 70 °. Therefore, the second operation may be an operation in which the monitored object T is in a posture of tilting at least a part of the upper body forward until the angle is 40 ° or 70 ° from the direction perpendicular to the floor surface.

また、上記(3)の距離d2は、監視対象Tの通常の立ち上がり動作においても、危険な立ち上がり動作においても、約10cmになる傾向にある。したがって、第3動作は、被監視対象Tが手を前方に10cmの長さまで動かす動作としてもよい。 Further, the distance d2 in (3) above tends to be about 10 cm in both the normal rising operation and the dangerous rising operation of the monitored object T. Therefore, the third operation may be an operation in which the monitored object T moves his / her hand forward to a length of 10 cm.

次に、図4に示した状態から図5に示す状態を経て図6に示す状態までに、被監視対象Tが行う一例の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。図4及び図5は、被監視対象Tが行う一例の立ち上がり動作の途中の状態の画像から抽出された特徴点の例を模式的に示している。また、図6は、被監視対象Tが一例の立ち上がり動作を完了した状態の画像から抽出された特徴点の例を模式的に示している。
(4)お尻を持ち上げる動作(特徴点P4の移動(図5に示す距離d3))
(5)膝を伸ばす動作(特徴点P4及び/又はP9の移動(図5に示す角度a3))
(6)頭を持ち上げる動作(特徴点P1の移動(図5に示す距離d4))
(7)腕を伸ばす動作(特徴点P7の移動(図5に示す角度a4))
(8)背筋を伸ばす動作(特徴点P1,P2,又はP3の移動(図5に示す角度a5))
Next, from the state shown in FIG. 4 through the state shown in FIG. 5 to the state shown in FIG. 6, the partial operation included in the rising operation of one example performed by the monitored target T is, for example, the following operation. May be. 4 and 5 schematically show an example of feature points extracted from an image of a state in the middle of an example rising operation performed by the monitored target T. Further, FIG. 6 schematically shows an example of feature points extracted from an image in which the monitored target T has completed an example of a rising operation.
(4) Operation of lifting the buttocks (movement of feature point P4 (distance d3 shown in FIG. 5))
(5) Knee extension motion (movement of feature points P4 and / or P9 (angle a3 shown in FIG. 5))
(6) Head lifting operation (movement of feature point P1 (distance d4 shown in FIG. 5))
(7) Arm extension motion (movement of feature point P7 (angle a4 shown in FIG. 5))
(8) Motion to stretch the back muscle (movement of feature points P1, P2, or P3 (angle a5 shown in FIG. 5))

ここで、被監視対象Tの通常の立ち上がり動作において、上記(5)の角度a3は約70°から約180°に変化する傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(5)の角度a3は約50°から約150°に変化する傾向にある。 Here, in the normal rising operation of the monitored target T, the angle a3 in (5) above tends to change from about 70 ° to about 180 °. On the other hand, in the dangerous rising motion of the monitored target T, the angle a3 in (5) above tends to change from about 50 ° to about 150 °.

また、被監視対象Tの通常の立ち上がり動作において、上記(6)の距離d4は、図5に示すP1の位置から図6に示すP1の位置まで変化する傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(6)の距離d4は、図5に示すP1の位置から図6に示すP1の位置までの距離に約20cm満たない位置まで変化する傾向にある。 Further, in the normal rising operation of the monitored target T, the distance d4 in (6) above tends to change from the position of P1 shown in FIG. 5 to the position of P1 shown in FIG. On the other hand, in the dangerous rising motion of the monitored target T, the distance d4 in (6) above tends to change to a position less than about 20 cm from the position of P1 shown in FIG. 5 to the position of P1 shown in FIG. It is in.

また、被監視対象Tの通常の立ち上がり動作において、上記(7)の角度a4は約90°から約170°に変化する傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(5)の角度a4は約90°から約160°に変化する傾向にある。 Further, in the normal rising operation of the monitored target T, the angle a4 in (7) above tends to change from about 90 ° to about 170 °. On the other hand, in the dangerous rising motion of the monitored target T, the angle a4 in (5) above tends to change from about 90 ° to about 160 °.

さらに、被監視対象Tの通常の立ち上がり動作において、上記(8)の角度a5は約0°になる傾向にある。一方、被監視対象Tの危険な立ち上がり動作において、上記(8)の角度a5は約20°になる傾向にある。 Further, in the normal rising operation of the monitored target T, the angle a5 in (8) above tends to be about 0 °. On the other hand, in the dangerous rising motion of the monitored target T, the angle a5 in (8) above tends to be about 20 °.

ここまで、被監視対象Tの立ち上がり動作における特徴点の動きについて説明した。以下、被監視対象Tの立ち上がり動作における特徴点の動くタイミングについて、さらに説明する。 Up to this point, the movement of the feature points in the rising motion of the monitored target T has been described. Hereinafter, the timing of movement of the feature points in the rising operation of the monitored target T will be further described.

実証実験の結果、被監視対象Tの通常の立ち上がり動作において、上記(1)から(3)までの動作は、約0.6秒の間に行われる傾向にある。また、被監視対象Tの通常の立ち上がり動作において、上記(4)から(8)までの動作は、約1.2秒の間に行われる傾向にある。すなわち、被監視対象Tの通常の立ち上がり動作は、全体として約2秒の間に行われる傾向にある。 As a result of the demonstration experiment, in the normal rising operation of the monitored object T, the operations (1) to (3) tend to be performed within about 0.6 seconds. Further, in the normal rising operation of the monitored target T, the operations (4) to (8) tend to be performed within about 1.2 seconds. That is, the normal rising operation of the monitored target T tends to be performed in about 2 seconds as a whole.

一方、被監視対象Tの危険な立ち上がり動作において、上記(1)から(3)までの動作は、約3秒の間に行われる傾向にある。また、被監視対象Tの危険な立ち上がり動作において、上記(4)から(8)までの動作は、約3秒の間に行われる傾向にある。すなわち、被監視対象Tの危険な立ち上がり動作は、全体として約6秒の間に行われる傾向にある。言い換えると、被監視対象Tの危険な立ち上がり動作は、全体として、被監視対象Tの通常の立ち上がり動作のように約2秒の間には行われない傾向にある。 On the other hand, in the dangerous rising operation of the monitored target T, the operations (1) to (3) tend to be performed within about 3 seconds. Further, in the dangerous rising operation of the monitored target T, the operations (4) to (8) above tend to be performed within about 3 seconds. That is, the dangerous rising operation of the monitored target T tends to be performed in about 6 seconds as a whole. In other words, the dangerous rising motion of the monitored target T tends not to be performed in about 2 seconds as the normal rising motion of the monitored target T as a whole.

以上から、例えば、監視装置10のコントローラ15は、被監視対象Tが立ち上がり動作を開始してから3秒経過しても立ち上がり動作を完了していない場合、危険な立ち上がりである旨を示す警告信号を出力してもよい。このようにすれば、監視装置10は、被監視対象Tが危険な立ち上がりを完了する前に、被監視対象Tが危険な立ち上がり動作をしている旨の警告をユーザに発することができる。 From the above, for example, the controller 15 of the monitoring device 10 has a warning signal indicating that the rising operation is dangerous if the rising operation is not completed within 3 seconds after the monitored target T starts the rising operation. May be output. In this way, the monitoring device 10 can issue a warning to the user that the monitored target T is performing a dangerous rising operation before the monitored target T completes a dangerous rising operation.

また、上記(1)から(8)までの動作は、被監視対象Tが行う一連の立ち上がり動作に含まれる。したがって、例えば上記(1)から(3)までの動作が行われると、その後引き続き上記(4)から(8)までの動作が行われるものと想定することができる。そこで、例えば、コントローラ15は、被監視対象Tが上記(1)から(3)までの動作を行うのに3秒以上かかった時点で、危険な立ち上がりである旨を示す警告信号を出力してもよい。このようにすれば、監視装置10は、被監視対象Tが危険な立ち上がりを完了する所定時間前(例えば3秒前)に、被監視対象Tが危険な立ち上がり動作をしている旨の警告をユーザに発することができる。このように、コントローラ15は、被監視対象Tが立ち上がり動作を完了する所定時間前に、所定の警告信号を出力してもよい。 Further, the operations (1) to (8) are included in a series of rising operations performed by the monitored target T. Therefore, for example, if the above operations (1) to (3) are performed, it can be assumed that the above operations (4) to (8) are subsequently performed. Therefore, for example, the controller 15 outputs a warning signal indicating a dangerous rise when it takes 3 seconds or more for the monitored target T to perform the operations (1) to (3) above. May be good. In this way, the monitoring device 10 warns that the monitored target T is performing a dangerous rising operation a predetermined time (for example, 3 seconds before) when the monitored target T completes the dangerous rising operation. Can be sent to the user. In this way, the controller 15 may output a predetermined warning signal before the predetermined time when the monitored target T rises up and completes the operation.

さらに、本実施形態において、被監視対象Tの動作において、コントローラ15は、被監視対象Tが立ち上がり動作を開始してから1秒以内に上記(1)から(3)までの動作を完了していなかった場合に、立ち上がり動作を行っている旨を示す警告信号を出力してもよい。さらに、被監視対象Tの動作において、コントローラ15は、被監視対象Tが立ち上がり動作を開始してから1秒以内に上記(1)から(3)までの動作を完了していた場合に、立ち上がり動作を行っている旨を示す警告信号を出力しないとしてもよい。このようにすれば、監視装置10は、被監視対象Tが危険な立ち上がりを行う完了する所定時間前(例えば1秒前)に、被監視対象Tが危険な立ち上がり動作をしている旨の警告をユーザに発することができる。また、この場合、本実施形態では、警告をするか否かを、上記(1)から(3)までの動作を完了が1秒かかったか否かとしたため、通常の立ち上がりが可能な者の立ち上がりは警告せず、危険な立ち上がりを行う者の立ち上がりを警告できる。このため、本実施形態では、警告の信頼性や有用性を向上させることができる。また、本実施形態において、所定の警告信号を出力するか否かを判定するための経過時間は、上述のように1秒に限定されるものではない。つまり、通常の立ち上がり動作の動作時間T1と、危険な立ち上がり動作の動作時間をT2とした場合、所定の警告信号を出力するか否かを判定するための経過時間Tthは、T2≧Tth≧T1としてよい。経過時間TthをT1とした場合、本実施形態は、警告を迅速に出力することができる。経過時間TthをT2とした場合、本実施形態は、通常の立ち上がり動作を危険な立ち上がり動作と誤認識する確率を減らすことができる。経過時間TthをT2>Tth>T1とした場合、本実施形態は、警告出力の迅速性と誤認識の低減とをバランスよく設定することができる。また、本実施形態において、通常の立ち上がり動作の動作時間T1を0.6秒とし、危険な立ち上がり動作の動作時間T2を3秒とする場合を例にしたが、本実施形態は、T1、T2としてこのような値ではなく、被監視対象Tの年齢、体格、健康状態、心身の障害状態、時刻、例えば運動した後などのシチュエーションなどに基づいて適宜他の値を設定してもよい。 Further, in the present embodiment, in the operation of the monitored target T, the controller 15 completes the operations (1) to (3) above within 1 second after the monitored target T starts the rising operation. If not, a warning signal indicating that the rising operation is being performed may be output. Further, in the operation of the monitored target T, the controller 15 starts up when the operations (1) to (3) are completed within 1 second after the monitored target T starts the rising operation. It is not necessary to output a warning signal indicating that the operation is being performed. In this way, the monitoring device 10 warns that the monitored target T is performing a dangerous rising operation before a predetermined time (for example, 1 second before) when the monitored target T completes a dangerous rising operation. Can be issued to the user. Further, in this case, in the present embodiment, whether or not to give a warning is determined by whether or not the operation from (1) to (3) is completed in 1 second. It is possible to warn the rise of a person who makes a dangerous rise without warning. Therefore, in the present embodiment, the reliability and usefulness of the warning can be improved. Further, in the present embodiment, the elapsed time for determining whether or not to output a predetermined warning signal is not limited to 1 second as described above. That is, when the operating time of the normal rising operation is T1 and the operating time of the dangerous rising operation is T2, the elapsed time Tth for determining whether or not to output a predetermined warning signal is T2 ≧ Tth ≧ T1. May be. When the elapsed time Tth is T1, the present embodiment can quickly output a warning. When the elapsed time Tth is T2, the present embodiment can reduce the probability of erroneously recognizing a normal rising motion as a dangerous rising motion. When the elapsed time Tth is T2> Tth> T1, the present embodiment can set the speed of the warning output and the reduction of erroneous recognition in a well-balanced manner. Further, in the present embodiment, an example is taken in which the operating time T1 of the normal rising operation is 0.6 seconds and the operating time T2 of the dangerous rising operation is 3 seconds. However, in the present embodiment, T1 and T2 are used. Instead of such a value, another value may be appropriately set based on the age, physique, health condition, mental and physical disorder condition, time, for example, a situation such as after exercising, etc. of the monitored target T.

以上のような動作を、被監視対象Tの通常の立ち上がり動作において行ってもよい。例えば、被監視対象Tの通常の立ち上がり動作において、上記(1)から(3)までの動作が0.6秒の間に行われると、その後引き続き上記(4)から(8)までの動作が1.2秒の間に行われるものと想定することができる。 The above operation may be performed in the normal rising operation of the monitored target T. For example, in the normal rising operation of the monitored target T, if the above operations (1) to (3) are performed within 0.6 seconds, then the above operations (4) to (8) are continuously performed. It can be assumed that it takes place in 1.2 seconds.

そこで、コントローラ15は、被監視対象Tが立ち上がり動作を開始してから1秒以内に上記(1)から(3)までの動作を完了した場合に、立ち上がり動作を行っている旨を示す警告信号を出力してもよい。このようにすれば、監視装置10は、被監視対象Tが通常の立ち上がりを完了する所定時間前(例えば約1秒前)に、被監視対象Tが立ち上がり動作を開始している旨の警告をユーザに発することができる。このように、コントローラ15は、被監視対象Tが立ち上がり動作をする所定時間前に、所定の警告信号を出力してもよい。 Therefore, the controller 15 is a warning signal indicating that the rising operation is performed when the operation from (1) to (3) is completed within 1 second after the monitored target T starts the rising operation. May be output. In this way, the monitoring device 10 warns that the monitored target T has started the rising operation before a predetermined time (for example, about 1 second before) when the monitored target T completes the normal rising. Can be sent to the user. In this way, the controller 15 may output a predetermined warning signal before the predetermined time when the monitored target T starts up and operates.

したがって、一実施形態において、コントローラ15は、第1動作、第2動作、及び第3動作の少なくともいずれかの開始から1秒経過時点において、第1動作から第3動作までの少なくともいずれかが完了していない場合、所定の警告信号を出力してもよい。また、一実施形態において、コントローラ15は、第1動作、第2動作、及び第3動作の少なくともいずれかの開始から1秒経過時点において、第1動作から第3動作までのいずれもが完了していない場合、所定の警告信号を出力してもよい。また、一実施形態において、コントローラ15は、第1動作と、第2動作と、第3動作と、からなる動作が、第1動作の開始から1秒経過時点で完了していない場合、所定の警告信号を出力してもよい。すなわち、本実施形態では、コントローラ15は、第1動作、第2動作、及び第3動作の少なくともいずれかの開始から1秒経過時点において、第1動作から第3動作までの少なくともいずれかが完了していない場合、所定の警告信号を出力するとしたので、危険な立ち上がり動作となり得る被監視対象Tが立ち上ろうとしている場合に警告を発し、危険ではない通常の立ち上がり動作となり得る被監視対象Tが立ち上ろうとしている場合には警告を発しないため、立ち上がり警告を適切に発することができる。ここで、本実施形態において、所定の警告信号を出力するか否かを判定するための経過時間は、上述のように1秒に限定されるものではない。つまり、通常の立ち上がり動作の動作時間T1と、危険な立ち上がり動作の動作時間をT2とした場合、所定の警告信号を出力するか否かを判定するための経過時間Tthは、T2≧Tth≧T1としてよい。経過時間TthをT1とした場合、本実施形態は、警告を迅速に出力することができる。経過時間TthをT2とした場合、本実施形態は、通常の立ち上がり動作を危険な立ち上がり動作と誤認識する確率を減らすことができる。経過時間TthをT2>Tth>T1とした場合、本実施形態は、警告出力の迅速性と誤認識の低減とをバランスよく設定することができる。また、本実施形態において、通常の立ち上がり動作の動作時間T1を0.6秒とし、危険な立ち上がり動作の動作時間T2を3秒とする場合を例にしたが、本実施形態は、T1、T2としてこのような値ではなく、被監視対象Tの年齢、体格、健康状態、心身の障害状態、時刻、例えば運動した後などのシチュエーションなどに基づいて適宜他の値を設定してもよい。 Therefore, in one embodiment, the controller 15 completes at least one of the first operation to the third operation at one second from the start of at least one of the first operation, the second operation, and the third operation. If not, a predetermined warning signal may be output. Further, in one embodiment, the controller 15 completes all of the first operation to the third operation when one second has elapsed from the start of at least one of the first operation, the second operation, and the third operation. If not, a predetermined warning signal may be output. Further, in one embodiment, the controller 15 is determined when the operation including the first operation, the second operation, and the third operation is not completed at the time when one second has elapsed from the start of the first operation. A warning signal may be output. That is, in the present embodiment, the controller 15 completes at least one of the first operation to the third operation when one second has elapsed from the start of at least one of the first operation, the second operation, and the third operation. If not, a predetermined warning signal is output. Therefore, a warning is issued when the monitored target T, which may be a dangerous start-up operation, is about to start up, and the monitored target T, which may be a normal non-dangerous start-up operation, is issued. When is about to stand up, it does not issue a warning, so it is possible to issue a stand-up warning appropriately. Here, in the present embodiment, the elapsed time for determining whether or not to output a predetermined warning signal is not limited to one second as described above. That is, when the operating time of the normal rising operation is T1 and the operating time of the dangerous rising operation is T2, the elapsed time Tth for determining whether or not to output a predetermined warning signal is T2 ≧ Tth ≧ T1. May be. When the elapsed time Tth is T1, the present embodiment can quickly output a warning. When the elapsed time Tth is T2, the present embodiment can reduce the probability of erroneously recognizing a normal rising motion as a dangerous rising motion. When the elapsed time Tth is T2> Tth> T1, the present embodiment can set the speed of the warning output and the reduction of erroneous recognition in a well-balanced manner. Further, in the present embodiment, an example is taken in which the operating time T1 of the normal rising operation is 0.6 seconds and the operating time T2 of the dangerous rising operation is 3 seconds. However, in the present embodiment, T1 and T2 are used. Instead of such a value, another value may be appropriately set based on the age, physique, health condition, mental and physical disorder condition, time, for example, a situation such as after exercising, etc. of the monitored target T.

いずれの場合も、監視装置10は、被監視対象Tが立ち上がり動作を完了する前に、被監視対象Tが立ち上がり動作を開始している旨の警告をユーザに発してよい。このように、コントローラ15は、被監視対象Tが立ち上がり動作を完了する前に、所定の警告信号を出力してもよい。 In either case, the monitoring device 10 may issue a warning to the user that the monitored target T has started the rising operation before the monitored target T has started the rising operation. In this way, the controller 15 may output a predetermined warning signal before the monitored target T rises up and completes the operation.

一実施形態に係る監視システム1によれば、被監視対象Tが例えば危険な立ち上がりを行おうとしている場合などに、危険な立ち上がり動作をする前に、ユーザに警告を発することができる。したがって、一実施形態に係る監視システム1によれば、被監視対象の安全に供し得る。 According to the monitoring system 1 according to the embodiment, when the monitored target T is about to perform a dangerous start-up operation, for example, a warning can be issued to the user before the dangerous start-up operation is performed. Therefore, according to the monitoring system 1 according to the embodiment, the monitored object can be safely provided.

(アームレスト付きの椅子から立ち上がる場合)
図7乃至図9は、被監視対象Tがアームレスト付きの椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図7乃至図9は、アームレスト付きの椅子C2に座っている被監視対象Tが立ち上がる際の特徴点の動きを示している。図7乃至図9は、被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C2は、図7乃至図9に示すように、アームレスト又は肘掛けなどの付いた構造の椅子としてよい。以下、上述した「アームレストのない椅子から立ち上がる場合」とは異なる点について、主に説明する。
(When standing up from a chair with armrests)
7 to 9 are diagrams illustrating an example of extracting the feature points of the operation in which the monitored object T stands up from the chair with the armrest. 7 to 9 show the movement of the feature points when the monitored object T sitting on the chair C2 with the armrest stands up. 7 to 9 schematically show an example of feature points extracted from an image in which the monitored object T is captured from the left side. Here, as shown in FIGS. 7 to 9, the chair C2 may be a chair having a structure such as an armrest or an armrest. Hereinafter, the points different from the above-mentioned "when standing up from a chair without armrests" will be mainly described.

図7は、図3と同様に、椅子C2に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 FIG. 7 schematically shows an example of feature points extracted from an image in which the monitored object T sitting on the chair C2 is captured from the left side, as in FIG. 3.

図7に示した状態から図8に示す状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作は、上述のように、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動)
この動作を、上述の第1動作としてもよい。
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動)
この動作を、上述の第2動作としてもよい。
(3)手を前に出す動作(特徴点P7及び/又はP6の移動(図8に示す距離d5))
この動作を、上述の第3動作としてもよい。
From the state shown in FIG. 7 to the state shown in FIG. 8, the partial operation included in the normal rising operation of an example performed by the monitored target T may be, for example, the following operation as described above.
(1) Pulling the foot backward (movement of feature point P9)
This operation may be the first operation described above.
(2) Action to take a forward leaning posture (movement of feature points P1, P2, or P3)
This operation may be referred to as the above-mentioned second operation.
(3) Action to move the hand forward (movement of feature points P7 and / or P6 (distance d5 shown in FIG. 8))
This operation may be referred to as the above-mentioned third operation.

ここで、被監視対象Tの通常の立ち上がり動作において、上記(3)の距離d5は、図4に示した場合と同様に、約10cmになる傾向にある。 Here, in the normal rising operation of the monitored target T, the distance d5 in (3) above tends to be about 10 cm, as in the case shown in FIG.

一方、被監視対象Tの危険な立ち上がり動作において、上記の「(3)手を前に出す動作」は、図9に示すように、「(3’)腕を後方に引き上げる動作(特徴点P7及びP6の移動)」に代わる傾向にある。「(3’)腕を後方に引き上げる動作」は、図9に示すように、特徴点P7の移動(図9に示す距離d6)及び特徴点P6の移動(図9に示す距離d7)を含んでよい。ここで、被監視対象Tの危険な立ち上がり動作において、上記の距離d6は約10cm、距離d7は約10cmになる傾向にある。 On the other hand, in the dangerous rising motion of the monitored target T, the above-mentioned "(3) motion of pushing the hand forward" is "(3') motion of pulling the arm backward (feature point P7), as shown in FIG. And the movement of P6) ”. As shown in FIG. 9, the "(3') arm pulling motion" includes the movement of the feature point P7 (distance d6 shown in FIG. 9) and the movement of the feature point P6 (distance d7 shown in FIG. 9). It's fine. Here, in the dangerous rising operation of the monitored target T, the distance d6 tends to be about 10 cm and the distance d7 tends to be about 10 cm.

すなわち、被監視対象Tの特徴点の動きを抽出する際に、被監視対象Tが上記(1)から(3)までの動作を完了した場合に図8のような特徴点になっていれば、被監視対象Tの通常の立ち上がり動作になる傾向にある。一方、被監視対象Tの特徴点の動きを抽出する際に、被監視対象Tが上記(1)から(3)までの動作を完了した場合に図9のような特徴点になっていれば、被監視対象Tの危険な立ち上がり動作になる傾向にある。 That is, when the movement of the feature point of the monitored target T is extracted, if the monitored target T has the feature point as shown in FIG. 8 when the above operations (1) to (3) are completed. , There is a tendency for the monitored target T to be in the normal rising operation. On the other hand, when the movement of the feature point of the monitored target T is extracted, if the monitored target T has the feature point as shown in FIG. 9 when the above operations (1) to (3) are completed. , There is a tendency for the monitored target T to be in a dangerous rising motion.

(デスクとともに使用していた椅子から立ち上がる場合)
図10及び図11は、被監視対象Tがデスクとともに使用していた椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図10及び図11は、デスクD1とともに用いられる椅子C1に座っている被監視対象Tが立ち上がる際の特徴点の動きを示している。図10及び図11は、被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C1は、図3乃至図6に示したのと同様に、アームレスト又は肘掛けなどのない構造の椅子としてよい。以下、上述した説明とは異なる点について、主に説明する。
(When standing up from the chair used with the desk)
10 and 11 are diagrams illustrating an example of extracting the feature points of the movement of the monitored object T to stand up from the chair used together with the desk. 10 and 11 show the movement of the feature points when the monitored object T sitting on the chair C1 used together with the desk D1 stands up. 10 and 11 schematically show an example of feature points extracted from an image in which the monitored object T is captured from the left side. Here, the chair C1 may be a chair having a structure without armrests or armrests, as shown in FIGS. 3 to 6. Hereinafter, points different from the above description will be mainly described.

図10は、図4とほぼ同様に、椅子C1に座っている状態から立ち上がろうとしている被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。 FIG. 10 schematically shows an example of a feature point extracted from an image of a monitored object T trying to stand up from a state of sitting on a chair C1 from the left side, in substantially the same manner as in FIG. ..

上述したように、図4に示した状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動)
この動作を、上述の第1動作としてもよい。
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動)
この動作を、上述の第2動作としてもよい。
(3)手を前に出す動作(特徴点P7及び/又はP6の移動)
この動作を、上述の第3動作としてもよい。
As described above, the partial operation included in the normal rising operation of one example performed by the monitored target T up to the state shown in FIG. 4 may be, for example, the following operation.
(1) Pulling the foot backward (movement of feature point P9)
This operation may be the first operation described above.
(2) Action to take a forward leaning posture (movement of feature points P1, P2, or P3)
This operation may be referred to as the above-mentioned second operation.
(3) Action to move the hand forward (movement of feature points P7 and / or P6)
This operation may be referred to as the above-mentioned third operation.

これに対し、図10に示す状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作のうち、上記(1)及び(2)は、図4に示した状態と同様に含まれるものとしてよい。一方、上記の「(3)手を前に出す動作」は、図10に示す状態において、「(3”)手で机を押す動作、及び/又は、椅子を引く動作(特徴点P7及びP6の移動)」に代わる傾向にある。「(3”)手で机を押す動作、及び/又は、椅子を引く動作」は、図11に示すように、特徴点P7及び/又は特徴点P6の移動(図11に示す角度a6)を含んでよい。上記(3”)の動作における角度a6は、監視対象Tの通常の立ち上がり動作においても、危険な立ち上がり動作においても、約70°から約170°に変化する傾向にある。 On the other hand, among the partial operations included in the normal rising operation of the example performed by the monitored target T up to the state shown in FIG. 10, the above (1) and (2) are the states shown in FIG. It may be included in the same manner as. On the other hand, the above-mentioned "(3) operation of pushing the hand forward" is "(3") operation of pushing the desk with the hand and / or operation of pulling the chair (feature points P7 and P6) in the state shown in FIG. (Movement) ”has a tendency to replace. "(3") Pushing the desk by hand and / or pulling the chair "moves the feature points P7 and / or the feature points P6 (angle a6 shown in FIG. 11) as shown in FIG. May include. The angle a6 in the above operation (3 ″) tends to change from about 70 ° to about 170 ° in both the normal rising operation and the dangerous rising operation of the monitored object T.

以上のように、被監視対象Tの立ち上がり動作において、椅子のタイプ及び/又はデスクの有無に応じて、抽出される特徴点の動きは異なり得る。このため、各状況において抽出される特徴点に基づくアルゴリズムを用いることにより、監視システム1は、各状況に応じて被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 As described above, in the rising motion of the monitored target T, the movement of the extracted feature points may differ depending on the type of chair and / or the presence or absence of a desk. Therefore, by using an algorithm based on the feature points extracted in each situation, the monitoring system 1 can issue a predetermined warning before the monitored target T starts up and operates according to each situation.

また、被監視対象Tの立ち上がり動作において、椅子のタイプ及び/又はデスクの有無に応じて、抽出される特徴点の動きは異なり得るが、共通して抽出される特徴点の動きも存在し得る。このため、異なる各状況において共通して抽出される特徴点に基づくアルゴリズムを用いることにより、監視システム1は、異なる各状況に依存せずに、被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 Further, in the rising motion of the monitored target T, the movements of the feature points extracted may differ depending on the type of chair and / or the presence or absence of a desk, but the movements of the feature points extracted in common may also exist. .. Therefore, by using an algorithm based on feature points that are commonly extracted in different situations, the monitoring system 1 does not depend on each different situation, and a predetermined value is set before the monitored target T starts up. You can issue a warning.

(半身麻痺がある被監視対象が立ち上がる場合)
図12及び図13は、例えば半身麻痺がある被監視対象Tが椅子から立ち上がる動作の特徴点を抽出する例を説明する図である。図12及び図13は、椅子C1に座っている被監視対象Tが立ち上がる際の特徴点の動きを示している。図12及び図13は、被監視対象Tが前方から撮像された画像から抽出された特徴点の例を模式的に示している。ここで、椅子C1は、図3乃至図6に示したのと同様に、アームレスト又は肘掛けなどのない構造の椅子としてよい。以下、上述した説明とは異なる点について、主に説明する。ここで、図12及び図13は、左半身の麻痺の被監視対象Tの図である。図13は、被監視対象Tの肩が下がっている側に麻痺がある例を示す。例えば、脳卒中の後遺症として、半身が麻痺になる(片麻痺)症状がある。半身麻痺は、左半身の上半身及び下半身の麻痺のケースと、左半身の上半身の麻痺のケースがある。図13の半身麻痺がある被監視対象Tは、左半身の上半身の麻痺のケースとしてよい。麻痺している側の左半身には力が入らないので、左側の上半身は下方に下がりがちになる。また、この場合、足は地面に接しているため、左側の下半身は下に下がらない。したがって、この場合、左側の下半身が麻痺していない場合と変わらない体勢になる。
(When a monitored subject with hemiplegia stands up)
12 and 13 are diagrams illustrating an example of extracting the characteristic points of the motion of the monitored target T having hemiplegia, for example, to stand up from the chair. 12 and 13 show the movement of the feature points when the monitored object T sitting on the chair C1 stands up. 12 and 13 schematically show an example of feature points extracted from an image in which the monitored object T is captured from the front. Here, the chair C1 may be a chair having a structure without armrests or armrests, as shown in FIGS. 3 to 6. Hereinafter, points different from the above description will be mainly described. Here, FIGS. 12 and 13 are diagrams of the monitored target T for paralysis of the left half of the body. FIG. 13 shows an example in which the monitored target T has paralysis on the side where the shoulder is lowered. For example, as a sequela of stroke, there is a symptom of paralysis of the half body (hemiplegia). Hemiplegia includes cases of paralysis of the upper and lower body of the left half of the body and cases of paralysis of the upper body of the left half of the body. The monitored target T having hemiplegia in FIG. 13 may be a case of paralysis of the upper body of the left half of the body. The left upper body on the paralyzed side tends to fall downward because no force is applied to the left half of the body. Also, in this case, since the feet are in contact with the ground, the lower half of the body on the left side does not go down. Therefore, in this case, the posture is the same as when the lower body on the left side is not paralyzed.

図12は、図3とほぼ同様に、椅子C1に座っている状態の被監視対象Tが撮像された画像から抽出された特徴点の例を模式的に示している。図3は、椅子C1に座っている状態の被監視対象Tが左側方から撮像された画像から抽出された特徴点の例を模式的に示している。これに対し、図12は、椅子C1に座っている状態の被監視対象Tが前方正面から撮像された画像から抽出された特徴点の例を模式的に示している。 FIG. 12 schematically shows an example of feature points extracted from an image in which the monitored object T sitting on the chair C1 is captured, substantially similar to FIG. FIG. 3 schematically shows an example of feature points extracted from an image of the monitored target T sitting on the chair C1 from the left side. On the other hand, FIG. 12 schematically shows an example of feature points extracted from an image of the monitored target T sitting on the chair C1 from the front front.

上述したように、図4に示した状態までに、被監視対象Tが行う一例の通常の立ち上がり動作に含まれる部分的な動作は、例えば以下のような動作としてよい。
(1)足を後ろに引く動作(特徴点P9の移動)
この動作を、上述の第1動作としてもよい。
(2)前傾姿勢を取る動作(特徴点P1,P2,又はP3の移動)
この動作を、上述の第2動作としてもよい。
(3)手を前に出す動作(特徴点P7及び/又はP6の移動)
この動作を、上述の第3動作としてもよい。
As described above, the partial operation included in the normal rising operation of one example performed by the monitored target T up to the state shown in FIG. 4 may be, for example, the following operation.
(1) Pulling the foot backward (movement of feature point P9)
This operation may be the first operation described above.
(2) Action to take a forward leaning posture (movement of feature points P1, P2, or P3)
This operation may be referred to as the above-mentioned second operation.
(3) Action to move the hand forward (movement of feature points P7 and / or P6)
This operation may be referred to as the above-mentioned third operation.

ここで、図13に示すように、半身麻痺がある被監視対象Tが行う一例の立ち上がり動作に含まれる部分的な動作のうち、上記「(2)前傾姿勢を取る動作」は、図4に示した状態とは異なる動作に代わる傾向にある。したがって、この場合、上記「(2)前傾姿勢を取る動作」は、左右非対称な動きを含む「(2’)前傾姿勢を取る動作」に代えてよい。この場合、「(2’)前傾姿勢を取る動作」において、上述した特徴点P1,P2,又はP3の移動については、図4において説明した「(2)前傾姿勢を取る動作」の場合と同様にしてよい。一方、「(2’)前傾姿勢を取る動作」は、左右非対称な動きとして、例えば特徴点P5L及び/又はP5Rの移動(図13に示す角度a7)を含むものとしてよい。 Here, as shown in FIG. 13, among the partial movements included in the standing-up movement of the monitored target T having hemiplegia, the above-mentioned “(2) movement of taking a forward leaning posture” is shown in FIG. It tends to replace the operation different from the state shown in. Therefore, in this case, the above-mentioned "(2) operation of taking a forward leaning posture" may be replaced with "(2') an operation of taking a forward leaning posture" including a left-right asymmetrical movement. In this case, regarding the movement of the feature points P1, P2, or P3 described above in the "(2') forward leaning posture", the case of the "(2) forward leaning posture" described in FIG. May be the same as. On the other hand, the "(2') forward leaning posture" may include, for example, the movement of the feature points P5L and / or P5R (angle a7 shown in FIG. 13) as a left-right asymmetrical movement.

以上のように、被監視対象Tの立ち上がり動作において、被監視対象Tの身体的特徴及び/又は障がいなどに応じて、抽出される特徴点の動きは異なり得る。このため、各被監視対象Tにおいて抽出される特徴点に基づくアルゴリズムを用いることにより、監視システム1は、各被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 As described above, in the rising motion of the monitored target T, the movement of the extracted feature points may differ depending on the physical characteristics and / or disability of the monitored target T. Therefore, by using an algorithm based on the feature points extracted in each monitored target T, the monitoring system 1 can issue a predetermined warning before each monitored target T starts up.

また、被監視対象Tの立ち上がり動作において、被監視対象Tの身体的特徴及び/又は障がいなどに応じて、抽出される特徴点の動きは異なり得るが、共通して抽出される特徴点の動きも存在し得る。このため、異なる各被監視対象Tにおいて共通して抽出される特徴点に基づくアルゴリズムを用いることにより、監視システム1は、異なる各被監視対象Tに依存せずに、被監視対象Tが立ち上がり動作をする前に所定の警告を発することができる。 Further, in the rising motion of the monitored target T, the movement of the extracted feature points may differ depending on the physical characteristics and / or disability of the monitored target T, but the movements of the feature points extracted in common. Can also exist. Therefore, by using an algorithm based on the feature points commonly extracted in each different monitored target T, the monitoring system 1 starts up the monitored target T without depending on each different monitored target T. You can issue a given warning before you do.

本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態について装置を中心に説明してきたが、本開示に係る実施形態は装置の各構成部が実行するステップを含む方法としても実現し得るものである。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。 Although the embodiments according to the present disclosure have been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications or modifications based on the present disclosure. It should be noted, therefore, that these modifications or modifications are within the scope of this disclosure. For example, the functions included in each component or each step can be rearranged so as not to be logically inconsistent, and a plurality of components or steps can be combined or divided into one. Is. Although the embodiment according to the present disclosure has been mainly described with respect to the apparatus, the embodiment according to the present disclosure can also be realized as a method including steps executed by each component of the apparatus. The embodiments according to the present disclosure can also be realized as a method, a program, or a storage medium on which a program is recorded, which is executed by a processor included in the apparatus. It should be understood that these are also included in the scope of this disclosure.

上述した実施形態は、監視システム1としての実施のみに限定されるものではない。例えば、上述した実施形態は、監視システム1に含まれる監視装置10として実施してもよい。また、上述した実施形態は、例えば、監視装置10のような機器による監視方法として実施してもよい。さらに、上述した実施形態は、例えば、監視装置10のような機器又は情報処理装置(例えばコンピュータ)が実行するプログラムとして実施してもよい。 The above-described embodiment is not limited to the implementation as the monitoring system 1. For example, the above-described embodiment may be implemented as a monitoring device 10 included in the monitoring system 1. Further, the above-described embodiment may be implemented as a monitoring method using a device such as the monitoring device 10. Further, the above-described embodiment may be implemented as a program executed by, for example, a device such as a monitoring device 10 or an information processing device (for example, a computer).

1 監視システム
10 監視装置
11 抽出部
13 記憶部
15 コントローラ
17 警告部
19 通信部
20 撮像部

1 Monitoring system 10 Monitoring device 11 Extraction unit 13 Storage unit 15 Controller 17 Warning unit 19 Communication unit 20 Imaging unit

Claims (11)

被監視対象を撮像する撮像部と、
前記撮像部によって撮像された画像から、前記被監視対象の特徴点の動きを抽出する抽出部と、
前記抽出部によって抽出された前記被監視対象の特徴点の動きにおいて、
前記被監視対象が足を後方に引く第1動作と、
前記被監視対象が前傾姿勢をとる第2動作と、
前記被監視対象が手を前に出す第3動作と、
からなる動作が、前記第1動作の開始から1秒経過時点で完了していない場合、所定の警告信号を出力するコントローラと、
前記コントローラから出力される前記所定の警告信号に基づいて、所定の警告を発する警告部と、
を備える、監視システム。
An imaging unit that captures the monitored object and
An extraction unit that extracts the movement of the feature point of the monitored object from the image captured by the imaging unit, and an extraction unit.
In the movement of the feature points of the monitored object extracted by the extraction unit,
The first movement in which the monitored object pulls its foot backward,
The second movement in which the monitored object takes a forward leaning posture,
The third action in which the monitored object puts his hand forward,
When the operation consisting of the above is not completed within 1 second from the start of the first operation, a controller that outputs a predetermined warning signal and a controller.
A warning unit that issues a predetermined warning based on the predetermined warning signal output from the controller.
A monitoring system equipped with.
被監視対象を撮像する撮像部と、
前記撮像部によって撮像された画像から、前記被監視対象の特徴点の動きを抽出する抽出部と、
前記抽出部によって抽出された前記被監視対象の特徴点の動きにおいて、
前記被監視対象が足を後方に引く第1動作と、
前記被監視対象が前傾姿勢をとる第2動作と、
前記被監視対象が手を前に出す第3動作と、
の少なくともいずれかの開始から1秒経過時点において、前記第1動作から前記第3動作までの少なくともいずれかが完了していない場合、所定の警告信号を出力するコントローラと、
前記コントローラから出力される前記所定の警告信号に基づいて、所定の警告を発する警告部と、
を備える、監視システム。
An imaging unit that captures the monitored object and
An extraction unit that extracts the movement of the feature point of the monitored object from the image captured by the imaging unit, and an extraction unit.
In the movement of the feature points of the monitored object extracted by the extraction unit,
The first movement in which the monitored object pulls its foot backward,
The second movement in which the monitored object takes a forward leaning posture,
The third action in which the monitored object puts his hand forward,
A controller that outputs a predetermined warning signal when at least one of the first operation to the third operation is not completed at least one second after the start of any of the above.
A warning unit that issues a predetermined warning based on the predetermined warning signal output from the controller.
A monitoring system equipped with.
前記第1動作乃至前記第3動作の少なくともいずれかは、前記被監視対象が座っている体勢から開始される動作とする、請求項1又は2に記載の監視システム。 The monitoring system according to claim 1 or 2, wherein at least one of the first operation to the third operation is an operation started from a posture in which the monitored object is sitting. 前記第1動作は、前記被監視対象が足を床面上において前記被監視対象の後方に10cm又は20cmの長さまで動かす動作とする、請求項1から3のいずれかに記載の監視システム。 The monitoring system according to any one of claims 1 to 3, wherein the first operation is an operation in which the monitored object moves a foot on the floor surface to a length of 10 cm or 20 cm behind the monitored object. 前記第1動作は、前記被監視対象が膝を70°又は50°の角度になるまで曲げる動作とする、請求項1から4のいずれかに記載の監視システム。 The monitoring system according to any one of claims 1 to 4, wherein the first operation is an operation in which the monitored object bends the knee to an angle of 70 ° or 50 °. 前記第2動作は、前記被監視対象が上半身の少なくとも一部を床面に垂直な方向から40°又は70度の角度になるまで前傾させる姿勢をとる動作とする、請求項1から5のいずれかに記載の監視システム。 2. The monitoring system described in either. 前記第3動作は、前記被監視対象が手を前方に10cmの長さまで動かす動作とする、請求項1から6のいずれかに記載の監視システム。 The monitoring system according to any one of claims 1 to 6, wherein the third operation is an operation in which the monitored object moves a hand forward to a length of 10 cm. 前記警告部は、前記所定の警報を、人体の聴覚、視覚、及び触覚の少なくともいずれかに作用する情報として発する、請求項1から7のいずれかに記載の監視システム。 The monitoring system according to any one of claims 1 to 7, wherein the warning unit issues the predetermined alarm as information acting on at least one of the auditory sense, the visual sense, and the tactile sense of the human body. 被監視対象の画像から前記被監視対象の特徴点の動きを抽出する抽出部と、
前記抽出部によって抽出された前記被監視対象の特徴点の動きにおいて、
前記被監視対象が足を後方に引く第1動作と、
前記被監視対象が前傾姿勢をとる第2動作と、
前記被監視対象が手を前に出す第3動作と、
からなる動作が、前記第1動作の開始から1秒経過時点で完了していない場合、所定の警告信号を出力するコントローラと、
を備える、監視装置。
An extraction unit that extracts the movement of the feature points of the monitored object from the image of the monitored object, and
In the movement of the feature points of the monitored object extracted by the extraction unit,
The first movement in which the monitored object pulls its foot backward,
The second movement in which the monitored object takes a forward leaning posture,
The third action in which the monitored object puts his hand forward,
When the operation consisting of the above is not completed within 1 second from the start of the first operation, a controller that outputs a predetermined warning signal and a controller.
A monitoring device.
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記抽出するステップにおいて抽出された前記被監視対象の特徴点の動きにおいて、
前記被監視対象が足を後方に引く第1動作と、
前記被監視対象が前傾姿勢をとる第2動作と、
前記被監視対象が手を前に出す第3動作と、
からなる動作が、前記第1動作の開始から1秒経過時点で完了しているか否か判定するステップと、
前記判定するステップにおいて、前記第1動作乃至前記第3動作からなる動作が前記第1動作の開始から1秒経過時点で完了していない場合、所定の警告信号を出力するステップと、
を含む、監視方法。
A step of extracting the movement of the feature point of the monitored object from the image of the monitored object, and
In the movement of the feature points of the monitored object extracted in the extraction step,
The first movement in which the monitored object pulls its foot backward,
The second movement in which the monitored object takes a forward leaning posture,
The third action in which the monitored object puts his hand forward,
A step of determining whether or not the operation consisting of the above is completed at the time when one second has elapsed from the start of the first operation, and
In the determination step, if the operation consisting of the first operation to the third operation is not completed within 1 second from the start of the first operation, a step of outputting a predetermined warning signal and a step of outputting a predetermined warning signal.
Monitoring methods, including.
コンピュータに、
被監視対象の画像から前記被監視対象の特徴点の動きを抽出するステップと、
前記抽出するステップにおいて抽出された前記被監視対象の特徴点の動きにおいて、
前記被監視対象が足を後方に引く第1動作と、
前記被監視対象が前傾姿勢をとる第2動作と、
前記被監視対象が手を前に出す第3動作と、
からなる動作が、前記第1動作の開始から1秒経過時点で完了しているか否か判定するステップと、
前記判定するステップにおいて、前記第1動作乃至前記第3動作からなる動作が前記第1動作の開始から1秒経過時点で完了していない場合、所定の警告信号を出力するステップと、
を実行させる、プログラム。
On the computer
A step of extracting the movement of the feature point of the monitored object from the image of the monitored object, and
In the movement of the feature points of the monitored object extracted in the extraction step,
The first movement in which the monitored object pulls its foot backward,
The second movement in which the monitored object takes a forward leaning posture,
The third action in which the monitored object puts his hand forward,
A step of determining whether or not the operation consisting of the above is completed at the time when one second has elapsed from the start of the first operation, and
In the determination step, if the operation consisting of the first operation to the third operation is not completed within 1 second from the start of the first operation, a step of outputting a predetermined warning signal and a step of outputting a predetermined warning signal.
A program that runs.
JP2020083881A 2020-05-12 2020-05-12 Monitoring system, monitoring device, monitoring method, and program Active JP7438847B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020083881A JP7438847B2 (en) 2020-05-12 2020-05-12 Monitoring system, monitoring device, monitoring method, and program
JP2024020325A JP2024069214A (en) 2020-05-12 2024-02-14 Monitoring system, monitoring method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020083881A JP7438847B2 (en) 2020-05-12 2020-05-12 Monitoring system, monitoring device, monitoring method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024020325A Division JP2024069214A (en) 2020-05-12 2024-02-14 Monitoring system, monitoring method, and program

Publications (2)

Publication Number Publication Date
JP2021179723A true JP2021179723A (en) 2021-11-18
JP7438847B2 JP7438847B2 (en) 2024-02-27

Family

ID=78511461

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020083881A Active JP7438847B2 (en) 2020-05-12 2020-05-12 Monitoring system, monitoring device, monitoring method, and program
JP2024020325A Pending JP2024069214A (en) 2020-05-12 2024-02-14 Monitoring system, monitoring method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024020325A Pending JP2024069214A (en) 2020-05-12 2024-02-14 Monitoring system, monitoring method, and program

Country Status (1)

Country Link
JP (2) JP7438847B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010246635A (en) * 2009-04-13 2010-11-04 Araya Industrial Co Ltd Standing-up support device and standing-up support method
JP2015138427A (en) * 2014-01-23 2015-07-30 シャープ株式会社 monitor
JP2016158952A (en) * 2015-03-03 2016-09-05 富士通株式会社 Behavior detection method and behavior detection device
JP2020052867A (en) * 2018-09-28 2020-04-02 株式会社Axive Posture analysis device, posture analysis method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010246635A (en) * 2009-04-13 2010-11-04 Araya Industrial Co Ltd Standing-up support device and standing-up support method
JP2015138427A (en) * 2014-01-23 2015-07-30 シャープ株式会社 monitor
JP2016158952A (en) * 2015-03-03 2016-09-05 富士通株式会社 Behavior detection method and behavior detection device
JP2020052867A (en) * 2018-09-28 2020-04-02 株式会社Axive Posture analysis device, posture analysis method and program

Also Published As

Publication number Publication date
JP7438847B2 (en) 2024-02-27
JP2024069214A (en) 2024-05-21

Similar Documents

Publication Publication Date Title
US10004430B2 (en) Apparatus and method for detecting a fall
US20210236022A1 (en) Smart Interpretive Wheeled Walker using Sensors and Artificial Intelligence for Precision Assisted Mobility Medicine Improving the Quality of Life of the Mobility Impaired
TW201909058A (en) Activity support method, program, activity support system
TWI474291B (en) Somatosensory fall-detection method
JP6056107B2 (en) Exercise assistance device, exercise assistance method, program
JP2007330336A (en) Care supporting device and getting-up detecting method
JP7438847B2 (en) Monitoring system, monitoring device, monitoring method, and program
WO2020008995A1 (en) Image recognition program, image recognition device, learning program, and learning device
JP2019118763A (en) Operation acquisition support device, system and control method of operation acquisition support device
WO2020008726A1 (en) Target object detection program and target object detection device
JP7483486B2 (en) Monitoring system, monitoring device, monitoring method, and program
JP6127302B2 (en) Exercise assistance device, exercise assistance method, program
Safarzadeh et al. Real-time fall detection and alert system using pose estimation
JP7449211B2 (en) Systems, electronic devices, control methods for electronic devices, and programs
JP7449212B2 (en) Systems, electronic devices, control methods for electronic devices, and programs
JP7327396B2 (en) Control program, report output method, and report output device
JP2022039814A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022055248A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022055251A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022055253A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022050271A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP7515358B2 (en) SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM
JP2022055252A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022050269A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022050268A (en) System, electronic apparatus, method for controlling electronic apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240214

R150 Certificate of patent or registration of utility model

Ref document number: 7438847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150