JP2022039814A - System, electronic apparatus, method for controlling electronic apparatus, and program - Google Patents

System, electronic apparatus, method for controlling electronic apparatus, and program Download PDF

Info

Publication number
JP2022039814A
JP2022039814A JP2020145012A JP2020145012A JP2022039814A JP 2022039814 A JP2022039814 A JP 2022039814A JP 2020145012 A JP2020145012 A JP 2020145012A JP 2020145012 A JP2020145012 A JP 2020145012A JP 2022039814 A JP2022039814 A JP 2022039814A
Authority
JP
Japan
Prior art keywords
monitored object
chair
coordinates
seated
sliding down
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020145012A
Other languages
Japanese (ja)
Inventor
健宏 馬渕
Takehiro Mabuchi
智子 浅野
Tomoko Asano
裕 香島
Yu Kashima
賢也 小林
Kenya Kobayashi
永勲 高
Younghun Ko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2020145012A priority Critical patent/JP2022039814A/en
Publication of JP2022039814A publication Critical patent/JP2022039814A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a system, an electronic apparatus, a method for controlling the electronic apparatus, and a program that can contribute to the safety of an object to be monitored.SOLUTION: A system 1 comprises: an imaging unit 20; and an electronic apparatus 10 including an extraction unit 11 and a controller 15. The imaging unit 20 picks up an image of an object to be monitored. The extraction unit 11 extracts the coordinates of a predetermined site of the object to be monitored from the image picked up by the imaging unit 20. Based on timing information indicating a start point and an end point of the movement of the object to be monitored sitting on a chair slipping down from the chair in sequential images picked up by the imaging unit 20, the controller 15 performs machine learning about the relationship between the coordinates of the predetermined site of the object to be monitored between the start point and the end point of the slip-down movement and the start of the movement of the object to be monitored sitting on the chair slipping down from the chair.SELECTED DRAWING: Figure 1

Description

本開示は、システム、電子機器、電子機器の制御方法、及びプログラムに関する。 The present disclosure relates to systems, electronic devices, control methods for electronic devices, and programs.

例えば介護施設のような現場において、要看護者又は要介護者などのような被監視者の行動を監視する装置が提案されている。例えば、特許文献1は、撮像装置で得られた画像に基づいて、被監視者における所定の行動を検知する被監視者システムを開示している。特許文献2は、対象者の足に検出装置を装着することにより、対象者が歩行中に転倒するのを予防する転倒予防システムを開示している。また、特許文献3は、温度分布を検出することにより、人体の体位を判定する見守り支援装置を開示している。また、引用文献4は、在宅、又は老人ホーム若しくは介護施設における老年精神病患者を監視するための医療システムを開示している。 For example, in a field such as a long-term care facility, a device for monitoring the behavior of a monitored person such as a nurse or a care recipient has been proposed. For example, Patent Document 1 discloses a monitored person system that detects a predetermined behavior in a monitored person based on an image obtained by an image pickup device. Patent Document 2 discloses a fall prevention system that prevents a subject from falling while walking by attaching a detection device to the foot of the subject. Further, Patent Document 3 discloses a monitoring support device for determining the body position of a human body by detecting a temperature distribution. Cited Document 4 also discloses a medical system for monitoring elderly psychotic patients at home or in elderly housing with care or long-term care facilities.

特開2017-91552号公報Japanese Unexamined Patent Publication No. 2017-91552 特開2017-221502号公報Japanese Unexamined Patent Publication No. 2017-221502 特開2014-106636号公報Japanese Unexamined Patent Publication No. 2014-106636 特開2003-91790号公報Japanese Patent Application Laid-Open No. 2003-91790

被監視対象を監視することにより、被監視対象の安全に供することができれば、有益である。 It would be beneficial if the monitored object could be safely monitored by monitoring it.

本開示の目的は、被監視対象の安全に供し得るシステム、電子機器、電子機器の制御方法、及びプログラムを提供することにある。 An object of the present disclosure is to provide a system, an electronic device, a control method for the electronic device, and a program that can be safely provided to the monitored object.

一実施形態に係るシステムは、
被監視対象を撮像する撮像部と、
前記撮像部によって撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出部と、
前記撮像部によって撮像された経時的な画像において前記被監視対象が着座していた椅子からずり落ちる動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記所定部位の座標と、前記被監視対象が着座していた椅子からずり落ちる動作の開始との関係を機械学習するコントローラと、
を備える。
The system according to one embodiment is
An imaging unit that captures the monitored object and
An extraction unit that extracts the coordinates of a predetermined portion of the monitored object from the image captured by the imaging unit, and an extraction unit.
Between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object slides down from the chair in which the monitored object is seated in the time-dependent image captured by the image pickup unit. A controller that machine-learns the relationship between the coordinates of the predetermined portion and the start of the motion of sliding down from the chair on which the monitored object is seated.
To prepare for.

また、一実施形態に係るシステムは、
被監視対象を撮像する撮像部と、
前記撮像部によって撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出部と、
人間が着座していた椅子からずり落ちる動作の開始時点と終了時点との間における前記人間の所定部位の座標と、前記人間が着座していた椅子からずり落ちる動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出部によって抽出された前記被監視対象の所定部位の座標から、前記被監視対象が着座していた椅子からずり落ちる動作の開始を推定するコントローラと、
を備える。
In addition, the system according to one embodiment is
An imaging unit that captures the monitored object and
An extraction unit that extracts the coordinates of a predetermined portion of the monitored object from the image captured by the imaging unit, and an extraction unit.
Machine learning was performed on the relationship between the coordinates of the predetermined part of the human between the start time and the end time of the motion of sliding down from the chair in which the human was seated and the start of the motion of sliding down from the chair in which the human was seated. Based on the machine learning data, the controller that estimates the start of the motion of the monitored object sliding down from the chair on which the monitored object was seated from the coordinates of the predetermined portion of the monitored object extracted by the extraction unit.
To prepare for.

一実施形態に係る電子機器は、
被監視対象を含んで撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出部と、
前記被監視対象を含んで撮像された経時的な画像において前記被監視対象が着座していた椅子からずり落ちる動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記所定部位の座標と、前記被監視対象が着座していた椅子からずり落ちる動作の開始との関係を機械学習するコントローラと、
を備える。
The electronic device according to one embodiment is
An extraction unit that extracts the coordinates of a predetermined part of the monitored object from an image captured including the monitored object, and an extraction unit.
The start time and the end time are based on the timing information indicating the start time and the end time of the motion of the monitored object sliding down from the chair in which the monitored object is seated in the time-lapse image captured including the monitored object. A controller that machine-learns the relationship between the coordinates of the predetermined part between the two and the start of the motion of sliding down from the chair on which the monitored object is seated.
To prepare for.

また、一実施形態に係る電子機器は、
被監視対象を含んで撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出部と、
人間が着座していた椅子からずり落ちる動作の開始時点と終了時点との間における前記人間の所定部位の座標と、前記人間が着座していた椅子からずり落ちる動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出部によって抽出された前記被監視対象の所定部位の座標から、前記被監視対象が着座していた椅子からずり落ちる動作の開始を推定するコントローラと、
を備える。
In addition, the electronic device according to one embodiment is
An extraction unit that extracts the coordinates of a predetermined part of the monitored object from an image captured including the monitored object, and an extraction unit.
Machine learning was performed on the relationship between the coordinates of the predetermined part of the human between the start time and the end time of the motion of sliding down from the chair in which the human was seated and the start of the motion of sliding down from the chair in which the human was seated. Based on the machine learning data, the controller that estimates the start of the motion of the monitored object sliding down from the chair on which the monitored object was seated from the coordinates of the predetermined portion of the monitored object extracted by the extraction unit.
To prepare for.

一実施形態に係る電子機器の制御方法は、
被監視対象を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が着座していた椅子からずり落ちる動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記所定部位の座標と、前記被監視対象が着座していた椅子からずり落ちる動作の開始との関係を機械学習する機械学習ステップと、
を含む。
The method for controlling an electronic device according to an embodiment is as follows.
An imaging step that captures the monitored object, and
An extraction step of extracting the coordinates of a predetermined portion of the monitored object from the image captured by the imaging step, and an extraction step.
Between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object slides down from the chair in which the monitored object is seated in the time-dependent image captured by the imaging step. A machine learning step for machine learning the relationship between the coordinates of the predetermined portion and the start of the motion of sliding down from the chair on which the monitored object was seated.
including.

また、一実施形態に係る電子機器の制御方法は、
被監視対象を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出ステップと、
人間が着座していた椅子からずり落ちる動作の開始時点と終了時点との間における前記人間の所定部位の座標と、前記人間が着座していた椅子からずり落ちる動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出ステップによって抽出された前記被監視対象の所定部位の座標から、前記被監視対象が着座していた椅子からずり落ちる動作の開始を推定する推定ステップと、
を含む。
Further, the control method of the electronic device according to the embodiment is as follows.
An imaging step that captures the monitored object, and
An extraction step of extracting the coordinates of a predetermined portion of the monitored object from the image captured by the imaging step, and an extraction step.
Machine learning was performed on the relationship between the coordinates of the predetermined part of the human between the start time and the end time of the motion of sliding down from the chair in which the human was seated and the start of the motion of sliding down from the chair in which the human was seated. Based on the machine learning data, the estimation step of estimating the start of the motion of the monitored object sliding down from the chair on which the monitored object was seated from the coordinates of the predetermined portion of the monitored object extracted by the extraction step, and the estimation step.
including.

一実施形態に係るプログラムは、
コンピュータに、
被監視対象を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が着座していた椅子からずり落ちる動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記所定部位の座標と、前記被監視対象が着座していた椅子からずり落ちる動作の開始との関係を機械学習する機械学習ステップと、
を実行させる。
The program according to one embodiment is
On the computer
An imaging step that captures the monitored object, and
An extraction step of extracting the coordinates of a predetermined portion of the monitored object from the image captured by the imaging step, and an extraction step.
Between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object slides down from the chair in which the monitored object is seated in the time-dependent image captured by the imaging step. A machine learning step for machine learning the relationship between the coordinates of the predetermined portion and the start of the motion of sliding down from the chair on which the monitored object was seated.
To execute.

また、一実施形態に係るプログラムは、
コンピュータに、
被監視対象を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出ステップと、
人間が着座していた椅子からずり落ちる動作の開始時点と終了時点との間における前記人間の所定部位の座標と、前記人間が着座していた椅子からずり落ちる動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出ステップによって抽出された前記被監視対象の所定部位の座標から、前記被監視対象が着座していた椅子からずり落ちる動作の開始を推定する推定ステップと、
を実行させる。
In addition, the program according to one embodiment is
On the computer
An imaging step that captures the monitored object, and
An extraction step of extracting the coordinates of a predetermined portion of the monitored object from the image captured by the imaging step, and an extraction step.
Machine learning was performed on the relationship between the coordinates of the predetermined part of the human between the start time and the end time of the motion of sliding down from the chair in which the human was seated and the start of the motion of sliding down from the chair in which the human was seated. Based on the machine learning data, the estimation step of estimating the start of the motion of the monitored object sliding down from the chair on which the monitored object was seated from the coordinates of the predetermined portion of the monitored object extracted by the extraction step, and the estimation step.
To execute.

一実施形態によれば、被監視対象の安全に供し得るシステム、電子機器、電子機器の制御方法、及びプログラムを提供することができる。 According to one embodiment, it is possible to provide a system, an electronic device, a control method for the electronic device, and a program that can be safely provided to the monitored object.

一実施形態に係るシステムの概略構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure of the system which concerns on one Embodiment. 一実施形態に係るシステムによる学習フェーズの動作を説明するフローチャートである。It is a flowchart explaining the operation of the learning phase by the system which concerns on one Embodiment. 一実施形態に係るシステムによって撮像される画像の例を示すフローチャートである。It is a flowchart which shows the example of the image imaged by the system which concerns on one Embodiment. 一実施形態に係るシステムによって抽出される所定の部位の例を示す図である。It is a figure which shows the example of the predetermined part extracted by the system which concerns on one Embodiment. 一実施形態に係るシステムによって撮像される画像から抽出される所定の部位の例を示す図である。It is a figure which shows the example of the predetermined part extracted from the image imaged by the system which concerns on one Embodiment. 一実施形態に係るシステムによって抽出される所定の部位の座標について説明する図である。It is a figure explaining the coordinates of the predetermined part extracted by the system which concerns on one Embodiment. 一実施形態に係るシステムによって取得されるタイミング情報について説明する図である。It is a figure explaining the timing information acquired by the system which concerns on one Embodiment. 一実施形態に係るシステムによって抽出される所定の部位の例を示す図である。It is a figure which shows the example of the predetermined part extracted by the system which concerns on one Embodiment. 一実施形態に係るシステムによって抽出される所定の部位の例を示す図である。It is a figure which shows the example of the predetermined part extracted by the system which concerns on one Embodiment. 一実施形態に係るシステムによって抽出される所定の部位の例を示す図である。It is a figure which shows the example of the predetermined part extracted by the system which concerns on one Embodiment. 一実施形態に係るシステムによって抽出される所定の部位の例を示す図である。It is a figure which shows the example of the predetermined part extracted by the system which concerns on one Embodiment. 一実施形態に係るシステムによる推定フェーズの動作を説明するフローチャートである。It is a flowchart explaining the operation of the estimation phase by the system which concerns on one Embodiment. 一実施形態に係るシステムによる推定について説明する図である。It is a figure explaining the estimation by the system which concerns on one Embodiment.

本開示において、「電子機器」とは、電力により駆動する機器としてよい。また、「システム」とは、電力により駆動する機器を含むものとしてよい。また、「ユーザ」とは、一実施形態に係るシステム及び/又は電子機器を使用する者(典型的には人間)としてよい。ユーザは、一実施形態に係るシステム及び/又は電子機器を用いることで、被監視対象の監視を行う者を含んでもよい。また、「被監視対象」とは、一実施形態に係るシステム及び/又は電子機器によって監視される対象となる者(例えば人間又は動物)としてよい。さらに、ユーザは、被監視対象を含んでもよい。 In the present disclosure, the "electronic device" may be a device driven by electric power. Further, the "system" may include a device driven by electric power. Further, the "user" may be a person (typically a human being) who uses the system and / or the electronic device according to the embodiment. The user may include a person who monitors the monitored object by using the system and / or the electronic device according to the embodiment. Further, the “monitored target” may be a person (for example, a human or an animal) to be monitored by the system and / or the electronic device according to the embodiment. Further, the user may include a monitored object.

一実施形態に係るシステムが利用される場面として想定されるのは、例えば、会社、病院、老人ホーム、学校、スポーツジム、及び介護施設などのような、社会活動を行う者が使用する特定の施設などとしてよい。例えば、会社であれば従業員などの健康状態の把握及び/又は管理は、極めて重要である。同様に、病院であれば患者及び医療従事者など、また老人ホームであれば入居者及びスタッフなどの健康状態の把握及び/又は管理は、極めて重要である。一実施形態に係るシステムが利用される場面は、上述の、会社、病院、及び老人ホームなどの施設に限定されず、被監視対象の健康状態の把握及び/又は管理などが望まれる任意の施設としてよい。任意の施設は、例えば、ユーザの自宅などの非商業施設も含んでもよい。また、一実施形態に係るシステムが利用される場面は、例えば、電車、バス、及び飛行機などの移動体内、並びに、駅及び乗り場などとしてもよい。 It is assumed that the system according to one embodiment is used in a specific situation used by a person engaged in social activities such as a company, a hospital, an elderly home, a school, a sports gym, and a long-term care facility. It may be a facility. For example, in the case of a company, it is extremely important to understand and / or manage the health status of employees. Similarly, it is extremely important to understand and / or manage the health status of patients and medical staff in hospitals, and residents and staff in elderly housing with care. The scene in which the system according to the embodiment is used is not limited to the above-mentioned facilities such as companies, hospitals, and elderly housings, but any facility where it is desired to grasp and / or manage the health condition of the monitored object. May be. Any facility may also include non-commercial facilities, such as the user's home. Further, the scene in which the system according to one embodiment is used may be, for example, a moving body such as a train, a bus, or an airplane, a station, a platform, or the like.

一実施形態に係るシステムは、例えば、介護施設などにおいて、要看護者又は要介護者などのような被監視対象の行動を監視する用途で用いられてよい。一実施形態に係るシステムは、例えば要看護者又は要介護者などのような被監視対象が着座している椅子からずり落ちる動作を監視することができる。ここで、被監視対象が着座している椅子からずり落ちる動作とは、例えば、被監視対象が椅子の座面に着座している場合に当該座面の上で身体を部分的に滑らせるようにして当該椅子から落下する動作などとしてよい。 The system according to one embodiment may be used for monitoring the behavior of a monitored object such as a nurse-requiring person or a nursing-requiring person in a nursing care facility or the like. The system according to one embodiment can monitor the movement of a monitored object such as a nurse or a care recipient sliding down from a seated chair. Here, the action of the monitored object sliding down from the seated chair is, for example, allowing the monitored object to partially slide on the seating surface when the monitored object is seated on the seating surface of the chair. It may be an action of falling from the chair.

特に、一実施形態に係るシステムは、例えば要看護者又は要介護者などのような被監視者が椅子などに着座している場合に、椅子からずり落ちる動作が終了する前、例えば床面などに落下する前に、所定の警告を発することができる。したがって、一実施形態に係るシステムによれば、例えば介護施設などのスタッフは、例えば要看護者又は要介護者などのような被監視者が椅子からずり落ちる前に、被監視者が椅子からずり落ちようとしていることを認識し得る。 In particular, the system according to one embodiment is used, for example, when a monitored person such as a nurse or a care recipient is seated on a chair, before the operation of sliding off the chair is completed, for example, on the floor surface. A given warning can be issued before the fall. Therefore, according to the system according to one embodiment, the staff such as a care facility slides off the chair before the monitored person such as a nurse or a person requiring nursing care slides off the chair. You can recognize that you are trying.

以下、一実施形態に係るシステムについて、図面を参照して詳細に説明する。 Hereinafter, the system according to the embodiment will be described in detail with reference to the drawings.

図1は、一実施形態に係るシステムの概略構成を示す図である。図1に示すように、一実施形態に係るシステム1は、電子機器10及び撮像部20を含んで構成されてよい。電子機器10と撮像部20とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。一実施形態に係るシステム1は、図1に示す機能部の一部を含まなくてもよいし、図1に示す以外の機能部を含んでもよい。例えば、一実施形態に係るシステム1は、警告部17及び通信部19の少なくとも一方を備えなくてもよい。また、例えば、一実施形態に係るシステム1は、画像を表示可能なディスプレイ及び/又はメモリカードなどのストレージを挿入可能なスロットなどを備えてもよい。 FIG. 1 is a diagram showing a schematic configuration of a system according to an embodiment. As shown in FIG. 1, the system 1 according to an embodiment may be configured to include an electronic device 10 and an image pickup unit 20. The electronic device 10 and the image pickup unit 20 may be connected by wire or wireless, or a combination of wire and wireless. The system 1 according to one embodiment may not include a part of the functional unit shown in FIG. 1, or may include a functional unit other than that shown in FIG. For example, the system 1 according to the embodiment may not include at least one of the warning unit 17 and the communication unit 19. Further, for example, the system 1 according to the embodiment may include a display capable of displaying an image and / or a slot into which a storage such as a memory card can be inserted.

図1に示す撮像部20は、例えばデジタルカメラのような、電子的に画像を撮像するイメージセンサを含んで構成されてよい。撮像部20は、CCD(Charge Coupled Device Image Sensor)又はCMOS(Complementary Metal Oxide Semiconductor)センサ等のように、光電変換を行う撮像素子を含んで構成されてよい。撮像部20は、例えば図1に示すように、被監視対象Tを撮像してよい。ここで、被監視対象Tは、例えば人間としてよい。撮像部20は、撮像した画像を信号に変換して、電子機器10に送信してよい。例えば、撮像部20は、撮像した画像に基づく信号を、電子機器10の抽出部11、記憶部13、及び/又は、コントローラ15などに送信してよい。撮像部20は、被監視対象Tを撮像するものであれば、デジタルカメラのような撮像デバイスに限定されず、任意のデバイスとしてよい。 The image pickup unit 20 shown in FIG. 1 may include an image sensor that electronically captures an image, such as a digital camera. The image pickup unit 20 may be configured to include an image pickup element that performs photoelectric conversion, such as a CCD (Charge Coupled Device Image Sensor) or a CMOS (Complementary Metal Oxide Semiconductor) sensor. The imaging unit 20 may image the monitored target T, for example, as shown in FIG. Here, the monitored target T may be, for example, a human being. The image pickup unit 20 may convert the captured image into a signal and transmit it to the electronic device 10. For example, the image pickup unit 20 may transmit a signal based on the captured image to the extraction unit 11, the storage unit 13, and / or the controller 15 of the electronic device 10. The image pickup unit 20 is not limited to an image pickup device such as a digital camera as long as it captures the monitored target T, and may be any device.

一実施形態において、撮像部20は、例えば被監視対象Tを所定時間ごと(例えば秒間15フレーム)の静止画として撮像してもよい。また、一実施形態において、撮像部20は、例えば被監視対象Tを連続した動画として撮像してもよい。 In one embodiment, the image pickup unit 20 may take an image of the monitored target T, for example, as a still image at predetermined time intervals (for example, 15 frames per second). Further, in one embodiment, the imaging unit 20 may image, for example, the monitored target T as a continuous moving image.

図1に示すように、一実施形態に係る電子機器10は、抽出部11、記憶部13、コントローラ15、警告部17、及び通信部19を備えてよい。一実施形態に係る電子機器10は、図1に示す機能部の一部を備えなくてもよいし、図1に示す以外の機能部を備えてもよい。例えば、一実施形態に係る電子機器10は、記憶部13に記憶される後述の機械学習データ132を備えてもよい。例えば、一実施形態に係る電子機器10は、後述の機械学習データ132の少なくとも一部が、外部サーバなどの外部機器に記憶されているとしてもよい。 As shown in FIG. 1, the electronic device 10 according to the embodiment may include an extraction unit 11, a storage unit 13, a controller 15, a warning unit 17, and a communication unit 19. The electronic device 10 according to the embodiment may not include a part of the functional unit shown in FIG. 1, or may include a functional unit other than that shown in FIG. For example, the electronic device 10 according to the embodiment may include machine learning data 132, which will be described later, stored in the storage unit 13. For example, in the electronic device 10 according to the embodiment, at least a part of the machine learning data 132 described later may be stored in an external device such as an external server.

抽出部11は、撮像部20によって撮像された画像から、所定の特徴点を抽出する機能を有してよい。例えば、抽出部11は、撮像部20によって撮像された被監視対象Tの画像から、当該被監視対象Tの身体における所定部位のような特徴点の座標を抽出してもよい。ここで、特徴点については、さらに後述する。一実施形態において、抽出部11は、撮像部20によって撮像された被監視対象Tの画像から、当該被監視対象Tの頭部、体幹、四肢、及び/又は各関節などの各部の座標を抽出してもよい。抽出部11は、専用のハードウェアとして構成されてもよいし、少なくとも一部にソフトウェアを含めて構成されてもよいし、全てソフトウェアで構成されているとしてもよい。このように、抽出部11は、撮像部20によって撮像された画像から、被監視対象Tの所定部位の座標を抽出してよい。 The extraction unit 11 may have a function of extracting a predetermined feature point from the image captured by the image pickup unit 20. For example, the extraction unit 11 may extract the coordinates of a feature point such as a predetermined portion of the body of the monitored object T from the image of the monitored object T captured by the imaging unit 20. Here, the feature points will be further described later. In one embodiment, the extraction unit 11 obtains the coordinates of each part such as the head, trunk, limbs, and / or joints of the monitored object T from the image of the monitored object T captured by the imaging unit 20. It may be extracted. The extraction unit 11 may be configured as dedicated hardware, may be configured to include software at least in part, or may be configured entirely by software. In this way, the extraction unit 11 may extract the coordinates of the predetermined portion of the monitored target T from the image captured by the image pickup unit 20.

記憶部13は、各種の情報を記憶するメモリとしての機能を有してよい。記憶部13は、例えばコントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などを記憶してよい。また、記憶部13は、コントローラ15のワークメモリとして機能してよい。記憶部13は、例えば半導体メモリ等により構成することができるが、これに限定されず、任意の記憶装置とすることができる。例えば、記憶部13は、一実施形態に係る電子機器10に挿入されたメモリカードのような記憶媒体としてもよい。また、記憶部13は、後述のコントローラ15として用いられるCPUの内部メモリであってもよいし、コントローラ15に別体として接続されるものとしてもよい。 The storage unit 13 may have a function as a memory for storing various types of information. The storage unit 13 may store, for example, a program executed by the controller 15, the result of processing executed by the controller 15, and the like. Further, the storage unit 13 may function as a work memory of the controller 15. The storage unit 13 can be configured by, for example, a semiconductor memory or the like, but is not limited to this, and can be any storage device. For example, the storage unit 13 may be a storage medium such as a memory card inserted in the electronic device 10 according to the embodiment. Further, the storage unit 13 may be the internal memory of the CPU used as the controller 15 described later, or may be connected to the controller 15 as a separate body.

図1に示すように、記憶部13は、例えば機械学習データ132を記憶してもよい。ここで、機械学習データ132は、機械学習によって生成されるデータとしてよい。また、機械学習とは、特定のタスクをトレーニングによって実行可能になるAI(Artificial Intelligence)の技術に基づくものとしてよい。より具体的には、機械学習とは、コンピュータのような情報処理装置が多くのデータを学習し、分類及び/又は予測などのタスクを遂行するアルゴリズム又はモデルを自動的に構築する技術としてよい。本明細書において、AI(Artificial Intelligence)の一部には、機械学習が含まれるとしてもよい。本明細書において、機械学習には、正解データをもとに入力データの特徴又はルールを学習する教師あり学習が含まれるものとしてよい。また、機械学習には、正解データがない状態で入力データの特徴又はルールを学習する教師なし学習が含まれるものとしてもよい。さらに、機械学習には、報酬又は罰などを与えて入力データの特徴又はルールを学習する強化学習などが含まれるものとしてもよい。また、本明細書において、機械学習は、教師あり学習、教師なし学習、及び強化学習を任意に組み合わせたものとしてもよい。本実施形態の機械学習データ132の概念は、入力データに対して学習されたアルゴリズムを用いて所定の推論(推定)結果を出力するアルゴリズムを含むとしてもよい。本実施形態は、このアルゴリズムとして、例えば、従属変数と独立変数との関係を予測する線形回帰、人の脳神経系ニューロンを数理モデル化したニューラルネットワーク(NN)、誤差を二乗して算出する最小二乗法、問題解決を木構造にする決定木、及びデータを所定の方法で変形する正則化などその他適宜なアルゴリズムを用いることができる。本実施形態は、ニューラルネットワークの一種であるディープラーニングを利用するとしてよい。ディープラーニングは、ニューラルネットワークの一種であり、ネットワークの階層が深いニューラルネットワークがディープラーニングと呼ばれている。 As shown in FIG. 1, the storage unit 13 may store, for example, machine learning data 132. Here, the machine learning data 132 may be data generated by machine learning. Further, machine learning may be based on AI (Artificial Intelligence) technology that enables a specific task to be executed by training. More specifically, machine learning may be a technique in which an information processing device such as a computer learns a large amount of data and automatically constructs an algorithm or model for performing tasks such as classification and / or prediction. In the present specification, a part of AI (Artificial Intelligence) may include machine learning. In the present specification, machine learning may include supervised learning that learns the features or rules of input data based on correct answer data. Further, the machine learning may include unsupervised learning in which the features or rules of the input data are learned in the absence of correct answer data. Further, the machine learning may include reinforcement learning for learning the features or rules of the input data by giving a reward or a punishment. Further, in the present specification, machine learning may be any combination of supervised learning, unsupervised learning, and reinforcement learning. The concept of machine learning data 132 of the present embodiment may include an algorithm that outputs a predetermined inference (estimation) result by using an algorithm learned for input data. In this embodiment, as this algorithm, for example, a linear regression that predicts the relationship between a dependent variable and an independent variable, a neural network (NN) that mathematically models a human brain nervous system neuron, and a least squares that squares an error are calculated. Other appropriate algorithms such as multiplication, decision trees that make problem solving into a tree structure, and regularization that transforms data in a predetermined way can be used. In this embodiment, deep learning, which is a kind of neural network, may be used. Deep learning is a type of neural network, and a neural network with a deep network hierarchy is called deep learning.

本開示の技術において、被監視対象の身体の動作aと、この動作aから発生する被監視対象の動作結果Aとの間には、一般的に一定の関係が存在するものとしてよい。なお、ここでの動作結果には、被監視対象の動作、被監視対象の動作開始時点、被監視対象の動作から発生する事故及び事件その他の出来事などを含むとしてよい。例えば、被監視対象の身体の動作aが行われ、この動作aから被監視対象の動作結果Aが発生したとする。また、被監視対象の身体の動作bが行われ、この動作bから被監視対象の動作結果Bが発生したとする。本開示の技術は、上記動作aと動作結果A、動作bと動作結果Bその他の動作と動作結果の関係を、機械学習データとして蓄積する。そして、本開示の技術は、動作xが抽出された場合に、上記機械学習データを用いて、動作xに関係する動作結果Xを推定するとしてよい。 In the technique of the present disclosure, it may be assumed that there is generally a certain relationship between the motion a of the body of the monitored object and the motion result A of the monitored object generated from this motion a. The operation result here may include the operation of the monitored object, the operation start time of the monitored object, an accident, an incident or other event generated from the operation of the monitored object. For example, it is assumed that the movement a of the body of the monitored target is performed, and the movement result A of the monitored target is generated from this movement a. Further, it is assumed that the movement b of the body to be monitored is performed, and the movement result B of the monitored target is generated from this movement b. The technique of the present disclosure accumulates the relationship between the operation a and the operation result A, the operation b and the operation result B, and other operations and the operation result as machine learning data. Then, in the technique of the present disclosure, when the motion x is extracted, the motion result X related to the motion x may be estimated using the machine learning data.

特に、一実施形態において、機械学習データ132は、被監視対象Tが着座していた椅子からずり落ちる動作をする際の特徴点の動きを機械学習したデータとしてよい。以下、被監視対象Tが着座していた椅子からずり落ちる動作を、「ずり落ち動作」と記すことがある。また、機械学習データ132は、被監視対象Tとして特定の人物(例えば特定の要介護者など)が着座していた椅子からずり落ちる動作をする際の特徴点の動きを機械学習したデータとしてもよい。一実施形態に係る機械学習データ132については、さらに後述する。 In particular, in one embodiment, the machine learning data 132 may be machine-learned data on the movement of feature points when the monitored object T slides down from the seated chair. Hereinafter, the motion of the monitored object T sliding down from the seated chair may be referred to as a “sliding motion”. Further, the machine learning data 132 may be machine-learned data on the movement of feature points when a specific person (for example, a specific person requiring nursing care) is seated as a monitored target T and slides down from the chair. .. The machine learning data 132 according to the embodiment will be further described later.

コントローラ15は、電子機器10を構成する各機能部をはじめとして、電子機器10の全体を制御及び/又は管理する。コントローラ15は、種々の機能を実行するための制御及び処理能力を提供するために、例えばCPU(Central Processing Unit)のような、少なくとも1つのプロセッサを含んでよい。コントローラ15は、まとめて1つのプロセッサで実現してもよいし、いくつかのプロセッサで実現してもよいし、それぞれ個別のプロセッサで実現してもよい。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)ともいう。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。 The controller 15 controls and / or manages the entire electronic device 10 including each functional unit constituting the electronic device 10. The controller 15 may include at least one processor, such as a CPU (Central Processing Unit), to provide control and processing power to perform various functions. The controller 15 may be realized collectively by one processor, by several processors, or by individual processors. The processor may be realized as a single integrated circuit. The integrated circuit is also referred to as an IC (Integrated Circuit). The processor may be realized as a plurality of communicably connected integrated circuits and discrete circuits. The processor may be implemented on the basis of various other known techniques.

一実施形態において、コントローラ15は、例えばCPU及び当該CPUで実行されるプログラムとして構成されてよい。コントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などは、例えば記憶部13に記憶されてよい。コントローラ15は、コントローラ15の動作に必要なメモリを適宜含んでもよい。一実施形態に係る電子機器10のコントローラ15の動作については、さらに後述する。 In one embodiment, the controller 15 may be configured as, for example, a CPU and a program executed by the CPU. The program executed by the controller 15, the result of the process executed by the controller 15, and the like may be stored in, for example, the storage unit 13. The controller 15 may appropriately include a memory necessary for the operation of the controller 15. The operation of the controller 15 of the electronic device 10 according to the embodiment will be further described later.

警告部17は、コントローラ15から出力される所定の警告信号に基づいて、システム1又は電子機器10のユーザなどに注意を促すための所定の警告を発してよい。警告部17は、所定の警告として、例えば音、音声、光、文字、映像、及び振動など、ユーザの聴覚、視覚、触覚の少なくともいずれかを刺激する任意の機能部としてよい。具体的には、警告部17は、例えばブザー又はスピーカのような音声出力部、LEDのような発光部、LCDのような表示部、及びバイブレータのような触感呈示部などの少なくともいずれかとしてよい。このように、警告部17は、コントローラ15から出力される所定の警告信号に基づいて、所定の警告を発してよい。一実施形態において、警告部17は、所定の警報を、聴覚、視覚、及び触覚の少なくともいずれかに作用する情報として発してもよい。 The warning unit 17 may issue a predetermined warning for calling attention to the user of the system 1 or the electronic device 10 based on the predetermined warning signal output from the controller 15. As a predetermined warning, the warning unit 17 may be any functional unit that stimulates at least one of the user's auditory sense, visual sense, and tactile sense, such as sound, voice, light, characters, video, and vibration. Specifically, the warning unit 17 may be at least one of, for example, an audio output unit such as a buzzer or a speaker, a light emitting unit such as an LED, a display unit such as an LCD, and a tactile presentation unit such as a vibrator. .. In this way, the warning unit 17 may issue a predetermined warning based on a predetermined warning signal output from the controller 15. In one embodiment, the warning unit 17 may issue a predetermined alarm as information acting on at least one of auditory, visual, and tactile sensations.

一実施形態において、警告部17は、例えば被監視対象Tが着座していた椅子からずり落ちる動作を開始する前に、被監視対象Tが椅子からずり落ちるリスクがある旨の警告を発してよい。また、一実施形態において、警告部17は、被監視対象Tが着座していた椅子からずり落ちる動作を終了する前に、被監視対象Tが椅子からずり落ちるリスクがある旨の警告を発してもよい。例えば、一実施形態において、視覚情報を出力する警告部17は、被監視対象Tが椅子からずり落ちるリスクがある旨が検出されると、その旨を発光又は所定の表示などによってユーザに警告してよい。また、一実施形態において、聴覚情報を出力する警告部17は、被監視対象Tが椅子からずり落ちるリスクがある旨が検出されると、その旨を所定の音又は音声などによってユーザに警告してよい。本実施形態では、上記警告は、発光又は所定の表示、及び所定の音又は音声を組み合わせてもよい。 In one embodiment, the warning unit 17 may issue a warning that the monitored target T is at risk of slipping off the chair, for example, before starting the operation of sliding down from the chair on which the monitored target T is seated. Further, in one embodiment, the warning unit 17 may issue a warning that there is a risk that the monitored target T will slide off the chair before the operation of the monitored target T sliding off the seated chair is completed. .. For example, in one embodiment, the warning unit 17 that outputs visual information warns the user by emitting light or a predetermined display when it is detected that the monitored target T has a risk of slipping off the chair. good. Further, in one embodiment, the warning unit 17 that outputs auditory information warns the user by a predetermined sound or voice when it is detected that the monitored target T has a risk of slipping off the chair. good. In the present embodiment, the warning may be a combination of light emission or a predetermined display, and a predetermined sound or voice.

図1に示す電子機器10は、警告部17を内蔵している。しかしながら、一実施形態にシステム1において、警告部17は、電子機器10の外部に設けられてもよい。この場合、警告部17と電子機器10とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。 The electronic device 10 shown in FIG. 1 has a built-in warning unit 17. However, in one embodiment, in the system 1, the warning unit 17 may be provided outside the electronic device 10. In this case, the warning unit 17 and the electronic device 10 may be connected by wire or wireless, or a combination of wire and wireless.

通信部19は、有線又は無線により通信するためのインタフェースの機能を有する。一実施形態の通信部19によって行われる通信方式は無線通信規格としてよい。例えば、無線通信規格は2G、3G、4G、及び5G等のセルラーフォンの通信規格を含む。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)、及びPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格は、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、WiFi、Bluetooth(登録商標)、IrDA(Infrared Data Association)、及びNFC(Near Field Communication)等を含む。通信部19は、上記の通信規格の1つ又は複数をサポートすることができる。通信部19は、例えば電波を送受信するアンテナ及び適当なRF部などを含めて構成してよい。また、通信部19は、外部に有線接続するためのコネクタなどのようなインタフェースとして構成してもよい。通信部19は、無線通信を行うための既知の技術により構成することができるため、より詳細なハードウェアなどの説明は省略する。 The communication unit 19 has an interface function for communicating by wire or wirelessly. The communication method performed by the communication unit 19 of one embodiment may be a wireless communication standard. For example, wireless communication standards include communication standards for cellular phones such as 2G, 3G, 4G, and 5G. For example, the communication standards for cellular phones are LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (Registered Trademark) (Global System for Mobile communications), and PHS. (Personal Handy-phone System) etc. are included. For example, wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), 802.11, WiFi, Bluetooth®, IrDA (Infrared Data Association), NFC (Near Field Communication) and the like. The communication unit 19 can support one or more of the above communication standards. The communication unit 19 may be configured to include, for example, an antenna for transmitting and receiving radio waves, an appropriate RF unit, and the like. Further, the communication unit 19 may be configured as an interface such as a connector for making a wired connection to the outside. Since the communication unit 19 can be configured by a known technique for performing wireless communication, more detailed description of hardware and the like will be omitted.

通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に供給されてよい。通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に内蔵されたメモリに記憶してもよい。また、通信部19は、例えばコントローラ15による処理結果、抽出部11による抽出結果、及び/又は、記憶部13に記憶された情報などを外部に送信してもよい。 Various types of information received by the communication unit 19 may be supplied to, for example, the storage unit 13 and / or the controller 15. Various information received by the communication unit 19 may be stored in, for example, a memory built in the storage unit 13 and / or the controller 15. Further, the communication unit 19 may transmit, for example, the processing result by the controller 15, the extraction result by the extraction unit 11, and / or the information stored in the storage unit 13 to the outside.

図1に示すような、一実施形態に係る電子機器10を構成する各機能部の少なくとも一部は、ソフトウェアとハードウェア資源とが協働した具体的手段によって構成されてもよい。 As shown in FIG. 1, at least a part of each functional unit constituting the electronic device 10 according to the embodiment may be configured by a specific means in which software and hardware resources cooperate.

次に、一実施形態に係るシステム1の動作について説明する。 Next, the operation of the system 1 according to the embodiment will be described.

一実施形態に係るシステム1の動作は、典型的には、「学習フェーズ」と「推定フェーズ」とに分けることができる。学習フェーズにおいては、例えば被監視対象Tのような人間が着座していた椅子からずり落ちる動作における身体の各部の位置(座標)と、当該ずり落ちる動作のタイミングとの関係を機械学習する動作を行ってよい。また、推定フェーズにおいては、学習フェーズにおいて機械学習した結果に基づいて、被監視対象Tが着座していた椅子からずり落ちる動作における身体の各部の位置(座標)から、ずり落ち動作の開始を推定する動作を行ってよい。以下、上述の学習フェーズ及び推定フェーズのそれぞれにおける動作について、より詳細に説明する。まず、学習フェーズにおける動作について、説明する。 The operation of the system 1 according to one embodiment can be typically divided into a "learning phase" and an "estimation phase". In the learning phase, for example, a machine learning operation is performed to learn the relationship between the position (coordinates) of each part of the body in the motion of sliding down from the chair on which the human being is seated, such as the monitored object T, and the timing of the sliding motion. good. Further, in the estimation phase, based on the result of machine learning in the learning phase, the start of the sliding motion is estimated from the position (coordinates) of each part of the body in the motion of sliding down from the chair on which the monitored object T is seated. You may perform the operation. Hereinafter, the operation in each of the above-mentioned learning phase and estimation phase will be described in more detail. First, the operation in the learning phase will be described.

図2は、一実施形態に係るシステム1の学習フェーズにおける動作の一例を示すフローチャートである。図2は、一実施形態に係るシステム1に含まれる電子機器10の学習フェーズにおける動作に焦点を当てたフローチャートとしてもよい。 FIG. 2 is a flowchart showing an example of the operation in the learning phase of the system 1 according to the embodiment. FIG. 2 may be a flowchart focusing on the operation of the electronic device 10 included in the system 1 according to the embodiment in the learning phase.

例えば介護施設又は病院などにおいて、お年寄り又は負傷者のように、足腰が弱くなるなど筋力が低下している者は、椅子に着座している際に、その椅子からずり落ちるリスクがあり得る。また、例えば上述のような筋力が低下している者などは、着座している椅子から立ち上がろうとする動作の途中で、その椅子からずり落ちるリスクもあり得る。また、椅子に着座している者が着座したままの体勢を比較的長く継続させると不快に感じ、身体を揺するように動かすことがある。この場合も、例えば上述のような筋力が低下している者などは、身体を揺するように動かしているうちに、その椅子からずり落ちるリスクがあり得る。一実施形態に係るシステム1の学習フェーズにおいては、上述のようにして被監視対象Tのような人間が椅子からずり落ちる動作における身体の各部の位置(座標)と、当該ずり落ちる動作のタイミングとの関係を機械学習してよい。以下、このような動作について、より詳細に説明する。 For example, in a long-term care facility or a hospital, a person with weak muscles such as weak legs, such as an elderly person or an injured person, may be at risk of slipping off the chair when sitting on the chair. In addition, for example, a person with weak muscle strength as described above may have a risk of slipping off the chair while trying to get up from the chair. In addition, a person sitting on a chair may feel uncomfortable if he / she keeps sitting in a sitting position for a relatively long time, and may move his / her body to shake. In this case as well, for example, a person with weak muscles as described above may have a risk of slipping off the chair while moving the body to shake. In the learning phase of the system 1 according to the embodiment, as described above, the relationship between the position (coordinates) of each part of the body in the motion of a human being such as the monitored object T sliding down from the chair and the timing of the sliding motion. May be machine-learned. Hereinafter, such an operation will be described in more detail.

図2に示す動作が開始する時点において、システム1の撮像部20は、例えば被監視対象Tのような人間の撮像を開始していてよい。図2に示す動作が開始する時点は、撮像部20が例えば被監視対象Tのような人間の撮像を開始した時点としてもよい。また、図2に示す動作が開始する時点は、撮像部20が撮像を開始してから、例えば被監視対象Tのような人間が撮像部20の撮像範囲に入った時点としてもよい。 At the time when the operation shown in FIG. 2 starts, the imaging unit 20 of the system 1 may start imaging a human such as the monitored target T. The time point at which the operation shown in FIG. 2 starts may be the time when the image pickup unit 20 starts image pickup of a human such as the monitored target T. Further, the time point at which the operation shown in FIG. 2 starts may be the time when a person such as the monitored target T enters the image pickup range of the image pickup unit 20 after the image pickup unit 20 starts image pickup.

図2に示す動作が開始すると、電子機器10のコントローラ15は、撮像部20によって撮像された画像を取得する(ステップS11)。 When the operation shown in FIG. 2 starts, the controller 15 of the electronic device 10 acquires the image captured by the image pickup unit 20 (step S11).

図3は、図2に示したステップS11においてコントローラ15が取得した画像、すなわち撮像部20によって撮像された画像の例を示す図である。 FIG. 3 is a diagram showing an example of an image acquired by the controller 15 in step S11 shown in FIG. 2, that is, an image captured by the imaging unit 20.

図3に示すように、撮像部20は、例えば被監視対象Tのような人間が椅子に着座している状態を撮像してよい。図3は、被監視対象Tのような人間が椅子に着座しつつ、両腕をテーブル(又はデスク)に載せている様子を模式的に示している。この場合、ステップS11において、コントローラ15は、被監視対象Tのような人間が椅子に着座している画像を取得する。後述のように、撮像部20は、被監視対象Tのような人間が椅子に着座している状態以外の状態の画像を撮像してもよい。この場合、ステップS11において、コントローラ15は、被監視対象Tのような人間が椅子に着座している状態以外の状態の画像を取得してもよい。 As shown in FIG. 3, the image pickup unit 20 may take an image of a state in which a person such as a monitored target T is sitting on a chair. FIG. 3 schematically shows a state in which a person such as the monitored target T sits on a chair and puts both arms on a table (or desk). In this case, in step S11, the controller 15 acquires an image of a person such as the monitored target T sitting on a chair. As will be described later, the image pickup unit 20 may capture an image of a state other than the state in which a person such as the monitored target T is sitting on a chair. In this case, in step S11, the controller 15 may acquire an image of a state other than the state in which a person such as the monitored target T is sitting on a chair.

撮像部20は、秒間所定数のフレームの各画像を撮像するものとしてよい。ここで、撮像部20が撮像する画像は、連続するフレームの静止画としてもよいし、動画としてもよい。例えば、撮像部20は、秒間15フレームの画像を撮像するものとしてよい。ステップS11において、コントローラ15は、撮像部20によって撮像された秒間所定数のフレームの画像を取得してよい。 The image pickup unit 20 may capture each image of a predetermined number of frames per second. Here, the image captured by the image pickup unit 20 may be a still image of continuous frames or a moving image. For example, the image pickup unit 20 may capture an image of 15 frames per second. In step S11, the controller 15 may acquire images of a predetermined number of frames per second captured by the image pickup unit 20.

図2に示すように、ステップS11において撮像された画像を取得すると、抽出部11は、被監視対象Tの身体における所定部位の座標を抽出する(ステップS12)。ステップS12における動作は、抽出部11ではなく、コントローラ15が行ってもよい。 As shown in FIG. 2, when the image captured in step S11 is acquired, the extraction unit 11 extracts the coordinates of a predetermined portion of the body of the monitored target T (step S12). The operation in step S12 may be performed by the controller 15 instead of the extraction unit 11.

図4は、ステップS12において抽出される被監視対象Tの身体における所定部位の例を示す図である。 FIG. 4 is a diagram showing an example of a predetermined portion of the body of the monitored target T extracted in step S12.

ステップS12において、抽出部11は、例えば図4に示すような被監視対象Tの身体における所定部位の座標を抽出してよい。図4に示すように、ステップS12において座標を抽出する所定部位は、例えば、被監視対象Tの身体における首、左肩、左肘、左手首、右肩、右肘、及び右手首を含んでよい。また、図4に示すように、ステップS12において座標を抽出する所定部位は、例えば、被監視対象Tの身体における左尻、左膝、左足首、右尻、右膝、及び右足首をさらに含んでよい。このように、ステップS12において抽出される所定部位の座標は、被監視対象Tの身体における所定の関節点の座標などとしてよい。 In step S12, the extraction unit 11 may extract the coordinates of a predetermined portion of the body of the monitored target T as shown in FIG. 4, for example. As shown in FIG. 4, the predetermined portion from which the coordinates are extracted in step S12 may include, for example, the neck, left shoulder, left elbow, left wrist, right shoulder, right elbow, and right wrist in the body of the monitored object T. .. Further, as shown in FIG. 4, the predetermined portion for which the coordinates are extracted in step S12 further includes, for example, the left hip, left knee, left ankle, right hip, right knee, and right ankle in the body of the monitored target T. It's fine. As described above, the coordinates of the predetermined portion extracted in step S12 may be the coordinates of the predetermined joint point in the body of the monitored target T or the like.

図5は、図3に示した画像において、被監視対象Tの身体における所定部位として抽出される座標の例を示す図である。図5に示す被監視対象Tの画像は、図3に示した被監視対象Tの画像と同じものを示している。図5は、図3に示した被監視対象Tの画像において、図4に示した被監視対象Tの身体における所定部位として抽出される座標を示している。 FIG. 5 is a diagram showing an example of coordinates extracted as a predetermined part of the body of the monitored target T in the image shown in FIG. The image of the monitored object T shown in FIG. 5 is the same as the image of the monitored object T shown in FIG. FIG. 5 shows the coordinates extracted as a predetermined part of the body of the monitored object T shown in FIG. 4 in the image of the monitored object T shown in FIG.

ステップS12において、抽出部11は、図5に示す複数のドットの座標を、図4に示す被監視対象Tの身体における所定部位として抽出する。例えば、抽出部11は、図5に示す座標軸に従って、図5に示す複数のドットの座標を、2次元的に抽出してよい。すなわち、抽出部11は、撮像部20によって撮像される画像の撮像範囲の左下端部は、図5に示す座標軸の原点を示すものとしてよい。例えば、抽出部11は、図5に示す被監視対象Tの首の位置の座標を、図5に示す座標軸に従って取得する。 In step S12, the extraction unit 11 extracts the coordinates of the plurality of dots shown in FIG. 5 as predetermined parts of the body of the monitored target T shown in FIG. For example, the extraction unit 11 may two-dimensionally extract the coordinates of the plurality of dots shown in FIG. 5 according to the coordinate axes shown in FIG. That is, in the extraction unit 11, the lower left end portion of the image pickup range of the image captured by the image pickup unit 20 may indicate the origin of the coordinate axes shown in FIG. For example, the extraction unit 11 acquires the coordinates of the position of the neck of the monitored target T shown in FIG. 5 according to the coordinate axes shown in FIG.

ここで、撮像部20が秒間所定数のフレームの各画像を撮像する場合、抽出部11は、秒間所定数のフレームにおいて被監視対象Tの身体における所定部位として抽出してよい。また、コントローラ15が秒間所定数のフレームの画像を取得する場合も、抽出部11は、秒間所定数のフレームにおいて被監視対象Tの身体における所定部位として抽出してよい。一例として、抽出部11は、被監視対象Tの身体における所定部位を、秒間15フレームにおいて抽出してよい。 Here, when the imaging unit 20 captures each image of a predetermined number of frames per second, the extraction unit 11 may extract the image as a predetermined portion of the body of the monitored target T in the predetermined number of frames per second. Further, even when the controller 15 acquires images of a predetermined number of frames per second, the extraction unit 11 may extract the images of the monitored target T as a predetermined part in the body in the predetermined number of frames per second. As an example, the extraction unit 11 may extract a predetermined portion of the body of the monitored target T at 15 frames per second.

図6は、例えば1秒間の15フレームにおいて、被監視対象Tの身体において抽出された所定部位の座標をまとめて示す図である。図6に示すように、ステップS12において、コントローラ15(又は抽出部11)は、被監視対象Tの身体において抽出された所定部位の座標を、各フレームごとに並べて配置してもよい。図6に示すように、抽出部11は、各フレームごとに、被監視対象Tの身体において2次元的に(X,Y座標として)所定部位の座標を抽出してよい。図6に示す表において、各行は、各フレームにおいて、被監視対象Tの身体の所定部位が、X,Y座標として抽出された様子を模式的に示してある。また、図6に示す表において、各フレームを示す行は、時間の経過に従って上から下に示してある。図6に示す15フレームの座標は、例えば図5に示すような画像(又は動画)における1秒間の座標をトラッキングしたものとしてよい。また、図6に示す15フレームの後も、順次、被監視対象Tの身体において所定部位の座標が抽出されるものとしてよい。 FIG. 6 is a diagram showing the coordinates of predetermined parts extracted in the body of the monitored target T collectively, for example, in 15 frames per second. As shown in FIG. 6, in step S12, the controller 15 (or the extraction unit 11) may arrange the coordinates of the predetermined portion extracted in the body of the monitored target T side by side for each frame. As shown in FIG. 6, the extraction unit 11 may extract the coordinates of a predetermined portion two-dimensionally (as X and Y coordinates) in the body of the monitored target T for each frame. In the table shown in FIG. 6, each row schematically shows how a predetermined part of the body of the monitored target T is extracted as X and Y coordinates in each frame. Also, in the table shown in FIG. 6, the rows showing each frame are shown from top to bottom over time. The coordinates of the 15 frames shown in FIG. 6 may be, for example, tracking the coordinates of one second in an image (or moving image) as shown in FIG. Further, even after the 15 frames shown in FIG. 6, the coordinates of a predetermined portion in the body of the monitored target T may be sequentially extracted.

このように、一実施形態において、抽出部11は、撮像部20によって撮像された秒間所定数のフレームの各画像ごとに、被監視対象Tの身体における所定数の関節点の座標を2次元的に抽出してもよい。 As described above, in one embodiment, the extraction unit 11 two-dimensionally determines the coordinates of a predetermined number of joint points in the body of the monitored target T for each image of a predetermined number of frames per second imaged by the image pickup unit 20. It may be extracted to.

ステップS12において所定部位の座標が抽出されたら、抽出部11は、抽出された所定数のフレーム(例えば1秒間の15フレーム)における座標(X,Y)それぞれの最大値及び最小値に従って、座標を正規化する(ステップS13)。 After the coordinates of the predetermined portion are extracted in step S12, the extraction unit 11 extracts the coordinates according to the maximum and minimum values of the coordinates (X, Y) in the extracted predetermined number of frames (for example, 15 frames per second). Normalize (step S13).

ステップS12において抽出される所定部位の座標は、例えば被監視対象Tの身体のサイズなどに起因してばらつくことが想定される。また、ステップS12において抽出される所定部位の座標は、例えば撮像部20と被監視対象Tとの距離、及び、撮像部20から被監視対象Tに向く方向などにも起因してばらつくことが想定される。したがって、一実施形態において、ステップS12において抽出された座標のX方向成分及びY方向成分をそれぞれ正規化することにより、抽出された座標を汎用的に機械学習に用いることができるようにする。 It is assumed that the coordinates of the predetermined portion extracted in step S12 vary due to, for example, the size of the body of the monitored target T. Further, it is assumed that the coordinates of the predetermined portion extracted in step S12 vary due to, for example, the distance between the image pickup unit 20 and the monitored target T, the direction from the image pickup unit 20 toward the monitored target T, and the like. Will be done. Therefore, in one embodiment, by normalizing the X-direction component and the Y-direction component of the coordinates extracted in step S12, the extracted coordinates can be used for machine learning in general.

この場合、例えば1秒間の15フレームにおいて抽出されたX,Y座標のそれぞれの最大値及び最小値に基づいて、抽出されるX,Y座標を正規化してもよい。ここで、ステップS12において抽出されたX座標の最大値をXmaxとし、ステップS12において抽出されたX座標の最小値をXminとする。また、正規化後のX座標の最大値をX’maxとする。この場合、以下の式(1)を用いて、正規化前のX座標(X)を、正規化後のX座標(X’)に変換することができる。 In this case, for example, the extracted X and Y coordinates may be normalized based on the maximum and minimum values of the extracted X and Y coordinates in 15 frames per second. Here, the maximum value of the X coordinate extracted in step S12 is Xmax, and the minimum value of the X coordinate extracted in step S12 is Xmin. Further, the maximum value of the X coordinate after normalization is set to X'max. In this case, the X coordinate (X) before normalization can be converted into the X coordinate (X') after normalization by using the following equation (1).

X’=((X-Xmin)/(Xmax-Xmin))・X’max (1) X'= ((X-Xmin) / (Xmax-Xmin)) · X'max (1)

同様に、ステップS12において抽出されたY座標の最大値をYmaxとし、ステップS12において抽出されたY座標の最小値をYminとする。また、正規化後のY座標の最大値をY’maxとする。この場合、以下の式(2)を用いて、正規化前のY座標(Y)を、正規化後のY座標(Y’)に変換することができる。 Similarly, the maximum value of the Y coordinate extracted in step S12 is Ymax, and the minimum value of the Y coordinate extracted in step S12 is Ymin. Further, the maximum value of the Y coordinate after normalization is set to Y'max. In this case, the Y coordinate (Y) before normalization can be converted into the Y coordinate (Y') after normalization by using the following equation (2).

Y’=((Y-Ymin)/(Ymax-Ymin))・Y’max (2) Y'= ((Y-Ymin) / (Ymax-Ymin)) · Y'max (2)

上記の式(1)及び式(2)に従って、抽出された座標のX方向成分及びY方向成分を正規化することにより、被監視対象Tの個体差、及び撮像部20がと被監視対象Tを撮像した環境などが機械学習に与える影響を低減することが期待できる。 By normalizing the X-direction component and the Y-direction component of the extracted coordinates according to the above equations (1) and (2), the individual difference of the monitored target T and the image pickup unit 20 and the monitored target T It can be expected to reduce the influence of the environment in which the image is taken on machine learning.

このように、一実施形態において、抽出部11は、2次元的に抽出された被監視対象Tの身体における所定数の関節点の座標の各方向成分を、当該各方向成分の最大値及び最小値に基づいて正規化してもよい。また、このような動作は、抽出部11ではなくコントローラ15が行ってもよい。 As described above, in one embodiment, the extraction unit 11 sets each direction component of the coordinates of a predetermined number of joint points in the body of the monitored target T two-dimensionally extracted to the maximum value and the minimum value of each direction component. It may be normalized based on the value. Further, such an operation may be performed by the controller 15 instead of the extraction unit 11.

ステップS13に示す座標の正規化により、図6に示す各座標(X,Y)は、それぞれ座標(X’,Y’)に正規化される。 By normalizing the coordinates shown in step S13, each coordinate (X, Y) shown in FIG. 6 is normalized to the coordinates (X', Y'), respectively.

ステップS13において座標が正規化されたら、コントローラ15は、タイミング情報を取得する(ステップS14)。ステップS14においてコントローラ15がタイミング情報を取得するために、ステップS11において取得された画像、又は、ステップS12において抽出された座標において、予めタイミング情報が付与(設定)されている必要がある。また、ステップS12において抽出された座標ではなく、ステップS13において正規化された座標において、予めタイミング情報が付与(設定)されていてもよい。以下、このようなタイミング情報について、さらに説明する。 When the coordinates are normalized in step S13, the controller 15 acquires the timing information (step S14). In order for the controller 15 to acquire the timing information in step S14, the timing information needs to be added (set) in advance to the image acquired in step S11 or the coordinates extracted in step S12. Further, timing information may be given (set) in advance at the coordinates normalized in step S13 instead of the coordinates extracted in step S12. Hereinafter, such timing information will be further described.

一実施形態において、電子機器10が機械学習するためのデータとして、例えば被監視対象Tのような人間が着座していた椅子からずり落ちる動作の開始時点及び終了時点を示す情報を用意する必要がある。被監視対象Tが着座していた椅子からずり落ちる動作の開始時点及び終了時点を示す情報(タイミング情報)があれば、電子機器10は、このタイミング情報を例えば教師データとして機械学習を行うことができる。以上のように、被監視対象Tが着座していた椅子からずり落ちる動作の開始時点及び終了時点を示す情報を、「タイミング情報」とも記す。すなわち、「タイミング情報」とは、撮像部20によって撮像された経時的な画像においてずり落ち動作の開始時点及び終了時点を示す情報としてよい。 In one embodiment, as data for the electronic device 10 to perform machine learning, it is necessary to prepare information indicating the start time point and the end time point of the motion of sliding down from the chair on which the human being is seated, for example, the monitored object T. .. If there is information (timing information) indicating the start time and end time of the operation in which the monitored target T slides down from the seated chair, the electronic device 10 can perform machine learning using this timing information as, for example, teacher data. .. As described above, the information indicating the start time point and the end time point of the motion of the monitored object T sliding down from the seated chair is also referred to as "timing information". That is, the "timing information" may be information indicating the start time point and the end time point of the sliding operation in the time-dependent image captured by the image pickup unit 20.

このようなタイミング情報は、例えばスタッフなどの人員によって付与(設定)されてよい。すなわち、例えば行動学の専門家又は介護施設の職員などが、撮像部20によって撮像された被監視対象Tの画像を観察(視認)しながら、ずり落ち動作の開始時点及び終了時点を示すタイミング情報を付与してよい。また、このようなタイミング情報を付与するための所定の基準を予め設けることにより、行動学の専門家又は介護施設の職員などではない一般的な人員であっても、タイミング情報を付与することができる。上述のように、タイミング情報は、ステップS11において取得された画像データにおいて付与(設定)されてよい。また、タイミング情報は、ステップS12において抽出された座標データにおいて付与(設定)されてよい。また、タイミング情報は、ステップS13において正規化された座標データにおいて付与(設定)されてよい。 Such timing information may be given (set) by personnel such as staff. That is, for example, a behavioral expert or a staff member of a nursing facility observes (visually recognizes) the image of the monitored target T captured by the imaging unit 20, and timing information indicating the start time and end time of the sliding motion. May be given. In addition, by setting a predetermined standard for giving such timing information in advance, it is possible to give timing information even to general personnel who are not ethology specialists or staff of long-term care facilities. can. As described above, the timing information may be added (set) in the image data acquired in step S11. Further, the timing information may be added (set) in the coordinate data extracted in step S12. Further, the timing information may be given (set) in the coordinate data normalized in step S13.

図7は、タイミング情報の設定について説明する図である。図7においては、画像データが各フレームごとに時間の経過とともに連続している様子を概念的に示している。すなわち、図7において、画像データは、時間の経過に従って、フレーム1、フレーム2、フレーム3、…のように連続していることを示している。また、図7においては、画像データにタイミング情報を付与(設定)する例を示している。しかしながら、上述のように、図7に示す画像データは、座標データに代えてもよいし、正規化された座標データに代えてもよい。 FIG. 7 is a diagram illustrating the setting of timing information. FIG. 7 conceptually shows how the image data is continuous with the passage of time for each frame. That is, in FIG. 7, it is shown that the image data is continuous like frame 1, frame 2, frame 3, ... With the passage of time. Further, FIG. 7 shows an example of adding (setting) timing information to the image data. However, as described above, the image data shown in FIG. 7 may be replaced with the coordinate data or may be replaced with the normalized coordinate data.

図7に示す「入室」の時点において、例えば撮像部20が設置された部屋に被監視対象Tが入室した様子が、撮像部20によって撮像された画像のデータ(画像データ)に示されていたとする。
図7に示す最初の「着席」の時点において、入室してきた被監視対象Tが椅子に着席した様子が、画像データに示されていたとする。
図7に示す「ずり落ち動作の開始」の時点において、被監視対象Tが着座していた椅子からずり落ちる動作を開始した様子が、画像データに示されていたとする。
図7に示す「ずり落ち動作の終了」の時点において、被監視対象Tが着座していた椅子からずり落ちる動作を終了した様子が、画像データに示されていたとする。
図7に示す2度目の「着席」の時点において、椅子からずり落ちた被監視対象Tが例えば介護スタッフの補助などにより再び椅子に着席した様子が、画像データに示されていたとする。
図7に示す「離席」の時点において、椅子に着座していた被監視対象Tが例えば立ち上がるなどして椅子から離席した様子が、画像データに示されていたとする。
図7に示す「退室」の時点において、椅子から離席した被監視対象Tが、例えば撮像部20が設置された部屋から退室した様子が、画像データに示されていたとする。
At the time of "entering the room" shown in FIG. 7, for example, the state in which the monitored target T entered the room in which the image pickup unit 20 was installed was shown in the image data (image data) captured by the image pickup unit 20. do.
It is assumed that the image data shows that the monitored target T who has entered the room is seated in the chair at the time of the first "seating" shown in FIG. 7.
It is assumed that the image data shows that the monitored target T has started the sliding motion from the chair on which the monitored object T was seated at the time of "starting the sliding motion" shown in FIG. 7.
It is assumed that the image data shows that the monitored target T has finished the sliding motion from the chair on which the monitored object T was seated at the time of "end of the sliding motion" shown in FIG. 7.
It is assumed that the image data shows that the monitored target T, which has slipped off the chair, is seated again in the chair at the time of the second "seating" shown in FIG. 7, for example, with the assistance of the care staff.
It is assumed that the image data shows that the monitored object T, who was seated in the chair, left the chair at the time of "leaving the seat" shown in FIG. 7, for example, by standing up.
It is assumed that the image data shows that the monitored object T, who has left the chair, has left the room in which the image pickup unit 20 is installed, for example, at the time of “leaving the room” shown in FIG. 7.

以上のように撮像された画像データにおいて、例えば行動学の専門家又は介護施設の職員その他の一般的な人員などによって、少なくとも「ずり落ち動作の開始」の時点及び「ずり落ち動作の終了」の時点を示すタイミング情報が付与(設定)されてよい。 In the image data captured as described above, for example, by a behavioral expert, a staff member of a nursing facility, or other general personnel, at least at the time of "start of the sliding motion" and "end of the sliding motion". Timing information indicating a time point may be given (set).

ここで、「ずり落ち動作の開始」の時点とは、例えば図8に示すように椅子C1に着座していた被監視対象Tが、例えば図9に示すような動きを開始した時点としてもよい。図8及び図9においては、簡略化のために、ステップS11において取得された画像データではなく、ステップS12において抽出された座標データを図示してある。図8は、被監視対象Tが椅子C1に着座している様子を示しており、これは図7に示す最初の「着席」の時点から「ずり落ち動作の開始」の時点までの状態を示すものとしてよい。 Here, the time point of "start of the sliding down operation" may be, for example, the time point when the monitored object T sitting on the chair C1 starts the movement as shown in FIG. 9, for example. .. In FIGS. 8 and 9, for the sake of simplification, the coordinate data extracted in step S12 is shown instead of the image data acquired in step S11. FIG. 8 shows a state in which the monitored target T is seated on the chair C1, which shows the state from the time of the first “seating” shown in FIG. 7 to the time of “the start of the sliding motion”. It may be a thing.

一般的に、図8に示す状態から被監視対象Tが前方向にずり落ち動作を開始する場合、図9に示すように、首の位置の座標が下方向に移動する傾向にある。また、一般的に、図8に示す状態から被監視対象Tが前方向にずり落ち動作を開始する場合、図9に示すように、左尻又は右尻の位置の座標が前方向に移動する傾向にある。したがって、一実施形態において、図8に示す状態から図9に示す状態に遷移を開始した時点を「ずり落ち動作の開始」の時点として、タイミング情報を付与(設定)してよい。 Generally, when the monitored object T starts the sliding operation in the forward direction from the state shown in FIG. 8, the coordinates of the position of the neck tend to move downward as shown in FIG. Further, in general, when the monitored target T starts the sliding operation in the forward direction from the state shown in FIG. 8, the coordinates of the position of the left buttock or the right buttock move in the forward direction as shown in FIG. There is a tendency. Therefore, in one embodiment, timing information may be added (set) with the time point at which the transition from the state shown in FIG. 8 to the state shown in FIG. 9 is started as the time point at which the “sliding operation starts”.

このように、一実施形態において、タイミング情報におけるずり落ち動作の開始時点は、撮像部20によって撮像された経時的な画像において被監視対象Tの尻が椅子において被監視対象Tの前方向に移動を開始したタイミングを示してもよい。また、一実施形態において、タイミング情報におけるずり落ち動作の開始時点は、撮像部20によって撮像された経時的な画像において被監視対象Tの首が被監視対象Tの下方向に移動を開始したタイミングを示してもよい。また、タイミング情報におけるずり落ち動作の開始時点は、被監視対象Tの首の移動及び被監視対象Tの尻の移動の少なくとも一方が開始した時点としてもよいし、どちらか一方が開始した時点としてもよい。 As described above, in one embodiment, at the start time of the sliding motion in the timing information, the buttock of the monitored object T moves in the forward direction of the monitored object T in the chair in the temporal image captured by the imaging unit 20. You may indicate the timing when you started. Further, in one embodiment, the start time of the sliding operation in the timing information is the timing at which the neck of the monitored target T starts moving downward in the time-dependent image captured by the imaging unit 20. May be shown. Further, the start time of the sliding motion in the timing information may be the time when at least one of the movement of the neck of the monitored target T and the movement of the tail of the monitored target T starts, or the time when either one starts. May be good.

また、「ずり落ち動作の開始」の時点とは、例えば図10に示すように椅子C2に着座していた被監視対象Tが、例えば図11に示すような動きを開始した時点としてもよい。図10及び図11においても、簡略化のために、ステップS11において取得された画像データではなく、ステップS12において抽出された座標データを図示してある。図10は、被監視対象Tが椅子C2に着座している様子を示しており、これは図7に示す最初の「着席」の時点から「ずり落ち動作の開始」の時点までの状態を示すものとしてよい。 Further, the time point of "starting the sliding down operation" may be, for example, the time point when the monitored object T sitting on the chair C2 starts the movement as shown in FIG. 11, for example. Also in FIGS. 10 and 11, for the sake of simplification, the coordinate data extracted in step S12 is shown instead of the image data acquired in step S11. FIG. 10 shows a state in which the monitored target T is seated on the chair C2, which shows the state from the time of the first “seating” shown in FIG. 7 to the time of “the start of the sliding motion”. It may be a thing.

一般的に、図10に示す状態から被監視対象Tが横(左又は右)方向にずり落ち動作を開始する場合、図11に示すように、首の位置の座標が左方向(又は右方向)に移動する傾向にある。また、一般的に、図10に示す状態から被監視対象Tが横方向にずり落ち動作を開始する場合、図11に示すように、左肩(又は右肩)の位置の座標が下方向に移動する傾向にある。したがって、一実施形態において、図10に示す状態から図11に示す状態に遷移を開始した時点を「ずり落ち動作の開始」の時点として、タイミング情報を付与(設定)してもよい。 Generally, when the monitored object T starts sliding down in the lateral (left or right) direction from the state shown in FIG. 10, the coordinates of the neck position are in the left direction (or right direction) as shown in FIG. ) Tends to move. Further, in general, when the monitored object T starts the operation of sliding down in the lateral direction from the state shown in FIG. 10, the coordinates of the position of the left shoulder (or the right shoulder) move downward as shown in FIG. Tend to do. Therefore, in one embodiment, timing information may be added (set) with the time point at which the transition from the state shown in FIG. 10 to the state shown in FIG. 11 is started as the time point at which the “sliding operation starts”.

このように、一実施形態において、タイミング情報におけるずり落ち動作の開始時点は、撮像部20によって撮像された経時的な画像において被監視対象Tの首が被監視対象Tの左又は右方向に移動を開始したタイミングを示してもよい。また、一実施形態において、タイミング情報におけるずり落ち動作の開始時点は、撮像部20によって撮像された経時的な画像において被監視対象Tの左方又は右肩が被監視対象Tの下方向に移動を開始したタイミングを示してもよい。また、タイミング情報におけるずり落ち動作の開始時点は、被監視対象Tの首の移動及び被監視対象Tの肩の移動の少なくとも一方が開始した時点としてもよいし、どちらか一方が開始した時点としてもよい。 As described above, in one embodiment, the neck of the monitored target T moves to the left or right of the monitored target T in the temporal image captured by the imaging unit 20 at the start time of the sliding operation in the timing information. You may indicate the timing when you started. Further, in one embodiment, at the start time of the sliding motion in the timing information, the left or right shoulder of the monitored target T moves downward in the monitored image in the time-dependent image captured by the imaging unit 20. You may indicate the timing when you started. Further, the start time of the sliding motion in the timing information may be the time when at least one of the movement of the neck of the monitored target T and the movement of the shoulder of the monitored target T starts, or the time when either one starts. May be good.

以上のように、一実施形態において、タイミング情報におけるずり落ち動作の開始時点は、撮像部20によって撮像された経時的な画像において被監視対象Tが椅子からずり落ちるに至る動作を開始したタイミングを示してもよい。 As described above, in one embodiment, the start time point of the sliding motion in the timing information indicates the timing at which the monitored target T starts the motion of sliding down from the chair in the temporal image captured by the imaging unit 20. You may.

また、「ずり落ち動作の終了」の時点とは、撮像部20によって撮像された経時的な画像において被監視対象Tが椅子からずり落ちた時点としてもよい。すなわち、タイミング情報におけるずり落ち動作の終了時点は、撮像部20によって撮像された経時的な画像において被監視対象Tが椅子からずり落ちたタイミングを示してもよい。ここで、被監視対象Tが椅子からずり落ちたタイミングとは、例えば椅子に着座していた被監視対象Tの右尻及び左尻が、椅子の座面を離れた時点としてもよい。また、被監視対象Tが椅子からずり落ちたタイミングとは、例えば被監視対象Tが着座していた椅子からずり落ちて、被監視対象Tの左足首又は右足首以外の部位が床面に到達した時点としてもよい。また、ずり落ち動作の終了時点として、その他にも、例えば被監視対象Tの動きが所定時間停止した時点、被監視対象Tの頭又は腰などの所定の代表点が所定の高さ落下した時点、被監視対象Tの頭又は腰などの所定の代表点が床又は地面などの基準位置から所定の高さ以下の範囲に入った時点などを用いることができる。 Further, the time point of "the end of the slide-down operation" may be the time point when the monitored target T slides off the chair in the time-dependent image captured by the image pickup unit 20. That is, the end point of the sliding operation in the timing information may indicate the timing at which the monitored target T has slipped off the chair in the temporal image captured by the imaging unit 20. Here, the timing at which the monitored target T slides off the chair may be, for example, the time when the right and left hips of the monitored target T sitting on the chair leave the seat surface of the chair. Further, the timing at which the monitored target T slides off the chair is, for example, the timing when the monitored target T slides off the chair on which the monitored target T is seated, and a portion other than the left ankle or the right ankle of the monitored target T reaches the floor surface. It may be the time when it was done. In addition, as the end point of the sliding down operation, for example, when the movement of the monitored target T is stopped for a predetermined time, or when a predetermined representative point such as the head or waist of the monitored target T falls to a predetermined height. , The time when a predetermined representative point such as the head or waist of the monitored object T falls within a range of a predetermined height or less from a reference position such as the floor or the ground can be used.

タイミング情報において、上述した「ずり落ち動作の開始」の時点及び「ずり落ち動作の終了」の時点は、必ずしもこの順序で付与(設定)しなくてもよい。すなわち、タイミング情報において、最初に「ずり落ち動作の終了」の時点を設定してから、「ずり落ち動作の開始」の時点を設定してもよい。 In the timing information, the time points of the above-mentioned "start of the slide-down operation" and the time points of the "end of the slide-down operation" do not necessarily have to be given (set) in this order. That is, in the timing information, the time point of "the end of the slide-down operation" may be set first, and then the time point of "the start of the slide-down operation" may be set.

例えば、スタッフなどの人員は、撮像部20によって撮像された被監視対象Tの画像を再生して観察(視認)している際、「ずり落ち動作の開始」の時点を見極めるのが必ずしも容易でないことも想定される。このような場合、まず、スタッフなどの人員は、撮像部20によって撮像された被監視対象Tの画像を再生して観察(視認)している際に、「ずり落ち動作の終了」の時点をタイミング情報として設定してよい。次に、スタッフなどの人員は、「ずり落ち動作の終了」の時点から、撮像部20によって撮像された被監視対象Tの画像を時間的に逆に再生して観察(視認)してもよい。ここで、撮像部20によって撮像された被監視対象Tの画像を時間的に逆に再生する際には、当該逆再生の速度をある程度低下させてもよい。このようにすれば、スタッフなどの人員は、タイミング情報において、「ずり落ち動作の終了」の時点よりも前の時点である「ずり落ち動作の開始」の時点を容易に設定することができる。例えば、スタッフなどの人員は、時間的に逆に再生させた画像データを視認しながら、被監視対象Tの左尻又は右尻が椅子の座面において被監視対象Tの前方に最初に移動する時点を見出して、当該時点をタイミング情報として設定してよい。 For example, it is not always easy for a staff member or the like to determine the time point of "starting the sliding operation" when the image of the monitored target T captured by the imaging unit 20 is reproduced and observed (visually recognized). It is also assumed. In such a case, first, when a staff member or the like reproduces (visually recognizes) the image of the monitored target T imaged by the image pickup unit 20, the time point of "the end of the sliding operation" is determined. It may be set as timing information. Next, a staff member or the like may reproduce (visually recognize) the image of the monitored target T captured by the image pickup unit 20 in the reverse time from the time of "the end of the sliding operation". .. Here, when the image of the monitored target T captured by the image pickup unit 20 is reproduced in reverse in time, the speed of the reverse reproduction may be reduced to some extent. In this way, personnel such as staff can easily set the time point of the "start of the slide-down operation" which is a time point before the time point of the "end of the slide-down operation" in the timing information. For example, a staff member or the like first moves the left or right buttock of the monitored object T to the front of the monitored object T on the seat surface of the chair while visually recognizing the image data reproduced in the reverse time. A time point may be found and the time point may be set as timing information.

上述のようにして画像データ(又は座標データ若しくは正規化された座標データ)においてタイミング情報が付与(設定)されたら、コントローラ15は、ステップS14において当該タイミング情報を取得することができる。電子機器10のコントローラ15は、ステップS14において、上述のようなタイミング情報を、例えば通信部19を介して外部のネットワークなどから取得してもよい。また、コントローラ15は、ステップS14において、上述のようなタイミング情報を、例えばメモリカードなどのストレージを挿入可能な電子機器10のスロットなどから取得してもよい。また、システム1が画像を表示可能なディスプレイを含む場合、当該ディスプレイに画像データなどを表示してもよい。この場合、スタッフなどの人員がディスプレイを視認しながら設定するタイミング情報は、例えば電子機器10の操作部などを介して入力されてよい。 When the timing information is added (set) in the image data (or the coordinate data or the normalized coordinate data) as described above, the controller 15 can acquire the timing information in step S14. In step S14, the controller 15 of the electronic device 10 may acquire the timing information as described above from an external network or the like via, for example, the communication unit 19. Further, in step S14, the controller 15 may acquire the timing information as described above from a slot of an electronic device 10 into which a storage such as a memory card can be inserted. Further, when the system 1 includes a display capable of displaying an image, image data or the like may be displayed on the display. In this case, the timing information set by a person such as a staff member while visually recognizing the display may be input via, for example, an operation unit of the electronic device 10.

ステップS14においてタイミング情報を取得したら、コントローラ15は、画像データから抽出された座標と、ずり落ち動作の開始との関係を、タイミング情報に基づいて機械学習する(ステップS15)。ステップS15において、コントローラ15は、ずり落ち動作の開始時点と終了時点との間における被監視対象Tの所定部位(関節点)の座標と、ずり落ち動作の開始との関係を、タイミング情報に基づいて学習するものとしてよい。ここで、コントローラ15は、画像データ(又は座標データ、若しくは正規化された座標データ)、及びこれに設定されたタイミング情報に基づいて、機械学習を行ってもよい。以下、ステップS15における機械学習の結果として生成されるデータを、「機械学習データ」と記すことがある。 After acquiring the timing information in step S14, the controller 15 machine-learns the relationship between the coordinates extracted from the image data and the start of the sliding motion based on the timing information (step S15). In step S15, the controller 15 determines the relationship between the coordinates of the predetermined portion (joint point) of the monitored target T between the start time point and the end time point of the slide-down operation and the start of the slide-down operation based on the timing information. It may be used for learning. Here, the controller 15 may perform machine learning based on the image data (or coordinate data or normalized coordinate data) and the timing information set in the image data. Hereinafter, the data generated as a result of machine learning in step S15 may be referred to as "machine learning data".

上述のような機械学習を行うことにより、電子機器10は、ずり落ち動作が開始するタイミングと、ずり落ち動作の開始時点から終了時点までの間における被監視対象Tの所定部位(関節点)の座標の動きとの関連を把握することができる。このため、電子機器10によれば、後述の推定フェーズにおいて、被監視対象Tの所定部位(関節点)の座標の動きに基づいて、ずり落ち動作の開始時点を推定し得る。 By performing the machine learning as described above, the electronic device 10 determines the predetermined portion (joint point) of the monitored target T between the timing at which the sliding operation starts and the time from the start to the end of the sliding operation. It is possible to grasp the relationship with the movement of coordinates. Therefore, according to the electronic device 10, in the estimation phase described later, the start time of the sliding motion can be estimated based on the movement of the coordinates of the predetermined portion (joint point) of the monitored target T.

このように、一実施形態において、コントローラ15は、ずり落ち動作の開始時点と終了時点との間における被監視対象Tの所定部位の座標と、ずり落ち動作の開始との関係を、タイミング情報に基づいて機械学習する。ここで、タイミング情報とは、上述のように、撮像部20によって撮像された経時的な画像においてずり落ち動作の開始時点及び終了時点を示す情報としてよい。 As described above, in one embodiment, the controller 15 uses the timing information of the relationship between the coordinates of the predetermined portion of the monitored target T between the start time point and the end time point of the slide-down operation and the start of the slide-down operation. Machine learning based on. Here, the timing information may be information indicating the start time point and the end time point of the sliding operation in the time-dependent image captured by the image pickup unit 20 as described above.

後述の推定フェーズにおいて電子機器10がずり落ち動作の開始時点を推定する精度を向上するために、比較的多数のサンプル(例えば被監視対象Tのような人間)のデータについて、機械学習を行ってもよい。機械学習を行う際のサンプルのデータを多くすることにより、後述の推定フェーズにおいて電子機器10がずり落ち動作の開始時点を推定する際の精度を高めることが期待できる。したがって、機械学習を行う際のサンプルのデータを多くすることにより、電子機器10がずり落ち動作の開始を推定して警告を発する際に、誤報を発したり、失報したりするといったことを低減し得る。 In order to improve the accuracy of estimating the start time of the sliding motion of the electronic device 10 in the estimation phase described later, machine learning is performed on the data of a relatively large number of samples (for example, a human such as the monitored target T). May be good. By increasing the amount of sample data when performing machine learning, it can be expected that the accuracy of estimating the start time of the sliding operation of the electronic device 10 in the estimation phase described later will be improved. Therefore, by increasing the sample data when performing machine learning, it is possible to reduce the occurrence of false alarms or false alarms when the electronic device 10 estimates the start of the sliding operation and issues a warning. Can be.

上述の機械学習において、タイミング情報は、撮像部20によって撮像された経時的な画像においてずり落ち動作の開始時点及び終了時点を示す情報とした。一実施形態において、タイミング情報は、撮像部20によって撮像された経時的な画像においてずり落ち動作の開始時点及び終了時点以外の時点を示す情報を含むものとしてもよい。 In the above-mentioned machine learning, the timing information is information indicating the start time point and the end time point of the sliding motion in the time-dependent image captured by the image pickup unit 20. In one embodiment, the timing information may include information indicating a time point other than the start time point and the end time point of the sliding operation in the time-dependent image captured by the image pickup unit 20.

例えば、図7に示す学習データ(4)の区間の画像データは、ずり落ち動作の開始時点と終了時点との間に存在する。このため、学習データ(4)は、危険な(すなわちずり落ちのリスクが高い)クラスに分類されるデータとして、コントローラ15に機械学習させてよい。図7に示す学習データ(4)の区間の画像データは、ずり落ち動作の開始時点とほぼ同じ時点において開始している。一方、図7に示す学習データ(4)の区間の画像データは、ずり落ち動作の終了時点とは異なる時点において終了している。 For example, the image data in the section of the learning data (4) shown in FIG. 7 exists between the start time point and the end time point of the sliding operation. Therefore, the training data (4) may be machine-learned by the controller 15 as data classified into a dangerous (that is, a high risk of slipping) class. The image data in the section of the learning data (4) shown in FIG. 7 starts at substantially the same time as the start time of the sliding operation. On the other hand, the image data in the section of the learning data (4) shown in FIG. 7 ends at a time different from the end time of the sliding operation.

一方、図7に示す学習データ(1)乃至(3)、及び学習データ(5)乃至(6)の区間の画像データは、ずり落ち動作の開始時点と終了時点との間に存在しない。このため、これらの学習データは、正常な(すなわち危険が少ない(ずり落ちのリスクが低い))クラスに分類されるデータとして、コントローラ15に機械学習させてよい。これらの学習データの区間の画像データは、ずり落ち動作の開始時点とは異なる時点において開始し、ずり落ち動作の終了時点とは異なる時点において終了している。 On the other hand, the learning data (1) to (3) and the image data in the section of the learning data (5) to (6) shown in FIG. 7 do not exist between the start time point and the end time point of the sliding operation. Therefore, these training data may be machine-learned by the controller 15 as data classified into a normal (that is, low risk (low risk of slipping)) class. The image data in the section of these training data starts at a time point different from the start time point of the slide-down operation, and ends at a time point different from the end time point of the slide-down operation.

このように、一実施形態において、タイミング情報は、撮像部20によって撮像された経時的な画像においてずり落ち動作の開始時点及び終了時点以外の時点を示す情報を含んでもよい。このようなタイミング情報に基づいて、コントローラ15は、ずり落ち動作の開始時点と終了時点との間における被監視対象Tの所定部位の座標と、ずり落ち動作の開始との関係を機械学習してもよい。 As described above, in one embodiment, the timing information may include information indicating a time point other than the start time point and the end time point of the sliding operation in the time-dependent image captured by the image pickup unit 20. Based on such timing information, the controller 15 machine-learns the relationship between the coordinates of the predetermined portion of the monitored target T between the start time and the end time of the slide-down operation and the start of the slide-down operation. May be good.

コントローラ15は、図7に示すように、危険なクラスに分類される学習データ(4)のみならず、正常なクラスに分類される学習データ(1)乃至(3)、及び学習データ(5)乃至(6)のような学習データにも基づいて、機械学習を行ってよい。コントローラ15は、危険なクラスに分類される学習データ及び正常なクラスに分類される学習データに基づいて機械学習を行うことにより、ずり落ち動作の開始を推定する精度を高めることができる。 As shown in FIG. 7, the controller 15 has not only the learning data (4) classified into the dangerous class, but also the learning data (1) to (3) and the learning data (5) classified into the normal class. Machine learning may be performed based on the learning data as described in (6) to (6). The controller 15 can improve the accuracy of estimating the start of the slipping operation by performing machine learning based on the learning data classified into the dangerous class and the learning data classified into the normal class.

次に、推定フェーズにおける動作について、説明する。 Next, the operation in the estimation phase will be described.

図12は、一実施形態に係るシステム1の推定フェーズにおける動作の一例を示すフローチャートである。図12は、一実施形態に係るシステム1に含まれる電子機器10の推定フェーズにおける動作に焦点を当てたフローチャートとしてもよい。 FIG. 12 is a flowchart showing an example of the operation in the estimation phase of the system 1 according to the embodiment. FIG. 12 may be a flowchart focusing on the operation in the estimation phase of the electronic device 10 included in the system 1 according to the embodiment.

上述のように、例えば介護施設又は病院などにおいて、お年寄り又は負傷者のように、足腰が弱くなるなど筋力が低下している者は、椅子に着座している際に、その椅子からずり落ちるリスクがあり得る。また、椅子に着座している者が着座したままの体勢を比較的長く継続させると不快に感じ、身体を揺するように動かすことがある。この場合も、例えば上述のような筋力が低下している者などは、身体を揺するように動かしているうちに、その椅子からずり落ちるリスクがあり得る。一実施形態に係るシステム1の推定フェーズにおいては、学習フェーズにおいて得られた機械学習データを利用して、被監視対象Tが椅子からずり落ちる動作における身体の各部の位置(座標)から、当該ずり落ちる動作の開始を推定してよい。以下、このような動作について、より詳細に説明する。システム1によって被監視対象Tを監視することで、例えば介護施設又は病院などのスタッフは、ずり落ち動作が開始することを、被監視対象Tが実際にずり落ち動作を終了する前に認識することができる。 As mentioned above, in nursing care facilities or hospitals, for example, elderly people or injured people who have weak muscles such as weak legs are at risk of slipping off the chair when sitting on the chair. There can be. In addition, a person sitting on a chair may feel uncomfortable if he / she keeps sitting in a sitting position for a relatively long time, and may move his / her body to shake. In this case as well, for example, a person with weak muscles as described above may have a risk of slipping off the chair while moving the body to shake. In the estimation phase of the system 1 according to the embodiment, the machine learning data obtained in the learning phase is used to perform the sliding motion from the position (coordinates) of each part of the body in the motion of the monitored object T sliding down from the chair. You may estimate the start of. Hereinafter, such an operation will be described in more detail. By monitoring the monitored target T by the system 1, for example, a staff member of a nursing facility or a hospital recognizes that the sliding operation starts before the monitored target T actually finishes the sliding operation. Can be done.

図12に示す動作が開始すると、電子機器10のコントローラ15は、機械学習データを取得する(ステップS21)。ステップS21において取得する機械学習データは、図2に示したステップS15における機械学習の結果として生成されるデータとしてよい。すなわち、機械学習データとは、人間が着座していた椅子からずり落ちる動作の開始時点と終了時点との間におけるその人間の所定部位の座標と、その人間が着座していた椅子からずり落ちる動作の開始との関係が機械学習されたデータとしてよい。 When the operation shown in FIG. 12 starts, the controller 15 of the electronic device 10 acquires machine learning data (step S21). The machine learning data acquired in step S21 may be data generated as a result of machine learning in step S15 shown in FIG. That is, the machine learning data is the coordinates of a predetermined part of the human between the start time and the end time of the movement of sliding down from the chair on which the human is seated, and the start of the movement of sliding down from the chair on which the human is seated. The relationship with may be machine-learned data.

図12に示す動作が開始する時点で既に機械学習データを取得している場合には、コントローラ15は、ステップS21において再び機械学習データを取得しなくてもよい。また、ステップS21において取得する機械学習データは、後述のステップS25において用いられる。このため、一実施形態において、機械学習データの取得は、必ずしもステップS21において行う必要はなく、ステップ25までの任意のタイミングにおいて行ってもよい。 If the machine learning data has already been acquired at the time when the operation shown in FIG. 12 starts, the controller 15 does not have to acquire the machine learning data again in step S21. Further, the machine learning data acquired in step S21 is used in step S25 described later. Therefore, in one embodiment, the acquisition of machine learning data does not necessarily have to be performed in step S21, and may be performed at any timing up to step 25.

ステップS21において機械学習データが取得されたら、コントローラ15は、撮像部20によって撮像された画像を取得する(ステップS22)。ステップS22における動作は、図2に示したステップS11の動作と同様に行ってよい。 When the machine learning data is acquired in step S21, the controller 15 acquires the image captured by the imaging unit 20 (step S22). The operation in step S22 may be performed in the same manner as the operation in step S11 shown in FIG.

ステップ22において撮像された画像を取得すると、抽出部11は、被監視対象Tの身体における所定部位の座標を抽出する(ステップS23)。ステップS23における動作は、図2に示したステップS12の動作と同様に行ってよい。すなわち、例えば、抽出部11は、撮像部20によって撮像された秒間所定数のフレームの各画像ごとに、被監視対象Tの身体における所定数の関節点の座標を2次元的に抽出してもよい。 When the image captured in step 22 is acquired, the extraction unit 11 extracts the coordinates of a predetermined portion of the body of the monitored target T (step S23). The operation in step S23 may be performed in the same manner as the operation in step S12 shown in FIG. That is, for example, even if the extraction unit 11 two-dimensionally extracts the coordinates of a predetermined number of joint points in the body of the monitored target T for each image of a predetermined number of frames per second captured by the image pickup unit 20. good.

ステップS23において所定部位の座標が抽出されたら、抽出部11は、抽出された所定数のフレーム(例えば1秒間の15フレーム)における座標(X,Y)それぞれの最大値及び最小値に従って、座標を正規化する(ステップS24)。ステップS24における動作は、図2に示したステップS13の動作と同様に行ってよい。すなわち、例えば、抽出部11は、2次元的に抽出された被監視対象Tの身体における所定数の関節点の座標の各方向成分を、当該各方向成分の最大値及び最小値に基づいて正規化してもよい。 After the coordinates of the predetermined portion are extracted in step S23, the extraction unit 11 extracts the coordinates according to the maximum and minimum values of the coordinates (X, Y) in the extracted predetermined number of frames (for example, 15 frames per second). Normalize (step S24). The operation in step S24 may be performed in the same manner as the operation in step S13 shown in FIG. That is, for example, the extraction unit 11 normalizes each direction component of the coordinates of a predetermined number of joint points in the body of the monitored target T extracted two-dimensionally based on the maximum value and the minimum value of each direction component. It may be transformed into.

ステップS24において座標が正規化されたら、コントローラ15は、ステップS21において取得された機械学習データに基づいて、ステップS24において正規化された座標から、ずり落ち動作の開始が推定されるか否かを判定する(ステップS25)。 After the coordinates are normalized in step S24, the controller 15 determines whether or not the start of the sliding motion is estimated from the coordinates normalized in step S24 based on the machine learning data acquired in step S21. Determination (step S25).

ステップS25においてずり落ち動作の開始が推定される場合、すなわち、ずり落ち動作がこれから開始するリスクが高まった場合、コントローラ15は、所定の警告信号を出力する(ステップS26)。ステップS26において、コントローラ15は、所定の警告信号を警告部17に出力してよい。これにより、警告部17は、所定の警告を発することができる。 When the start of the slide-down operation is estimated in step S25, that is, when the risk that the slide-down operation is about to start increases, the controller 15 outputs a predetermined warning signal (step S26). In step S26, the controller 15 may output a predetermined warning signal to the warning unit 17. As a result, the warning unit 17 can issue a predetermined warning.

一方、ステップS25においてずり落ち動作の開始が推定されない場合、すなわち、ずり落ち動作がこれから開始するリスクが高まっていない場合、コントローラ15は、ステップS26の動作をスキップして、図12に示す動作を終了してよい。図12に示す動作が終了すると、コントローラ15は、再び図12に示す動作を開始してよい。例えば、コントローラ15は、画像データから座標が抽出されるごとに、図12に示す動作を繰り返してもよい。すなわち、例えば抽出部11が秒間15フレームの画像データから座標(X,Y)を抽出する場合、コントローラ15は、ステップS25におけるずり落ち動作の開始の推定を秒間15回行ってもよい。 On the other hand, if the start of the slipping operation is not estimated in step S25, that is, if the risk that the sliding operation will start from now on is not increased, the controller 15 skips the operation of step S26 and performs the operation shown in FIG. You may quit. When the operation shown in FIG. 12 is completed, the controller 15 may start the operation shown in FIG. 12 again. For example, the controller 15 may repeat the operation shown in FIG. 12 each time the coordinates are extracted from the image data. That is, for example, when the extraction unit 11 extracts the coordinates (X, Y) from the image data of 15 frames per second, the controller 15 may estimate the start of the sliding operation in step S25 15 times per second.

このように、一実施形態において、コントローラ15は、機械学習データに基づいて、抽出部11によって抽出された被監視対象Tの所定部位の座標から、ずり落ち動作の開始を推定してよい。また、抽出部11は、撮像部20によって撮像された単位時間当たり所定数のフレームの画像から被監視対象Tの所定部位の座標を抽出してもよい。この場合、コントローラ15は、抽出部11によって抽出された被監視対象Tの所定部位の座標から、ずり落ち動作の開始を推定してもよい。 As described above, in one embodiment, the controller 15 may estimate the start of the sliding operation from the coordinates of the predetermined portion of the monitored target T extracted by the extraction unit 11 based on the machine learning data. Further, the extraction unit 11 may extract the coordinates of a predetermined portion of the monitored target T from the images of a predetermined number of frames per unit time captured by the imaging unit 20. In this case, the controller 15 may estimate the start of the sliding operation from the coordinates of the predetermined portion of the monitored target T extracted by the extraction unit 11.

図12に示すように、コントローラ15は、ステップS25においてずり落ち動作の開始を推定したら直ちに、ステップS26において所定の警告信号を出力してよい。このため、コントローラ15は、実際のずり落ち動作が終了する前に、所定の警告信号を出力してよい。このように、コントローラ15は、ずり落ち動作の開始を推定したら、ずり落ち動作の終了前に、所定の警告信号を出力してもよい。また、コントローラ15は、可能な場合には、実際のずり落ち動作が開始する前に、所定の警告信号を出力してもよい。このように、コントローラ15は、ずり落ち動作の開始を推定したら、ずり落ち動作の開始前に、所定の警告信号を出力してもよい。 As shown in FIG. 12, the controller 15 may output a predetermined warning signal in step S26 immediately after estimating the start of the sliding operation in step S25. Therefore, the controller 15 may output a predetermined warning signal before the actual sliding operation is completed. As described above, the controller 15 may output a predetermined warning signal after estimating the start of the sliding operation and before the end of the sliding operation. Further, if possible, the controller 15 may output a predetermined warning signal before the actual sliding operation starts. In this way, the controller 15 may output a predetermined warning signal before the start of the slipping operation after estimating the start of the sliding operation.

一実施形態に係るシステム1によれば、例えば被監視対象Tのような人間が着座していた椅子からずり落ちる動作における身体の関節点の座標と、当該ずり落ちる動作のタイミングとの関係を機械学習することができる。また、一実施形態に係るシステム1によれば、機械学習した結果に基づいて、被監視対象Tが着座していた椅子からずり落ちる動作における身体の関節点の座標から、ずり落ち動作の開始を推定することができる。したがって、一実施形態に係るシステム1によれば、被監視対象Tが椅子に着座している場合に、その椅子からずり落ちる動作が終了する前、例えば床面などに落下する前に、所定の警告を発することができる。したがって、一実施形態に係るシステム1によれば、例えば介護施設などのスタッフは、例えば要看護者又は要介護者などのような被監視者が椅子からずり落ちる前に、被監視者が椅子からずり落ちようとしていることを認識し得る。このため、一実施形態に係るシステム1によれば、被監視対象Tの安全に供し得る。 According to the system 1 according to the embodiment, machine learning is performed on the relationship between the coordinates of the joint points of the body in the motion of sliding down from the chair on which the human being is seated, such as the monitored object T, and the timing of the motion of sliding down. be able to. Further, according to the system 1 according to the embodiment, the start of the sliding motion is estimated from the coordinates of the joint points of the body in the motion of sliding down from the chair on which the monitored object T is seated, based on the result of machine learning. can do. Therefore, according to the system 1 according to the embodiment, when the monitored object T is seated on a chair, a predetermined warning is given before the operation of sliding down from the chair is completed, for example, before falling on the floor surface or the like. Can be emitted. Therefore, according to the system 1 according to the embodiment, the staff of a nursing care facility, for example, is such that the monitored person slides out of the chair before the monitored person such as a nurse or a person requiring nursing care slides off the chair. You can recognize that you are about to fall. Therefore, according to the system 1 according to the embodiment, the monitored target T can be safely provided.

図13は、図12のステップS25において説明した推定処理をさらに説明する図である。図13は、左側の列において、例えば図12のステップS22において取得された画像データに撮像された被監視対象Tの状態を示している。図13に示すように、撮像された画像データにおいて、被監視対象Tは、撮像部20が設置された部屋に入室して椅子に着席した後、ずり落ち動作を開始したとする。ずり落ち動作が開始した瞬間から、コントローラ15は、図12に示したステップS22以降の動作を、秒間15フレームの処理として行うものとする。すなわち、システム1において、撮像部20は、秒間15フレームの画像を撮像するものとしてよい。また、システム1において、コントローラ15は、秒間15フレームの画像を取得するものとしてよい。また、システム1において、抽出部11は、秒間15フレームの画像から、被監視対象Tの身体の関節点の座標を抽出するものとしてよい。また、システム1において、コントローラ15(又は抽出部11)は、秒間15フレームの画像から抽出された座標を正規化するものとしてよい。さらに、システム1において、コントローラ15は、機械学習データに基づいて、秒間15フレームの正規化された座標から、ずり落ちの開始を推定してよい。 FIG. 13 is a diagram further explaining the estimation process described in step S25 of FIG. FIG. 13 shows the state of the monitored target T captured in the image data acquired in step S22 of FIG. 12, for example, in the left column. As shown in FIG. 13, in the captured image data, it is assumed that the monitored target T enters the room in which the imaging unit 20 is installed, sits in a chair, and then starts the sliding operation. From the moment when the sliding operation starts, the controller 15 shall perform the operation after step S22 shown in FIG. 12 as a process of 15 frames per second. That is, in the system 1, the image pickup unit 20 may capture an image of 15 frames per second. Further, in the system 1, the controller 15 may acquire an image of 15 frames per second. Further, in the system 1, the extraction unit 11 may extract the coordinates of the joint points of the body of the monitored target T from the image of 15 frames per second. Further, in the system 1, the controller 15 (or the extraction unit 11) may normalize the coordinates extracted from the image of 15 frames per second. Further, in the system 1, the controller 15 may estimate the start of the slip from the normalized coordinates of 15 frames per second based on the machine learning data.

図13の中央の列において、コントローラ15が画像データのフレームを連続して取得する様子を概念的に示してある。ここで、各フレームの画像データは、画像データから抽出された座標としてもよいし、正規化された座標としてもよい。また、図13の中央の列において、ハッチングを付した画像データは、ずり落ち動作が開始してから1秒間のフレームを表している。 In the central column of FIG. 13, the controller 15 conceptually shows how to continuously acquire frames of image data. Here, the image data of each frame may be the coordinates extracted from the image data or may be the normalized coordinates. Further, in the central column of FIG. 13, the hatched image data represents a frame for one second after the start of the sliding operation.

このような状況において、コントローラ15は、ずり落ち動作が開始してから1秒間のフレーム(フレーム1からフレーム15まで)に基づいて、その時点におけるずり落ちの開始を推定してよい(図13に示す推定1)。次に、コントローラ15は、フレーム2からフレーム16までフレームに基づいて、その時点におけるずり落ちの開始を推定してよい(図13に示す推定2)。以上のような動作を繰り返すことにより、コントローラ15は、ずり落ちの開始の推定を、秒間15回行うことになる。したがって、一実施形態に係るシステム1によれば、例えば図13に示す推定1及び推定2において何らかの原因により本来推定されるべきずり落ちの開始が推定されなかったとしても、秒間15回の推定によって失報のリスクを低減することができる。 In such a situation, the controller 15 may estimate the start of the slide-down at that time based on the frame (frames 1 to 15) for 1 second after the start of the slide-down operation (FIG. 13). Estimate shown 1). Next, the controller 15 may estimate the start of the slip-off at that time based on the frames from frame 2 to frame 16 (estimation 2 shown in FIG. 13). By repeating the above operation, the controller 15 estimates the start of sliding down 15 times per second. Therefore, according to the system 1 according to the embodiment, for example, even if the start of the slippage that should be originally estimated is not estimated in the estimation 1 and the estimation 2 shown in FIG. 13, the estimation is performed 15 times per second. The risk of misreporting can be reduced.

上述した実施形態において、例えば図4に示したように、抽出部11は、被監視対象Tの関節点として、13か所の部位の座標を抽出する例について説明した。しかしながら、一実施形態において、抽出部11は、13より多くの箇所の部位の座標を抽出してもよいし、13より少ない箇所の部位の座標を抽出してもよい。また、上述した実施形態において、システム1は、秒間15フレームを処理する例について説明した。しかしながら、一実施形態において、システム1又はシステム1を構成する各機能部は、秒間15よりも多くのフレームを処理してもよいし、秒間15よりも少ないフレームを処理してもよい。一実施形態において、システム1が扱う関節点の数及び/又は処理するフレームの数は、ずり落ち動作の開始の推定が妥当な結果になるように調整してもよい。 In the above-described embodiment, for example, as shown in FIG. 4, the extraction unit 11 has described an example in which the extraction unit 11 extracts the coordinates of 13 sites as the joint points of the monitored target T. However, in one embodiment, the extraction unit 11 may extract the coordinates of the parts having more than 13 parts, or may extract the coordinates of the parts having less than 13. Further, in the above-described embodiment, the system 1 has described an example of processing 15 frames per second. However, in one embodiment, the system 1 or each functional unit constituting the system 1 may process more than 15 frames per second or may process less than 15 frames per second. In one embodiment, the number of joint points handled by the system 1 and / or the number of frames processed may be adjusted so that the estimation of the start of the sliding motion gives a reasonable result.

このように、一実施形態において、コントローラ15は、ずり落ち動作の開始の推定の妥当性が所定以上になるように、前記フレームの数及び前記関節点の数の少なくとも一方を決定してもよい。 As described above, in one embodiment, the controller 15 may determine at least one of the number of the frames and the number of the joint points so that the validity of the estimation of the start of the sliding motion becomes more than a predetermined value. ..

上記実施形態においては、撮像された画像データを用いているため、可視光を検出対象として用いて監視を行った。しかしながら、本開示は、このような場合に限定されず、任意の電磁波、音波、温度、振動など、他の検出対象を任意に用いてもよい。 In the above embodiment, since the captured image data is used, visible light is used as a detection target for monitoring. However, the present disclosure is not limited to such cases, and other detection targets such as arbitrary electromagnetic waves, sound waves, temperatures, and vibrations may be arbitrarily used.

本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態について装置を中心に説明してきたが、本開示に係る実施形態は装置の各構成部が実行するステップを含む方法としても実現し得るものである。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。 Although the embodiments according to the present disclosure have been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications or modifications based on the present disclosure. It should be noted, therefore, that these modifications or modifications are within the scope of this disclosure. For example, the functions included in each component or each step can be rearranged so as not to be logically inconsistent, and a plurality of components or steps can be combined or divided into one. Is. Although the embodiment according to the present disclosure has been mainly described with respect to the apparatus, the embodiment according to the present disclosure can also be realized as a method including steps executed by each component of the apparatus. The embodiments according to the present disclosure can also be realized as a method, a program, or a storage medium on which a program is recorded, which is executed by a processor included in the apparatus. It should be understood that these are also included in the scope of this disclosure.

上述した実施形態は、システム1としての実施のみに限定されるものではない。例えば、上述した実施形態は、システム1に含まれる電子機器10として実施してもよい。また、上述した実施形態は、例えば、電子機器10のような機器による監視方法として実施してもよい。さらに、上述した実施形態は、例えば、電子機器10のような機器又は情報処理装置(例えばコンピュータ)が実行するプログラムとして実施してもよい。 The above-described embodiment is not limited to the implementation as the system 1. For example, the above-described embodiment may be implemented as an electronic device 10 included in the system 1. Further, the above-described embodiment may be implemented as a monitoring method using a device such as an electronic device 10. Further, the above-described embodiment may be implemented as a program executed by, for example, a device such as an electronic device 10 or an information processing device (for example, a computer).

1 システム
10 電子機器
11 抽出部
13 記憶部
132 機械学習データ
15 コントローラ
17 警告部
19 通信部
20 撮像部

1 System 10 Electronic equipment 11 Extraction unit 13 Storage unit 132 Machine learning data 15 Controller 17 Warning unit 19 Communication unit 20 Imaging unit

Claims (20)

被監視対象を撮像する撮像部と、
前記撮像部によって撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出部と、
前記撮像部によって撮像された経時的な画像において前記被監視対象が着座していた椅子からずり落ちる動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記所定部位の座標と、前記被監視対象が着座していた椅子からずり落ちる動作の開始との関係を機械学習するコントローラと、
を備えるシステム。
An imaging unit that captures the monitored object and
An extraction unit that extracts the coordinates of a predetermined portion of the monitored object from the image captured by the imaging unit, and an extraction unit.
Between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object slides down from the chair in which the monitored object is seated in the time-dependent image captured by the image pickup unit. A controller that machine-learns the relationship between the coordinates of the predetermined portion and the start of the motion of sliding down from the chair on which the monitored object is seated.
A system equipped with.
前記コントローラは、前記撮像部によって撮像された経時的な画像において前記被監視対象が着座していた椅子からずり落ちる動作の開始時点及び終了時点以外の時点を含むタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記所定部位の座標と、前記被監視対象が着座していた椅子からずり落ちる動作の開始との関係を機械学習する、請求項1に記載のシステム。 The controller has the start time and the start time based on the timing information including the start time and the time other than the end time of the operation of sliding down from the chair on which the monitored object is seated in the time-dependent image captured by the image pickup unit. The system according to claim 1, wherein the system learns the relationship between the coordinates of the predetermined portion between the end time point and the start of the motion of sliding down from the chair on which the monitored object is seated. 前記抽出部は、前記撮像部によって撮像された秒間所定数のフレームの各画像ごとに、前記被監視対象の身体における所定数の関節点の座標を2次元的に抽出する、請求項1又は2に記載のシステム。 The extraction unit two-dimensionally extracts the coordinates of a predetermined number of joint points in the body to be monitored for each image of a predetermined number of frames per second captured by the imaging unit. The system described in. 前記抽出部は、2次元的に抽出された前記被監視対象の身体における所定数の関節点の座標の各方向成分を、当該各方向成分の最大値及び最小値に基づいて正規化する、請求項1から3のいずれかに記載のシステム。 The extraction unit normalizes each direction component of the coordinates of a predetermined number of joint points in the body to be monitored, which is two-dimensionally extracted, based on the maximum value and the minimum value of each direction component. The system according to any one of Items 1 to 3. 前記タイミング情報において、前記被監視対象が着座していた椅子からずり落ちる動作の終了時点は、前記撮像部によって撮像された経時的な画像において前記被監視対象が前記椅子からずり落ちたタイミングを示す、請求項1から4のいずれかに記載のシステム。 In the timing information, the end point of the operation of the monitored object sliding down from the chair on which the monitored object is seated indicates the timing at which the monitored object slides off the chair in the temporal image captured by the imaging unit. The system according to any one of claims 1 to 4. 前記タイミング情報において、前記被監視対象が着座していた椅子からずり落ちる動作の開始時点は、前記撮像部によって撮像された経時的な画像において前記被監視対象が前記椅子からずり落ちるに至る動作を開始したタイミングを示す、請求項1から5のいずれかに記載のシステム。 In the timing information, at the start time of the operation of the monitored object sliding down from the chair on which the monitored object was seated, the operation of the monitored object sliding down from the chair in the time-dependent image captured by the imaging unit was started. The system according to any one of claims 1 to 5, which indicates the timing. 前記タイミング情報において、前記被監視対象が着座していた椅子からずり落ちる動作の開始時点は、前記撮像部によって撮像された経時的な画像において前記被監視対象の尻が前記椅子において前記被監視対象の前方向に移動を開始したタイミングを示す、請求項1から6のいずれかに記載のシステム。 In the timing information, at the start time of the operation of sliding down from the chair on which the monitored object was seated, the buttock of the monitored object is the monitored object in the chair in the temporal image captured by the imaging unit. The system according to any one of claims 1 to 6, which indicates the timing at which the movement is started in the forward direction. 被監視対象を撮像する撮像部と、
前記撮像部によって撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出部と、
人間が着座していた椅子からずり落ちる動作の開始時点と終了時点との間における前記人間の所定部位の座標と、前記人間が着座していた椅子からずり落ちる動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出部によって抽出された前記被監視対象の所定部位の座標から、前記被監視対象が着座していた椅子からずり落ちる動作の開始を推定するコントローラと、
を備えるシステム。
An imaging unit that captures the monitored object and
An extraction unit that extracts the coordinates of a predetermined portion of the monitored object from the image captured by the imaging unit, and an extraction unit.
Machine learning was performed on the relationship between the coordinates of the predetermined part of the human between the start time and the end time of the motion of sliding down from the chair in which the human was seated and the start of the motion of sliding down from the chair in which the human was seated. Based on the machine learning data, the controller that estimates the start of the motion of the monitored object sliding down from the chair on which the monitored object was seated from the coordinates of the predetermined portion of the monitored object extracted by the extraction unit.
A system equipped with.
前記抽出部は、前記撮像部によって撮像された単位時間当たり所定数のフレームの画像から前記被監視対象の所定部位の座標を抽出し、
前記コントローラは、前記抽出部によって抽出された前記被監視対象の所定部位の座標から、前記被監視対象が着座していた椅子からずり落ちる動作の開始を推定する、請求項8に記載のシステム。
The extraction unit extracts the coordinates of the predetermined portion of the monitored object from the images of a predetermined number of frames per unit time captured by the imaging unit.
The system according to claim 8, wherein the controller estimates the start of an operation of sliding down from the chair on which the monitored object is seated from the coordinates of a predetermined portion of the monitored object extracted by the extraction unit.
前記コントローラは、前記被監視対象が着座していた椅子からずり落ちる動作の開始を推定したら、前記被監視対象が着座していた椅子からずり落ちる動作の開始前に、所定の警告信号を出力する、請求項8又は9に記載のシステム。 When the controller estimates the start of the motion of sliding down from the chair on which the monitored object is seated, the controller outputs a predetermined warning signal before the motion of sliding down from the chair on which the monitored object is seated. Item 8. The system according to item 8 or 9. 前記コントローラは、前記被監視対象が着座していた椅子からずり落ちる動作の開始を推定したら、前記被監視対象が着座していた椅子からずり落ちる動作の終了前に、所定の警告信号を出力する、請求項8又は9に記載のシステム。 When the controller estimates the start of the operation of sliding down from the chair on which the monitored object is seated, the controller outputs a predetermined warning signal before the end of the operation of sliding down from the chair on which the monitored object is seated. Item 8. The system according to item 8 or 9. 前記抽出部は、前記撮像部によって撮像された秒間所定数のフレームの各画像ごとに、前記被監視対象の身体における所定数の関節点の座標を2次元的に抽出する、請求項8から11のいずれかに記載のシステム。 The extraction unit two-dimensionally extracts the coordinates of a predetermined number of joint points in the body to be monitored for each image of a predetermined number of frames per second captured by the imaging unit, according to claims 8 to 11. The system described in any of. 前記抽出部は、2次元的に抽出された前記被監視対象の身体における所定数の関節点の座標の各方向成分を、当該各方向成分の最大値及び最小値に基づいて正規化する、請求項12に記載のシステム。 The extraction unit normalizes each direction component of the coordinates of a predetermined number of joint points in the body to be monitored, which is two-dimensionally extracted, based on the maximum value and the minimum value of each direction component. Item 12. The system according to item 12. 前記コントローラは、前記被監視対象が着座していた椅子からずり落ちる動作の開始の推定の妥当性が所定以上になるように、前記フレームの数及び前記関節点の数の少なくとも一方を決定する、請求項12又は13に記載のシステム。 The controller determines at least one of the number of frames and the number of joint points so that the validity of the estimation of the start of the motion of sliding down from the chair on which the monitored object is seated is equal to or higher than a predetermined value. Item 12. The system according to item 12. 被監視対象を含んで撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出部と、
前記被監視対象を含んで撮像された経時的な画像において前記被監視対象が着座していた椅子からずり落ちる動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記所定部位の座標と、前記被監視対象が着座していた椅子からずり落ちる動作の開始との関係を機械学習するコントローラと、
を備える電子機器。
An extraction unit that extracts the coordinates of a predetermined part of the monitored object from an image captured including the monitored object, and an extraction unit.
The start time and the end time are based on the timing information indicating the start time and the end time of the motion of the monitored object sliding down from the chair in which the monitored object is seated in the time-lapse image captured including the monitored object. A controller that machine-learns the relationship between the coordinates of the predetermined part between the two and the start of the motion of sliding down from the chair on which the monitored object is seated.
Electronic equipment equipped with.
被監視対象を含んで撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出部と、
人間が着座していた椅子からずり落ちる動作の開始時点と終了時点との間における前記人間の所定部位の座標と、前記人間が着座していた椅子からずり落ちる動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出部によって抽出された前記被監視対象の所定部位の座標から、前記被監視対象が着座していた椅子からずり落ちる動作の開始を推定するコントローラと、
を備える電子機器。
An extraction unit that extracts the coordinates of a predetermined part of the monitored object from an image captured including the monitored object, and an extraction unit.
Machine learning was performed on the relationship between the coordinates of the predetermined part of the human between the start time and the end time of the motion of sliding down from the chair in which the human was seated and the start of the motion of sliding down from the chair in which the human was seated. Based on the machine learning data, the controller that estimates the start of the motion of the monitored object sliding down from the chair on which the monitored object was seated from the coordinates of the predetermined portion of the monitored object extracted by the extraction unit.
Electronic equipment equipped with.
被監視対象を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が着座していた椅子からずり落ちる動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記所定部位の座標と、前記被監視対象が着座していた椅子からずり落ちる動作の開始との関係を機械学習する機械学習ステップと、
を含む、電子機器の制御方法。
An imaging step that captures the monitored object, and
An extraction step of extracting the coordinates of a predetermined portion of the monitored object from the image captured by the imaging step, and an extraction step.
Between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object slides down from the chair in which the monitored object is seated in the time-dependent image captured by the imaging step. A machine learning step for machine learning the relationship between the coordinates of the predetermined portion and the start of the motion of sliding down from the chair on which the monitored object was seated.
How to control electronic devices, including.
被監視対象を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出ステップと、
人間が着座していた椅子からずり落ちる動作の開始時点と終了時点との間における前記人間の所定部位の座標と、前記人間が着座していた椅子からずり落ちる動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出ステップによって抽出された前記被監視対象の所定部位の座標から、前記被監視対象が着座していた椅子からずり落ちる動作の開始を推定する推定ステップと、
を含む、電子機器の制御方法。
An imaging step that captures the monitored object, and
An extraction step of extracting the coordinates of a predetermined portion of the monitored object from the image captured by the imaging step, and an extraction step.
Machine learning was performed on the relationship between the coordinates of the predetermined part of the human between the start time and the end time of the motion of sliding down from the chair in which the human was seated and the start of the motion of sliding down from the chair in which the human was seated. Based on the machine learning data, the estimation step of estimating the start of the motion of the monitored object sliding down from the chair on which the monitored object was seated from the coordinates of the predetermined portion of the monitored object extracted by the extraction step, and the estimation step.
How to control electronic devices, including.
コンピュータに、
被監視対象を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が着座していた椅子からずり落ちる動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記所定部位の座標と、前記被監視対象が着座していた椅子からずり落ちる動作の開始との関係を機械学習する機械学習ステップと、
を実行させる、プログラム。
On the computer
An imaging step that captures the monitored object, and
An extraction step of extracting the coordinates of a predetermined portion of the monitored object from the image captured by the imaging step, and an extraction step.
Between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object slides down from the chair in which the monitored object is seated in the time-dependent image captured by the imaging step. A machine learning step for machine learning the relationship between the coordinates of the predetermined portion and the start of the motion of sliding down from the chair on which the monitored object was seated.
A program that runs.
コンピュータに、
被監視対象を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標を抽出する抽出ステップと、
人間が着座していた椅子からずり落ちる動作の開始時点と終了時点との間における前記人間の所定部位の座標と、前記人間が着座していた椅子からずり落ちる動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出ステップによって抽出された前記被監視対象の所定部位の座標から、前記被監視対象が着座していた椅子からずり落ちる動作の開始を推定する推定ステップと、
を実行させる、プログラム。


On the computer
An imaging step that captures the monitored object, and
An extraction step of extracting the coordinates of a predetermined portion of the monitored object from the image captured by the imaging step, and an extraction step.
Machine learning was performed on the relationship between the coordinates of the predetermined part of the human between the start time and the end time of the motion of sliding down from the chair in which the human was seated and the start of the motion of sliding down from the chair in which the human was seated. Based on the machine learning data, the estimation step of estimating the start of the motion of the monitored object sliding down from the chair on which the monitored object was seated from the coordinates of the predetermined portion of the monitored object extracted by the extraction step, and the estimation step.
A program that runs.


JP2020145012A 2020-08-28 2020-08-28 System, electronic apparatus, method for controlling electronic apparatus, and program Pending JP2022039814A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020145012A JP2022039814A (en) 2020-08-28 2020-08-28 System, electronic apparatus, method for controlling electronic apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020145012A JP2022039814A (en) 2020-08-28 2020-08-28 System, electronic apparatus, method for controlling electronic apparatus, and program

Publications (1)

Publication Number Publication Date
JP2022039814A true JP2022039814A (en) 2022-03-10

Family

ID=80497727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020145012A Pending JP2022039814A (en) 2020-08-28 2020-08-28 System, electronic apparatus, method for controlling electronic apparatus, and program

Country Status (1)

Country Link
JP (1) JP2022039814A (en)

Similar Documents

Publication Publication Date Title
US10383314B2 (en) Empathy monitoring and detection system
US10600204B1 (en) Medical environment bedsore detection and prevention system
US9710920B2 (en) Motion information processing device
CN108882853B (en) Triggering measurement of physiological parameters in time using visual context
Dovgan et al. Intelligent elderly-care prototype for fall and disease detection
US10489661B1 (en) Medical environment monitoring system
JP2022095619A (en) Recuperation support system
JPWO2017183602A1 (en) Monitored person monitoring system and monitored person monitoring method
US10475206B1 (en) Medical environment event parsing system
US10229489B1 (en) Medical environment monitoring system
Bisio et al. Towards IoT-based eHealth services: A smart prototype system for home rehabilitation
JP7314939B2 (en) Image recognition program, image recognition device, learning program, and learning device
JP2022039814A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022050269A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022050268A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022050273A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022050271A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
Safarzadeh et al. Real-time fall detection and alert system using pose estimation
JP2022050272A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP7518699B2 (en) SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM
Chen et al. A Novel CNN-BiLSTM Ensemble Model With Attention Mechanism for Sit-to-Stand Phase Identification Using Wearable Inertial Sensors
JP2022055248A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JPWO2017183528A1 (en) Monitored person monitoring apparatus, method and system
JP2022123738A (en) Determination device, determination method, determination program and determination system
JP7449212B2 (en) Systems, electronic devices, control methods for electronic devices, and programs