JP2022039815A - System, electronic apparatus, method for controlling electronic apparatus, and program - Google Patents
System, electronic apparatus, method for controlling electronic apparatus, and program Download PDFInfo
- Publication number
- JP2022039815A JP2022039815A JP2020145013A JP2020145013A JP2022039815A JP 2022039815 A JP2022039815 A JP 2022039815A JP 2020145013 A JP2020145013 A JP 2020145013A JP 2020145013 A JP2020145013 A JP 2020145013A JP 2022039815 A JP2022039815 A JP 2022039815A
- Authority
- JP
- Japan
- Prior art keywords
- wheelchair
- monitored object
- image
- monitored
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title abstract description 25
- 238000010801 machine learning Methods 0.000 claims abstract description 77
- 238000003384 imaging method Methods 0.000 claims abstract description 56
- 230000036962 time dependent Effects 0.000 claims description 15
- 230000002123 temporal effect Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 10
- 230000000474 nursing effect Effects 0.000 description 10
- 230000007774 longterm Effects 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 206010012289 Dementia Diseases 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003862 health status Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 208000028017 Psychotic disease Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Closed-Circuit Television Systems (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
Abstract
Description
本開示は、システム、電子機器、電子機器の制御方法、及びプログラムに関する。 The present disclosure relates to systems, electronic devices, control methods for electronic devices, and programs.
例えば介護施設のような現場において、要看護者又は要介護者などのような被監視者の行動を監視する装置が提案されている。例えば、特許文献1は、撮像装置で得られた画像に基づいて、被監視者における所定の行動を検知する被監視者システムを開示している。特許文献2は、対象者の足に検出装置を装着することにより、対象者が歩行中に転倒するのを予防する転倒予防システムを開示している。また、特許文献3は、温度分布を検出することにより、人体の体位を判定する見守り支援装置を開示している。また、引用文献4は、在宅、又は老人ホーム若しくは介護施設における老年精神病患者を監視するための医療システムを開示している。
For example, in a field such as a long-term care facility, a device for monitoring the behavior of a monitored person such as a nurse or a care recipient has been proposed. For example,
被監視対象を監視することにより、被監視対象の安全に供することができれば、有益である。 It would be beneficial if the monitored object could be safely monitored by monitoring it.
本開示の目的は、被監視対象の安全に供し得るシステム、電子機器、電子機器の制御方法、及びプログラムを提供することにある。 An object of the present disclosure is to provide a system, an electronic device, a control method for the electronic device, and a program that can be safely provided to the monitored object.
一実施形態に係るシステムは、
画像を撮像する撮像部と、
前記撮像部によって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識部と、
前記撮像部によって撮像された経時的な画像において前記被監視対象が前記車椅子を放置する動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象及び前記車椅子の位置と、前記被監視対象が前記車椅子を放置する動作の開始との関係を機械学習するコントローラと、
を備える。
The system according to one embodiment is
An image pickup unit that captures an image and
A recognition unit that recognizes a monitored object and a wheelchair related to the monitored object in the image captured by the imaging unit, and a recognition unit.
The subject between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object leaves the wheelchair in the time-dependent image captured by the image pickup unit. A controller that machine-learns the relationship between the positions of the monitored object and the wheelchair and the start of the operation in which the monitored object leaves the wheelchair.
To prepare for.
また、一実施形態に係るシステムは、
画像を撮像する撮像部と、
前記撮像部によって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識部と、
人間に関連する車椅子を前記人間が放置する動作の開始時点と終了時点との間における前記人間及び前記車椅子の位置と、前記人間が前記車椅子を放置する動作の開始との関係が機械学習された機械学習データに基づいて、前記認識部によって認識された前記被監視対象及び前記車椅子の位置から、前記被監視対象が前記車椅子を放置する動作の開始を推定するコントローラと、
を備える。
In addition, the system according to one embodiment is
An image pickup unit that captures an image and
A recognition unit that recognizes a monitored object and a wheelchair related to the monitored object in the image captured by the imaging unit, and a recognition unit.
Machine learning was performed on the relationship between the positions of the human and the wheelchair between the start and end points of the movement in which the human-related wheelchair is left unattended, and the start of the movement in which the human leaves the wheelchair. Based on the machine learning data, the controller that estimates the start of the operation of the monitored object leaving the wheelchair from the positions of the monitored object and the wheelchair recognized by the recognition unit.
To prepare for.
一実施形態に係る電子機器は、
撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識部と、
前記撮像部によって撮像された経時的な画像において前記被監視対象が前記車椅子を放置する動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象及び前記車椅子の位置と、前記被監視対象が前記車椅子を放置する動作の開始との関係を機械学習するコントローラと、
を備える。
The electronic device according to one embodiment is
A recognition unit that recognizes the monitored object and the wheelchair related to the monitored object in the captured image, and
The subject between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object leaves the wheelchair in the time-dependent image captured by the image pickup unit. A controller that machine-learns the relationship between the positions of the monitored object and the wheelchair and the start of the operation in which the monitored object leaves the wheelchair.
To prepare for.
また、一実施形態に係る電子機器は、
撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識部と、
人間に関連する車椅子を前記人間が放置する動作の開始時点と終了時点との間における前記人間及び前記車椅子の位置と、前記人間が前記車椅子を放置する動作の開始との関係が機械学習された機械学習データに基づいて、前記認識部によって認識された前記被監視対象及び前記車椅子の位置から、前記被監視対象が前記車椅子を放置する動作の開始を推定するコントローラと、
を備える。
In addition, the electronic device according to one embodiment is
A recognition unit that recognizes the monitored object and the wheelchair related to the monitored object in the captured image, and
Machine learning was performed on the relationship between the positions of the human and the wheelchair between the start and end points of the movement in which the human-related wheelchair is left unattended, and the start of the movement in which the human leaves the wheelchair. Based on the machine learning data, the controller that estimates the start of the operation of the monitored object leaving the wheelchair from the positions of the monitored object and the wheelchair recognized by the recognition unit.
To prepare for.
一実施形態に係る電子機器の制御方法は、
画像を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が前記車椅子を放置する動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象及び前記車椅子の位置と、前記被監視対象が前記車椅子を放置する動作の開始との関係を機械学習する機械学習ステップと、
を含む。
The method for controlling an electronic device according to an embodiment is as follows.
An imaging step to capture an image and
A recognition step for recognizing a monitored object and a wheelchair related to the monitored object in the image captured by the imaging step.
The subject between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object leaves the wheelchair in the time-dependent image captured by the imaging step. A machine learning step for machine learning the relationship between the position of the monitored object and the wheelchair and the start of the operation of the monitored object leaving the wheelchair.
including.
また、一実施形態に係る電子機器の制御方法は、
画像を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識ステップと、
人間に関連する車椅子を前記人間が放置する動作の開始時点と終了時点との間における前記人間及び前記車椅子の位置と、前記人間が前記車椅子を放置する動作の開始との関係が機械学習された機械学習データに基づいて、前記認識ステップによって認識された前記被監視対象及び前記車椅子の位置から、前記被監視対象が前記車椅子を放置する動作の開始を推定する推定ステップと、
を含む。
Further, the control method of the electronic device according to the embodiment is as follows.
An imaging step to capture an image and
A recognition step for recognizing a monitored object and a wheelchair related to the monitored object in the image captured by the imaging step.
Machine learning was performed on the relationship between the positions of the human and the wheelchair between the start and end points of the movement in which the human-related wheelchair is left unattended, and the start of the movement in which the human leaves the wheelchair. Based on the machine learning data, an estimation step of estimating the start of the operation of the monitored object leaving the wheelchair from the positions of the monitored object and the wheelchair recognized by the recognition step, and an estimation step.
including.
一実施形態に係るプログラムは、
コンピュータに、
画像を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が前記車椅子を放置する動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象及び前記車椅子の位置と、前記被監視対象が前記車椅子を放置する動作の開始との関係を機械学習する機械学習ステップと、
を実行させる。
The program according to one embodiment is
On the computer
An imaging step to capture an image and
A recognition step for recognizing a monitored object and a wheelchair related to the monitored object in the image captured by the imaging step.
The subject between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object leaves the wheelchair in the time-dependent image captured by the imaging step. A machine learning step for machine learning the relationship between the position of the monitored object and the wheelchair and the start of the operation of the monitored object leaving the wheelchair.
To execute.
また、一実施形態に係るプログラムは、
コンピュータに、
画像を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識ステップと、
人間に関連する車椅子を前記人間が放置する動作の開始時点と終了時点との間における前記人間及び前記車椅子の位置と、前記人間が前記車椅子を放置する動作の開始との関係が機械学習された機械学習データに基づいて、前記認識ステップによって認識された前記被監視対象及び前記車椅子の位置から、前記被監視対象が前記車椅子を放置する動作の開始を推定する推定ステップと、
を実行させる。
In addition, the program according to one embodiment is
On the computer
An imaging step to capture an image and
A recognition step for recognizing a monitored object and a wheelchair related to the monitored object in the image captured by the imaging step.
Machine learning was performed on the relationship between the positions of the human and the wheelchair between the start and end points of the movement in which the human-related wheelchair is left unattended, and the start of the movement in which the human leaves the wheelchair. Based on the machine learning data, an estimation step of estimating the start of the operation of the monitored object leaving the wheelchair from the positions of the monitored object and the wheelchair recognized by the recognition step, and an estimation step.
To execute.
一実施形態によれば、被監視対象の安全に供し得るシステム、電子機器、電子機器の制御方法、及びプログラムを提供することができる。 According to one embodiment, it is possible to provide a system, an electronic device, a control method for the electronic device, and a program that can be safely provided to the monitored object.
本開示において、「電子機器」とは、電力により駆動する機器としてよい。また、「システム」とは、電力により駆動する機器を含むものとしてよい。また、「ユーザ」とは、一実施形態に係るシステム及び/又は電子機器を使用する者(典型的には人間)としてよい。ユーザは、一実施形態に係るシステム及び/又は電子機器を用いることで、被監視対象の監視を行う者を含んでもよい。また、「被監視対象」とは、一実施形態に係るシステム及び/又は電子機器によって監視される対象となる者(例えば人間又は動物)としてよい。さらに、ユーザは、被監視対象を含んでもよい。 In the present disclosure, the "electronic device" may be a device driven by electric power. Further, the "system" may include a device driven by electric power. Further, the "user" may be a person (typically a human being) who uses the system and / or the electronic device according to the embodiment. The user may include a person who monitors the monitored object by using the system and / or the electronic device according to the embodiment. Further, the “monitored target” may be a person (for example, a human or an animal) to be monitored by the system and / or the electronic device according to the embodiment. Further, the user may include a monitored object.
一実施形態に係るシステムが利用される場面として想定されるのは、例えば、会社、病院、老人ホーム、学校、スポーツジム、及び介護施設などのような、社会活動を行う者が使用する特定の施設などとしてよい。例えば、会社であれば従業員などの健康状態の把握及び/又は管理は、極めて重要である。同様に、病院であれば患者及び医療従事者など、また老人ホームであれば入居者及びスタッフなどの健康状態の把握及び/又は管理は、極めて重要である。一実施形態に係るシステムが利用される場面は、上述の、会社、病院、及び老人ホームなどの施設に限定されず、被監視対象の健康状態の把握及び/又は管理などが望まれる任意の施設としてよい。任意の施設は、例えば、ユーザの自宅などの非商業施設も含んでもよい。また、一実施形態に係るシステムが利用される場面は、例えば、電車、バス、及び飛行機などの移動体内、並びに、駅及び乗り場などとしてもよい。 It is assumed that the system according to one embodiment is used in a specific situation used by a person engaged in social activities such as a company, a hospital, an elderly home, a school, a sports gym, and a long-term care facility. It may be a facility. For example, in the case of a company, it is extremely important to understand and / or manage the health status of employees. Similarly, it is extremely important to understand and / or manage the health status of patients and medical staff in hospitals, and residents and staff in elderly housing with care. The scene in which the system according to the embodiment is used is not limited to the above-mentioned facilities such as companies, hospitals, and elderly housings, but any facility where it is desired to grasp and / or manage the health condition of the monitored object. May be. Any facility may also include non-commercial facilities, such as the user's home. Further, the scene in which the system according to one embodiment is used may be, for example, a moving body such as a train, a bus, or an airplane, a station, a platform, or the like.
一実施形態に係るシステムは、例えば、介護施設などにおいて、要看護者又は要介護者などのような被監視対象の行動を監視する用途で用いられてよい。一実施形態に係るシステムは、例えば要看護者又は要介護者などのような被監視対象が着座して使用している車椅子から立ち上がって車椅子を放置する動作を監視することができる。 The system according to one embodiment may be used for monitoring the behavior of a monitored object such as a nurse-requiring person or a nursing-requiring person in a nursing care facility or the like. The system according to one embodiment can monitor the operation of standing up from a wheelchair used by a monitored object such as a nurse or a care recipient and leaving the wheelchair unattended.
特に、一実施形態に係るシステムは、例えば要看護者又は要介護者などのような被監視者が車椅子に着座している場合に、被監視者が車椅子を放置する動作が完了する前、又は車椅子を放置する動作が完了した後に、所定の警告を発することができる。したがって、一実施形態に係るシステムによれば、例えば介護施設などのスタッフは、例えば要看護者又は要介護者などのような被監視者が車椅子を放置する前に、車椅子が放置されようとしていることを認識し得る。また、一実施形態に係るシステムによれば、例えば介護施設などのスタッフは、例えば要看護者又は要介護者などのような被監視者が車椅子を放置した後に、車椅子が放置されたことを認識し得る。 In particular, in the system according to one embodiment, when a monitored person such as a nurse or a care recipient is seated in a wheelchair, before the operation of leaving the wheelchair by the monitored person is completed, or A predetermined warning can be issued after the operation of leaving the wheelchair is completed. Therefore, according to the system according to one embodiment, a staff member such as a care facility is about to leave the wheelchair before a monitored person such as a nurse or a care recipient leaves the wheelchair. You can recognize that. Further, according to the system according to one embodiment, the staff of a nursing care facility, for example, recognizes that the wheelchair was left unattended after the monitored person such as a nurse requiring nursing care or a person requiring long-term care left the wheelchair. Can be.
以下、一実施形態に係るシステムについて、図面を参照して詳細に説明する。 Hereinafter, the system according to the embodiment will be described in detail with reference to the drawings.
図1は、一実施形態に係るシステムの概略構成を示す図である。図1に示すように、一実施形態に係るシステム1は、電子機器10及び撮像部20を含んで構成されてよい。電子機器10と撮像部20とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。一実施形態に係るシステム1は、図1に示す機能部の一部を含まなくてもよいし、図1に示す以外の機能部を含んでもよい。例えば、一実施形態に係るシステム1は、警告部17及び通信部19の少なくとも一方を備えなくてもよい。また、例えば、一実施形態に係るシステム1は、画像を表示可能なディスプレイ及び/又はメモリカードなどのストレージを挿入可能なスロットなどを備えてもよい。
FIG. 1 is a diagram showing a schematic configuration of a system according to an embodiment. As shown in FIG. 1, the
図1に示す撮像部20は、例えばデジタルカメラのような、電子的に画像を撮像するイメージセンサを含んで構成されてよい。撮像部20は、CCD(Charge Coupled Device Image Sensor)又はCMOS(Complementary Metal Oxide Semiconductor)センサ等のように、光電変換を行う撮像素子を含んで構成されてよい。撮像部20は、例えば図1に示すように、被監視対象Tを撮像してよい。ここで、被監視対象Tは、例えば人間としてよい。撮像部20は、撮像した画像を信号に変換して、電子機器10に送信してよい。例えば、撮像部20は、撮像した画像に基づく信号を、電子機器10の抽出部11、記憶部13、及び/又は、コントローラ15などに送信してよい。撮像部20は、被監視対象Tを撮像するものであれば、デジタルカメラのような撮像デバイスに限定されず、任意のデバイスとしてよい。
The
一実施形態において、撮像部20は、例えば被監視対象Tを所定時間ごと(例えば秒間15フレーム)の静止画として撮像してもよい。また、一実施形態において、撮像部20は、例えば被監視対象Tを連続した動画として撮像してもよい。このように、一実施形態において、撮像部20は、画像を撮像する。
In one embodiment, the
図1に示すように、一実施形態に係る電子機器10は、認識部11、記憶部13、コントローラ15、警告部17、及び通信部19を備えてよい。一実施形態に係る電子機器10は、図1に示す機能部の一部を備えなくてもよいし、図1に示す以外の機能部を備えてもよい。例えば、一実施形態に係る電子機器10は、記憶部13に記憶される後述の機械学習データ132を備えてもよい。例えば、一実施形態に係る電子機器10は、後述の機械学習データ132の少なくとも一部が、外部サーバなどの外部機器に記憶されているとしてもよい。
As shown in FIG. 1, the
認識部11は、撮像部20によって撮像された画像から、所定の物体を認識する機能を有してよい。例えば、認識部11は、撮像部20によって撮像された画像から、被監視対象Tを認識してもよい。また、例えば、認識部11は、撮像部20によって撮像された画像から、車椅子を認識してもよい。さらに、例えば、認識部11は、撮像部20によって撮像された画像から、被監視対象Tに関連する車椅子を認識してもよい。ここで、被監視対象Tに関連する車椅子とは、例えば、被監視対象Tが使用している車椅子としてもよいし、被監視対象Tが使用していた車椅子などとしてもよい。認識部11は、例えば既存の画像認識の技術を用いて、撮像部20によって撮像された画像から、被監視対象T及び/又は車椅子を認識してよい。一実施形態において、認識部11は、撮像部20によって撮像された被監視対象Tの画像から、当該被監視対象Tの頭部、体幹、四肢、及び/又は各関節などの各部の位置を認識してもよい。認識部11は、専用のハードウェアとして構成されてもよいし、少なくとも一部にソフトウェアを含めて構成されてもよいし、全てソフトウェアで構成されているとしてもよい。このように、認識部11は、撮像部20によって撮像された画像において、被監視対象T及び被監視対象Tに関連する車椅子を認識してよい。
The
記憶部13は、各種の情報を記憶するメモリとしての機能を有してよい。記憶部13は、例えばコントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などを記憶してよい。また、記憶部13は、コントローラ15のワークメモリとして機能してよい。記憶部13は、例えば半導体メモリ等により構成することができるが、これに限定されず、任意の記憶装置とすることができる。例えば、記憶部13は、一実施形態に係る電子機器10に挿入されたメモリカードのような記憶媒体としてもよい。また、記憶部13は、後述のコントローラ15として用いられるCPUの内部メモリであってもよいし、コントローラ15に別体として接続されるものとしてもよい。
The
図1に示すように、記憶部13は、例えば機械学習データ132を記憶してもよい。ここで、機械学習データ132は、機械学習によって生成されるデータとしてよい。また、機械学習とは、特定のタスクをトレーニングによって実行可能になるAI(Artificial Intelligence)の技術に基づくものとしてよい。より具体的には、機械学習とは、コンピュータのような情報処理装置が多くのデータを学習し、分類及び/又は予測などのタスクを遂行するアルゴリズム又はモデルを自動的に構築する技術としてよい。本明細書において、AI(Artificial Intelligence)の一部には、機械学習が含まれるとしてもよい。本明細書において、機械学習には、正解データをもとに入力データの特徴又はルールを学習する教師あり学習が含まれるものとしてよい。また、機械学習には、正解データがない状態で入力データの特徴又はルールを学習する教師なし学習が含まれるものとしてもよい。さらに、機械学習には、報酬又は罰などを与えて入力データの特徴又はルールを学習する強化学習などが含まれるものとしてもよい。また、本明細書において、機械学習は、教師あり学習、教師なし学習、及び強化学習を任意に組み合わせたものとしてもよい。本実施形態の機械学習データ132の概念は、入力データに対して学習されたアルゴリズムを用いて所定の推論(推定)結果を出力するアルゴリズムを含むとしてもよい。本実施形態は、このアルゴリズムとして、例えば、従属変数と独立変数との関係を予測する線形回帰、人の脳神経系ニューロンを数理モデル化したニューラルネットワーク(NN)、誤差を二乗して算出する最小二乗法、問題解決を木構造にする決定木、及びデータを所定の方法で変形する正則化などその他適宜なアルゴリズムを用いることができる。本実施形態は、ニューラルネットワークの一種であるディープラーニングを利用するとしてよい。ディープラーニングは、ニューラルネットワークの一種であり、ネットワークの階層が深いニューラルネットワークがディープラーニングと呼ばれている。
As shown in FIG. 1, the
特に、一実施形態において、機械学習データ132は、被監視対象Tが車椅子を放置する動作を行う際の被監視対象T及び車椅子の動きを機械学習したデータとしてよい。以下、被監視対象Tが被監視対象Tに関連する車椅子を放置する動作を、単に「放置動作」と記すことがある。また、機械学習データ132は、被監視対象Tとして特定の人物(例えば特定の要介護者など)が当該特定の人物に関連する車椅子を放置する動作を行う際の当該特定の人物及び車椅子の動きを機械学習したデータとしてもよい。一実施形態に係る機械学習データ132については、さらに後述する。
In particular, in one embodiment, the
コントローラ15は、電子機器10を構成する各機能部をはじめとして、電子機器10の全体を制御及び/又は管理する。コントローラ15は、種々の機能を実行するための制御及び処理能力を提供するために、例えばCPU(Central Processing Unit)のような、少なくとも1つのプロセッサを含んでよい。コントローラ15は、まとめて1つのプロセッサで実現してもよいし、いくつかのプロセッサで実現してもよいし、それぞれ個別のプロセッサで実現してもよい。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)ともいう。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。
The
一実施形態において、コントローラ15は、例えばCPU及び当該CPUで実行されるプログラムとして構成されてよい。コントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などは、例えば記憶部13に記憶されてよい。コントローラ15は、コントローラ15の動作に必要なメモリを適宜含んでもよい。一実施形態に係る電子機器10のコントローラ15の動作については、さらに後述する。
In one embodiment, the
警告部17は、コントローラ15から出力される所定の警告信号に基づいて、システム1又は電子機器10のユーザなどに注意を促すための所定の警告を発してよい。警告部17は、所定の警告として、例えば音、音声、光、文字、映像、及び振動など、ユーザの聴覚、視覚、触覚の少なくともいずれかを刺激する任意の機能部としてよい。具体的には、警告部17は、例えばブザー又はスピーカのような音声出力部、LEDのような発光部、LCDのような表示部、及びバイブレータのような触感呈示部などの少なくともいずれかとしてよい。このように、警告部17は、コントローラ15から出力される所定の警告信号に基づいて、所定の警告を発してよい。一実施形態において、警告部17は、所定の警報を、聴覚、視覚、及び触覚の少なくともいずれかに作用する情報として発してもよい。
The
一実施形態において、警告部17は、例えば被監視対象Tが放置動作を開始する前に、被監視対象Tが放置動作を行うリスクがある旨の警告を発してよい。また、一実施形態において、警告部17は、被監視対象Tが放置動作を完了する前に、被監視対象Tが放置動作を行うリスクがある旨の警告を発してもよい。例えば、一実施形態において、視覚情報を出力する警告部17は、被監視対象Tが放置動作を行うリスクがある旨が検出されると、その旨を発光又は所定の表示などによってユーザに警告してよい。また、一実施形態において、聴覚情報を出力する警告部17は、被監視対象Tが放置動作を行うリスクがある旨が検出されると、その旨を所定の音又は音声などによってユーザに警告してよい。本実施形態では、上記警告は、発光又は所定の表示、及び所定の音又は音声を組み合わせてもよい。
In one embodiment, the
図1に示す電子機器10は、警告部17を内蔵している。しかしながら、一実施形態にシステム1において、警告部17は、電子機器10の外部に設けられてもよい。この場合、警告部17と電子機器10とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。
The
通信部19は、有線又は無線により通信するためのインタフェースの機能を有する。一実施形態の通信部19によって行われる通信方式は無線通信規格としてよい。例えば、無線通信規格は2G、3G、4G、及び5G等のセルラーフォンの通信規格を含む。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)、及びPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格は、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、WiFi、Bluetooth(登録商標)、IrDA(Infrared Data Association)、及びNFC(Near Field Communication)等を含む。通信部19は、上記の通信規格の1つ又は複数をサポートすることができる。通信部19は、例えば電波を送受信するアンテナ及び適当なRF部などを含めて構成してよい。また、通信部19は、外部に有線接続するためのコネクタなどのようなインタフェースとして構成してもよい。通信部19は、無線通信を行うための既知の技術により構成することができるため、より詳細なハードウェアなどの説明は省略する。
The
通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に供給されてよい。通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に内蔵されたメモリに記憶してもよい。また、通信部19は、例えばコントローラ15による処理結果、認識部11による抽出結果、及び/又は、記憶部13に記憶された情報などを外部に送信してもよい。
Various types of information received by the
図1に示すような、一実施形態に係る電子機器10を構成する各機能部の少なくとも一部は、ソフトウェアとハードウェア資源とが協働した具体的手段によって構成されてもよい。
As shown in FIG. 1, at least a part of each functional unit constituting the
次に、一実施形態に係るシステム1の動作について説明する。
Next, the operation of the
一実施形態に係るシステム1の動作は、典型的には、「学習フェーズ」と「推定フェーズ」とに分けることができる。学習フェーズにおいては、例えば被監視対象Tのような人間が当該人間に関連する車椅子を放置する動作における人間及び車椅子の位置(座標)と、当該放置する動作のタイミングとの関係を機械学習する動作を行ってよい。また、推定フェーズにおいては、学習フェーズにおいて機械学習した結果に基づいて、被監視対象T及び車椅子の位置(座標)から、被監視対象Tによる放置動作の開始を推定する動作を行ってよい。以下、上述の学習フェーズ及び推定フェーズのそれぞれにおける動作について、より詳細に説明する。まず、学習フェーズにおける動作について、説明する。
The operation of the
本開示の技術において、被監視対象の身体の動作aと、この動作aから発生する被監視対象の動作結果Aとの間には、一般的に一定の関係が存在するものとしてよい。なお、ここでの動作結果には、被監視対象の動作、被監視対象の動作開始時点、被監視対象の動作から発生する事故及び事件その他の出来事などを含むとしてよい。例えば、被監視対象の身体の動作aが行われ、この動作aから被監視対象の動作結果Aが発生したとする。また、被監視対象の身体の動作bが行われ、この動作bから被監視対象の動作結果Bが発生したとする。本開示の技術は、上記動作aと動作結果A、動作bと動作結果Bその他の動作と動作結果の関係を、機械学習データとして蓄積するとしてよい。そして、本開示の技術は、動作xが抽出された場合に、上記機械学習データを用いて、動作xに関係する動作結果Xを推定するとしてよい。 In the technique of the present disclosure, it may be assumed that there is generally a certain relationship between the motion a of the body of the monitored object and the motion result A of the monitored object generated from this motion a. The operation result here may include the operation of the monitored object, the operation start time of the monitored object, an accident, an incident or other event generated from the operation of the monitored object. For example, it is assumed that the movement a of the body of the monitored target is performed, and the movement result A of the monitored target is generated from this movement a. Further, it is assumed that the movement b of the body to be monitored is performed, and the movement result B of the monitored target is generated from this movement b. The technique of the present disclosure may accumulate the relationship between the operation a and the operation result A, the operation b and the operation result B, and other operations and the operation result as machine learning data. Then, in the technique of the present disclosure, when the motion x is extracted, the motion result X related to the motion x may be estimated using the machine learning data.
図2は、一実施形態に係るシステム1の学習フェーズにおける動作の一例を示すフローチャートである。図2は、一実施形態に係るシステム1に含まれる電子機器10の学習フェーズにおける動作に焦点を当てたフローチャートとしてもよい。
FIG. 2 is a flowchart showing an example of the operation in the learning phase of the
例えば認知症の発症が疑われる者など(例えば要看護者又は要介護者など)は、車椅子に乗って移動している最中に、その車椅子から立ち上がって歩き出してしまうことがある。このような場合、その者は、車椅子の存在を思い出せなくなり、その車椅子を放置してしまうリスクがある。車椅子が放置されると、もともと車椅子を使用していた者は、行方不明になるリスクがある。また、車椅子が放置されると、もともと車椅子を使用していた者は、安全でない場所に向かってしまうリスクもある。さらに、車椅子が放置されると、環境によっては、放置された車椅子が他人の邪魔になるのみならず、危険な状況を形成してしまうこともあり得る。したがって、車椅子が放置されようとしていること、又は、車椅子が放置されたことを他者に警告することは、車椅子を使用していた者(被監視対象)の安全に供し得るのみならず、車椅子の周囲環境の安全にも供し得る。一実施形態に係るシステム1の学習フェーズにおいては、上述のようにして被監視対象Tのような人間が車椅子を放置する動作における被監視対象T及び車椅子の位置(座標)と、当該放置動作の開始(タイミング)との関係を機械学習してよい。以下、このような動作について、より詳細に説明する。
For example, a person suspected of developing dementia (for example, a person requiring nursing care or a person requiring long-term care) may get up from the wheelchair and start walking while moving in a wheelchair. In such a case, the person cannot remember the existence of the wheelchair, and there is a risk that the wheelchair is left unattended. If the wheelchair is left unattended, those who originally used the wheelchair are at risk of going missing. Also, if the wheelchair is left unattended, there is a risk that the person who originally used the wheelchair will go to an unsafe place. Furthermore, if the wheelchair is left unattended, depending on the environment, the abandoned wheelchair may not only interfere with others but also create a dangerous situation. Therefore, warning others that the wheelchair is about to be left or that the wheelchair has been left can not only provide the safety of the person using the wheelchair (the subject to be monitored), but also the wheelchair. It can also be used for the safety of the surrounding environment. In the learning phase of the
図2に示す動作が開始する時点において、システム1の撮像部20は、例えば被監視対象Tのような人間及び/又は当該人間に関連する車椅子の撮像を開始していてよい。図2に示す動作が開始する時点は、撮像部20が例えば被監視対象Tのような人間及び/又は当該人間に関連する車椅子の撮像を開始した時点としてもよい。また、図2に示す動作が開始する時点は、撮像部20が撮像を開始してから、例えば被監視対象Tのような人間及び/又は当該人間に関連する車椅子が撮像部20の撮像範囲に入った時点としてもよい。
At the time when the operation shown in FIG. 2 starts, the
図2に示す動作が開始すると、電子機器10のコントローラ15は、撮像部20によって撮像された画像を取得する(ステップS11)。
When the operation shown in FIG. 2 starts, the
図3は、図2に示したステップS11においてコントローラ15が取得した画像、すなわち撮像部20によって撮像された画像の例を示す図である。
FIG. 3 is a diagram showing an example of an image acquired by the
図3に示すように、撮像部20は、例えば被監視対象Tのような人間が車椅子Wに着座している状態を撮像してよい。図3は、被監視対象Tが車椅子Wに着座している様子を模式的に示している。図3において、被監視対象T及び/又は車椅子Wは、移動していてもよいし、静止していてもよい。この場合、ステップS11において、コントローラ15は、被監視対象Tのような人間が車椅子Wに着座している画像を取得する。後述のように、撮像部20は、被監視対象Tのような人間が車椅子Wに着座している状態以外の状態の画像を撮像してもよい。この場合、ステップS11において、コントローラ15は、被監視対象Tのような人間が車椅子Wに着座している状態以外の状態の画像を取得してもよい。
As shown in FIG. 3, the
撮像部20は、秒間所定数のフレームの各画像を撮像するものとしてよい。ここで、撮像部20が撮像する画像は、連続するフレームの静止画としてもよいし、動画としてもよい。例えば、撮像部20は、秒間15フレームの画像を撮像するものとしてよい。ステップS11において、コントローラ15は、撮像部20によって撮像された秒間所定数のフレームの画像を取得してよい。
The
図4は、図2に示したステップS11においてコントローラ15が取得した画像、すなわち撮像部20によって撮像された画像の他の例を示す図である。
FIG. 4 is a diagram showing another example of the image acquired by the
図4に示すように、撮像部20は、例えば被監視対象Tのような人間が車椅子Wから立ち上がって歩き出している状態を撮像してよい。図4は、被監視対象Tが車椅子Wから立ち上がって歩き出している様子を模式的に示している。図4において、被監視対象T及び/又は車椅子Wは、移動していてもよいし、静止していてもよい。この場合、ステップS11において、コントローラ15は、被監視対象Tのような人間及び車椅子Wを含む画像を取得する。後述のように、撮像部20は、被監視対象Tのような人間が車椅子Wから立ち上がって歩き出している状態以外の状態の画像を撮像してもよい。この場合、ステップS11において、コントローラ15は、被監視対象Tのような人間が車椅子Wから立ち上がって歩き出している状態以外の状態の画像を取得してもよい。
As shown in FIG. 4, the
図2に示すように、ステップS11において撮像された画像を取得すると、認識部11は、被監視対象T及び被監視対象Tに関連する車椅子Wを画像認識する(ステップS12)。ステップS12における動作は、認識部11ではなく、コントローラ15が行ってもよい。
As shown in FIG. 2, when the image captured in step S11 is acquired, the
図5は、ステップS12において認識される被監視対象T及び車椅子Wの例を示す図である。図5は、図3に示した画像において、認識部11が被監視対象T及び車椅子Wを認識した様子を示している。
FIG. 5 is a diagram showing an example of the monitored object T and the wheelchair W recognized in step S12. FIG. 5 shows how the
ステップS12において、認識部11は、例えば図5に示すような被監視対象T及び車椅子Wを認識してよい。図5においては、範囲Tcにおいて被監視対象Tが認識され、範囲Wcにおいて車椅子Wが認識されている。認識部11は、例えば画像認識などの任意の技術によって、被監視対象T及び車椅子Wを認識してよい。撮像された画像において所定の物体を検出及び/又は認識する技術は種々知られているため、より詳細な説明は省略する。
In step S12, the
図6は、ステップS12において認識される被監視対象T及び車椅子Wの他の例を示す図である。図6は、図4に示した画像において、認識部11が被監視対象T及び車椅子Wを認識した様子を示している。
FIG. 6 is a diagram showing another example of the monitored object T and the wheelchair W recognized in step S12. FIG. 6 shows how the
ステップS12において、認識部11は、例えば図6に示すような被監視対象T及び車椅子Wを認識してもよい。図6においても、図5と同様に、範囲Tcにおいて被監視対象Tが認識され、範囲Wcにおいて車椅子Wが認識されている。
In step S12, the
ステップS12において、認識部11は、図5及び図6に示すような被監視対象T及び車椅子Wにおける所定の特徴点を認識してもよい。また、認識部11は、図5及び図6に示す座標軸に従って、図5及び図6に示す被監視対象T及び車椅子Wを、2次元的に抽出してよい。また、認識部11は、被監視対象T及び車椅子Wを認識する際に、画像における被監視対象T及び車椅子Wの位置(例えば座標)を抽出してもよい。
In step S12, the
ここで、撮像部20が秒間所定数のフレームの各画像を撮像する場合、図10に示すように、認識部11は、秒間所定数のフレームにおいて被監視対象T及び車椅子Wを認識してよい。また、コントローラ15が秒間所定数のフレームの画像を取得する場合も、認識部11は、秒間所定数のフレームにおいて被監視対象T及び車椅子Wを認識してよい。一例として、認識部11は、被監視対象T及び車椅子Wを、秒間15のフレームにおいて認識してよい。
Here, when the
このように、一実施形態において、認識部11は、撮像部20によって撮像された秒間所定数のフレームの各画像ごとに、被監視対象T及び車椅子Wの位置を2次元的に画像認識してもよい。
As described above, in one embodiment, the
ステップS12において被監視対象T及び車椅子Wが認識されたら、コントローラ15は、被監視対象T及び車椅子Wの座標を判定する(ステップS13)。
When the monitored target T and the wheelchair W are recognized in step S12, the
ステップS13において、コントローラ15は、被監視対象Tとして認識された範囲の中心、及び、車椅子Wとして認識された範囲の中心を、それぞれの座標と判定してもよい。また、ステップS13において、コントローラ15は、被監視対象Tとして認識された範囲の重心、及び、車椅子Wとして認識された範囲の重心を、それぞれの座標と判定してもよい。また、コントローラ15は、被監視対象Tとして認識された範囲の接地部分、及び、車椅子Wとして認識された範囲の接地部分を、それぞれの座標と判定してもよい。また、コントローラ15は、被監視対象Tとして認識された範囲の下端部分、及び、車椅子Wとして認識された範囲の下端部分を、それぞれの座標と判定してもよい。また、コントローラ15は、被監視対象Tとして認識された範囲の下端部分の中央、及び、車椅子Wとして認識された範囲の下端部分の中央を、それぞれの座標と判定してもよい。また、コントローラ15は、被監視対象T及び車椅子Wの座標として、上記のものをいずれか任意に組み合わせてもよい。
In step S13, the
図5において、被監視対象Tとして認識された範囲Tcの下端部分の中央は、中心線Tmによって示されている。また、車椅子Wとして認識された範囲Wcの下端部分の中央は、中心線Wmによって示されている。この場合、コントローラ15は、例えば、被監視対象T及び車椅子Wの座標を、それぞれ中心線Tm及び中心線Wm上の任意の位置と判定してもよい。図5に示す場合、被監視対象Tは車椅子Wに着座している状態のため、被監視対象Tと車椅子Wとの距離D1は、非常に小さな値になる。ここで、被監視対象Tと車椅子Wとの距離D1は、例えば、被監視対象Tとして認識された範囲Tcの下端部分の中央と、車椅子Wとして認識された範囲Wcの下端部分の中央との間の距離としてよい。
In FIG. 5, the center of the lower end portion of the range Tc recognized as the monitored target T is indicated by the center line Tm. Further, the center of the lower end portion of the range Wc recognized as the wheelchair W is indicated by the center line Wm. In this case, the
図6においても、図5と同様に、被監視対象Tとして認識された範囲Tcの下端部分の中央は、中心線Tmによって示されている。また、車椅子Wとして認識された範囲Wcの下端部分の中央は、中心線Wmによって示されている。この場合、コントローラ15は、例えば、被監視対象T及び車椅子Wとの座標を、それぞれ中心線Tm及び中心線Wm上の任意の位置と判定してもよい。図6に示す場合、被監視対象Tは車椅子Wから立ち上がって歩き出している状態のため、被監視対象Tと車椅子Wとの距離D2は、図5に示した距離D1に比べて大きな値になる。ここで、被監視対象Tと車椅子Wとの距離D2は、例えば、被監視対象Tとして認識された範囲Tcの下端部分の中央と、車椅子Wとして認識された範囲Wcの下端部分の中央との間の距離としてよい。
Also in FIG. 6, similarly to FIG. 5, the center of the lower end portion of the range Tc recognized as the monitored target T is indicated by the center line Tm. Further, the center of the lower end portion of the range Wc recognized as the wheelchair W is indicated by the center line Wm. In this case, the
一実施形態において、コントローラ15は、例えば被監視対象Tと車椅子Wとの距離を判定(推定)してもよい。コントローラ15により測定される被監視対象Tと車椅子Wとの距離は、例えば画像における距離を算出してもよいし、画像に基づいて現実の距離を判定(推定)してもよい。画像において被監視対象Tと車椅子Wとの距離を算出すると、その距離は、例えば撮像部20と被監視対象Tとの距離、及び、撮像部20から被監視対象Tに向く方向などにも起因してばらつくことが想定される。一方、画像に基づいて被監視対象Tと車椅子Wとの現実の距離を判定(推定)すると、撮像の環境に起因するばらつきを抑えることができる。
In one embodiment, the
ここで、コントローラ15の動作について、図11及び図12を参照して、さらに説明する。例えばカメラのような撮像部20によって画像が撮像される場合、実際の環境における現実の距離と、撮像される画像における距離との見え方は異なり得る。そこで、一実施形態において、コントローラ15は、実際の環境における現実の距離と、撮像される画像における距離との見え方の違いを、学習することにより解決するものとしてよい。
Here, the operation of the
例えば、図11に示すような実際の環境に設置された撮像部20によって、図12に示すような画像が撮像された例について説明する。
For example, an example in which an image as shown in FIG. 12 is captured by an
図11に示すように、例えば部屋又は通路のような環境において、その天井部にカメラのような撮像部20が設置されているとする。この撮像部20は、図11に示す部屋又は通路の奥行方向に平行な方向に向けて設置されているものとする(以下、撮像部20の向く方向を「撮像方向」と記す)。このような環境において、図11に示すように、最初は手前側に存在した人間(被監視対象T1)が、撮像方向に沿って奥側に5m移動したとする(被監視対象T1’)。ここで、図11に示すように、被監視対象T1の位置における所定の距離D1と、被監視対象T1’の位置における所定の距離D1’とは、同じ長さの距離を示すものとする。
As shown in FIG. 11, it is assumed that an
図12は、図11に示すような実際の環境を撮像部20によって撮像した画像の例を示している。すなわち、図11に示す実際の環境における被監視対象T1は、図12に示す撮像した画像における被監視対象T1を示している。同様に、図11に示す実際の環境における被監視対象T1’は、図12に示す撮像した画像における被監視対象T1’を示している。図12において、被監視対象T1の位置における所定の距離D1と、被監視対象T1’の位置における所定の距離D1’とは、現実には同じ長さの距離を示している。
FIG. 12 shows an example of an image captured by the
図11及び図12に示す被監視対象T1の位置のように、撮像部20から比較的近いところにおいては、例えば被監視対象T1が動く場合に、撮像部20によって撮像される画像における座標の移動(例えば1画素あたりの距離)は大きくなる。一方、図11及び図12に示す被監視対象T1’の位置のように、撮像部20から比較的遠いところにおいては、例えば撮像方向に沿って奥側に動く場合に、撮像部20によって撮像される画像における座標の移動(例えば1画素あたりの距離)も小さくなる。
At a location relatively close to the
以上のような原理に基づいて、一実施形態において、コントローラ15は、実際の環境における現実の距離と、撮像される画像における距離との見え方の違いを、学習することにより解決することができる。
Based on the above principle, in one embodiment, the
また、コントローラ15は、被監視対象T及び車椅子Wの座標を判定する場合、被監視対象T及び車椅子Wそれぞれにおける任意の箇所、又は特徴点などを抽出してもよい。コントローラ15は、被監視対象T及び車椅子Wのそれぞれを1点の座標(例えば中心又は重心など)として判定してもよい。また、コントローラ15は、被監視対象T及び車椅子Wのそれぞれを複数の点を含む点群として判定してもよい。コントローラ15は、被監視対象T及び車椅子Wのそれぞれを複数の点を含む点群として判定する場合、それぞれの点群の中心又は重心などを1点の座標として判定してもよい。
Further, when the
ステップS13において被監視対象T及び車椅子Wの座標が判定されたら、コントローラ15は、タイミング情報を取得する(ステップS14)。ステップS14においてコントローラ15がタイミング情報を取得するためには、ステップS11において取得された画像、又は、ステップS12において認識された画像において、予めタイミング情報が付与(設定)されている必要がある。また、ステップS12において認識された画像ではなく、ステップS13において判定された座標において、予めタイミング情報が付与(設定)されていてもよい。以下、このようなタイミング情報について、さらに説明する。
When the coordinates of the monitored target T and the wheelchair W are determined in step S13, the
一実施形態において、電子機器10が機械学習するためのデータとして、例えば被監視対象Tのような人間が着座していた車椅子Wを放置する動作の開始時点及び終了時点を示す情報を用意する必要がある。被監視対象Tが着座していた車椅子Wを放置する動作の開始時点及び終了時点を示す情報(タイミング情報)があれば、電子機器10は、このタイミング情報を例えば教師データとして機械学習を行うことができる。以上のように、被監視対象Tが着座していた車椅子Wを放置する動作の開始時点及び終了時点を示す情報を、「タイミング情報」とも記す。すなわち、「タイミング情報」とは、撮像部20によって撮像された経時的な画像において放置動作の開始時点及び終了時点を示す情報としてよい。
In one embodiment, as data for the
このようなタイミング情報は、例えばスタッフなどの人員によって付与(設定)されてよい。すなわち、例えば行動学の専門家又は介護施設の職員などが、撮像部20によって撮像された被監視対象T及び車椅子Wの画像を観察(視認)しながら、放置動作の開始時点及び終了時点を示すタイミング情報を付与してよい。また、このようなタイミング情報を付与するための所定の基準を予め設けることにより、行動学の専門家又は介護施設の職員などではない一般的な人員であっても、タイミング情報を付与することができる。上述のように、タイミング情報は、ステップS11において取得された画像データにおいて付与(設定)されてよい。また、タイミング情報は、ステップS12において認識された画像データにおいて付与(設定)されてよい。また、タイミング情報は、ステップS13において判定された座標データにおいて付与(設定)されてよい。
Such timing information may be given (set) by personnel such as staff. That is, for example, an ethology expert or a staff member of a long-term care facility observes (visually recognizes) the images of the monitored object T and the wheelchair W captured by the
図7は、タイミング情報の設定について説明する図である。図7においては、画像データが各フレームごとに時間の経過とともに連続している様子を概念的に示している。すなわち、図7において、画像データは、時間の経過に従って、フレーム1、フレーム2、フレーム3、…のように連続していることを示している。また、図7においては、画像データにタイミング情報を付与(設定)する例を示している。
FIG. 7 is a diagram illustrating the setting of timing information. FIG. 7 conceptually shows how the image data is continuous with the passage of time for each frame. That is, in FIG. 7, it is shown that the image data is continuous like
図7に示す「入室」の時点において、例えば撮像部20が設置された部屋に被監視対象T及び車椅子Wが入室した様子が、撮像部20によって撮像された画像のデータ(画像データ)に示されていたとする。
図7に示す「放置動作の開始」の時点において、被監視対象Tが着座していた車椅子Wを放置する動作を開始した様子が、画像データに示されていたとする。
図7に示す「放置動作の終了」の時点において、被監視対象Tが着座していた車椅子Wを放置する動作を終了した様子が、画像データに示されていたとする。
図7に示す「退室」の時点において、例えば介護スタッフの補助などにより再び車椅子Wに着座した被監視対象T及び車椅子Wが、例えば撮像部20が設置された部屋から退室した様子が、画像データに示されていたとする。また、図7に示す「退室」の時点において、例えば車椅子Wを放置した被監視対象Tが、例えば撮像部20が設置された部屋から退室した様子が、画像データに示されていたとしてもよい。
At the time of "entry" shown in FIG. 7, for example, the state in which the monitored object T and the wheelchair W enter the room in which the
It is assumed that the image data shows that the wheelchair W on which the monitored object T is seated has started the operation of leaving the wheelchair W at the time of "starting the leaving operation" shown in FIG. 7.
It is assumed that the image data shows that the wheelchair W on which the monitored object T was seated has finished the operation of leaving the wheelchair W at the time of "end of the leaving operation" shown in FIG. 7.
At the time of "leaving the room" shown in FIG. 7, the image data shows that the monitored target T and the wheelchair W, which are seated in the wheelchair W again with the assistance of the care staff, for example, leave the room in which the
以上のように撮像された画像データにおいて、例えば行動学の専門家又は介護施設の職員その他の一般的な人員などによって、少なくとも「放置動作の開始」の時点及び「放置動作の終了」の時点を示すタイミング情報が付与(設定)されてよい。 In the image data captured as described above, at least the time point of "start of neglected operation" and the time point of "end of neglected operation" are determined by, for example, a behavioral expert, a staff member of a nursing facility, or other general personnel. The indicated timing information may be given (set).
ここで、「放置動作の開始」の時点とは、例えば図3又は図5に示すように被監視対象Tが車椅子Wに着座していた状態において、被監視対象Tが車椅子Wから離れたと判断し得るタイミングとしてよい。図3又は図5は、被監視対象Tが車椅子Wに着座している様子を示しており、これは図7に示す「入室」の時点から「放置動作の開始」の時点までの状態を示すものとしてよい。 Here, the time point of "start of the neglected operation" is determined to be that the monitored target T has left the wheelchair W while the monitored target T is seated in the wheelchair W, for example, as shown in FIG. 3 or FIG. It may be a possible timing. FIG. 3 or FIG. 5 shows a state in which the monitored object T is seated in the wheelchair W, which shows the state from the time of “entering the room” to the time of “start of the neglected operation” shown in FIG. It may be a wheelchair.
一般的に、図3又は図5に示す状態から被監視対象Tが放置動作を開始する場合、被監視対象Tが車椅子Wから離れる状況になる。したがって、一実施形態において、スタッフなどの人員は、被監視対象Tが車椅子Wから離れていない状態から離れている状態に遷移を開始した時点を「放置動作の開始」の時点として、タイミング情報を付与(設定)してよい。例えば、スタッフなどの人員は、図5において、被監視対象Tと車椅子Wとの距離D1が所定の閾値以上に変化する時点を「放置動作の開始」の時点として、タイミング情報を付与(設定)してよい。また、例えば、スタッフなどの人員は、図5において、被監視対象Tの範囲Tcと車椅子Wの範囲Wcとが重なりを有する状態から重なりを有さなくなる状態に変化する時点を「放置動作の開始」の時点として、タイミング情報を付与(設定)してよい。 Generally, when the monitored object T starts the neglected operation from the state shown in FIG. 3 or FIG. 5, the monitored object T is separated from the wheelchair W. Therefore, in one embodiment, the staff or the like obtains the timing information by setting the time when the monitored target T starts the transition from the state where the wheelchair W is not separated to the state where the monitored object T is separated from the wheelchair W as the time when the “leaving operation starts”. It may be given (set). For example, in FIG. 5, a staff member or the like assigns (sets) timing information to the time when the distance D1 between the monitored target T and the wheelchair W changes to a predetermined threshold value or more as the time of “start of neglected operation”. You can do it. Further, for example, in FIG. 5, when the range Tc of the monitored object T and the range Wc of the wheelchair W change from the state of having an overlap to the state of having no overlap, the personnel such as the staff "start the neglected operation". , Timing information may be added (set).
このように、一実施形態において、タイミング情報における放置動作の開始時点は、撮像部20によって撮像された経時的な画像において被監視対象Tが車椅子Wから離れたタイミングを示してもよい。
As described above, in one embodiment, the start time of the neglected operation in the timing information may indicate the timing when the monitored target T is separated from the wheelchair W in the time-dependent image captured by the
また、「放置動作の終了」の時点とは、例えば図4又は図6に示すように被監視対象Tが車椅子Wからある程度(例えば10mなど)離れたと判断し得るタイミングとしてよい。したがって、一実施形態において、スタッフなどの人員は、被監視対象Tが車椅子Wから例えば10mなど所定の距離離れた時点を「放置動作の終了」の時点として、タイミング情報を付与(設定)してよい。例えば、スタッフなどの人員は、図6において、被監視対象Tと車椅子Wとの距離D2が所定の閾値(例えば10m)以上になった時点を「放置動作の終了」の時点として、タイミング情報を付与(設定)してよい。また、例えば、スタッフなどの人員は、図6において、被監視対象Tの範囲Tcと車椅子Wの範囲Wcとの最短距離が所定の閾値(例えば10m)以上に離れた時点を「放置動作の終了」の時点として、タイミング情報を付与(設定)してもよい。 Further, the time point of "end of the neglected operation" may be a timing at which it can be determined that the monitored object T is separated from the wheelchair W to some extent (for example, 10 m) as shown in FIG. 4 or FIG. 6, for example. Therefore, in one embodiment, the staff or the like assigns (sets) timing information to the time when the monitored target T is separated from the wheelchair W by a predetermined distance, for example, 10 m, as the time point of "end of the neglected operation". good. For example, in FIG. 6, a staff member or the like sets the timing information when the distance D2 between the monitored target T and the wheelchair W becomes equal to or higher than a predetermined threshold value (for example, 10 m) as the time point of “end of neglected operation”. It may be given (set). Further, for example, in FIG. 6, when the shortest distance between the range Tc of the monitored object T and the range Wc of the wheelchair W is separated from a predetermined threshold value (for example, 10 m) or more, the personnel such as staff "end the neglected operation". , Timing information may be added (set).
このように、一実施形態において、タイミング情報における放置動作の終了時点は、撮像部20によって撮像された経時的な画像において被監視対象Tが車椅子Wから所定の距離離れたタイミングを示してもよい。
As described above, in one embodiment, the end point of the neglected operation in the timing information may indicate the timing at which the monitored target T is separated from the wheelchair W by a predetermined distance in the temporal image captured by the
タイミング情報において、上述した「放置動作の開始」の時点及び「放置動作の終了」の時点は、必ずしもこの順序で付与(設定)しなくてもよい。すなわち、タイミング情報において、最初に「放置動作の終了」の時点を設定してから、「放置動作の開始」の時点を設定してもよい。 In the timing information, the time points of the above-mentioned "start of the neglected operation" and the time point of the "end of the neglected operation" do not necessarily have to be given (set) in this order. That is, in the timing information, the time point of "the end of the neglected operation" may be set first, and then the time point of "the start of the neglected operation" may be set.
例えば、スタッフなどの人員は、撮像部20によって撮像された被監視対象Tの画像を再生して観察(視認)している際、「放置動作の開始」の時点を見極めるのが必ずしも容易でないことも想定される。このような場合、まず、スタッフなどの人員は、撮像部20によって撮像された被監視対象Tの画像を再生して観察(視認)している際に、「放置動作の終了」の時点をタイミング情報として設定してよい。次に、スタッフなどの人員は、「放置動作の終了」の時点から、撮像部20によって撮像された被監視対象Tの画像を時間的に逆に再生して観察(視認)してもよい。ここで、撮像部20によって撮像された被監視対象Tの画像を時間的に逆に再生する際には、当該逆再生の速度をある程度低下させてもよい。このようにすれば、スタッフなどの人員は、タイミング情報において、「放置動作の終了」の時点よりも前の時点である「放置動作の開始」の時点を容易に設定することができる。例えば、スタッフなどの人員は、時間的に逆に再生させた画像データを視認しながら、被監視対象Tが車椅子Wから離れる時点を見出して、当該時点をタイミング情報として設定してよい。
For example, it is not always easy for personnel such as staff to determine the time point of "start of neglected operation" when reproducing (visually recognizing) the image of the monitored target T captured by the
また、「放置動作の終了」の時点とは、例えば図4又は図6に示すように被監視対象Tが車椅子Wからある程度(例えば10mなど)離れた状態で所定時間(例えば10分など)が経過したと判断し得るタイミングとしてよい。したがって、一実施形態において、スタッフなどの人員は、被監視対象Tが車椅子Wから例えば10mなど所定の距離離れた状態で所定時間経過した時点を「放置動作の終了」の時点として、タイミング情報を付与(設定)してよい。 Further, the time point of "the end of the neglected operation" is, for example, as shown in FIG. 4 or FIG. This may be the timing at which it can be determined that the wheelchair has passed. Therefore, in one embodiment, the staff or the like obtains the timing information by setting the time when the monitored target T is separated from the wheelchair W by a predetermined distance, for example, 10 m, as the time point of "the end of the neglected operation". It may be given (set).
このように、一実施形態において、タイミング情報における放置動作の終了時点は、撮像部20によって撮像された経時的な画像において被監視対象Tが車椅子Wから所定の距離離れた状態で所定時間が経過したタイミングを示してもよい。
As described above, in one embodiment, at the end of the neglected operation in the timing information, a predetermined time elapses in a state where the monitored target T is separated from the wheelchair W by a predetermined distance in the temporal image captured by the
上述のようにして画像データ(又は座標データ)においてタイミング情報が付与(設定)されたら、コントローラ15は、ステップS14において当該タイミング情報を取得することができる。電子機器10のコントローラ15は、ステップS14において、上述のようなタイミング情報を、例えば通信部19を介して外部のネットワークなどから取得してもよい。また、コントローラ15は、ステップS14において、上述のようなタイミング情報を、例えばメモリカードなどのストレージを挿入可能な電子機器10のスロットなどから取得してもよい。また、システム1が画像を表示可能なディスプレイを含む場合、当該ディスプレイに画像データなどを表示してもよい。この場合、スタッフなどの人員がディスプレイを視認しながら設定するタイミング情報は、例えば電子機器10の操作部などを介して入力されてよい。
When the timing information is added (set) in the image data (or coordinate data) as described above, the
ステップS14においてタイミング情報を取得したら、コントローラ15は、被監視対象T及び車椅子Wの位置(座標)と、放置動作の開始との関係を、タイミング情報に基づいて機械学習する(ステップS15)。ステップS15において、コントローラ15は、放置動作の開始時点と終了時点との間における被監視対象T及び車椅子Wの位置(座標)と、放置動作の開始との関係を、タイミング情報に基づいて学習するものとしてよい。ここで、コントローラ15は、画像データ(又は座標データ)、及びこれに設定されたタイミング情報に基づいて、機械学習を行ってもよい。以下、ステップS15における機械学習の結果として生成されるデータを、「機械学習データ」と記すことがある。
After acquiring the timing information in step S14, the
上述のような機械学習を行うことにより、電子機器10は、放置動作が開始するタイミングと、放置動作の開始時点から終了時点までの間における被監視対象T及び車椅子Wの位置又は座標の動きとの関連を把握することができる。このため、電子機器10によれば、後述の推定フェーズにおいて、被監視対象T及び車椅子Wの位置又は座標に基づいて、放置動作の開始時点を推定し得る。
By performing the machine learning as described above, the
このように、一実施形態において、コントローラ15は、放置動作の開始時点と終了時点との間における被監視対象T及び車椅子Wの位置と、放置動作の開始との関係を、タイミング情報に基づいて機械学習する。ここで、タイミング情報とは、上述のように、撮像部20によって撮像された経時的な画像において放置動作の開始時点及び終了時点を示す情報としてよい。
As described above, in one embodiment, the
後述の推定フェーズにおいて電子機器10が放置動作の開始時点を推定する精度を向上するために、比較的多数のサンプル(例えば被監視対象Tのような人間)のデータについて、機械学習を行ってもよい。機械学習を行う際のサンプルのデータを多くすることにより、後述の推定フェーズにおいて電子機器10が放置動作の開始時点を推定する際の精度を高めることが期待できる。したがって、機械学習を行う際のサンプルのデータを多くすることにより、電子機器10が放置動作の開始を推定して警告を発する際に、誤報を発したり、失報したりするといったことを低減し得る。
Even if machine learning is performed on the data of a relatively large number of samples (for example, a human such as a monitored target T) in order to improve the accuracy of estimating the start time of the neglected operation of the
上述の機械学習において、タイミング情報は、撮像部20によって撮像された経時的な画像において放置動作の開始時点及び終了時点を示す情報とした。一実施形態において、タイミング情報は、撮像部20によって撮像された経時的な画像において放置動作の開始時点及び終了時点以外の時点を示す情報を含むものとしてもよい。
In the above-mentioned machine learning, the timing information is information indicating the start time point and the end time point of the neglected operation in the time-dependent image captured by the
例えば、図7に示す学習データ(4)の区間の画像データは、放置動作の開始時点と終了時点との間に存在する。このため、学習データ(4)は、危険な(すなわち放置動作のリスクが高い)クラスに分類されるデータとして、コントローラ15に機械学習させてよい。図7に示す学習データ(4)の区間の画像データは、放置動作の開始時点とほぼ同じ時点において開始している。一方、図7に示す学習データ(4)の区間の画像データは、放置動作の終了時点とは異なる時点において終了している。
For example, the image data in the section of the learning data (4) shown in FIG. 7 exists between the start time point and the end time point of the neglected operation. Therefore, the learning data (4) may be machine-learned by the
一方、図7に示す学習データ(1)乃至(3)、及び学習データ(5)の区間の画像データは、放置動作の開始時点と終了時点との間に存在しない。このため、これらの学習データは、正常な(すなわち危険が少ない(放置動作のリスクが低い))クラスに分類されるデータとして、コントローラ15に機械学習させてよい。これらの学習データの区間の画像データは、放置動作の開始時点とは異なる時点において開始し、放置動作の終了時点とは異なる時点において終了している。
On the other hand, the image data of the sections of the learning data (1) to (3) and the learning data (5) shown in FIG. 7 do not exist between the start time and the end time of the neglected operation. Therefore, these learning data may be machine-learned by the
このように、一実施形態において、タイミング情報は、撮像部20によって撮像された経時的な画像において放置動作の開始時点及び終了時点以外の時点を示す情報を含んでもよい。このようなタイミング情報に基づいて、コントローラ15は、放置動作の開始時点と終了時点との間における被監視対象Tの所定部位の座標と、放置動作の開始との関係を機械学習してもよい。
As described above, in one embodiment, the timing information may include information indicating a time point other than the start time point and the end time point of the neglected operation in the time-dependent image captured by the
コントローラ15は、図7に示すように、危険なクラスに分類される学習データ(4)のみならず、正常なクラスに分類される学習データ(1)乃至(3)、及び学習データ(5)のような学習データにも基づいて、機械学習を行ってよい。コントローラ15は、危険なクラスに分類される学習データ及び正常なクラスに分類される学習データに基づいて機械学習を行うことにより、放置動作の開始を推定する精度を高めることができる。
As shown in FIG. 7, the
次に、推定フェーズにおける動作について、説明する。 Next, the operation in the estimation phase will be described.
図8は、一実施形態に係るシステム1の推定フェーズにおける動作の一例を示すフローチャートである。図8は、一実施形態に係るシステム1に含まれる電子機器10の推定フェーズにおける動作に焦点を当てたフローチャートとしてもよい。
FIG. 8 is a flowchart showing an example of the operation in the estimation phase of the
上述のように、例えば認知症の発症が疑われる者など(例えば要看護者又は要介護者など)は、車椅子に乗って移動している最中に、その車椅子から立ち上がって歩き出してしまうことがある。このような場合、その者は、車椅子の存在を思い出せなくなり、その車椅子を放置してしまうリスクがある。一実施形態に係るシステム1の推定フェーズにおいては、学習フェーズにおいて得られた機械学習データを利用して、被監視対象T及び車椅子Wの位置(座標)から、当該放置動作の開始を推定してよい。以下、このような動作について、より詳細に説明する。システム1によって被監視対象T及び車椅子Wを監視することで、例えば介護施設又は病院などのスタッフは、車椅子Wが放置されようとしていることを、被監視対象Tが放置動作を完了する前に認識することができる。また、システム1によって被監視対象T及び車椅子Wを監視することで、例えば介護施設又は病院などのスタッフは、車椅子Wが放置されたことを、被監視対象Tが放置動作をした後に認識することができる。
As mentioned above, for example, a person suspected of developing dementia (for example, a person requiring nursing care or a person requiring long-term care) may get up from the wheelchair and start walking while moving in a wheelchair. There is. In such a case, the person cannot remember the existence of the wheelchair, and there is a risk that the wheelchair is left unattended. In the estimation phase of the
図8に示す動作が開始すると、電子機器10のコントローラ15は、機械学習データを取得する(ステップS21)。ステップS21において取得する機械学習データは、図2に示したステップS15における機械学習の結果として生成されるデータとしてよい。すなわち、機械学習データとは、人間に関連する車椅子を当該人間が放置する動作の開始時点と終了時点との間におけるその人間及び車椅子の位置(座標)と、その人間が車椅子を放置する動作の開始との関係が機械学習されたデータとしてよい。
When the operation shown in FIG. 8 starts, the
図8に示す動作が開始する時点で既に機械学習データを取得している場合には、コントローラ15は、ステップS21において再び機械学習データを取得しなくてもよい。また、ステップS21において取得する機械学習データは、後述のステップS25において用いられる。このため、一実施形態において、機械学習データの取得は、必ずしもステップS21において行う必要はなく、ステップ25までの任意のタイミングにおいて行ってもよい。
If the machine learning data has already been acquired at the time when the operation shown in FIG. 8 starts, the
ステップS21において機械学習データが取得されたら、コントローラ15は、撮像部20によって撮像された画像を取得する(ステップS22)。ステップS22における動作は、図2に示したステップS11の動作と同様に行ってよい。
When the machine learning data is acquired in step S21, the
ステップ22において撮像された画像を取得すると、認識部11は、被監視対象T及び被監視対象Tに関連する車椅子Wを画像認識する(ステップS23)。ステップS23における動作は、図2に示したステップS12の動作と同様に行ってよい。すなわち、例えば、認識部11は、撮像部20によって撮像された秒間所定数のフレームの各画像ごとに、被監視対象T及び車椅子Wの位置を2次元的に画像認識してもよい。
When the image captured in step 22 is acquired, the
ステップS23において被監視対象T及び車椅子Wが認識されたら、コントローラ15は、被監視対象T及び車椅子Wの座標を判定する(ステップS24)。ステップS24における動作は、図2に示したステップS13の動作と同様に行ってよい。
When the monitored target T and the wheelchair W are recognized in step S23, the
ステップS24において被監視対象T及び車椅子Wの座標が判定されたら、コントローラ15は、次のステップS25に示す動作を行う。すなわち、ステップS25において、コントローラ15は、ステップS21において取得された機械学習データに基づいて、ステップS24において判定された座標から、放置動作の開始が推定されるか否かを判定する。
When the coordinates of the monitored object T and the wheelchair W are determined in step S24, the
ステップS25において放置動作の開始が推定される場合、すなわち、放置動作がこれから開始するリスクが高まった場合、又は放置動作が開始していると想定される場合、コントローラ15は、所定の警告信号を出力する(ステップS26)。ステップS26において、コントローラ15は、所定の警告信号を警告部17に出力してよい。これにより、警告部17は、所定の警告を発することができる。
When the start of the neglected operation is estimated in step S25, that is, when the risk of the neglected operation starting from now on is increased, or when it is assumed that the neglected operation has started, the
一方、ステップS25において放置動作の開始が推定されない場合、すなわち、放置動作がこれから開始するリスクが高まっていない場合、コントローラ15は、ステップS26の動作をスキップして、図8に示す動作を終了してよい。また、ステップS25において放置動作の開始が推定されない場合、すなわち、放置動作が開始していると想定されない場合も、コントローラ15は、ステップS26の動作をスキップして、図8に示す動作を終了してよい。図8に示す動作が終了すると、コントローラ15は、再び図8に示す動作を開始してよい。例えば、コントローラ15は、画像データから座標が抽出されるごとに、図8に示す動作を繰り返してもよい。すなわち、例えば認識部11が秒間15フレームの画像データから被監視対象T及び車椅子Wを認識する場合、コントローラ15は、ステップS25における放置動作の開始の推定を秒間15回行ってもよい。
On the other hand, when the start of the neglected operation is not estimated in step S25, that is, when the risk of the neglected operation starting from now on is not increased, the
このように、一実施形態において、コントローラ15は、機械学習データに基づいて、認識部11によって認識された被監視対象T及び車椅子Wの位置(座標)から、放置動作の開始を推定してよい。また、認識部11は、撮像部20によって撮像された単位時間当たり所定数のフレームの画像から被監視対象T及び車椅子Wの位置を認識してもよい。この場合、コントローラ15は、認識部11によって抽出された被監視対象T及び車椅子Wの位置から、放置動作の開始を推定してもよい。
As described above, in one embodiment, the
図8に示すように、コントローラ15は、ステップS25において放置動作の開始を推定したら直ちに、ステップS26において所定の警告信号を出力してよい。このため、コントローラ15は、実際の放置動作が完了する前に、所定の警告信号を出力してよい。このように、コントローラ15は、放置動作の開始を推定したら、放置動作の完了前に、所定の警告信号を出力してもよい。また、コントローラ15は、可能な場合には、実際の放置動作が開始する前に、所定の警告信号を出力してもよい。このように、コントローラ15は、放置動作の開始を推定したら、放置動作の開始前に、所定の警告信号を出力してもよい。
As shown in FIG. 8, the
一実施形態に係るシステム1によれば、例えば被監視対象Tのような人間が着座していた車椅子Wを放置する動作における人間及び車椅子Wの位置と、当該放置動作のタイミングとの関係を機械学習することができる。また、一実施形態に係るシステム1によれば、機械学習した結果に基づいて、被監視対象Tが着座していた車椅子Wを放置する動作における被監視対象T及び車椅子Wの位置から、放置動作の開始を推定することができる。したがって、一実施形態に係るシステム1によれば、被監視対象Tが車椅子Wを放置しようとしている場合又は放置した場合に、その放置動作が終了する前又は終了した後に、所定の警告を発することができる。したがって、一実施形態に係るシステム1によれば、例えば介護施設などのスタッフは、例えば要看護者又は要介護者などのような被監視者が車椅子を放置する前又は放置した後に、被監視者が車椅子を放置しようとしていること又は放置したことを認識し得る。このため、一実施形態に係るシステム1によれば、被監視対象Tの安全に供し得る。
According to the
図9は、図8のステップS25において説明した推定処理をさらに説明する図である。図9は、左側の列において、例えば図8のステップS22において取得された画像データに撮像された被監視対象Tの状態を示している。図9に示すように、撮像された画像データにおいて、被監視対象Tは、撮像部20が設置された部屋に入室して車椅子Wに座っている状態の後、立っている状態となり、それから車椅子Wから離れている状態になったとする。車椅子Wから離れて放置動作が開始した瞬間から、コントローラ15は、図8に示したステップS22以降の動作を、秒間15フレームの処理として行うものとする。すなわち、システム1において、撮像部20は、秒間15フレームの画像を撮像するものとしてよい。また、システム1において、コントローラ15は、秒間15フレームの画像を取得するものとしてよい。また、システム1において、認識部11は、秒間15フレームの画像から、被監視対象T及び車椅子Wを画像認識するものとしてよい。また、システム1において、コントローラ15は、秒間15フレームの画像から認識された被監視対象T及び車椅子Wの座標を判定するものとしてよい。さらに、システム1において、コントローラ15は、機械学習データに基づいて、秒間15フレームの被監視対象T及び車椅子Wの座標から、放置動作の開始を推定してよい。
FIG. 9 is a diagram further explaining the estimation process described in step S25 of FIG. FIG. 9 shows the state of the monitored target T captured in the image data acquired in step S22 of FIG. 8, for example, in the left column. As shown in FIG. 9, in the captured image data, the monitored target T enters the room in which the
図9の中央の列において、コントローラ15が画像データのフレームを連続して取得する様子を概念的に示してある。ここで、各フレームの画像データは、画像データから抽出された位置又は座標としてもよい。また、図9の中央の列において、ハッチングを付した画像データは、放置動作が開始してから1秒間のフレームを表しているものとしてよい。
In the central column of FIG. 9, a state in which the
このような状況において、コントローラ15は、放置動作が開始してから1秒間のフレーム(フレーム1からフレーム15まで)に基づいて、その時点における放置動作の開始を推定してよい(図9に示す推定1)。次に、コントローラ15は、フレーム2からフレーム16までフレームに基づいて、その時点における放置動作の開始を推定してよい(図9に示す推定2)。以上のような動作を繰り返すことにより、コントローラ15は、放置動作の開始の推定を、秒間15回行うことになる。したがって、一実施形態に係るシステム1によれば、例えば図9に示す推定1及び推定2において何らかの原因により本来推定されるべき放置動作の開始が推定されなかったとしても、秒間15回の推定によって失報のリスクを低減することができる。
In such a situation, the
上述した実施形態において、システム1は、秒間15フレームを処理する例について説明した。しかしながら、一実施形態において、システム1又はシステム1を構成する各機能部は、秒間15よりも多くのフレームを処理してもよいし、秒間15よりも少ないフレームを処理してもよい。一実施形態において、システム1が扱う関節点の数及び/又は処理するフレームの数は、放置動作の開始の推定が妥当な結果になるように調整してもよい。
In the above-described embodiment, the
また、本実施形態の電子機器のコントローラ15は、判定された座標のX方向成分及びY方向成分をそれぞれ正規化することにより、判定された座標を汎用的に機械学習に用いることができるようにするとしてもよい。
Further, the
この場合、例えば1秒間の15フレームにおいて判定されたX,Y座標のそれぞれの最大値及び最小値に基づいて、判定されるX,Y座標を正規化してもよい。ここで、ステップS13において判定されたX座標の最大値をXmaxとし、判定されたX座標の最小値をXminとする。また、正規化後のX座標の最大値をX’maxとする。この場合、以下の式(1)を用いて、正規化前のX座標(X)を、正規化後のX座標(X’)に変換することができる。 In this case, for example, the determined X and Y coordinates may be normalized based on the maximum and minimum values of the X and Y coordinates determined in 15 frames per second. Here, the maximum value of the X coordinate determined in step S13 is Xmax, and the minimum value of the determined X coordinate is Xmin. Further, the maximum value of the X coordinate after normalization is set to X'max. In this case, the X coordinate (X) before normalization can be converted into the X coordinate (X') after normalization by using the following equation (1).
X’=((X-Xmin)/(Xmax-Xmin))・X’max (1) X'= ((X-Xmin) / (Xmax-Xmin)) · X'max (1)
同様に、判定されたY座標の最大値をYmaxとし、判定されたY座標の最小値をYminとする。また、正規化後のY座標の最大値をY’maxとする。この場合、以下の式(2)を用いて、正規化前のY座標(Y)を、正規化後のY座標(Y’)に変換することができる。 Similarly, the maximum value of the determined Y coordinate is Ymax, and the minimum value of the determined Y coordinate is Ymin. Further, the maximum value of the Y coordinate after normalization is set to Y'max. In this case, the Y coordinate (Y) before normalization can be converted into the Y coordinate (Y') after normalization by using the following equation (2).
Y’=((Y-Ymin)/(Ymax-Ymin))・Y’max (2) Y'= ((Y-Ymin) / (Ymax-Ymin)) · Y'max (2)
上記の式(1)及び式(2)に従って、被監視対象T及び車椅子Wについて判定された座標のX方向成分及びY方向成分をそれぞれ正規化することができる。これにより、撮像部20が被監視対象T及び車椅子Wを撮像した環境などが機械学習に与える影響を低減することが期待できる。
According to the above equations (1) and (2), the X-direction component and the Y-direction component of the coordinates determined for the monitored target T and the wheelchair W can be normalized, respectively. As a result, it can be expected that the influence of the environment in which the
このように、一実施形態において、コントローラ15は、2次元的に判定された被監視対象T及び車椅子Wの位置の座標の各方向成分を、当該各方向成分の最大値及び最小値に基づいて正規化してもよい。また、このような動作は、コントローラ15ではなく認識部11が行ってもよい。
As described above, in one embodiment, the
このように、一実施形態において、コントローラ15は、放置動作の開始の推定の妥当性が所定以上になるように、前記フレームの数を決定してもよい。
As described above, in one embodiment, the
上記実施形態においては、撮像された画像データを用いているため、可視光を検出対象として用いて監視を行った。しかしながら、本開示は、このような場合に限定されず、任意の電磁波、音波、温度、振動など、他の検出対象を任意に用いてもよい。 In the above embodiment, since the captured image data is used, visible light is used as a detection target for monitoring. However, the present disclosure is not limited to such cases, and other detection targets such as arbitrary electromagnetic waves, sound waves, temperatures, and vibrations may be arbitrarily used.
本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態について装置を中心に説明してきたが、本開示に係る実施形態は装置の各構成部が実行するステップを含む方法としても実現し得るものである。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。 Although the embodiments according to the present disclosure have been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications or modifications based on the present disclosure. It should be noted, therefore, that these modifications or modifications are within the scope of this disclosure. For example, the functions included in each component or each step can be rearranged so as not to be logically inconsistent, and a plurality of components or steps can be combined or divided into one. Is. Although the embodiment according to the present disclosure has been mainly described with respect to the apparatus, the embodiment according to the present disclosure can also be realized as a method including steps executed by each component of the apparatus. The embodiments according to the present disclosure can also be realized as a method, a program, or a storage medium on which a program is recorded, which is executed by a processor included in the apparatus. It should be understood that these are also included in the scope of this disclosure.
上述した実施形態は、システム1としての実施のみに限定されるものではない。例えば、上述した実施形態は、システム1に含まれる電子機器10として実施してもよい。また、上述した実施形態は、例えば、電子機器10のような機器による監視方法として実施してもよい。さらに、上述した実施形態は、例えば、電子機器10のような機器又は情報処理装置(例えばコンピュータ)が実行するプログラムとして実施してもよい。
The above-described embodiment is not limited to the implementation as the
1 システム
10 電子機器
11 認識部
13 記憶部
132 機械学習データ
15 コントローラ
17 警告部
19 通信部
20 撮像部
1
Claims (17)
前記撮像部によって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識部と、
前記撮像部によって撮像された経時的な画像において前記被監視対象が前記車椅子を放置する動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象及び前記車椅子の位置と、前記被監視対象が前記車椅子を放置する動作の開始との関係を機械学習するコントローラと、
を備えるシステム。 An image pickup unit that captures an image and
A recognition unit that recognizes a monitored object and a wheelchair related to the monitored object in the image captured by the imaging unit, and a recognition unit.
The subject between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object leaves the wheelchair in the time-dependent image captured by the image pickup unit. A controller that machine-learns the relationship between the positions of the monitored object and the wheelchair and the start of the operation in which the monitored object leaves the wheelchair.
A system equipped with.
前記撮像部によって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識部と、
人間に関連する車椅子を前記人間が放置する動作の開始時点と終了時点との間における前記人間及び前記車椅子の位置と、前記人間が前記車椅子を放置する動作の開始との関係が機械学習された機械学習データに基づいて、前記認識部によって認識された前記被監視対象及び前記車椅子の位置から、前記被監視対象が前記車椅子を放置する動作の開始を推定するコントローラと、
を備えるシステム。 An image pickup unit that captures an image and
A recognition unit that recognizes a monitored object and a wheelchair related to the monitored object in the image captured by the imaging unit, and a recognition unit.
Machine learning was performed on the relationship between the positions of the human and the wheelchair between the start and end points of the movement in which the human-related wheelchair is left unattended, and the start of the movement in which the human leaves the wheelchair. Based on the machine learning data, the controller that estimates the start of the operation of the monitored object leaving the wheelchair from the positions of the monitored object and the wheelchair recognized by the recognition unit.
A system equipped with.
前記コントローラは、前記認識部によって認識された前記被監視対象及び前記車椅子の位置から、前記被監視対象が前記車椅子を放置する動作の開始を推定する、請求項7に記載のシステム。 The recognition unit recognizes the positions of the monitored object and the wheelchair from the images of a predetermined number of frames per unit time captured by the image pickup unit.
The system according to claim 7, wherein the controller estimates the start of an operation in which the monitored object leaves the wheelchair from the positions of the monitored object and the wheelchair recognized by the recognition unit.
前記撮像部によって撮像された経時的な画像において前記被監視対象が前記車椅子を放置する動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象及び前記車椅子の位置と、前記被監視対象が前記車椅子を放置する動作の開始との関係を機械学習するコントローラと、
を備える電子機器。 A recognition unit that recognizes the monitored object and the wheelchair related to the monitored object in the captured image, and
The subject between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object leaves the wheelchair in the time-dependent image captured by the image pickup unit. A controller that machine-learns the relationship between the positions of the monitored object and the wheelchair and the start of the operation in which the monitored object leaves the wheelchair.
Electronic equipment equipped with.
人間に関連する車椅子を前記人間が放置する動作の開始時点と終了時点との間における前記人間及び前記車椅子の位置と、前記人間が前記車椅子を放置する動作の開始との関係が機械学習された機械学習データに基づいて、前記認識部によって認識された前記被監視対象及び前記車椅子の位置から、前記被監視対象が前記車椅子を放置する動作の開始を推定するコントローラと、
を備える電子機器。 A recognition unit that recognizes the monitored object and the wheelchair related to the monitored object in the captured image, and
Machine learning was performed on the relationship between the positions of the human and the wheelchair between the start and end points of the movement in which the human-related wheelchair is left unattended, and the start of the movement in which the human leaves the wheelchair. Based on the machine learning data, the controller that estimates the start of the operation of the monitored object leaving the wheelchair from the positions of the monitored object and the wheelchair recognized by the recognition unit.
Electronic equipment equipped with.
前記撮像ステップによって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が前記車椅子を放置する動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象及び前記車椅子の位置と、前記被監視対象が前記車椅子を放置する動作の開始との関係を機械学習する機械学習ステップと、
を含む、電子機器の制御方法。 An imaging step to capture an image and
A recognition step for recognizing a monitored object and a wheelchair related to the monitored object in the image captured by the imaging step.
The subject between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object leaves the wheelchair in the time-dependent image captured by the imaging step. A machine learning step for machine learning the relationship between the position of the monitored object and the wheelchair and the start of the operation of the monitored object leaving the wheelchair.
How to control electronic devices, including.
前記撮像ステップによって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識ステップと、
人間に関連する車椅子を前記人間が放置する動作の開始時点と終了時点との間における前記人間及び前記車椅子の位置と、前記人間が前記車椅子を放置する動作の開始との関係が機械学習された機械学習データに基づいて、前記認識ステップによって認識された前記被監視対象及び前記車椅子の位置から、前記被監視対象が前記車椅子を放置する動作の開始を推定する推定ステップと、
を含む、電子機器の制御方法。 An imaging step to capture an image and
A recognition step for recognizing a monitored object and a wheelchair related to the monitored object in the image captured by the imaging step.
Machine learning was performed on the relationship between the positions of the human and the wheelchair between the start and end points of the movement in which the human-related wheelchair is left unattended, and the start of the movement in which the human leaves the wheelchair. Based on the machine learning data, an estimation step of estimating the start of the operation of the monitored object leaving the wheelchair from the positions of the monitored object and the wheelchair recognized by the recognition step, and an estimation step.
How to control electronic devices, including.
画像を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が前記車椅子を放置する動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象及び前記車椅子の位置と、前記被監視対象が前記車椅子を放置する動作の開始との関係を機械学習する機械学習ステップと、
を実行させる、プログラム。 On the computer
An imaging step to capture an image and
A recognition step for recognizing a monitored object and a wheelchair related to the monitored object in the image captured by the imaging step.
The subject between the start time and the end time based on the timing information indicating the start time and the end time of the operation in which the monitored object leaves the wheelchair in the time-dependent image captured by the imaging step. A machine learning step for machine learning the relationship between the position of the monitored object and the wheelchair and the start of the operation of the monitored object leaving the wheelchair.
A program that runs.
画像を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識ステップと、
人間に関連する車椅子を前記人間が放置する動作の開始時点と終了時点との間における前記人間及び前記車椅子の位置と、前記人間が前記車椅子を放置する動作の開始との関係が機械学習された機械学習データに基づいて、前記認識ステップによって認識された前記被監視対象及び前記車椅子の位置から、前記被監視対象が前記車椅子を放置する動作の開始を推定する推定ステップと、
を実行させる、プログラム。
On the computer
An imaging step to capture an image and
A recognition step for recognizing a monitored object and a wheelchair related to the monitored object in the image captured by the imaging step.
Machine learning was performed on the relationship between the positions of the human and the wheelchair between the start and end points of the movement in which the human-related wheelchair is left unattended, and the start of the movement in which the human leaves the wheelchair. Based on the machine learning data, an estimation step of estimating the start of the operation of the monitored object leaving the wheelchair from the positions of the monitored object and the wheelchair recognized by the recognition step, and an estimation step.
A program that runs.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020145013A JP2022039815A (en) | 2020-08-28 | 2020-08-28 | System, electronic apparatus, method for controlling electronic apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020145013A JP2022039815A (en) | 2020-08-28 | 2020-08-28 | System, electronic apparatus, method for controlling electronic apparatus, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022039815A true JP2022039815A (en) | 2022-03-10 |
Family
ID=80497730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020145013A Pending JP2022039815A (en) | 2020-08-28 | 2020-08-28 | System, electronic apparatus, method for controlling electronic apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022039815A (en) |
-
2020
- 2020-08-28 JP JP2020145013A patent/JP2022039815A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11282367B1 (en) | System and methods for safety, security, and well-being of individuals | |
US9597016B2 (en) | Activity analysis, fall detection and risk assessment systems and methods | |
JP6720909B2 (en) | Action detection device, method and program, and monitored person monitoring device | |
US20210219873A1 (en) | Machine vision to predict clinical patient parameters | |
EP3432772B1 (en) | Using visual context to timely trigger measuring physiological parameters | |
CN111227789A (en) | Human health monitoring method and device | |
Bellotto et al. | Enrichme integration of ambient intelligence and robotics for aal | |
CN112437629A (en) | Determining reliability of vital signs of a monitored subject | |
Nugent et al. | Managing sensor data in ambient assisted living | |
JP2022039815A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
JP7465773B2 (en) | SYSTEM, ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, AND PROGRAM | |
JP2022050269A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
Safarzadeh et al. | Real-time fall detection and alert system using pose estimation | |
Khawandi et al. | Integrated monitoring system for fall detection in elderly | |
JP7304531B2 (en) | PHYSICAL FUNCTION MANAGEMENT SYSTEM AND PHYSICAL FUNCTION MANAGEMENT METHOD | |
JP2023047410A (en) | Portable device, program and method for presenting information based on object recognition in accordance with user's dynamic state | |
Soman et al. | A Novel Fall Detection System using Mediapipe | |
JP2022039814A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
Silapasuphakornwong et al. | A conceptual framework for an elder-supported smart home | |
JP2021174189A (en) | Method of assisting in creating menu of service, method of assisting in evaluating user of service, program causing computer to execute the method, and information providing device | |
JP2022050271A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
CN113743292B (en) | Video sequence-based activity capability assessment method, device, medium and equipment | |
JP2022050273A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
JP2022055254A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program | |
JP2022050272A (en) | System, electronic apparatus, method for controlling electronic apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230417 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240312 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240510 |