JP2022055254A - System, electronic apparatus, method for controlling electronic apparatus, and program - Google Patents

System, electronic apparatus, method for controlling electronic apparatus, and program Download PDF

Info

Publication number
JP2022055254A
JP2022055254A JP2020162744A JP2020162744A JP2022055254A JP 2022055254 A JP2022055254 A JP 2022055254A JP 2020162744 A JP2020162744 A JP 2020162744A JP 2020162744 A JP2020162744 A JP 2020162744A JP 2022055254 A JP2022055254 A JP 2022055254A
Authority
JP
Japan
Prior art keywords
wheelchair
monitored object
image
monitored
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020162744A
Other languages
Japanese (ja)
Inventor
健宏 馬渕
Takehiro Mabuchi
智子 浅野
Tomoko Asano
裕 香島
Yu Kashima
賢也 小林
Kenya Kobayashi
永勲 高
Younghun Ko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2020162744A priority Critical patent/JP2022055254A/en
Publication of JP2022055254A publication Critical patent/JP2022055254A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a system, an electronic apparatus, a method for controlling an electronic apparatus, and a program contributing to the safety of a subject to be monitored.SOLUTION: A system comprises an imaging unit, a recognition unit, and a controller. The imaging unit picks up an image. The recognition unit recognizes a subject to be monitored and a wheelchair related to the subject to be monitored in the image picked up by the imaging unit. When a state in which the distance between the subject to be monitored and the wheelchair recognized by the recognition unit becomes equal to or more than a predetermined threshold continues for a predetermined time, the controller outputs a predetermined alert signal.SELECTED DRAWING: Figure 1

Description

本開示は、システム、電子機器、電子機器の制御方法、及びプログラムに関する。 The present disclosure relates to systems, electronic devices, control methods for electronic devices, and programs.

例えば介護施設のような現場において、要看護者又は要介護者などのような被監視者の行動を監視する装置が提案されている。例えば、特許文献1は、撮像装置で得られた画像に基づいて、被監視者における所定の行動を検知する被監視者システムを開示している。特許文献2は、対象者の足に検出装置を装着することにより、対象者が歩行中に転倒するのを予防する転倒予防システムを開示している。また、特許文献3は、温度分布を検出することにより、人体の体位を判定する見守り支援装置を開示している。また、引用文献4は、在宅、又は老人ホーム若しくは介護施設における老年精神病患者を監視するための医療システムを開示している。 For example, in a field such as a long-term care facility, a device for monitoring the behavior of a monitored person such as a nurse or a care recipient has been proposed. For example, Patent Document 1 discloses a monitored person system that detects a predetermined behavior in a monitored person based on an image obtained by an image pickup device. Patent Document 2 discloses a fall prevention system that prevents a subject from falling while walking by attaching a detection device to the foot of the subject. Further, Patent Document 3 discloses a monitoring support device for determining the body position of a human body by detecting a temperature distribution. Cited Document 4 also discloses a medical system for monitoring elderly psychotic patients at home or in elderly housing with care or long-term care facilities.

特開2017-91552号公報Japanese Unexamined Patent Publication No. 2017-91552 特開2017-221502号公報Japanese Unexamined Patent Publication No. 2017-221502 特開2014-106636号公報Japanese Unexamined Patent Publication No. 2014-106636 特開2003-91790号公報Japanese Patent Application Laid-Open No. 2003-91790

被監視対象を監視することにより、被監視対象の安全に供することができれば、有益である。 It would be beneficial if the monitored object could be safely monitored by monitoring it.

本開示の目的は、被監視対象の安全に供し得るシステム、電子機器、電子機器の制御方法、及びプログラムを提供することにある。 An object of the present disclosure is to provide a system, an electronic device, a control method for the electronic device, and a program that can be safely provided to the monitored object.

一実施形態に係るシステムは、
画像を撮像する撮像部と、
前記撮像部によって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識部と、
前記認識部によって認識された前記被監視対象と前記車椅子との距離が所定の閾値以上になった状態が所定時間継続したら、所定の警告信号を出力するコントローラと、
を備える。
The system according to one embodiment is
An image pickup unit that captures images and
A recognition unit that recognizes a monitored object and a wheelchair related to the monitored object in the image captured by the imaging unit, and a recognition unit.
A controller that outputs a predetermined warning signal when the distance between the monitored object and the wheelchair recognized by the recognition unit exceeds a predetermined threshold value continues for a predetermined time.
To prepare for.

一実施形態に係る電子機器は、
撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識部と、
前記認識部によって認識された前記被監視対象と前記車椅子との距離が所定の閾値以上になった状態が所定時間継続したら、所定の警告信号を出力するコントローラと、
を備える。
The electronic device according to one embodiment is
A recognition unit that recognizes the monitored object and the wheelchair related to the monitored object in the captured image, and
A controller that outputs a predetermined warning signal when the distance between the monitored object and the wheelchair recognized by the recognition unit exceeds a predetermined threshold value continues for a predetermined time.
To prepare for.

一実施形態に係る電子機器の制御方法は、
画像を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識ステップと、
前記認識ステップによって認識された前記被監視対象と前記車椅子との距離が所定の閾値以上になった状態が所定時間継続したら、所定の警告信号を出力する出力ステップと、
を含む。
The method for controlling an electronic device according to an embodiment is as follows.
An imaging step to capture an image and
A recognition step for recognizing a monitored object and a wheelchair related to the monitored object in the image captured by the imaging step.
An output step that outputs a predetermined warning signal when the state in which the distance between the monitored object and the wheelchair recognized by the recognition step exceeds a predetermined threshold value continues for a predetermined time,
including.

一実施形態に係るプログラムは、
コンピュータに、
画像を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識ステップと、
前記認識ステップによって認識された前記被監視対象と前記車椅子との距離が所定の閾値以上になった状態が所定時間継続したら、所定の警告信号を出力する出力ステップと、
を実行させる。
The program according to one embodiment is
On the computer
An imaging step to capture an image and
A recognition step for recognizing a monitored object and a wheelchair related to the monitored object in the image captured by the imaging step.
An output step that outputs a predetermined warning signal when the state in which the distance between the monitored object and the wheelchair recognized by the recognition step exceeds a predetermined threshold value continues for a predetermined time,
To execute.

一実施形態によれば、被監視対象の安全に供し得るシステム、電子機器、電子機器の制御方法、及びプログラムを提供することができる。 According to one embodiment, it is possible to provide a system, an electronic device, a control method for the electronic device, and a program that can be safely provided to the monitored object.

一実施形態に係るシステムの概略構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure of the system which concerns on one Embodiment. 一実施形態に係るシステムによる動作を説明するフローチャートである。It is a flowchart explaining operation by the system which concerns on one Embodiment. 一実施形態に係るシステムによって撮像される画像の例を示すフローチャートである。It is a flowchart which shows the example of the image imaged by the system which concerns on one Embodiment. 一実施形態に係るシステムによって撮像される画像の例を示すフローチャートである。It is a flowchart which shows the example of the image imaged by the system which concerns on one Embodiment. 一実施形態に係るシステムによって認識される画像の例を示す図である。It is a figure which shows the example of the image recognized by the system which concerns on one Embodiment. 一実施形態に係るシステムによって認識される画像の例を示す図である。It is a figure which shows the example of the image recognized by the system which concerns on one Embodiment. 一実施形態に係るシステムによる画像の認識及び座標の判定について説明する図である。It is a figure explaining the recognition of an image and the determination of coordinates by the system which concerns on one Embodiment. 一実施形態に係るシステムによるコントローラの動作を説明する概念図である。It is a conceptual diagram explaining the operation of the controller by the system which concerns on one Embodiment. 一実施形態に係るシステムによるコントローラの動作を説明する概念図である。It is a conceptual diagram explaining the operation of the controller by the system which concerns on one Embodiment. 一実施形態に係るシステムによる判定について説明する図である。It is a figure explaining the determination by the system which concerns on one Embodiment.

本開示において、「電子機器」とは、電力により駆動する機器としてよい。また、「システム」とは、電力により駆動する機器を含むものとしてよい。また、「ユーザ」とは、一実施形態に係るシステム及び/又は電子機器を使用する者(典型的には人間)としてよい。ユーザは、一実施形態に係るシステム及び/又は電子機器を用いることで、被監視対象の監視を行う者を含んでもよい。また、「被監視対象」とは、一実施形態に係るシステム及び/又は電子機器によって監視される対象となる者(例えば人間又は動物)としてよい。さらに、ユーザは、被監視対象を含んでもよい。 In the present disclosure, the "electronic device" may be a device driven by electric power. Further, the "system" may include a device driven by electric power. Further, the "user" may be a person (typically a human being) who uses the system and / or the electronic device according to the embodiment. The user may include a person who monitors the monitored object by using the system and / or the electronic device according to the embodiment. Further, the "monitored target" may be a person (for example, a human being or an animal) to be monitored by the system and / or the electronic device according to the embodiment. Further, the user may include a monitored object.

一実施形態に係るシステムが利用される場面として想定されるのは、例えば、会社、病院、老人ホーム、学校、スポーツジム、及び介護施設などのような、社会活動を行う者が使用する特定の施設などとしてよい。例えば、会社であれば従業員などの健康状態の把握及び/又は管理は、極めて重要である。同様に、病院であれば患者及び医療従事者など、また老人ホームであれば入居者及びスタッフなどの健康状態の把握及び/又は管理は、極めて重要である。一実施形態に係るシステムが利用される場面は、上述の、会社、病院、及び老人ホームなどの施設に限定されず、被監視対象の健康状態の把握及び/又は管理などが望まれる任意の施設としてよい。任意の施設は、例えば、ユーザの自宅などの非商業施設も含んでもよい。また、一実施形態に係るシステムが利用される場面は、例えば、電車、バス、及び飛行機などの移動体内、並びに、駅及び乗り場などとしてもよい。 It is assumed that the system according to one embodiment is used in a specific situation used by a person engaged in social activities such as a company, a hospital, an elderly home, a school, a sports gym, and a long-term care facility. It may be a facility. For example, in the case of a company, it is extremely important to understand and / or manage the health status of employees. Similarly, it is extremely important to understand and / or manage the health status of patients and medical staff in hospitals, and residents and staff in elderly housing with care. The scene in which the system according to the embodiment is used is not limited to the above-mentioned facilities such as companies, hospitals, and elderly housings, but any facility where it is desired to grasp and / or manage the health condition of the monitored object. May be. Any facility may also include non-commercial facilities, such as the user's home. Further, the scene in which the system according to one embodiment is used may be, for example, a moving body such as a train, a bus, or an airplane, a station, a platform, or the like.

一実施形態に係るシステムは、例えば、介護施設などにおいて、要看護者又は要介護者などのような被監視対象の行動を監視する用途で用いられてよい。一実施形態に係るシステムは、例えば要看護者又は要介護者などのような被監視対象が着座して使用している車椅子から立ち上がって車椅子を放置する動作を監視することができる。 The system according to one embodiment may be used for monitoring the behavior of a monitored object such as a nurse-requiring person or a nursing-requiring person in a nursing care facility or the like. The system according to one embodiment can monitor the operation of standing up from a wheelchair used by a monitored object such as a nurse or a care recipient and leaving the wheelchair unattended.

特に、一実施形態に係るシステムは、例えば要看護者又は要介護者などのような被監視者が車椅子に着座している場合に、被監視者が車椅子を放置する動作が完了する前、又は車椅子を放置する動作が完了した後に、所定の警告を発することができる。したがって、一実施形態に係るシステムによれば、例えば介護施設などのスタッフは、例えば要看護者又は要介護者などのような被監視者が車椅子を放置する前に、車椅子が放置されようとしていることを認識し得る。また、一実施形態に係るシステムによれば、例えば介護施設などのスタッフは、例えば要看護者又は要介護者などのような被監視者が車椅子を放置した後に、車椅子が放置されたことを認識し得る。 In particular, in the system according to one embodiment, when a monitored person such as a nurse or a care recipient is seated in a wheelchair, before the operation of leaving the wheelchair by the monitored person is completed, or A predetermined warning can be issued after the operation of leaving the wheelchair is completed. Therefore, according to the system according to one embodiment, a staff member such as a care facility is about to leave the wheelchair before a monitored person such as a nurse or a care recipient leaves the wheelchair. You can recognize that. Further, according to the system according to one embodiment, the staff of a nursing care facility, for example, recognizes that the wheelchair was left unattended after the monitored person such as a nurse requiring nursing care or a person requiring long-term care left the wheelchair. Can be.

以下、一実施形態に係るシステムについて、図面を参照して詳細に説明する。 Hereinafter, the system according to the embodiment will be described in detail with reference to the drawings.

図1は、一実施形態に係るシステムの概略構成を示す図である。図1に示すように、一実施形態に係るシステム1は、電子機器10及び撮像部20を含んで構成されてよい。電子機器10と撮像部20とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。一実施形態に係るシステム1は、図1に示す機能部の一部を含まなくてもよいし、図1に示す以外の機能部を含んでもよい。例えば、一実施形態に係るシステム1は、警告部17及び通信部19の少なくとも一方を備えなくてもよい。また、例えば、一実施形態に係るシステム1は、画像を表示可能なディスプレイ及び/又はメモリカードなどのストレージを挿入可能なスロットなどを備えてもよい。 FIG. 1 is a diagram showing a schematic configuration of a system according to an embodiment. As shown in FIG. 1, the system 1 according to an embodiment may be configured to include an electronic device 10 and an image pickup unit 20. The electronic device 10 and the image pickup unit 20 may be connected by wire or wireless, or a combination of wire and wireless. The system 1 according to one embodiment may not include a part of the functional unit shown in FIG. 1, or may include a functional unit other than that shown in FIG. For example, the system 1 according to the embodiment may not include at least one of the warning unit 17 and the communication unit 19. Further, for example, the system 1 according to the embodiment may include a display capable of displaying an image and / or a slot into which a storage such as a memory card can be inserted.

図1に示す撮像部20は、例えばデジタルカメラのような、電子的に画像を撮像するイメージセンサを含んで構成されてよい。撮像部20は、CCD(Charge Coupled Device Image Sensor)又はCMOS(Complementary Metal Oxide Semiconductor)センサ等のように、光電変換を行う撮像素子を含んで構成されてよい。撮像部20は、例えば図1に示すように、被監視対象Tを撮像してよい。ここで、被監視対象Tは、例えば人間としてよい。撮像部20は、撮像した画像を信号に変換して、電子機器10に送信してよい。例えば、撮像部20は、撮像した画像に基づく信号を、電子機器10の認識部11、記憶部13、及び/又は、コントローラ15などに送信してよい。撮像部20は、被監視対象Tを撮像するものであれば、デジタルカメラのような撮像デバイスに限定されず、任意のデバイスとしてよい。 The image pickup unit 20 shown in FIG. 1 may include an image sensor that electronically captures an image, such as a digital camera. The image pickup unit 20 may include an image pickup element that performs photoelectric conversion, such as a CCD (Charge Coupled Device Image Sensor) or a CMOS (Complementary Metal Oxide Semiconductor) sensor. The image pickup unit 20 may take an image of the monitored object T, for example, as shown in FIG. Here, the monitored target T may be, for example, a human being. The image pickup unit 20 may convert the captured image into a signal and transmit it to the electronic device 10. For example, the image pickup unit 20 may transmit a signal based on the captured image to the recognition unit 11, the storage unit 13, and / or the controller 15 of the electronic device 10. The image pickup unit 20 is not limited to an image pickup device such as a digital camera as long as it captures the monitored target T, and may be any device.

一実施形態において、撮像部20は、例えば被監視対象Tを所定時間ごと(例えば秒間15フレーム)の静止画として撮像してもよい。また、一実施形態において、撮像部20は、例えば被監視対象Tを連続した動画として撮像してもよい。このように、一実施形態において、撮像部20は、画像を撮像する。 In one embodiment, the image pickup unit 20 may take an image of the monitored target T, for example, as a still image at predetermined time intervals (for example, 15 frames per second). Further, in one embodiment, the imaging unit 20 may image, for example, the monitored target T as a continuous moving image. Thus, in one embodiment, the image pickup unit 20 captures an image.

図1に示すように、一実施形態に係る電子機器10は、認識部11、記憶部13、コントローラ15、警告部17、及び通信部19を備えてよい。一実施形態に係る電子機器10は、図1に示す機能部の一部を備えなくてもよいし、図1に示す以外の機能部を備えてもよい。 As shown in FIG. 1, the electronic device 10 according to the embodiment may include a recognition unit 11, a storage unit 13, a controller 15, a warning unit 17, and a communication unit 19. The electronic device 10 according to the embodiment may not include a part of the functional unit shown in FIG. 1, or may include a functional unit other than that shown in FIG.

認識部11は、撮像部20によって撮像された画像から、所定の物体を認識する機能を有してよい。例えば、認識部11は、撮像部20によって撮像された画像から、被監視対象Tを認識してもよい。また、例えば、認識部11は、撮像部20によって撮像された画像から、車椅子を認識してもよい。さらに、例えば、認識部11は、撮像部20によって撮像された画像から、被監視対象Tに関連する車椅子を認識してもよい。ここで、被監視対象Tに関連する車椅子とは、例えば、被監視対象Tが使用している車椅子としてもよいし、被監視対象Tが使用していた車椅子などとしてもよい。認識部11は、例えば既存の画像認識の技術を用いて、撮像部20によって撮像された画像から、被監視対象T及び/又は車椅子を認識してよい。一実施形態において、認識部11は、撮像部20によって撮像された被監視対象Tの画像から、当該被監視対象Tの頭部、体幹、四肢、及び/又は各関節などの各部の位置を認識してもよい。認識部11は、専用のハードウェアとして構成されてもよいし、少なくとも一部にソフトウェアを含めて構成されてもよいし、全てソフトウェアで構成されているとしてもよい。このように、認識部11は、撮像部20によって撮像された画像において、被監視対象T及び被監視対象Tに関連する車椅子を認識してよい。 The recognition unit 11 may have a function of recognizing a predetermined object from the image captured by the image pickup unit 20. For example, the recognition unit 11 may recognize the monitored target T from the image captured by the image pickup unit 20. Further, for example, the recognition unit 11 may recognize the wheelchair from the image captured by the image pickup unit 20. Further, for example, the recognition unit 11 may recognize the wheelchair related to the monitored target T from the image captured by the image pickup unit 20. Here, the wheelchair related to the monitored target T may be, for example, a wheelchair used by the monitored target T, a wheelchair used by the monitored target T, or the like. The recognition unit 11 may recognize the monitored target T and / or the wheelchair from the image captured by the image pickup unit 20, for example, using the existing image recognition technique. In one embodiment, the recognition unit 11 determines the position of each part such as the head, trunk, limbs, and / or joints of the monitored target T from the image of the monitored target T captured by the imaging unit 20. You may recognize it. The recognition unit 11 may be configured as dedicated hardware, may be configured to include software at least in part, or may be configured entirely by software. In this way, the recognition unit 11 may recognize the monitored object T and the wheelchair related to the monitored object T in the image captured by the imaging unit 20.

記憶部13は、各種の情報を記憶するメモリとしての機能を有してよい。記憶部13は、例えばコントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などを記憶してよい。一実施形態において、記憶部13は、被監視対象Tが着座していた車椅子を放置する動作を開始したか否かをコントローラ15が判定するための基準となる所定の条件を記憶してもよい。所定の条件については、さらに後述する。また、記憶部13は、コントローラ15のワークメモリとして機能してよい。記憶部13は、例えば半導体メモリ等により構成することができるが、これに限定されず、任意の記憶装置とすることができる。例えば、記憶部13は、一実施形態に係る電子機器10に挿入されたメモリカードのような記憶媒体としてもよい。また、記憶部13は、後述のコントローラ15として用いられるCPUの内部メモリであってもよいし、コントローラ15に別体として接続されるものとしてもよい。 The storage unit 13 may have a function as a memory for storing various types of information. The storage unit 13 may store, for example, a program executed by the controller 15, the result of processing executed by the controller 15, and the like. In one embodiment, the storage unit 13 may store a predetermined condition as a reference for the controller 15 to determine whether or not the operation of leaving the wheelchair on which the monitored object T is seated is started. .. The predetermined conditions will be further described later. Further, the storage unit 13 may function as a work memory of the controller 15. The storage unit 13 can be configured by, for example, a semiconductor memory or the like, but is not limited to this, and can be any storage device. For example, the storage unit 13 may be a storage medium such as a memory card inserted in the electronic device 10 according to the embodiment. Further, the storage unit 13 may be the internal memory of the CPU used as the controller 15 described later, or may be connected to the controller 15 as a separate body.

コントローラ15は、電子機器10を構成する各機能部をはじめとして、電子機器10の全体を制御及び/又は管理する。コントローラ15は、種々の機能を実行するための制御及び処理能力を提供するために、例えばCPU(Central Processing Unit)のような、少なくとも1つのプロセッサを含んでよい。コントローラ15は、まとめて1つのプロセッサで実現してもよいし、いくつかのプロセッサで実現してもよいし、それぞれ個別のプロセッサで実現してもよい。プロセッサは、単一の集積回路として実現されてよい。集積回路は、IC(Integrated Circuit)ともいう。プロセッサは、複数の通信可能に接続された集積回路及びディスクリート回路として実現されてよい。プロセッサは、他の種々の既知の技術に基づいて実現されてよい。 The controller 15 controls and / or manages the entire electronic device 10 including each functional unit constituting the electronic device 10. The controller 15 may include at least one processor, such as a CPU (Central Processing Unit), to provide control and processing power to perform various functions. The controller 15 may be realized collectively by one processor, by several processors, or by individual processors. The processor may be realized as a single integrated circuit. The integrated circuit is also referred to as an IC (Integrated Circuit). The processor may be realized as a plurality of communicably connected integrated circuits and discrete circuits. The processor may be implemented on the basis of various other known techniques.

一実施形態において、コントローラ15は、例えばCPU及び当該CPUで実行されるプログラムとして構成されてよい。コントローラ15において実行されるプログラム、及び、コントローラ15において実行された処理の結果などは、例えば記憶部13に記憶されてよい。コントローラ15は、コントローラ15の動作に必要なメモリを適宜含んでもよい。 In one embodiment, the controller 15 may be configured as, for example, a CPU and a program executed by the CPU. The program executed by the controller 15, the result of the process executed by the controller 15, and the like may be stored in, for example, the storage unit 13. The controller 15 may appropriately include a memory necessary for the operation of the controller 15.

特に、一実施形態において、コントローラ15は、被監視対象Tが被監視対象Tに関連する車椅子を放置する動作を開始したか否かを判定する処理を行ってよい。以下、被監視対象Tが被監視対象Tに関連する車椅子を放置する動作を、単に「放置動作」と記すことがある。コントローラ15は、放置動作の開始を判定するために、所定の条件が満たされたか否かを判定してよい。コントローラ15は、放置動作の開始を判定するために、認識部11によって認識された被監視対象T及び車椅子の所定部位の位置(又は座標)に基づいて、所定の条件が満たされたか否かを判定してよい。また、コントローラ15は、所定の条件が満たされることによって、放置動作の開始を判定したら、所定の警告信号を出力してよい。所定の条件については、さらに後述する。また、一実施形態に係る電子機器10のコントローラ15の動作についても、さらに後述する。 In particular, in one embodiment, the controller 15 may perform a process of determining whether or not the monitored target T has started the operation of leaving the wheelchair related to the monitored target T. Hereinafter, the operation in which the monitored object T leaves the wheelchair related to the monitored object T may be simply referred to as a “leaving operation”. In order to determine the start of the neglected operation, the controller 15 may determine whether or not a predetermined condition is satisfied. The controller 15 determines whether or not the predetermined conditions are satisfied based on the positions (or coordinates) of the monitored target T and the predetermined portion of the wheelchair recognized by the recognition unit 11 in order to determine the start of the neglected operation. You may judge. Further, the controller 15 may output a predetermined warning signal when determining the start of the neglected operation by satisfying the predetermined condition. The predetermined conditions will be further described later. Further, the operation of the controller 15 of the electronic device 10 according to the embodiment will be further described later.

警告部17は、コントローラ15から出力される所定の警告信号に基づいて、システム1又は電子機器10のユーザなどに注意を促すための所定の警告を発してよい。警告部17は、所定の警告として、例えば音、音声、光、文字、映像、及び振動など、ユーザの聴覚、視覚、触覚の少なくともいずれかを刺激する任意の機能部としてよい。具体的には、警告部17は、例えばブザー又はスピーカのような音声出力部、LEDのような発光部、LCDのような表示部、及びバイブレータのような触感呈示部などの少なくともいずれかとしてよい。このように、警告部17は、コントローラ15から出力される所定の警告信号に基づいて、所定の警告を発してよい。一実施形態において、警告部17は、所定の警報を、聴覚、視覚、及び触覚の少なくともいずれかに作用する情報として発してもよい。 The warning unit 17 may issue a predetermined warning for calling attention to the user of the system 1 or the electronic device 10 based on the predetermined warning signal output from the controller 15. As a predetermined warning, the warning unit 17 may be any functional unit that stimulates at least one of the user's auditory sense, visual sense, and tactile sense, such as sound, voice, light, characters, video, and vibration. Specifically, the warning unit 17 may be at least one of, for example, an audio output unit such as a buzzer or a speaker, a light emitting unit such as an LED, a display unit such as an LCD, and a tactile presentation unit such as a vibrator. .. In this way, the warning unit 17 may issue a predetermined warning based on a predetermined warning signal output from the controller 15. In one embodiment, the warning unit 17 may issue a predetermined alarm as information acting on at least one of auditory, visual, and tactile sensations.

一実施形態において、警告部17は、例えば被監視対象Tが放置動作を開始した時点で、被監視対象Tが放置動作を行うリスクがある旨の警告を発してよい。また、一実施形態において、警告部17は、被監視対象Tが放置動作を完了する前に、被監視対象Tが放置動作を行うリスクがある旨の警告を発してもよい。さらに、警告部17は、被監視対象Tが放置動作を完了した後に、被監視対象Tが放置動作を行った旨の警告を発してもよい。例えば、一実施形態において、視覚情報を出力する警告部17は、被監視対象Tが放置動作を行うリスクがある旨又は放置動作を行った旨が検出されると、その旨を発光又は所定の表示などによってユーザに警告してよい。また、一実施形態において、聴覚情報を出力する警告部17は、被監視対象Tが放置動作を行うリスクがある旨又は放置動作を行った旨が検出されると、その旨を所定の音又は音声などによってユーザに警告してよい。本実施形態では、上記警告は、発光又は所定の表示、及び所定の音又は音声を組み合わせてもよい。 In one embodiment, the warning unit 17 may issue a warning that there is a risk that the monitored target T will perform the neglected operation, for example, when the monitored target T starts the neglected operation. Further, in one embodiment, the warning unit 17 may issue a warning that there is a risk that the monitored target T will perform the neglected operation before the monitored target T completes the neglected operation. Further, the warning unit 17 may issue a warning to the effect that the monitored target T has performed the neglected operation after the monitored target T has completed the neglected operation. For example, in one embodiment, the warning unit 17 that outputs visual information emits light or determines that the monitored target T has a risk of performing a neglected operation or that the monitored target T has performed a neglected operation. The user may be warned by a display or the like. Further, in one embodiment, when the warning unit 17 that outputs auditory information detects that the monitored target T has a risk of performing a neglected operation or has performed a neglected operation, a predetermined sound or a predetermined sound to that effect is detected. The user may be warned by voice or the like. In the present embodiment, the warning may be a combination of light emission or a predetermined display, and a predetermined sound or voice.

図1に示す電子機器10は、警告部17を内蔵している。しかしながら、一実施形態にシステム1において、警告部17は、電子機器10の外部に設けられてもよい。この場合、警告部17と電子機器10とは、有線若しくは無線、又は有線及び無線の組合せにより接続されてよい。 The electronic device 10 shown in FIG. 1 has a built-in warning unit 17. However, in one embodiment, in the system 1, the warning unit 17 may be provided outside the electronic device 10. In this case, the warning unit 17 and the electronic device 10 may be connected by wire or wireless, or a combination of wire and wireless.

通信部19は、有線又は無線により通信するためのインタフェースの機能を有する。一実施形態の通信部19によって行われる通信方式は無線通信規格としてよい。例えば、無線通信規格は2G、3G、4G、及び5G等のセルラーフォンの通信規格を含む。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)、及びPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格は、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、WiFi、Bluetooth(登録商標)、IrDA(Infrared Data Association)、及びNFC(Near Field Communication)等を含む。通信部19は、上記の通信規格の1つ又は複数をサポートすることができる。通信部19は、例えば電波を送受信するアンテナ及び適当なRF部などを含めて構成してよい。また、通信部19は、外部に有線接続するためのコネクタなどのようなインタフェースとして構成してもよい。通信部19は、無線通信を行うための既知の技術により構成することができるため、より詳細なハードウェアなどの説明は省略する。 The communication unit 19 has an interface function for communicating by wire or wirelessly. The communication method performed by the communication unit 19 of one embodiment may be a wireless communication standard. For example, wireless communication standards include communication standards for cellular phones such as 2G, 3G, 4G, and 5G. For example, the communication standards for cellular phones are LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (Registered Trademark) (Global System for Mobile communications), and PHS. (Personal Handy-phone System) etc. are included. For example, wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), 802.11, WiFi, Bluetooth®, IrDA (Infrared Data Association), NFC (Near Field Communication) and the like. The communication unit 19 can support one or more of the above communication standards. The communication unit 19 may be configured to include, for example, an antenna for transmitting and receiving radio waves, an appropriate RF unit, and the like. Further, the communication unit 19 may be configured as an interface such as a connector for making a wired connection to the outside. Since the communication unit 19 can be configured by a known technique for performing wireless communication, more detailed description of hardware and the like will be omitted.

通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に供給されてよい。通信部19が受信する各種の情報は、例えば記憶部13及び/又はコントローラ15に内蔵されたメモリに記憶してもよい。また、通信部19は、例えばコントローラ15による処理結果、認識部11による認識結果、及び/又は、記憶部13に記憶された情報などを外部に送信してもよい。 Various types of information received by the communication unit 19 may be supplied to, for example, the storage unit 13 and / or the controller 15. Various information received by the communication unit 19 may be stored in, for example, a memory built in the storage unit 13 and / or the controller 15. Further, the communication unit 19 may transmit, for example, the processing result by the controller 15, the recognition result by the recognition unit 11, and / or the information stored in the storage unit 13 to the outside.

図1に示すような、一実施形態に係る電子機器10を構成する各機能部の少なくとも一部は、ソフトウェアとハードウェア資源とが協働した具体的手段によって構成されてもよい。 As shown in FIG. 1, at least a part of each functional unit constituting the electronic device 10 according to the embodiment may be configured by a specific means in which software and hardware resources cooperate.

次に、一実施形態に係るシステム1の動作について説明する。 Next, the operation of the system 1 according to the embodiment will be described.

一実施形態に係るシステム1は、被監視対象T及び車椅子の位置(座標)から、被監視対象Tによる放置動作の開始を判定する動作を行ってよい。以下、上述の動作について、より詳細に説明する。 The system 1 according to one embodiment may perform an operation of determining the start of the neglected operation by the monitored object T from the positions (coordinates) of the monitored object T and the wheelchair. Hereinafter, the above-mentioned operation will be described in more detail.

図2は、一実施形態に係るシステム1の動作の一例を示すフローチャートである。図2は、一実施形態に係るシステム1に含まれる電子機器10の動作に焦点を当てたフローチャートとしてもよい。 FIG. 2 is a flowchart showing an example of the operation of the system 1 according to the embodiment. FIG. 2 may be a flowchart focusing on the operation of the electronic device 10 included in the system 1 according to the embodiment.

例えば認知症の発症が疑われる者など(例えば要看護者又は要介護者など)は、車椅子に乗って移動している最中に、その車椅子から立ち上がって歩き出してしまうことがある。このような場合、その者は、車椅子の存在を思い出せなくなり、その車椅子を放置してしまうリスクがある。車椅子が放置されると、もともと車椅子を使用していた者は、行方不明になるリスクがある。また、車椅子が放置されると、もともと車椅子を使用していた者は、安全でない場所に向かってしまうリスクもある。さらに、車椅子が放置されると、環境によっては、放置された車椅子が他人の邪魔になるのみならず、危険な状況を形成してしまうこともあり得る。したがって、車椅子が放置されようとしていること、又は、車椅子が放置されたことを他者に警告することは、車椅子を使用していた者(被監視対象)の安全に供し得るのみならず、車椅子の周囲環境の安全にも供し得る。一実施形態に係るシステム1においては、上述のようにして被監視対象Tのような人間が車椅子を放置する動作における被監視対象T及び車椅子の位置(座標)から、放置動作の開始を判定してよい。以下、このような動作について、より詳細に説明する。 For example, a person suspected of developing dementia (for example, a person requiring nursing care or a person requiring long-term care) may get up from the wheelchair and start walking while moving in a wheelchair. In such a case, the person cannot remember the existence of the wheelchair, and there is a risk that the wheelchair is left unattended. If the wheelchair is left unattended, those who originally used the wheelchair are at risk of going missing. Also, if the wheelchair is left unattended, there is a risk that the person who originally used the wheelchair will go to an unsafe place. Furthermore, if the wheelchair is left unattended, depending on the environment, the abandoned wheelchair may not only interfere with others but also create a dangerous situation. Therefore, warning others that the wheelchair is about to be left or that the wheelchair has been left can not only provide the safety of the person using the wheelchair (the subject to be monitored), but also the wheelchair. It can also be used for the safety of the surrounding environment. In the system 1 according to the embodiment, as described above, the start of the neglected operation is determined from the positions (coordinates) of the monitored object T and the wheelchair in the operation in which a person such as the monitored object T leaves the wheelchair. It's okay. Hereinafter, such an operation will be described in more detail.

図2に示す動作が開始する時点において、システム1の撮像部20は、例えば被監視対象Tのような人間及び/又は当該人間に関連する車椅子の撮像を開始していてよい。図2に示す動作が開始する時点は、撮像部20が例えば被監視対象Tのような人間及び/又は当該人間に関連する車椅子の撮像を開始した時点としてもよい。また、図2に示す動作が開始する時点は、撮像部20が撮像を開始してから、例えば被監視対象Tのような人間及び/又は当該人間に関連する車椅子が撮像部20の撮像範囲に入った時点としてもよい。 At the time when the operation shown in FIG. 2 starts, the imaging unit 20 of the system 1 may start imaging of a person such as the monitored target T and / or a wheelchair related to the person. The time point at which the operation shown in FIG. 2 starts may be the time when the image pickup unit 20 starts image pickup of a person such as the monitored target T and / or a wheelchair related to the person. Further, at the time when the operation shown in FIG. 2 starts, after the imaging unit 20 starts imaging, a person such as the monitored target T and / or a wheelchair related to the person is in the imaging range of the imaging unit 20. It may be the time of entry.

図2に示す動作が開始すると、電子機器10のコントローラ15は、撮像部20によって撮像された画像を取得する(ステップS11)。 When the operation shown in FIG. 2 starts, the controller 15 of the electronic device 10 acquires the image captured by the image pickup unit 20 (step S11).

図3は、図2に示したステップS11においてコントローラ15が取得した画像、すなわち撮像部20によって撮像された画像の例を示す図である。 FIG. 3 is a diagram showing an example of an image acquired by the controller 15 in step S11 shown in FIG. 2, that is, an image captured by the imaging unit 20.

図3に示すように、撮像部20は、例えば被監視対象Tのような人間が車椅子Wに着座している状態を撮像してよい。図3は、被監視対象Tが車椅子Wに着座している様子を模式的に示している。図3において、被監視対象T及び/又は車椅子Wは、移動していてもよいし、静止していてもよい。この場合、ステップS11において、コントローラ15は、被監視対象Tのような人間が車椅子Wに着座している画像を取得する。撮像部20は、被監視対象Tのような人間が車椅子Wに着座している状態以外の状態の画像を撮像してもよい。この場合、ステップS11において、コントローラ15は、被監視対象Tのような人間が車椅子Wに着座している状態以外の状態の画像を取得してもよい。 As shown in FIG. 3, the image pickup unit 20 may take an image of a state in which a person such as a monitored object T is seated in a wheelchair W. FIG. 3 schematically shows how the monitored object T is seated in the wheelchair W. In FIG. 3, the monitored object T and / or the wheelchair W may be moving or stationary. In this case, in step S11, the controller 15 acquires an image of a person such as the monitored target T sitting on the wheelchair W. The image pickup unit 20 may capture an image of a state other than the state in which a person such as the monitored target T is seated in the wheelchair W. In this case, in step S11, the controller 15 may acquire an image of a state other than the state in which a person such as the monitored target T is seated in the wheelchair W.

撮像部20は、秒間所定数のフレームの各画像を撮像するものとしてよい。ここで、撮像部20が撮像する画像は、連続するフレームの静止画としてもよいし、動画としてもよい。例えば、撮像部20は、秒間15フレームの画像を撮像するものとしてよい。ステップS11において、コントローラ15は、撮像部20によって撮像された秒間所定数のフレームの画像を取得してよい。 The image pickup unit 20 may capture each image of a predetermined number of frames per second. Here, the image captured by the image pickup unit 20 may be a still image of continuous frames or a moving image. For example, the image pickup unit 20 may capture an image of 15 frames per second. In step S11, the controller 15 may acquire images of a predetermined number of frames per second captured by the image pickup unit 20.

図4は、図2に示したステップS11においてコントローラ15が取得した画像、すなわち撮像部20によって撮像された画像の他の例を示す図である。 FIG. 4 is a diagram showing another example of the image acquired by the controller 15 in step S11 shown in FIG. 2, that is, the image captured by the imaging unit 20.

図4に示すように、撮像部20は、例えば被監視対象Tのような人間が車椅子Wから立ち上がって歩き出している状態を撮像してよい。図4は、被監視対象Tが車椅子Wから立ち上がって歩き出している様子を模式的に示している。図4において、被監視対象T及び/又は車椅子Wは、移動していてもよいし、静止していてもよい。この場合、ステップS11において、コントローラ15は、被監視対象Tのような人間及び車椅子Wを含む画像を取得する。撮像部20は、被監視対象Tのような人間が車椅子Wから立ち上がって歩き出している状態以外の状態の画像を撮像してもよい。この場合、ステップS11において、コントローラ15は、被監視対象Tのような人間が車椅子Wから立ち上がって歩き出している状態以外の状態の画像を取得してもよい。 As shown in FIG. 4, the image pickup unit 20 may take an image of a state in which a person such as a monitored object T stands up from the wheelchair W and starts walking. FIG. 4 schematically shows how the monitored object T stands up from the wheelchair W and starts walking. In FIG. 4, the monitored object T and / or the wheelchair W may be moving or stationary. In this case, in step S11, the controller 15 acquires an image including a person such as the monitored target T and the wheelchair W. The image pickup unit 20 may capture an image of a state other than the state in which a person such as the monitored target T stands up from the wheelchair W and starts walking. In this case, in step S11, the controller 15 may acquire an image of a state other than the state in which a person such as the monitored target T stands up from the wheelchair W and starts walking.

図2に示すように、ステップS11において撮像された画像を取得すると、認識部11は、被監視対象T及び被監視対象Tに関連する車椅子Wを画像認識する(ステップS12)。ステップS12における動作は、認識部11ではなく、コントローラ15が行ってもよい。 As shown in FIG. 2, when the image captured in step S11 is acquired, the recognition unit 11 recognizes the monitored target T and the wheelchair W related to the monitored target T (step S12). The operation in step S12 may be performed by the controller 15 instead of the recognition unit 11.

図5は、ステップS12において認識される被監視対象T及び車椅子Wの例を示す図である。図5は、図3に示した画像において、認識部11が被監視対象T及び車椅子Wを認識した様子を示している。 FIG. 5 is a diagram showing an example of the monitored object T and the wheelchair W recognized in step S12. FIG. 5 shows how the recognition unit 11 recognizes the monitored target T and the wheelchair W in the image shown in FIG.

ステップS12において、認識部11は、例えば図5に示すような被監視対象T及び車椅子Wを認識してよい。図5においては、範囲Tcにおいて被監視対象Tが認識され、範囲Wcにおいて車椅子Wが認識されている。認識部11は、例えば画像認識などの任意の技術によって、被監視対象T及び車椅子Wを認識してよい。撮像された画像において所定の物体を検出及び/又は認識する技術は種々知られているため、より詳細な説明は省略する。 In step S12, the recognition unit 11 may recognize the monitored object T and the wheelchair W as shown in FIG. 5, for example. In FIG. 5, the monitored object T is recognized in the range Tc, and the wheelchair W is recognized in the range Wc. The recognition unit 11 may recognize the monitored object T and the wheelchair W by any technique such as image recognition. Since various techniques for detecting and / or recognizing a predetermined object in the captured image are known, a more detailed description thereof will be omitted.

図6は、ステップS12において認識される被監視対象T及び車椅子Wの他の例を示す図である。図6は、図4に示した画像において、認識部11が被監視対象T及び車椅子Wを認識した様子を示している。 FIG. 6 is a diagram showing another example of the monitored object T and the wheelchair W recognized in step S12. FIG. 6 shows how the recognition unit 11 recognizes the monitored target T and the wheelchair W in the image shown in FIG.

ステップS12において、認識部11は、例えば図6に示すような被監視対象T及び車椅子Wを認識してもよい。図6においても、図5と同様に、範囲Tcにおいて被監視対象Tが認識され、範囲Wcにおいて車椅子Wが認識されている。 In step S12, the recognition unit 11 may recognize the monitored object T and the wheelchair W as shown in FIG. 6, for example. Also in FIG. 6, similarly to FIG. 5, the monitored target T is recognized in the range Tc, and the wheelchair W is recognized in the range Wc.

ステップS12において、認識部11は、図5及び図6に示すような被監視対象T及び車椅子Wにおける所定の特徴点を認識してもよい。また、認識部11は、図5及び図6に示す座標軸に従って、図5及び図6に示す被監視対象T及び車椅子Wを、2次元的に認識してもよい。また、認識部11は、被監視対象T及び車椅子Wを認識する際に、画像における被監視対象T及び車椅子Wの位置(例えば座標)を抽出してもよい。 In step S12, the recognition unit 11 may recognize predetermined feature points in the monitored object T and the wheelchair W as shown in FIGS. 5 and 6. Further, the recognition unit 11 may two-dimensionally recognize the monitored target T and the wheelchair W shown in FIGS. 5 and 6 according to the coordinate axes shown in FIGS. 5 and 6. Further, the recognition unit 11 may extract the positions (for example, coordinates) of the monitored object T and the wheelchair W in the image when recognizing the monitored object T and the wheelchair W.

ここで、撮像部20が秒間所定数のフレームの各画像を撮像する場合、図7に示すように、認識部11は、秒間所定数のフレームにおいて被監視対象T及び車椅子Wを認識してよい。また、コントローラ15が秒間所定数のフレームの画像を取得する場合も、認識部11は、秒間所定数のフレームにおいて被監視対象T及び車椅子Wを認識してよい。一例として、認識部11は、図7に示すように、被監視対象T及び車椅子Wを、秒間15のフレームにおいて認識してよい。また、例えば、認識部11は、図7に示すように、秒間所定数の各フレームにおいて、被監視対象T及び車椅子Wの位置(座標)を認識してもよい。 Here, when the imaging unit 20 captures each image of a predetermined number of frames per second, the recognition unit 11 may recognize the monitored target T and the wheelchair W in the predetermined number of frames per second, as shown in FIG. 7. .. Further, even when the controller 15 acquires images of a predetermined number of frames per second, the recognition unit 11 may recognize the monitored target T and the wheelchair W in the predetermined number of frames per second. As an example, as shown in FIG. 7, the recognition unit 11 may recognize the monitored object T and the wheelchair W in a frame of 15 seconds. Further, for example, as shown in FIG. 7, the recognition unit 11 may recognize the positions (coordinates) of the monitored target T and the wheelchair W in each predetermined number of frames per second.

このように、一実施形態において、認識部11は、撮像部20によって撮像された秒間所定数のフレームの各画像ごとに、被監視対象T及び車椅子Wの位置を2次元的に画像認識してもよい。 As described above, in one embodiment, the recognition unit 11 two-dimensionally recognizes the positions of the monitored target T and the wheelchair W for each image of a predetermined number of frames per second imaged by the image pickup unit 20. May be good.

ステップS12において被監視対象T及び車椅子Wが認識されたら、コントローラ15は、被監視対象T及び車椅子Wの座標を判定する(ステップS13)。 When the monitored target T and the wheelchair W are recognized in step S12, the controller 15 determines the coordinates of the monitored target T and the wheelchair W (step S13).

ステップS13において、コントローラ15は、被監視対象Tとして認識された範囲の中心、及び、車椅子Wとして認識された範囲の中心を、それぞれの座標と判定してもよい。また、ステップS13において、コントローラ15は、被監視対象Tとして認識された範囲の重心、及び、車椅子Wとして認識された範囲の重心を、それぞれの座標と判定してもよい。また、コントローラ15は、被監視対象Tとして認識された範囲の接地部分、及び、車椅子Wとして認識された範囲の接地部分を、それぞれの座標と判定してもよい。また、コントローラ15は、被監視対象Tとして認識された範囲の下端部分、及び、車椅子Wとして認識された範囲の下端部分を、それぞれの座標と判定してもよい。また、コントローラ15は、被監視対象Tとして認識された範囲の下端部分の中央、及び、車椅子Wとして認識された範囲の下端部分の中央を、それぞれの座標と判定してもよい。また、コントローラ15は、被監視対象T及び車椅子Wの座標として、上記のものをいずれか任意に組み合わせてもよい。 In step S13, the controller 15 may determine the center of the range recognized as the monitored target T and the center of the range recognized as the wheelchair W as the respective coordinates. Further, in step S13, the controller 15 may determine the center of gravity of the range recognized as the monitored target T and the center of gravity of the range recognized as the wheelchair W as the respective coordinates. Further, the controller 15 may determine the ground contact portion in the range recognized as the monitored target T and the ground contact portion in the range recognized as the wheelchair W as the respective coordinates. Further, the controller 15 may determine the lower end portion of the range recognized as the monitored target T and the lower end portion of the range recognized as the wheelchair W as the respective coordinates. Further, the controller 15 may determine the center of the lower end portion of the range recognized as the monitored target T and the center of the lower end portion of the range recognized as the wheelchair W as the respective coordinates. Further, the controller 15 may arbitrarily combine any of the above as the coordinates of the monitored object T and the wheelchair W.

ステップS13において被監視対象T及び車椅子Wの座標が判定されたら、コントローラ15は、次のステップS14に示す動作を行う。すなわち、ステップS14において、コントローラ15は、ステップS13において判定された被監視対象T及び車椅子Wの座標に基づいて、放置動作の開始を判定してよい。一実施形態において、コントローラ15は、ステップS14において、被監視対象T及び車椅子Wの座標が所定の条件を満たした場合に、放置動作の開始と判定してよい。以下、ステップS14において、放置動作の開始と判定される場合について、さらに説明する。 When the coordinates of the monitored object T and the wheelchair W are determined in step S13, the controller 15 performs the operation shown in the next step S14. That is, in step S14, the controller 15 may determine the start of the neglected operation based on the coordinates of the monitored object T and the wheelchair W determined in step S13. In one embodiment, the controller 15 may determine in step S14 that the neglected operation has started when the coordinates of the monitored object T and the wheelchair W satisfy predetermined conditions. Hereinafter, the case where it is determined to start the neglected operation in step S14 will be further described.

例えば、「放置動作の開始」と判定される場合とは、例えば図5に示すように車椅子Wに着座していた被監視対象Tが、例えば図6に示すような動きを開始して車椅子Wから所定以上に離れた状態を所定時間継続した時点としてよい。図5及び図6は、上述のように、ステップS12において被監視対象T及び車椅子Wが画像認識された様子を図示している。図5は、例えば被監視対象Tが車椅子Wに着座した状態であって、「放置動作の開始」と判定される前の状態を示すものとしてよい。 For example, when it is determined that "the start of the neglected operation", for example, the monitored object T sitting on the wheelchair W starts the movement as shown in FIG. 6, for example, the wheelchair W. A state separated from the wheelchair by a predetermined time or more may be set as a time point where the wheelchair is continued for a predetermined time. 5 and 6 show how the monitored object T and the wheelchair W are image-recognized in step S12 as described above. FIG. 5 may show, for example, a state in which the monitored object T is seated in the wheelchair W and before it is determined that “the start of the neglected operation”.

一般的に、図5に示す状態から被監視対象Tが放置動作を開始する場合、図6に示すように、被監視対象Tと車椅子Wとの距離D2が増大して所定の閾値th以上になる傾向にある。ここで、所定の閾値thとは、例えば被監視対象Tの身長を155cmに換算した場合に、5mとするなど任意の値としてよい。また、所定の閾値thとは、被監視対象Tの身長によらずに同じ値を用いてもよい。このように、一実施形態において、コントローラ15は、被監視対象Tと車椅子Wとの距離D2が増大して所定の閾値th以上になったら、「放置動作の開始」と判定してよい。 Generally, when the monitored object T starts the neglected operation from the state shown in FIG. 5, the distance D2 between the monitored object T and the wheelchair W increases to a predetermined threshold value th or more as shown in FIG. It tends to be. Here, the predetermined threshold value th may be any value such as 5 m when the height of the monitored target T is converted to 155 cm. Further, the same value may be used for the predetermined threshold value th regardless of the height of the monitored target T. As described above, in one embodiment, when the distance D2 between the monitored object T and the wheelchair W increases and becomes equal to or more than a predetermined threshold value th, the controller 15 may determine that “the start of the neglected operation”.

また、図6に示すように、被監視対象Tと車椅子Wとの距離D2が増大して所定の閾値th以上になった場合であっても、被監視対象Tがすぐに車椅子Wに戻って来れば、「放置動作の開始」ではないと判定してもよい。したがって、コントローラ15は、認識部11によって認識された被監視対象Tと車椅子Wとの距離D2が所定の閾値以上になった状態が所定時間Δt継続したら、「放置動作の開始」と判定してもよい。ここで、所定時間Δtは、例えば30秒とするなど任意の時間としてよい。また、コントローラ15は、認識部11によって認識された被監視対象Tと車椅子Wとの距離D2が増大して所定の閾値以上になった状態が所定時間Δt継続したら、「放置動作の開始」と判定してもよい。 Further, as shown in FIG. 6, even when the distance D2 between the monitored target T and the wheelchair W increases and becomes equal to or higher than a predetermined threshold value, the monitored target T immediately returns to the wheelchair W. If it comes, it may be determined that it is not "the start of the neglected operation". Therefore, the controller 15 determines that "the start of the neglected operation" is determined when the state in which the distance D2 between the monitored object T and the wheelchair W recognized by the recognition unit 11 exceeds a predetermined threshold value continues for a predetermined time Δt. May be good. Here, the predetermined time Δt may be any time, for example, 30 seconds. Further, when the distance D2 between the monitored object T and the wheelchair W recognized by the recognition unit 11 increases and becomes equal to or higher than a predetermined threshold value for a predetermined time Δt, the controller 15 determines that the operation is left unattended. You may judge.

ステップS14において、コントローラ15は、ステップS13にて判定された被監視対象T及び車椅子Wの座標に基づいて、放置動作の開始を判定してよい。上述のように、ステップS13において、コントローラ15は、被監視対象T及び車椅子Wの座標として、種々の座標を判定してよい。したがって、ステップS13において、コントローラ15は、被監視対象Tと車椅子Wとの距離として、被監視対象T及び車椅子Wの種々の座標に基づく種々の距離に基づいて、放置動作の開始を判定してよい。すなわち、ステップS13において、コントローラ15が判定処理に用いる「被監視対象Tと車椅子Wとの距離」とは、種々のものを想定し得る。 In step S14, the controller 15 may determine the start of the neglected operation based on the coordinates of the monitored object T and the wheelchair W determined in step S13. As described above, in step S13, the controller 15 may determine various coordinates as the coordinates of the monitored object T and the wheelchair W. Therefore, in step S13, the controller 15 determines that the start of the neglected operation is started based on various distances based on various coordinates of the monitored object T and the wheelchair W as the distance between the monitored object T and the wheelchair W. good. That is, in step S13, various "distances between the monitored target T and the wheelchair W" used by the controller 15 for the determination process can be assumed.

例えば、被監視対象Tと車椅子Wとの距離とは、被監視対象Tとして認識された範囲の重心と、車椅子Wとして認識された範囲の重心との距離としてもよい。また、被監視対象Tと車椅子Wとの距離とは、被監視対象Tとして認識された範囲の接地部分の任意の点と、車椅子Wとして認識された範囲の接地部分の任意の点との距離としてもよい。また、被監視対象Tと車椅子Wとの距離とは、被監視対象Tとして認識された範囲の下端部分の任意の点と、車椅子Wとして認識された範囲の下端部分の任意の点との距離としてもよい。また、被監視対象Tと車椅子Wとの距離とは、被監視対象Tとして認識された範囲の下端部分の中央と、車椅子Wとして認識された範囲の下端部分の中央との距離としてもよい。また、コントローラ15は、被監視対象T及び車椅子Wの座標として、上記のものをいずれか任意に組み合わせてもよい。 For example, the distance between the monitored target T and the wheelchair W may be the distance between the center of gravity of the range recognized as the monitored target T and the center of gravity of the range recognized as the wheelchair W. Further, the distance between the monitored target T and the wheelchair W is the distance between an arbitrary point in the ground contact portion in the range recognized as the monitored target T and an arbitrary point in the ground contact portion in the range recognized as the wheelchair W. May be. The distance between the monitored target T and the wheelchair W is the distance between an arbitrary point at the lower end of the range recognized as the monitored target T and an arbitrary point at the lower end of the range recognized as the wheelchair W. May be. Further, the distance between the monitored target T and the wheelchair W may be the distance between the center of the lower end portion of the range recognized as the monitored target T and the center of the lower end portion of the range recognized as the wheelchair W. Further, the controller 15 may arbitrarily combine any of the above as the coordinates of the monitored object T and the wheelchair W.

また、被監視対象Tと車椅子Wとの距離とは、例えば、被監視対象Tが地面と接地してする部分の任意の点と、車椅子Wが地面と接地する部分の任意の点との距離としてもよい。ここで、被監視対象Tが地面と接地してする部分とは、例えば被監視対象Tのつま先部分としてもよい。この場合、被監視対象Tが地面と接地してする部分とは、例えば被監視対象Tの左右のつま先部分の一方としてもよいし、左右のつま先部分の中点としてもよい。また、車椅子Wが地面と接地する部分とは、例えば車椅子Wの車輪部分としてもよい。この場合、車椅子Wが地面と接地する部分とは、例えば車椅子Wの車輪のいずれか1つが接地する点としてもよいし、全ての車輪がそれぞれ接地する点の中点としてもよい。このように、コントローラ15は、被監視対象Tのつま先と車椅子Wの車輪との距離を、被監視対象Tと車椅子Wとの距離としてもよい。 Further, the distance between the monitored target T and the wheelchair W is, for example, the distance between an arbitrary point of the portion where the monitored target T is in contact with the ground and an arbitrary point of the portion where the wheelchair W is in contact with the ground. May be. Here, the portion where the monitored target T is in contact with the ground may be, for example, the toe portion of the monitored target T. In this case, the portion where the monitored target T is in contact with the ground may be, for example, one of the left and right toe portions of the monitored target T, or may be the midpoint of the left and right toe portions. Further, the portion where the wheelchair W touches the ground may be, for example, the wheel portion of the wheelchair W. In this case, the portion where the wheelchair W touches the ground may be, for example, a point where any one of the wheels of the wheelchair W touches the ground, or may be a midpoint where all the wheels touch the ground. As described above, the controller 15 may set the distance between the toe of the monitored object T and the wheel of the wheelchair W as the distance between the monitored object T and the wheelchair W.

以上説明したような所定の閾値及び所定時間などは、予め記憶部13に記憶しておいてもよいし、ステップS14における判定までにコントローラ15が通信部19を介して取得してもよい。 The predetermined threshold value and the predetermined time as described above may be stored in the storage unit 13 in advance, or may be acquired by the controller 15 via the communication unit 19 by the determination in step S14.

図5において、被監視対象Tとして認識された範囲Tcの下端部分の中央は、中心線Tmによって示されている。また、車椅子Wとして認識された範囲Wcの下端部分の中央は、中心線Wmによって示されている。この場合、コントローラ15は、例えば、被監視対象T及び車椅子Wの座標を、それぞれ中心線Tm及び中心線Wm上の任意の位置と判定してもよい。図5に示す場合、被監視対象Tは車椅子Wに着座している状態のため、被監視対象Tと車椅子Wとの距離D1は、非常に小さな値になる。ここで、被監視対象Tと車椅子Wとの距離D1は、例えば、被監視対象Tとして認識された範囲Tcの下端部分の中央と、車椅子Wとして認識された範囲Wcの下端部分の中央との距離としてよい。 In FIG. 5, the center of the lower end portion of the range Tc recognized as the monitored target T is indicated by the center line Tm. Further, the center of the lower end portion of the range Wc recognized as the wheelchair W is indicated by the center line Wm. In this case, the controller 15 may determine, for example, the coordinates of the monitored object T and the wheelchair W as arbitrary positions on the center line Tm and the center line Wm, respectively. In the case shown in FIG. 5, since the monitored object T is seated in the wheelchair W, the distance D1 between the monitored object T and the wheelchair W becomes a very small value. Here, the distance D1 between the monitored object T and the wheelchair W is, for example, the center of the lower end portion of the range Tc recognized as the monitored target T and the center of the lower end portion of the range Wc recognized as the wheelchair W. It may be a distance.

図6においても、図5と同様に、被監視対象Tとして認識された範囲Tcの下端部分の中央は、中心線Tmによって示されている。また、車椅子Wとして認識された範囲Wcの下端部分の中央は、中心線Wmによって示されている。この場合、コントローラ15は、例えば、被監視対象T及び車椅子Wとの座標を、それぞれ中心線Tm及び中心線Wm上の任意の位置と判定してもよい。図6に示す場合、被監視対象Tは車椅子Wから立ち上がって歩き出している状態のため、被監視対象Tと車椅子Wとの距離D2は、図5に示した距離D1に比べて大きな値になる。ここで、被監視対象Tと車椅子Wとの距離D2は、例えば、被監視対象Tとして認識された範囲Tcの下端部分の中央と、車椅子Wとして認識された範囲Wcの下端部分の中央との距離としてよい。 Also in FIG. 6, similarly to FIG. 5, the center of the lower end portion of the range Tc recognized as the monitored target T is indicated by the center line Tm. Further, the center of the lower end portion of the range Wc recognized as the wheelchair W is indicated by the center line Wm. In this case, the controller 15 may determine, for example, the coordinates of the monitored target T and the wheelchair W as arbitrary positions on the center line Tm and the center line Wm, respectively. In the case shown in FIG. 6, since the monitored object T stands up from the wheelchair W and starts walking, the distance D2 between the monitored object T and the wheelchair W becomes a larger value than the distance D1 shown in FIG. Become. Here, the distance D2 between the monitored object T and the wheelchair W is, for example, the center of the lower end portion of the range Tc recognized as the monitored target T and the center of the lower end portion of the range Wc recognized as the wheelchair W. It may be a distance.

一実施形態において、コントローラ15は、例えば被監視対象Tと車椅子Wとの距離を判定してもよい。コントローラ15により判定される被監視対象Tと車椅子Wとの距離は、例えば画像における距離を算出してもよいし、画像に基づいて現実の距離を推定してもよい。画像において被監視対象Tと車椅子Wとの距離を算出すると、その距離は、例えば撮像部20と被監視対象Tとの距離、及び、撮像部20から被監視対象Tに向く方向などにも起因してばらつくことが想定される。一方、画像に基づいて被監視対象Tと車椅子Wとの現実の距離を推定すると、撮像の環境に起因するばらつきを抑えることができる。 In one embodiment, the controller 15 may determine, for example, the distance between the monitored object T and the wheelchair W. For the distance between the monitored object T and the wheelchair W determined by the controller 15, for example, the distance in the image may be calculated, or the actual distance may be estimated based on the image. When the distance between the monitored object T and the wheelchair W is calculated in the image, the distance is also caused by, for example, the distance between the imaging unit 20 and the monitored object T, and the direction from the imaging unit 20 toward the monitored object T. It is expected that it will vary. On the other hand, if the actual distance between the monitored object T and the wheelchair W is estimated based on the image, it is possible to suppress the variation caused by the imaging environment.

ここで、コントローラ15の動作について、図8及び図9を参照して、さらに説明する。例えばカメラのような撮像部20によって画像が撮像される場合、実際の環境における現実の距離と、撮像される画像における距離とで、見え方が異なり得る。そこで、一実施形態において、コントローラ15は、実際の環境における現実の距離と、撮像される画像における距離との見え方の違いを、学習することにより解決するものとしてよい。 Here, the operation of the controller 15 will be further described with reference to FIGS. 8 and 9. For example, when an image is captured by an image pickup unit 20 such as a camera, the appearance may differ depending on the actual distance in the actual environment and the distance in the image to be captured. Therefore, in one embodiment, the controller 15 may solve the difference in appearance between the actual distance in the actual environment and the distance in the captured image by learning.

例えば、図8に示すような実際の環境に設置された撮像部20によって、図9に示すような画像が撮像された例について説明する。 For example, an example in which an image as shown in FIG. 9 is captured by an image pickup unit 20 installed in an actual environment as shown in FIG. 8 will be described.

図8に示すように、例えば部屋又は通路のような環境において、その天井部にカメラのような撮像部20が設置されているとする。この撮像部20は、図8に示す部屋又は通路の奥行方向に平行な方向に向けて設置されているものとする(以下、撮像部20の向く方向を「撮像方向」と記す)。このような環境において、図8に示すように、最初は手前側に存在した人間(被監視対象T1)が、撮像方向に沿って奥側に例えば5m移動したとする(被監視対象T1’)。ここで、図8に示すように、被監視対象T1の位置における所定の距離D1と、被監視対象T1’の位置における所定の距離D1’とは、同じ長さの距離を示すものとする。 As shown in FIG. 8, it is assumed that an image pickup unit 20 such as a camera is installed on the ceiling thereof in an environment such as a room or a passage. It is assumed that the image pickup unit 20 is installed in a direction parallel to the depth direction of the room or passage shown in FIG. 8 (hereinafter, the direction in which the image pickup unit 20 faces is referred to as "imaging direction"). In such an environment, as shown in FIG. 8, it is assumed that the human being (monitored target T1) initially present on the front side moves to the back side, for example, 5 m along the imaging direction (monitored target T1'). .. Here, as shown in FIG. 8, the predetermined distance D1 at the position of the monitored target T1 and the predetermined distance D1'at the position of the monitored target T1'indicate the same length.

図9は、図8に示すような実際の環境を撮像部20によって撮像した画像の例を示している。すなわち、図8に示す実際の環境における被監視対象T1は、図9に示す撮像した画像における被監視対象T1を示している。同様に、図8に示す実際の環境における被監視対象T1’は、図9に示す撮像した画像における被監視対象T1’を示している。図9において、被監視対象T1の位置における所定の距離D1と、被監視対象T1’の位置における所定の距離D1’とは、現実には同じ長さの距離を示している。 FIG. 9 shows an example of an image captured by the imaging unit 20 in an actual environment as shown in FIG. That is, the monitored target T1 in the actual environment shown in FIG. 8 indicates the monitored target T1 in the captured image shown in FIG. Similarly, the monitored target T1'in the actual environment shown in FIG. 8 indicates the monitored target T1'in the captured image shown in FIG. In FIG. 9, a predetermined distance D1 at the position of the monitored target T1 and a predetermined distance D1'at the position of the monitored target T1'actually indicate distances of the same length.

図8及び図9に示す被監視対象T1の位置のように、撮像部20から比較的近いところにおいては、例えば被監視対象T1が動く場合に、撮像部20によって撮像される画像における座標の移動(例えば1画素あたりの距離)は大きくなる。一方、図8及び図9に示す被監視対象T1’の位置のように、撮像部20から比較的遠いところにおいては、例えば撮像方向に沿って奥側に動く場合に、撮像部20によって撮像される画像における座標の移動(例えば1画素あたりの距離)も小さくなる。 At a location relatively close to the image pickup unit 20, such as the position of the monitored object T1 shown in FIGS. 8 and 9, for example, when the monitored object T1 moves, the movement of coordinates in the image captured by the image pickup unit 20 (For example, the distance per pixel) becomes large. On the other hand, in a place relatively far from the image pickup unit 20, such as the position of the monitored target T1'shown in FIGS. 8 and 9, when the image is moved to the back side along the image pickup direction, the image is captured by the image pickup unit 20. The movement of coordinates (for example, the distance per pixel) in the image is also small.

以上のような原理に基づいて、一実施形態において、コントローラ15は、実際の環境における現実の距離と、撮像される画像における距離との見え方の違いを、学習することにより解決することができる。また、実際の環境における現実の距離と、撮像される画像における距離との見え方の差異は、所定の環境において、所定の条件のもと、同じ結果になる。例えば、上述のような差異は、建物内など床面に傾斜がない環境において、カメラの画角、カメラの仰俯角、カメラの設置高、カメラの解像度、及び対象の座標が同じであれば、同じ結果になる。このため、上述のような差異は、予め実測しておくことにより解決してもよい。 Based on the above principle, in one embodiment, the controller 15 can solve the difference in appearance between the actual distance in the actual environment and the distance in the captured image by learning. .. Further, the difference in appearance between the actual distance in the actual environment and the distance in the captured image gives the same result in a predetermined environment under a predetermined condition. For example, the above-mentioned difference is that if the angle of view of the camera, the elevation / depression angle of the camera, the installation height of the camera, the resolution of the camera, and the coordinates of the target are the same in an environment where the floor surface is not inclined, such as in a building. Same result. Therefore, the above-mentioned difference may be solved by actually measuring the difference in advance.

また、コントローラ15は、被監視対象T及び車椅子Wの座標を判定する場合、被監視対象T及び車椅子Wそれぞれにおける任意の箇所、又は特徴点などを抽出してもよい。コントローラ15は、被監視対象T及び車椅子Wのそれぞれを1点の座標(例えば中心又は重心など)として判定してもよい。また、コントローラ15は、被監視対象T及び車椅子Wのそれぞれを複数の点を含む点群として判定してもよい。コントローラ15は、被監視対象T及び車椅子Wのそれぞれを複数の点を含む点群として判定する場合、それぞれの点群の中心又は重心などを1点の座標として判定してもよい。 Further, when the controller 15 determines the coordinates of the monitored target T and the wheelchair W, the controller 15 may extract arbitrary points or feature points in each of the monitored target T and the wheelchair W. The controller 15 may determine each of the monitored object T and the wheelchair W as the coordinates of one point (for example, the center or the center of gravity). Further, the controller 15 may determine each of the monitored target T and the wheelchair W as a point cloud including a plurality of points. When the controller 15 determines each of the monitored target T and the wheelchair W as a point cloud including a plurality of points, the controller 15 may determine the center or the center of gravity of each point cloud as the coordinates of one point.

ステップS14において放置動作の開始と判定された場合、すなわち、放置動作がこれから開始するリスクが高まった場合、又は放置動作が開始していると想定される場合、コントローラ15は、所定の警告信号を出力する(ステップS15)。ステップS15において、コントローラ15は、所定の警告信号を警告部17に出力してよい。これにより、警告部17は、所定の警告を発することができる。このように、コントローラ15は、放置動作の開始と判定したら、所定の警告信号を出力してよい。 When it is determined in step S14 that the neglected operation has started, that is, when the risk of the neglected operation starting from now on increases, or when it is assumed that the neglected operation has started, the controller 15 issues a predetermined warning signal. Output (step S15). In step S15, the controller 15 may output a predetermined warning signal to the warning unit 17. As a result, the warning unit 17 can issue a predetermined warning. In this way, the controller 15 may output a predetermined warning signal when it is determined that the neglected operation has started.

一方、ステップS14において放置動作の開始と判定されない場合、コントローラ15は、ステップS15の動作をスキップして、図2に示す動作を終了してよい。この場合、放置動作が開始していない、又は、放置動作がこれから開始するリスクが高まっていない、と想定され得る。図2に示す動作が終了すると、コントローラ15は、再び図2に示す動作を開始してよい。例えば、コントローラ15は、画像データから座標が認識されるごとに、図2に示す動作を繰り返してもよい。すなわち、例えば認識部11が秒間15フレームの画像データから被監視対象T及び車椅子Wを認識する場合、コントローラ15は、ステップS25における放置動作の開始の判定を秒間15回行ってもよい。 On the other hand, if it is not determined in step S14 that the neglected operation has started, the controller 15 may skip the operation in step S15 and end the operation shown in FIG. In this case, it can be assumed that the neglected operation has not started, or the risk that the neglected operation will start from now on has not increased. When the operation shown in FIG. 2 is completed, the controller 15 may start the operation shown in FIG. 2 again. For example, the controller 15 may repeat the operation shown in FIG. 2 every time the coordinates are recognized from the image data. That is, for example, when the recognition unit 11 recognizes the monitored target T and the wheelchair W from the image data of 15 frames per second, the controller 15 may determine the start of the neglected operation in step S25 15 times per second.

このように、一実施形態において、コントローラ15は、認識部11によって認識された被監視対象T及び車椅子Wの位置(座標)に基づいて、放置動作の開始を判定してよい。また、認識部11は、撮像部20によって撮像された単位時間当たり所定数のフレームの画像から被監視対象T及び車椅子Wの位置を認識してもよい。この場合、コントローラ15は、認識部11によって認識された被監視対象T及び車椅子Wの位置から、放置動作の開始を判定してもよい。 As described above, in one embodiment, the controller 15 may determine the start of the neglected operation based on the positions (coordinates) of the monitored object T and the wheelchair W recognized by the recognition unit 11. Further, the recognition unit 11 may recognize the positions of the monitored target T and the wheelchair W from the images of a predetermined number of frames per unit time captured by the image pickup unit 20. In this case, the controller 15 may determine the start of the neglected operation from the positions of the monitored object T and the wheelchair W recognized by the recognition unit 11.

図2に示すように、コントローラ15は、ステップS14において放置動作の開始を判定したら直ちに、ステップS15において所定の警告信号を出力してよい。このため、コントローラ15は、実際の放置動作が完了する前に、所定の警告信号を出力してよい。このように、コントローラ15は、放置動作の開始を判定したら、放置動作の完了前に、所定の警告信号を出力してもよい。また、コントローラ15は、可能な場合には、実際の放置動作が開始する前に、所定の警告信号を出力してもよい。このように、コントローラ15は、放置動作の開始を判定したら、放置動作の開始前に、所定の警告信号を出力してもよい。 As shown in FIG. 2, the controller 15 may output a predetermined warning signal in step S15 immediately after determining the start of the neglected operation in step S14. Therefore, the controller 15 may output a predetermined warning signal before the actual neglected operation is completed. As described above, the controller 15 may output a predetermined warning signal after determining the start of the neglected operation and before the completion of the neglected operation. Further, if possible, the controller 15 may output a predetermined warning signal before the actual neglected operation starts. In this way, after determining the start of the neglected operation, the controller 15 may output a predetermined warning signal before the start of the neglected operation.

一実施形態に係るシステム1によれば、例えば被監視対象Tのような人間が着座していた車椅子Wを放置する動作における人間及び車椅子Wの位置に基づいて、放置動作の開始を判定することができる。したがって、一実施形態に係るシステム1によれば、被監視対象Tが車椅子Wを放置しようとしている場合又は放置した場合に、その放置動作が終了する前又は終了した後に、所定の警告を発することができる。したがって、一実施形態に係るシステム1によれば、例えば介護施設などのスタッフは、例えば要看護者又は要介護者などのような被監視者が車椅子を放置する前又は放置した後に、被監視者が車椅子を放置しようとしていること又は放置したことを認識し得る。このため、一実施形態に係るシステム1によれば、被監視対象Tの安全に供し得る。 According to the system 1 according to the embodiment, the start of the leaving operation is determined based on the positions of the person and the wheelchair W in the operation of leaving the wheelchair W on which the person is seated, for example, the monitored object T. Can be done. Therefore, according to the system 1 according to the embodiment, when the monitored object T intends to leave the wheelchair W, or when the wheelchair W is left unattended, a predetermined warning is issued before or after the unattended operation is completed. Can be done. Therefore, according to the system 1 according to the embodiment, the staff of a nursing care facility, for example, is a person to be monitored before or after the person to be monitored, such as a nurse or a person requiring nursing care, leaves the wheelchair. Can recognize that he is about to leave the wheelchair or has left it. Therefore, according to the system 1 according to the embodiment, the monitored target T can be safely provided.

図10は、図2のステップS14において説明した判定処理をさらに説明する図である。図10は、左側の列において、例えば図2のステップS11において取得された画像データに撮像された被監視対象Tの状態を示している。図10に示すように、撮像された画像データにおいて、被監視対象Tは、撮像部20が設置された部屋に入室して車椅子Wに座っている状態の後、立っている状態となり、それから車椅子Wから離れている状態になったとする。車椅子Wから離れて放置動作が開始した瞬間から、コントローラ15は、図2に示したステップS11以降の動作を、秒間15フレームの処理として行うものとする。すなわち、システム1において、撮像部20は、秒間15フレームの画像を撮像するものとしてよい。また、システム1において、コントローラ15は、秒間15フレームの画像を取得するものとしてよい。また、システム1において、認識部11は、秒間15フレームの画像から、被監視対象T及び車椅子Wを画像認識するものとしてよい。また、システム1において、コントローラ15は、秒間15フレームの画像から認識された被監視対象T及び車椅子Wの座標を判定するものとしてよい。さらに、システム1において、コントローラ15は、秒間15フレームの被監視対象T及び車椅子Wの座標に基づいて、放置動作の開始を判定してよい。 FIG. 10 is a diagram further explaining the determination process described in step S14 of FIG. FIG. 10 shows the state of the monitored target T captured in the image data acquired in step S11 of FIG. 2, for example, in the left column. As shown in FIG. 10, in the captured image data, the monitored target T enters the room in which the imaging unit 20 is installed, sits in the wheelchair W, then stands, and then the wheelchair. It is assumed that the user is away from W. From the moment when the wheelchair W is separated from the wheelchair W and the neglected operation starts, the controller 15 shall perform the operation after step S11 shown in FIG. 2 as a process of 15 frames per second. That is, in the system 1, the image pickup unit 20 may capture an image of 15 frames per second. Further, in the system 1, the controller 15 may acquire an image of 15 frames per second. Further, in the system 1, the recognition unit 11 may recognize the monitored target T and the wheelchair W from the images of 15 frames per second. Further, in the system 1, the controller 15 may determine the coordinates of the monitored object T and the wheelchair W recognized from the image of 15 frames per second. Further, in the system 1, the controller 15 may determine the start of the neglected operation based on the coordinates of the monitored object T and the wheelchair W at 15 frames per second.

図10の中央の列において、コントローラ15が画像データのフレームを連続して取得する様子を概念的に示してある。ここで、各フレームの画像データは、画像データから認識(又は抽出)された位置又は座標としてもよい。また、図10の中央の列において、ハッチングを付した画像データは、放置動作が開始してから1秒間のフレームを表しているものとしてよい。 In the central column of FIG. 10, a state in which the controller 15 continuously acquires frames of image data is conceptually shown. Here, the image data of each frame may be a position or coordinates recognized (or extracted) from the image data. Further, in the central column of FIG. 10, the hatched image data may represent a frame for one second after the start of the neglected operation.

このような状況において、コントローラ15は、放置動作が開始してから1秒間のフレーム(フレーム1からフレーム15まで)に基づいて、その時点における放置動作の開始を判定してよい(図10に示す判定1)。次に、コントローラ15は、フレーム2からフレーム16までフレームに基づいて、その時点における放置動作の開始を判定してよい(図10に示す判定2)。以上のような動作を繰り返すことにより、コントローラ15は、放置動作の開始の判定を、秒間15回行うことになる。したがって、一実施形態に係るシステム1によれば、例えば図10に示す判定1及び判定2において何らかの原因により本来判定されるべき放置動作の開始が判定されなかったとしても、秒間15回の判定によって失報のリスクを低減することができる。 In such a situation, the controller 15 may determine the start of the neglected operation at that time based on the frame (frames 1 to 15) for 1 second after the neglected operation starts (shown in FIG. 10). Judgment 1). Next, the controller 15 may determine the start of the neglected operation at that time based on the frames from the frame 2 to the frame 16 (determination 2 shown in FIG. 10). By repeating the above operation, the controller 15 determines the start of the neglected operation 15 times per second. Therefore, according to the system 1 according to the embodiment, even if the start of the neglected operation that should be originally determined is not determined in the determination 1 and the determination 2 shown in FIG. 10, for example, the determination is performed 15 times per second. The risk of misreporting can be reduced.

上述した実施形態において、システム1は、秒間15フレームを処理する例について説明した。しかしながら、一実施形態において、システム1又はシステム1を構成する各機能部は、秒間15よりも多くのフレームを処理してもよいし、秒間15よりも少ないフレームを処理してもよい。一実施形態において、システム1が扱う関節点の数及び/又は処理するフレームの数は、放置動作の開始の判定が妥当な結果になるように調整してもよい。 In the above-described embodiment, the system 1 has described an example of processing 15 frames per second. However, in one embodiment, the system 1 or each functional unit constituting the system 1 may process more than 15 frames per second or may process less than 15 frames per second. In one embodiment, the number of joint points handled by the system 1 and / or the number of frames processed may be adjusted so that the determination of the start of the neglected operation gives a reasonable result.

上記実施形態においては、撮像された画像データを用いているため、可視光を検出対象として用いて監視を行った。しかしながら、本開示は、このような場合に限定されず、任意の電磁波、音波、温度、振動など、他の検出対象を任意に用いてもよい。 In the above embodiment, since the captured image data is used, visible light is used as a detection target for monitoring. However, the present disclosure is not limited to such cases, and other detection targets such as arbitrary electromagnetic waves, sound waves, temperatures, and vibrations may be arbitrarily used.

本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態について装置を中心に説明してきたが、本開示に係る実施形態は装置の各構成部が実行するステップを含む方法としても実現し得るものである。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。 Although the embodiments according to the present disclosure have been described based on the drawings and examples, it should be noted that those skilled in the art can easily make various modifications or modifications based on the present disclosure. It should be noted, therefore, that these modifications or modifications are within the scope of this disclosure. For example, the functions included in each component or each step can be rearranged so as not to be logically inconsistent, and a plurality of components or steps can be combined or divided into one. Is. Although the embodiment according to the present disclosure has been mainly described with respect to the apparatus, the embodiment according to the present disclosure can also be realized as a method including steps executed by each component of the apparatus. The embodiments according to the present disclosure can also be realized as a method, a program, or a storage medium on which a program is recorded, which is executed by a processor included in the apparatus. It should be understood that these are also included in the scope of this disclosure.

上述した実施形態は、システム1としての実施のみに限定されるものではない。例えば、上述した実施形態は、システム1に含まれる電子機器10として実施してもよい。また、上述した実施形態は、例えば、電子機器10のような機器による監視方法として実施してもよい。さらに、上述した実施形態は、例えば、電子機器10のような機器又は情報処理装置(例えばコンピュータ)が実行するプログラムとして実施してもよい。また、本開示の技術において、図1に示される電子機器10の各構成要素の全てが1つの筐体又はサーバなどに存在しなくてもよい。例えば、電子機器10の構成要素のコントローラ及び/又は記憶部などの各部が、互いに有線若しくは無線又はこれらの組み合わせからなるネットワークにより接続されてもよい。この場合、電子機器10の構成要素の各部は、異なる筐体、サーバ、装置、部屋、ビル、地域、又は国などに任意に配置されているとしてもよい。 The above-described embodiment is not limited to the implementation as the system 1. For example, the above-described embodiment may be implemented as an electronic device 10 included in the system 1. Further, the above-described embodiment may be implemented as a monitoring method using a device such as an electronic device 10. Further, the above-described embodiment may be implemented as a program executed by, for example, a device such as an electronic device 10 or an information processing device (for example, a computer). Further, in the technique of the present disclosure, not all of the components of the electronic device 10 shown in FIG. 1 need be present in one housing or server. For example, each part such as a controller and / or a storage part of a component of an electronic device 10 may be connected to each other by a network consisting of a wired or wireless device or a combination thereof. In this case, each part of the component of the electronic device 10 may be arbitrarily arranged in a different housing, server, device, room, building, region, country, or the like.

1 システム
10 電子機器
11 認識部
13 記憶部
15 コントローラ
17 警告部
19 通信部
20 撮像部

1 System 10 Electronic equipment 11 Recognition unit 13 Storage unit 15 Controller 17 Warning unit 19 Communication unit 20 Imaging unit

Claims (8)

画像を撮像する撮像部と、
前記撮像部によって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識部と、
前記認識部によって認識された前記被監視対象と前記車椅子との距離が所定の閾値以上になった状態が所定時間継続したら、所定の警告信号を出力するコントローラと、
を備えるシステム。
An image pickup unit that captures images and
A recognition unit that recognizes a monitored object and a wheelchair related to the monitored object in the image captured by the imaging unit, and a recognition unit.
A controller that outputs a predetermined warning signal when the distance between the monitored object and the wheelchair recognized by the recognition unit exceeds a predetermined threshold value continues for a predetermined time.
A system equipped with.
前記コントローラは、前記被監視対象のつま先と前記車椅子の車輪との距離を、前記被監視対象と前記車椅子との距離とする、請求項1に記載のシステム。 The system according to claim 1, wherein the controller sets the distance between the toe of the monitored object and the wheel of the wheelchair as the distance between the monitored object and the wheelchair. 前記認識部は、前記撮像部によって撮像された単位時間当たり所定数のフレームの画像から前記被監視対象及び前記車椅子を認識する、請求項1又は2に記載のシステム。 The system according to claim 1 or 2, wherein the recognition unit recognizes the monitored object and the wheelchair from images of a predetermined number of frames per unit time captured by the image pickup unit. 前記認識部は、前記撮像部によって撮像された秒間所定数のフレームの各画像ごとに、前記被監視対象及び前記車椅子の位置を2次元的に画像認識する、請求項1から3のいずれかに記載のシステム。 The recognition unit is one of claims 1 to 3, wherein the recognition unit two-dimensionally recognizes the positions of the monitored object and the wheelchair for each image of a predetermined number of frames per second captured by the image pickup unit. The system described. 前記コントローラは、前記所定の警告信号の出力の妥当性が所定以上になるように、前記フレームの数を決定する、請求項3又は4に記載のシステム。 The system according to claim 3 or 4, wherein the controller determines the number of frames so that the validity of the output of the predetermined warning signal is equal to or higher than a predetermined value. 撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識部と、
前記認識部によって認識された前記被監視対象と前記車椅子との距離が所定の閾値以上になった状態が所定時間継続したら、所定の警告信号を出力するコントローラと、
を備える電子機器。
A recognition unit that recognizes the monitored object and the wheelchair related to the monitored object in the captured image, and
A controller that outputs a predetermined warning signal when the distance between the monitored object and the wheelchair recognized by the recognition unit exceeds a predetermined threshold value continues for a predetermined time.
Electronic equipment equipped with.
画像を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識ステップと、
前記認識ステップによって認識された前記被監視対象と前記車椅子との距離が所定の閾値以上になった状態が所定時間継続したら、所定の警告信号を出力する出力ステップと、
を含む、電子機器の制御方法。
An imaging step to capture an image and
A recognition step for recognizing a monitored object and a wheelchair related to the monitored object in the image captured by the imaging step.
An output step that outputs a predetermined warning signal when the state in which the distance between the monitored object and the wheelchair recognized by the recognition step exceeds a predetermined threshold value continues for a predetermined time,
How to control electronic devices, including.
コンピュータに、
画像を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像において被監視対象及び前記被監視対象に関連する車椅子を認識する認識ステップと、
前記認識ステップによって認識された前記被監視対象と前記車椅子との距離が所定の閾値以上になった状態が所定時間継続したら、所定の警告信号を出力する出力ステップと、
を実行させる、プログラム。
On the computer
An imaging step to capture an image and
A recognition step for recognizing a monitored object and a wheelchair related to the monitored object in the image captured by the imaging step.
An output step that outputs a predetermined warning signal when the state in which the distance between the monitored object and the wheelchair recognized by the recognition step exceeds a predetermined threshold value continues for a predetermined time,
A program that runs.
JP2020162744A 2020-09-28 2020-09-28 System, electronic apparatus, method for controlling electronic apparatus, and program Pending JP2022055254A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020162744A JP2022055254A (en) 2020-09-28 2020-09-28 System, electronic apparatus, method for controlling electronic apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020162744A JP2022055254A (en) 2020-09-28 2020-09-28 System, electronic apparatus, method for controlling electronic apparatus, and program

Publications (1)

Publication Number Publication Date
JP2022055254A true JP2022055254A (en) 2022-04-07

Family

ID=80998170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020162744A Pending JP2022055254A (en) 2020-09-28 2020-09-28 System, electronic apparatus, method for controlling electronic apparatus, and program

Country Status (1)

Country Link
JP (1) JP2022055254A (en)

Similar Documents

Publication Publication Date Title
WO2015133195A1 (en) Information processing device, information processing method, and program
JP6150207B2 (en) Monitoring system
JP6115692B1 (en) Behavior detecting device, method and program, and monitored person monitoring device
US20160321903A1 (en) A method for responding to a detected fall and an apparatus for implementing the same
JP6123971B1 (en) Monitored person monitoring system, monitored person monitoring apparatus, and monitored person monitoring method
JP6852733B2 (en) Living body monitoring device and living body monitoring method
TWI541769B (en) Falling down detecting systems and method
JP2022055254A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JPWO2018012432A1 (en) Behavior determination apparatus and behavior determination method
JPWO2017081995A1 (en) Monitored person monitoring apparatus and method, and monitored person monitoring system
JPWO2020008726A1 (en) Target object detection program and target object detection device
JP7047945B2 (en) Information processing equipment, information processing methods, and programs
JP7449212B2 (en) Systems, electronic devices, control methods for electronic devices, and programs
JP6645503B2 (en) Image analysis device, image analysis method, and image analysis program
JP7449211B2 (en) Systems, electronic devices, control methods for electronic devices, and programs
WO2016181731A1 (en) Fall detecting device, fall detecting method, and device for monitoring person to be monitored
JP2022055251A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022055248A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022039815A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
WO2021033597A1 (en) Image processing system, image processing program, and image processing method
JP2021179723A (en) Monitoring system, monitoring device, monitoring method, and program
JP2019204366A (en) Action monitoring system and action monitoring method
JP2022050269A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022050268A (en) System, electronic apparatus, method for controlling electronic apparatus, and program
JP2022039814A (en) System, electronic apparatus, method for controlling electronic apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240423