JP2020013185A - Watching device and watching device control program - Google Patents
Watching device and watching device control program Download PDFInfo
- Publication number
- JP2020013185A JP2020013185A JP2018132996A JP2018132996A JP2020013185A JP 2020013185 A JP2020013185 A JP 2020013185A JP 2018132996 A JP2018132996 A JP 2018132996A JP 2018132996 A JP2018132996 A JP 2018132996A JP 2020013185 A JP2020013185 A JP 2020013185A
- Authority
- JP
- Japan
- Prior art keywords
- event
- unit
- predetermined
- occurred
- predetermined event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Interconnected Communication Systems, Intercoms, And Interphones (AREA)
- Accommodation For Nursing Or Treatment Tables (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
Abstract
Description
本発明は、見守り装置および見守り装置の制御プログラムに関する。 The present invention relates to a watching device and a control program for the watching device.
我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著になっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我および加齢等により、介護を必要とする要介護者等の増加が想定される。 In Japan, the prolongation of life has become remarkable due to the improvement of living standards, the improvement of sanitary conditions, and the improvement of medical standards accompanying the high economic growth after the war. For this reason, coupled with a decrease in the birth rate, the aging society has a high aging rate. In such an aging society, an increase in the number of care recipients who need nursing care is expected due to illness, injury, and aging.
要介護者等である介護等の対象者は、病院や老人福祉施設等の施設において、歩行中に転倒したり、ベッドから転落して怪我をしたりする虞がある。このため、対象者がこのような状態になった場合に介護士や看護師等がすぐに駆けつけられるように、対象者の状態を検出するためのシステムの開発が進められている。 There is a risk that a target person, such as a care recipient, may fall during walking or fall from a bed and be injured in a facility such as a hospital or a welfare facility for the elderly. For this reason, a system for detecting the state of the subject has been developed so that a caregiver, a nurse, or the like can immediately rush when the subject is in such a state.
このようなシステムとして、特許文献1に開示されたナースコールシステムでは、患者のベッドに対して設置されたカメラの撮影映像から、患者の起床または離床が行われたか否かが判定される。そして、起床または離床が行われた場合、ナースステーションに設けられたナースコール親機に、カメラの撮影映像が表示される。 As such a system, in the nurse call system disclosed in Patent Literature 1, it is determined whether or not the patient has woken or woken up from a captured image of a camera installed on the patient's bed. Then, when the user wakes up or gets out of the bed, an image captured by the camera is displayed on the nurse call master provided at the nurse station.
しかし、特許文献1に開示されたシステムは、患者の行動以外の行動を監視できない。近年では、老人福祉施設等の施設において、暴力や虐待等の不適切な行為(以下、纏めて「暴力行為等」と称する)が問題になっているが、特許文献1に開示されたシステムは、このような暴力行為等を抑止できないという問題がある。 However, the system disclosed in Patent Literature 1 cannot monitor actions other than the actions of the patient. In recent years, inappropriate acts such as violence and abuse (hereinafter collectively referred to as “violent acts”) have become a problem in facilities such as welfare facilities for the elderly. However, the system disclosed in Patent Document 1 However, there is a problem that such violent acts cannot be deterred.
本発明は、上述した課題に鑑みてなされたものである。したがって、本発明の目的は、施設における暴力行為等を抑止する見守り装置および見守り装置の制御プログラムを提供することである。 The present invention has been made in view of the above-mentioned problems. Therefore, an object of the present invention is to provide a watching device that suppresses violence in a facility and a control program for the watching device.
本発明の上記の目的は、下記の手段によって達成される。 The above object of the present invention is achieved by the following means.
(1)見守り対象である対象者に関する所定のイベントの発生を通知する見守り装置であって、前記対象者に関する情報を取得する情報取得部と、前記情報取得部によって取得された前記情報に基づいて、前記対象者を含む複数人に関する所定のイベントが発生したか否かを判定するイベント判定部と、前記イベント判定部によって前記複数人に関する所定のイベントが発生したと判定された場合、前記複数人に関する所定のイベントの発生を通知するイベント通知部と、を有する見守り装置。 (1) A monitoring device that notifies the occurrence of a predetermined event regarding a target person to be monitored, based on an information acquisition unit that acquires information about the target person, based on the information acquired by the information acquisition unit. An event determination unit that determines whether a predetermined event related to a plurality of persons including the target person has occurred; and if the event determination unit determines that the predetermined event related to the plurality of people has occurred, the plurality of persons A monitoring device having an event notification unit configured to notify occurrence of a predetermined event related to the monitoring.
(2)前記情報取得部は、前記対象者に関する画像を取得し、前記イベント判定部は、前記情報取得部によって取得された前記画像に基づいて、前記複数人に関する所定のイベントが発生したか否かを判定する上記(1)に記載の見守り装置。 (2) The information acquisition unit acquires an image related to the target person, and the event determination unit determines whether a predetermined event related to the plurality of persons has occurred based on the image acquired by the information acquisition unit. The watching device according to the above (1), which determines whether or not the watching is performed.
(3)前記イベント判定部は、前記情報取得部によって取得された前記画像において抽出される、前記対象者を含む前記複数人のうちの少なくとも一人の人物の領域のエッジの移動速度を確認し、前記エッジの少なくとも一部の移動速度が所定の速度以上である場合、前記複数人に関する所定のイベントが発生したと判定し、前記エッジの少なくとも一部の移動速度が前記所定の速度未満である場合、前記複数人に関する所定のイベントが発生していないと判定する上記(2)に記載の見守り装置。 (3) the event determination unit confirms a moving speed of an edge of an area of at least one of the plurality of persons including the target person, which is extracted in the image acquired by the information acquisition unit; When the moving speed of at least a part of the edge is equal to or higher than a predetermined speed, it is determined that a predetermined event regarding the plurality of persons has occurred, and when the moving speed of at least a part of the edge is lower than the predetermined speed. The watching device according to (2), wherein it is determined that the predetermined event relating to the plurality of persons has not occurred.
(4)前記イベント判定部は、前記情報取得部によって取得された前記画像において抽出される、前記対象者を含む前記複数人のうちの少なくとも一人の人物の領域のエッジが移動する軌跡を確認し、前記エッジの少なくとも一部が所定の領域を繰り返し移動する場合、前記複数人に関する所定のイベントが発生したと判定し、前記エッジの少なくとも一部が前記所定の領域を繰り返し移動しない場合、前記複数人に関する所定のイベントが発生していないと判定する上記(2)または(3)に記載の見守り装置。 (4) The event determination unit checks a trajectory of an edge of an area of at least one of the plurality of persons including the target person, which is extracted from the image acquired by the information acquisition unit. When at least a part of the edge repeatedly moves in a predetermined area, it is determined that a predetermined event relating to the plurality of people has occurred. When at least a part of the edge does not repeatedly move in the predetermined area, the plurality of edges are determined. The watching device according to (2) or (3), wherein it is determined that a predetermined event relating to a person has not occurred.
(5)前記情報取得部は、前記対象者に関する音の情報を取得し、前記イベント判定部は、前記情報取得部によって取得された前記音の情報に基づいて、前記複数人に関する所定のイベントが発生したか否かを判定する上記(1)〜(4)のいずれか一つに記載の見守り装置。 (5) The information acquisition unit acquires sound information about the target person, and the event determination unit generates a predetermined event related to the plurality of persons based on the sound information acquired by the information acquisition unit. The watching device according to any one of the above (1) to (4), which determines whether or not the monitoring has occurred.
(6)前記イベント判定部は、前記情報取得部によって取得された前記音の情報に基づいて、前記対象者を含む前記複数人のうちの少なくとも一人から発生した音のレベルを確認し、前記音のレベルが所定のレベル以上である場合、前記複数人に関する所定のイベントが発生したと判定し、前記音のレベルが前記所定のレベル未満である場合、前記複数人に関する所定のイベントが発生していないと判定する上記(5)に記載の見守り装置。 (6) The event determining unit confirms a level of a sound generated from at least one of the plurality of persons including the subject based on the information on the sound acquired by the information acquiring unit, and If the level of the sound is equal to or higher than a predetermined level, it is determined that a predetermined event relating to the plurality of persons has occurred.If the level of the sound is lower than the predetermined level, a predetermined event relating to the plurality of persons has occurred. The watching device according to the above (5), wherein the watching device is determined not to exist.
(7)前記イベント判定部は、前記情報取得部によって取得された前記音の情報に基づいて、前記対象者を含む前記複数人のうちの少なくとも一人が発した音声の内容を確認し、前記音声の内容が所定の内容である場合、前記複数人に関する所定のイベントが発生したと判定し、前記音声の内容が前記所定の内容でない場合、前記複数人に関する所定のイベントが発生していないと判定する上記(5)または(6)に記載の見守り装置。 (7) The event determination unit confirms, based on the information of the sound acquired by the information acquisition unit, the content of a sound emitted by at least one of the plurality of persons including the target person, and If the content is a predetermined content, it is determined that a predetermined event related to the plurality of people has occurred.If the content of the voice is not the predetermined content, it is determined that a predetermined event related to the plurality of people has not occurred. The watching device according to the above (5) or (6).
(8)前記情報取得部によって取得された前記対象者に関する画像に、前記複数人が写っているか否かを判定する複数人判定部をさらに有し、前記イベント判定部は、前記複数人判定部によって前記画像に前記複数人が写っていないと判定された場合、判定対象とする所定のイベントの種類を前記対象者に関する所定のイベントに設定し、前記対象者に関する所定のイベントが発生したか否かを判定し、前記複数人判定部によって前記画像に前記複数人が写っていると判定された場合、前記判定対象とする所定のイベントの種類を前記複数人に関する所定のイベントに設定し、前記複数人に関する所定のイベントが発生したか否かを判定する上記(1)〜(7)のいずれか一つに記載の見守り装置。 (8) further comprising: a plurality of persons judging section for judging whether or not the plurality of persons are present in the image concerning the target person acquired by the information acquiring section, wherein the event judging section comprises: If it is determined that the plurality of persons are not shown in the image, the type of the predetermined event to be determined is set to the predetermined event related to the target person, and whether the predetermined event related to the target person has occurred And if it is determined that the plurality of people are reflected in the image by the plurality of people determination unit, the type of the predetermined event to be determined is set to a predetermined event related to the plurality of people, The watching device according to any one of the above (1) to (7), which determines whether a predetermined event relating to a plurality of people has occurred.
(9)前記イベント判定部は、前記対象者に関する所定のイベントの判定処理、および前記複数人に関する所定のイベントの判定処理の両方を実行し、前記対象者に関する所定のイベントおよび前記複数人に関する所定のイベントが発生したか否かを判定する上記(1)〜(7)のいずれか一つに記載の見守り装置。 (9) The event determination unit executes both a predetermined event determination process for the subject and a predetermined event determination process for the plurality of people, and performs a predetermined event for the subject and a predetermined event for the plurality of people. The watching device according to any one of the above (1) to (7), which determines whether or not the event (1) has occurred.
(10)前記イベント判定部によって前記所定のイベントが発生したと判定された場合、前記情報取得部によって取得された、前記所定のイベントの発生時刻を含む所定の時間分の動画を、記憶部に記憶させる動画処理部をさらに有する上記(1)〜(9)のいずれか一つに記載の見守り装置。 (10) When the event determining unit determines that the predetermined event has occurred, the moving image for a predetermined time including the occurrence time of the predetermined event acquired by the information acquiring unit is stored in the storage unit. The watching device according to any one of (1) to (9), further including a moving image processing unit for storing the moving image processing unit.
(11)前記イベント通知部は、前記イベント判定部によって前記複数人に関する所定のイベントが発生したと判定された場合、前記複数人に関する所定のイベントの発生を前記対象者に関する所定のイベントの発生として通知する上記(1)〜(10)のいずれか一つに記載の見守り装置。 (11) The event notification unit, when the event determination unit determines that the predetermined event related to the plurality of people has occurred, sets the occurrence of the predetermined event related to the plurality of people as the occurrence of the predetermined event related to the target person. The watching device according to any one of the above (1) to (10) for notifying.
(12)前記イベント通知部は、前記複数人に関する所定のイベントの発生を前記対象者に関する所定のイベントの発生として通知する場合、前記複数人に関する所定のイベントの発生が前記対象者に関する所定のイベントの発生として通知されることを示す情報を付加して通知する上記(11)に記載の見守り装置。 (12) When the event notification unit notifies the occurrence of the predetermined event related to the plurality of persons as the occurrence of the predetermined event related to the target person, the occurrence of the predetermined event regarding the plurality of persons is the predetermined event related to the target person. The monitoring device according to the above (11), wherein the notification is performed by adding information indicating that the notification is made as the occurrence of the notification.
(13)前記イベント通知部は、前記イベント判定部によって前記複数人に関する所定のイベントが発生したと判定された場合、音を出力可能な音出力部に注意を促す音を出力させることによって、前記複数人に関する所定のイベントの発生を通知する上記(1)〜(12)のいずれか一つに記載の見守り装置。 (13) The event notification unit, when the event determination unit determines that the predetermined event related to the plurality of people has occurred, causes the sound output unit capable of outputting a sound to output a sound calling attention, The watching device according to any one of (1) to (12), which notifies occurrence of a predetermined event relating to a plurality of persons.
(14)見守り対象である対象者に関する所定のイベントの発生を通知する見守り装置の制御プログラムであって、前記対象者に関する情報を取得する取得ステップと、前記取得ステップにおいて取得された前記情報に基づいて、前記対象者を含む複数人に関する所定のイベントが発生したか否かを判定する判定ステップと、前記判定ステップにおいて前記複数人に関する所定のイベントが発生したと判定された場合、当該複数人に関する所定のイベントの発生を通知する通知ステップと、を含む処理をコンピューターに実行させるための制御プログラム。 (14) A control program for a watching device that notifies the occurrence of a predetermined event relating to a target person to be monitored, based on an obtaining step of obtaining information on the target person, and based on the information obtained in the obtaining step. A determining step of determining whether a predetermined event relating to a plurality of persons including the target person has occurred; and determining that the predetermined event relating to the plurality of persons has occurred in the determining step. A control program for causing a computer to execute a process including a notifying step of notifying occurrence of a predetermined event.
本発明に係る見守り装置によれば、取得された対象者に関する情報に基づいて、対象者を含む複数人に関する所定のイベントが発生したか否かが判定される。そして、複数人に関する所定のイベントが発生したと判定された場合、当該イベントの発生が通知される。これにより、複数人に関する所定のイベントとしての暴力行為等が、別途の監視カメラ等を用いることなく監視され、施設における暴力行為等が抑止される。 According to the watching device of the present invention, it is determined whether or not a predetermined event relating to a plurality of persons including the target person has occurred based on the acquired information regarding the target person. When it is determined that a predetermined event relating to a plurality of persons has occurred, the occurrence of the event is notified. As a result, violence as a predetermined event relating to a plurality of persons is monitored without using a separate monitoring camera or the like, and violence or the like in the facility is suppressed.
以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements will be denoted by the same reference symbols, without redundant description. In addition, the dimensional ratios in the drawings are exaggerated for convenience of description, and may be different from the actual ratios.
(全体構成)
図1は、本発明の一実施形態に係る見守りシステムの全体構成を示す図である。
(overall structure)
FIG. 1 is a diagram showing an entire configuration of a watching system according to an embodiment of the present invention.
図1に示すように、見守りシステム1は、見守り(監視)対象である対象者60を見守る(監視する)システムである。見守りシステム1は、例えば図1に示すように、一つ以上の検出部10、サーバー20、固定端末30、および一つ以上の携帯端末40を備える。本発明の一実施形態に係る見守り装置は、1つの装置によって構成されてもよいし、2つ以上の装置によって構成されてもよく、例えば、検出部10およびサーバー20の少なくとも一方によって構成されてもよい。 As shown in FIG. 1, the watching system 1 is a system for watching (monitoring) a target person 60 to be monitored (monitored). The watching system 1 includes, for example, one or more detection units 10, a server 20, a fixed terminal 30, and one or more mobile terminals 40, as shown in FIG. The watching device according to an embodiment of the present invention may be configured by one device, or may be configured by two or more devices. For example, the monitoring device may be configured by at least one of the detection unit 10 and the server 20. Is also good.
見守りシステム1の各構成要素は、有線および/または無線によって、LAN(Local Area Network)、電話網またはデータ通信網等のネットワーク50を介して、相互に通信可能に接続される。ネットワーク50は、通信信号を中継するリピーター、ブリッジおよびルーターまたはクロスコネクト等の中継機を備えてもよい。図1に示す例では、複数の検出部10、サーバー20、固定端末30および携帯端末40は、アクセスポイント51を含む有線および無線によるLAN(例えば、IEEE802.11規格に従ったLAN等)のネットワーク50によって、相互に通信可能に接続されている。ネットワーク50は、TCP(Transmission control protocol)およびIP(Internet protocol)等のインターネットプロトコル群を用いることによって、いわゆるイントラネットを構成する。 The components of the watching system 1 are communicably connected to each other via a network 50 such as a LAN (Local Area Network), a telephone network, or a data communication network by wire and / or wirelessly. The network 50 may include a repeater that relays communication signals, a bridge, and a repeater such as a router or a cross-connect. In the example illustrated in FIG. 1, the plurality of detection units 10, the server 20, the fixed terminal 30, and the mobile terminal 40 are connected to a wired or wireless LAN (for example, a LAN according to the IEEE 802.11 standard) including an access point 51. By 50, they are communicably connected to each other. The network 50 configures a so-called intranet by using an Internet protocol group such as a Transmission Control Protocol (TCP) and an Internet Protocol (IP).
見守りシステム1は、対象者60に応じて適宜な場所に配設される。対象者60は、例えば、病気や怪我等によって看護を必要とする者や、高齢による身体能力の低下等によって介護を必要とする者、一人暮らしの独居者等である。特に、早期発見および早期対処を可能にする観点から、対象者60は、異常状態等の所定の不都合な事象がその者に生じた場合に、その発見を必要としている者であってもよい。このため、見守りシステム1は、対象者60の種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、見守りシステム1は、複数の対象者60が入居する複数の居室(部屋)や、ナースステーション等の複数の部屋を備える施設の建物に配置されている。また、検出部10は、複数の対象者60が入居する複数の居室にそれぞれ配置され、図1に示す例では、対象者60であるAさん、Bさん、Cさん、Dさんの居室(不図示)にそれぞれ配置されている。 The watching system 1 is provided at an appropriate place according to the target person 60. The target person 60 is, for example, a person who needs nursing due to illness or injury, a person who needs nursing care due to a decrease in physical ability due to the elderly, a single person living alone, and the like. In particular, from the viewpoint of enabling early detection and early coping, the target person 60 may be a person who needs to be found when a predetermined inconvenient event such as an abnormal state occurs in the person. For this reason, the watching system 1 is suitably installed in a building such as a hospital, a welfare facility for the aged, and dwelling units according to the type of the target person 60. In the example illustrated in FIG. 1, the watching system 1 is arranged in a plurality of rooms (rooms) in which a plurality of subjects 60 enter, or in a building of a facility including a plurality of rooms such as a nurse station. In addition, the detection unit 10 is arranged in each of a plurality of rooms in which a plurality of subjects 60 enter, and in the example shown in FIG. 1, rooms A, B, C, and D of the subjects 60 (unsuitable rooms). (Shown).
ただし、見守りシステム1が備える各構成要素の位置や個数等は、図1に示す例に限定されない。例えば、複数の対象者60が1つの居室に入居し、複数の検出部10が対象者60のベッド毎に配置されてもよい。 However, the position, the number, and the like of each component included in the watching system 1 are not limited to the example illustrated in FIG. For example, a plurality of target persons 60 may enter one room, and a plurality of detection units 10 may be arranged for each bed of target person 60.
また、図1に示す例では、サーバー20は、対象者60の居室と同じ建物におけるナースステーションに配置されているが、ネットワーク50に接続されている外部のサーバーとして、遠隔地に配置されてもよい。また、サーバー20は、インターネット等のネットワークに接続されている複数のサーバーによって仮想的に構築されるクラウドサーバーであってもよい。 In the example illustrated in FIG. 1, the server 20 is located at a nurse station in the same building as the room of the subject 60, but may be located at a remote location as an external server connected to the network 50. Good. Further, the server 20 may be a cloud server virtually constructed by a plurality of servers connected to a network such as the Internet.
また、図1に示す例では、見守りシステム1は、端末装置として固定端末30および携帯端末40の2種類の装置を備えているが、1種類の装置のみを備えてもよい。なお、固定端末30および携帯端末40は、固定端末30が固定的に運用される一方、携帯端末40が介護士や看護師等(以下「スタッフ70」と称する)のユーザーに携行される点において相違する。ただし、固定端末30および携帯端末40は、同様の構成を有するため、以下の各構成要素についての説明では、携帯端末40について主に説明する。 In addition, in the example illustrated in FIG. 1, the watching system 1 includes two types of devices, the fixed terminal 30 and the mobile terminal 40, as terminal devices, but may include only one type of device. The fixed terminal 30 and the portable terminal 40 are different from the fixed terminal 30 in that the portable terminal 40 is carried by a user such as a caregiver or a nurse (hereinafter referred to as “staff 70”) while the fixed terminal 30 is fixedly operated. Different. However, since the fixed terminal 30 and the mobile terminal 40 have the same configuration, in the following description of each component, the mobile terminal 40 will be mainly described.
(検出部10)
図2は、検出部のハードウェア構成を示すブロック図である。図3は、対象者の居室に設置された検出部の一例を示す図である。
(Detection unit 10)
FIG. 2 is a block diagram illustrating a hardware configuration of the detection unit. FIG. 3 is a diagram illustrating an example of the detection unit installed in the room of the subject.
検出部10は、対象者60に関する所定のイベント(事象)の発生を通知する装置である。所定のイベントは、対処が必要なイベントであり、例えば、対象者60における予め設定された所定の行動や、対象者60によるナースコール(ケアコール)等を含む。図2に示すように、検出部10は、制御部11、記憶部12、通信部13、撮影部14、音入出力部(音入力部および音出力部)15およびナースコール入力部16を備える。各構成要素は、信号をやり取りするためのバスを介して、相互に接続されている。また、図3に示すように、撮影部14、音入出力部15およびナースコール入力部16を含む検出部10は、対象者60の居室において、対象者60のベッドの周辺に配置される。 The detection unit 10 is a device that notifies occurrence of a predetermined event (event) relating to the target person 60. The predetermined event is an event that needs to be dealt with, and includes, for example, a predetermined predetermined action in the target person 60, a nurse call (care call) by the target person 60, and the like. As shown in FIG. 2, the detection unit 10 includes a control unit 11, a storage unit 12, a communication unit 13, a photographing unit 14, a sound input / output unit (sound input unit and sound output unit) 15, and a nurse call input unit 16. . The components are interconnected via a bus for exchanging signals. As shown in FIG. 3, the detection unit 10 including the imaging unit 14, the sound input / output unit 15, and the nurse call input unit 16 is arranged around the bed of the subject 60 in the room of the subject 60.
制御部11は、CPU(Central Processing Unit)を備え、プログラムに従って、上述した各構成要素の制御や、各種の演算処理を実行する。制御部11の機能構成については、図4を参照して後述する。 The control unit 11 includes a CPU (Central Processing Unit), and controls the above-described components and executes various arithmetic processes according to a program. The functional configuration of the control unit 11 will be described later with reference to FIG.
記憶部12は、予め各種プログラムや各種データを記憶するROM(Read Only Memory)、作業領域として一時的にプログラムやデータを記憶するRAM(Random Access Memory)、各種プログラムや各種データを記憶するハードディスク等を備える。各種プログラムは、例えば、検出部10の各部を当該各部の機能に応じてそれぞれ制御する制御プログラムや、対象者60に対する所定の監視処理を実行する監視処理プログラム等のプログラムを含む。各種データは、例えば、自機の検出部10を特定し識別するための識別子であるセンサーIDや、サーバー20の通信アドレス等の、各プログラムを実行する上で必要なデータを含む。 The storage unit 12 includes a ROM (Read Only Memory) for storing various programs and various data in advance, a RAM (Random Access Memory) for temporarily storing programs and data as a work area, and a hard disk for storing various programs and various data. Is provided. The various programs include, for example, programs such as a control program that controls each unit of the detection unit 10 according to the function of each unit and a monitoring processing program that executes a predetermined monitoring process on the target person 60. The various data includes, for example, data necessary for executing each program, such as a sensor ID which is an identifier for identifying and identifying the detection unit 10 of the own device, a communication address of the server 20, and the like.
通信部13は、ネットワーク50を介して、サーバー20、固定端末30および携帯端末40等の他の装置と通信を行うための通信インターフェース回路を備える。通信部13は、イーサネット(登録商標)等の規格による有線通信のインターフェースや、IEEE802.11(登録商標)またはBluetooth(登録商標)等の規格による無線通信のインターフェース等を備えてもよい。 The communication unit 13 includes a communication interface circuit for communicating with other devices such as the server 20, the fixed terminal 30, and the mobile terminal 40 via the network 50. The communication unit 13 may include a wired communication interface based on a standard such as Ethernet (registered trademark), a wireless communication interface based on a standard such as IEEE 802.11 (registered trademark) or Bluetooth (registered trademark), or the like.
撮影部14は、撮影した画像(画像データ)を出力する装置を備える。画像は、静止画および動画の少なくとも一方を含む。撮影部14は、対象者60の所在空間を監視するために、例えば、対象者60の居室の天井や壁の上部等に配置され、対象者60の所在空間を上方から俯瞰した画像を撮影する。撮影部14は、対象者60が横臥するベッドにおいて、対象者60の頭部が位置することが予定されている位置(例えば枕の位置)の上方から、対象者60の所在空間を撮影するように配置されてもよい。 The photographing unit 14 includes a device that outputs a photographed image (image data). The image includes at least one of a still image and a moving image. The imaging unit 14 is disposed, for example, on a ceiling or an upper part of a wall of the living room of the subject 60 to monitor the space where the subject 60 is located, and captures an image of the space where the subject 60 is overhead viewed from above. . The photographing unit 14 photographs the space where the subject 60 is located from above a position (for example, a pillow position) where the head of the subject 60 is expected to be located on the bed on which the subject 60 lies. May be arranged.
撮影部14は、可視光の画像を生成する装置であってもよいし、比較的暗がりでも対象者60を監視できるように、赤外線の画像を生成する装置であってもよい。すなわち、撮影部14は、可視光カメラ、赤外線カメラ、またはこれらを併用したカメラを備えてもよい。撮影部14の結像光学系は、配置された居室全体を撮影できる画角を有する、広角な光学系(魚眼レンズを含む、いわゆる広角レンズ)を備えてもよい。 The image capturing unit 14 may be a device that generates a visible light image, or may be a device that generates an infrared image so that the target person 60 can be monitored even in a relatively dark place. That is, the photographing unit 14 may include a visible light camera, an infrared camera, or a camera using them in combination. The imaging optical system of the imaging unit 14 may include a wide-angle optical system (a so-called wide-angle lens including a fish-eye lens) having an angle of view capable of imaging the entire living room in which the imaging unit 14 is arranged.
音入出力部15は、制御部11によって生成された電気信号に応じた音を出力したり、外部の音の入力を受け付けたりするための回路を備える。音入出力部15は、例えば、スピーカーおよびマイクロフォンを備える。音入出力部15は、対象者60の所在空間を監視するために、例えば、撮影部14と共に対象者60の居室の天井や壁の上部等に配置され、対象者60の所在空間における音の入力を受け付ける。 The sound input / output unit 15 includes a circuit for outputting a sound corresponding to the electric signal generated by the control unit 11 and receiving an input of an external sound. The sound input / output unit 15 includes, for example, a speaker and a microphone. The sound input / output unit 15 is disposed, for example, together with the imaging unit 14 on a ceiling or an upper portion of a wall of the room of the subject 60 to monitor the space where the subject 60 is located, and outputs the sound in the space where the subject 60 is located. Accept input.
ナースコール入力部16は、ナースコールの入力を受け付けるための、例えば押しボタン式スイッチ等のスイッチ回路を備える。ナースコール入力部16は、有線によって制御部11に接続されてもよいし、Bluetooth(登録商標)等の規格による無線通信によって制御部11に接続されてもよい。ナースコール入力部16は、音入出力部15に入力された音声に基づいて、ナースコールの入力を受け付けてもよい。 The nurse call input unit 16 includes a switch circuit such as a push button switch for receiving a nurse call input. The nurse call input unit 16 may be connected to the control unit 11 by a wire, or may be connected to the control unit 11 by wireless communication based on a standard such as Bluetooth (registered trademark). The nurse call input unit 16 may receive an input of a nurse call based on the voice input to the sound input / output unit 15.
なお、検出部10は、対象者60のベッドの方向に向けてマイクロ波を送受信することによって、対象者60の体動(例えば呼吸動)によって生じたマイクロ波のドップラーシフトを検出する、ドップラーシフト方式の体動センサーをさらに備えてもよい。体動センサーは、対象者60の呼吸動作に伴う胸部の体動(上下動)を検出し、体動における周期の乱れがある場合や、体動における振幅が予め設定された閾値以下である場合等に、微体動異常を検出する。 Note that the detection unit 10 detects the Doppler shift of the microwave caused by the body motion (for example, the respiratory motion) of the subject 60 by transmitting and receiving the microwave toward the direction of the bed of the subject 60. A body movement sensor of a type may be further provided. The body movement sensor detects body movement (up and down movement) of the chest accompanying the breathing movement of the subject 60, and when there is a disturbance in the cycle of the body movement or when the amplitude in the body movement is equal to or less than a preset threshold. And the like, to detect an abnormal micro-body movement.
図4は、検出部の制御部の機能構成を示すブロック図である。 FIG. 4 is a block diagram illustrating a functional configuration of a control unit of the detection unit.
制御部11は、プログラムを読み込んで処理を実行することによって、情報取得部111、複数人判定部112、イベント判定部113、イベント通知部114、動画処理部115、通話処理部116およびストリーミング配信部117として機能する。なお、制御部11の機能の少なくとも一部は、組み込み型の処理回路によって実現されてもよい。 The control unit 11 reads the program and executes the processing, whereby the information acquisition unit 111, the multiple-person determination unit 112, the event determination unit 113, the event notification unit 114, the video processing unit 115, the call processing unit 116, and the streaming distribution unit It functions as 117. Note that at least a part of the function of the control unit 11 may be realized by a built-in processing circuit.
情報取得部111は、対象者60に関する情報を取得する。情報取得部111は、例えば、撮影部14によって撮影された対象者60に関する画像、すなわち、対象者60の所在空間の画像を取得する。また、情報取得部111は、例えば、音入出力部15に入力された対象者60に関する音の情報、すなわち、対象者60の所在空間において発生した音の情報を取得する。また、情報取得部111は、ナースコール入力部16に入力された、対象者60によるナースコールの情報を取得したり、検出部10が体動センサーを備える場合、体動センサーによって検出された、対象者60における微体動異常の情報を取得したりしてもよい。 The information acquisition unit 111 acquires information about the target person 60. The information acquiring unit 111 acquires, for example, an image of the subject 60 photographed by the photographing unit 14, that is, an image of the space where the subject 60 is located. In addition, the information acquisition unit 111 acquires, for example, sound information regarding the subject 60 input to the sound input / output unit 15, that is, information about a sound generated in the space where the subject 60 is located. In addition, the information acquisition unit 111 acquires the information of the nurse call by the subject 60 input to the nurse call input unit 16 or is detected by the body motion sensor when the detection unit 10 includes the body motion sensor. You may acquire the information of the abnormal body motion in the subject 60.
複数人判定部112は、情報取得部111によって取得された画像に、複数人が写っているか否かを判定する。より具体的には、複数人判定部112は、当該画像において人物の領域(以下「人領域」と称する)を抽出し、抽出した人領域の数が複数(2つ以上)である場合、画像に複数人が写っていると判定する。一方、複数人判定部112は、抽出した人領域の数が1つ以下である場合、画像に複数人が写っていないと判定する。 The multiple-person determination unit 112 determines whether a plurality of persons are included in the image acquired by the information acquisition unit 111. More specifically, the multiple-person determination unit 112 extracts a person area (hereinafter, referred to as a “person area”) in the image, and, when the number of extracted human areas is plural (two or more), It is determined that a plurality of people are shown in the image. On the other hand, when the number of extracted human regions is one or less, the multiple-person determination unit 112 determines that the image does not include a plurality of people.
人領域は、例えば、人物の輪郭内の領域(以下「人シルエット」と称する)、または人物の輪郭に外接する矩形の領域(以下「人矩形」と称する)である。人領域は、撮影時刻が前後する画像の差分を抽出する時間差分法によって抽出されてもよいし、撮影画像と背景画像との差分を抽出する背景差分法によって抽出されてもよい。なお、人領域の大きさは、所定の第1サイズ以上、かつ所定の第2サイズ以下であると考えられるため、複数人判定部112は、予め複数のサンプルに基づいて設定された第1サイズおよび第2サイズに基づいて、人領域を抽出してもよい。すなわち、複数人判定部112は、人領域の候補となる領域のうち、第1サイズ以上かつ第2サイズ以下の領域を、人領域として抽出し、第1サイズ未満または第2サイズを超える領域を、人領域として抽出しなくてもよい。 The human region is, for example, a region within the outline of the person (hereinafter, referred to as a “person silhouette”) or a rectangular region circumscribing the outline of the person (hereinafter, referred to as a “person rectangle”). The human region may be extracted by a time difference method that extracts a difference between images whose shooting times are before and after, or may be extracted by a background difference method that extracts a difference between a shot image and a background image. Since the size of the human region is considered to be equal to or larger than the predetermined first size and equal to or smaller than the predetermined second size, the multiple person determination unit 112 sets the first size set based on a plurality of samples in advance. The human area may be extracted based on the second size. That is, the multiple-person determination unit 112 extracts, as the human area, an area having a size equal to or larger than the first size and equal to or smaller than the second size from among the candidate areas of the human area, and sets an area smaller than the first size or larger than the second size. It does not have to be extracted as a human area.
イベント判定部113は、対象者60に関する所定のイベント(以下「対象者イベント」と称する)が発生したか否かを判定する。イベント判定部113は、例えば、情報取得部111によって取得された対象者60に関する画像に基づいて、対象者イベントが発生したか否かを判定する。対象者イベントは、例えば、対象者60における予め設定された所定の行動を含む。対象者60における所定の行動は、例えば、対象者60がベッドから起き上がる「起床」、ベッドから離れる「離床」、ベッドから転落する「転落」、および床面等に転倒する「転倒」の行動を含む。 The event determination unit 113 determines whether a predetermined event related to the target person 60 (hereinafter, referred to as “target person event”) has occurred. The event determination unit 113 determines whether or not a target person event has occurred based on, for example, the image regarding the target person 60 acquired by the information acquisition unit 111. The target person event includes, for example, a predetermined behavior of the target person 60 set in advance. The predetermined action in the target person 60 includes, for example, the action of the target person 60 getting up from the bed, getting out of the bed, getting off the bed, falling down from the bed, and falling down on the floor or the like. Including.
イベント判定部113は、例えば、情報取得部111によって取得された対象者60に関する画像において抽出された、対象者60の人領域の時間変化に基づいて、対象者イベントとして、対象者60における所定の行動が発生したか否かを判定する。また、イベント判定部113は、当該画像において対象者60の頭部の領域(以下「頭部領域」と称する)を抽出し、抽出した頭部領域の時間変化に基づいて、対象者イベントが発生したか否かを判定してもよい。頭部領域は、例えば、頭部の輪郭内の領域、または頭部の輪郭に外接する矩形の領域である。頭部領域は、円形や楕円形のハフ変換や、予め用意された頭部のモデルを用いたパターンマッチング、頭部領域の検出用に学習したニューラルネットワーク等によって抽出されてもよい。頭部領域は、近赤外線に対する反射率が比較的高い、略円形状の領域として抽出されてもよい。 The event determination unit 113 determines a predetermined event in the target person 60 as a target event based on a temporal change of the human area of the target person 60 extracted in the image related to the target person 60 acquired by the information acquisition unit 111, for example. It is determined whether an action has occurred. Further, the event determination unit 113 extracts a region of the head of the subject 60 (hereinafter, referred to as “head region”) in the image, and generates a subject event based on a temporal change of the extracted head region. It may be determined whether or not it has been performed. The head region is, for example, a region within the outline of the head or a rectangular region circumscribing the outline of the head. The head region may be extracted by a circular or elliptical Hough transform, pattern matching using a prepared head model, a neural network learned for detecting the head region, or the like. The head region may be extracted as a substantially circular region having a relatively high reflectance to near infrared rays.
より具体的には、(1)ベッドの所在領域、(2)ベッドの所在領域内における横臥姿勢の頭部領域の大きさと座位姿勢の頭部領域の大きさとを識別するための第1閾値Th1、(3)ベッドの所在領域を除く居室内における立位姿勢の頭部領域の大きさを識別するための第2閾値Th2、(4)ベッドの所在領域を除く居室内における横臥姿勢の頭部領域の大きさを識別するための第3閾値Th3等に関する情報が、予め記憶部12に記憶されているものとする。イベント判定部113は、例えば、頭部領域の位置がベッドの所在領域内であって、頭部領域の大きさが第1閾値Th1に基づいて横臥姿勢の大きさから座位姿勢の大きさに変化した場合、起床のイベントが発生したと判定する。また、イベント判定部113は、例えば、頭部領域の位置がベッドの所在領域内からベッドの所在領域外に変化した場合であって、頭部領域の大きさが第2閾値Th2に基づいて或る大きさから立位姿勢の大きさに変化した場合、離床のイベントが発生したと判定する。また、イベント判定部113は、例えば、頭部領域の位置がベッドの所在領域内からベッドの所在領域外に変化した場合であって、頭部領域の大きさが第3閾値Th3に基づいて或る大きさから横臥姿勢の大きさに変化した場合、転落のイベントが発生したと判定する。また、イベント判定部113は、例えば、頭部領域の位置がベッドの所在領域を除く居室内であって、頭部領域の大きさが第3閾値Th3に基づいて或る大きさから横臥姿勢の大きさに変化した場合、転倒のイベントが発生したと判定する。 More specifically, a first threshold value Th1 for identifying (1) the bed location area, and (2) the size of the head area in the lying posture and the size of the head area in the sitting posture in the bed location area. (3) a second threshold value Th2 for identifying the size of the head region in the standing position in the living room excluding the bed region, and (4) a head in the reclining position in the living room excluding the bed region. It is assumed that information regarding the third threshold value Th3 and the like for identifying the size of the area is stored in the storage unit 12 in advance. For example, the event determination unit 113 determines that the position of the head region is within the region where the bed is located, and the size of the head region changes from the lying posture size to the sitting posture size based on the first threshold Th1. In this case, it is determined that the wake-up event has occurred. In addition, the event determination unit 113 determines that the size of the head region is based on the second threshold Th2, for example, when the position of the head region has changed from within the bed location region to outside the bed location region. It is determined that an event of leaving the bed has occurred when the size has changed from the size of the standing posture to the size of the standing posture. Further, the event determination unit 113 may determine that the size of the head region is based on the third threshold value Th3, for example, when the position of the head region has changed from within the bed location region to outside the bed location region. In the case where the size has changed from the size to the recumbent posture, it is determined that a falling event has occurred. In addition, the event determination unit 113 determines that the position of the head region is in a living room excluding the region where the bed is located, and the size of the head region is changed from a certain size to the recumbent posture based on the third threshold Th3. If the size has changed, it is determined that a fall event has occurred.
また、対象者イベントは、対象者60によるナースコールや、対象者60における微体動異常等をさらに含んでもよい。この場合、イベント判定部113は、情報取得部111によって取得された情報に基づいて、対象者イベントとして、ナースコールや微体動異常等のイベントが発生したか否かをさらに判定してもよい。 In addition, the target person event may further include a nurse call by the target person 60, an abnormal body movement in the target person 60, and the like. In this case, the event determination unit 113 may further determine whether or not an event such as a nurse call or a slight body movement abnormality has occurred as the subject event based on the information acquired by the information acquisition unit 111. .
また、イベント判定部113は、対象者60を含む複数人に関する所定のイベント(以下「複数人イベント」と称する)が発生したか否かをさらに判定する。イベント判定部113は、例えば、情報取得部111によって取得された対象者60に関する情報、すなわち、対象者60に関する画像または音の情報に基づいて、複数人イベントが発生したか否かを判定する。複数人イベントは、対象者60を含む複数人における所定の行動を含み、例えば、暴力や虐待等の不適切な行為(暴力行為等)を含む。複数人における暴力行為等の例として、例えば、スタッフ70による対象者60に対する暴力行為等や、対象者60によるスタッフ70に対する暴力行為等、対象者60同士の暴力行為等が挙げられる。また、暴力行為等は、肉体的な暴力行為等だけでなく、罵声や暴言等による精神的な暴力行為等も含む。暴力行為等の判定処理の詳細については、図9を参照して後述する。 Further, the event determination unit 113 further determines whether or not a predetermined event relating to a plurality of persons including the target person 60 (hereinafter, referred to as “multiple persons event”) has occurred. The event determination unit 113 determines, for example, whether or not a multi-person event has occurred based on the information on the target person 60 acquired by the information acquisition unit 111, that is, information on the image or sound about the target person 60. The multi-person event includes a predetermined behavior of a plurality of persons including the target person 60, and includes, for example, inappropriate acts such as violence and abuse (violent acts and the like). Examples of violent acts by a plurality of persons include, for example, violent acts by the staff 70 against the target person 60, violent acts by the target person 60 on the staff 70, and violent acts between the target persons 60. Further, the violent acts include not only physical violent acts, but also mental violent acts such as abusive or ranting. Details of the determination process of violent acts will be described later with reference to FIG.
イベント通知部114は、イベント判定部113によって対象者イベントまたは複数人イベントが発生したと判定された場合、サーバー20等に通知する。例えば、イベント通知部114は、イベント判定部113によって対象者イベントが発生したと判定された場合、対象者イベントの発生をサーバー20に通知する。あるいは、イベント通知部114は、イベント判定部113によって複数人イベントが発生したと判定された場合、複数人イベントの発生をサーバー20に通知する。 The event notification unit 114 notifies the server 20 or the like when the event determination unit 113 determines that the subject event or the multi-person event has occurred. For example, when the event determining unit 113 determines that the subject event has occurred, the event notifying unit 114 notifies the server 20 of the occurrence of the subject event. Alternatively, the event notification unit 114 notifies the server 20 of the occurrence of the multi-person event when the event determination unit 113 determines that the multi-person event has occurred.
より具体的には、イベント通知部114は、自機(検出部10)のセンサーIDと、発生したイベントを示すイベント情報とを含む第1イベント通知を、通信部13を介してサーバー20に送信する。イベント情報は、例えば、対象者イベントまたは複数人イベントに関する情報である。なお、イベント通知部114は、イベント判定部113によって、対象者60または複数人における所定の行動が発生したと判定された場合、判定に用いられた画像(静止画および動画の少なくとも一方)をサーバー20にさらに送信してもよい。 More specifically, the event notification unit 114 transmits a first event notification including the sensor ID of the own device (the detection unit 10) and event information indicating an event that has occurred to the server 20 via the communication unit 13. I do. The event information is, for example, information on a target person event or a multi-person event. The event notification unit 114 sends the image (at least one of a still image and a moving image) used for the determination to the server when the event determination unit 113 determines that the predetermined action has occurred in the target person 60 or a plurality of persons. 20 may be further transmitted.
動画処理部115は、撮影部14によって撮影され、情報取得部111によって取得された動画を、サーバー20に送信する。より具体的には、動画処理部115は、当該動画を所定のフレーム数ずつ含む動画信号を順次生成し、自機のセンサーIDと共にサーバー20に順次送信する。動画処理部115は、イベント判定部113によって対象者イベントまたは複数人イベントが発生したと判定された場合、イベントの発生時刻を含む所定の第1時間(例えば、数秒間〜数分間等)分の動画を、サーバー20に送信してもよい。すなわち、動画処理部115は、記憶部12に一時的に記憶させていた、イベントの発生時刻前の動画と、イベントの発生時刻以後の動画とを、所定の第1時間分の動画としてサーバー20に送信してもよい。あるいは、動画処理部115は、サーバー20に動画を常時送信してもよい。また、動画処理部115は、送信した動画をサーバー20の記憶部22に記憶させるように、サーバー20に指示してもよい。 The moving image processing unit 115 transmits the moving image captured by the image capturing unit 14 and acquired by the information acquiring unit 111 to the server 20. More specifically, the moving image processing unit 115 sequentially generates a moving image signal including the moving image by a predetermined number of frames, and sequentially transmits the generated moving image signal to the server 20 together with its own sensor ID. When the event determination unit 113 determines that the target person event or the multi-person event has occurred, the moving image processing unit 115 performs a predetermined first time (for example, several seconds to several minutes) including the event occurrence time. The moving image may be transmitted to the server 20. In other words, the moving image processing unit 115 converts the moving image before the event occurrence time and the moving image after the event occurrence time temporarily stored in the storage unit 12 into the server 20 as a predetermined first time moving image. May be sent. Alternatively, the moving image processing unit 115 may constantly transmit the moving image to the server 20. The moving image processing unit 115 may instruct the server 20 to store the transmitted moving image in the storage unit 22 of the server 20.
通話処理部116は、音入出力部15を制御することによって、検出部10と、固定端末30または携帯端末40との間における音声通話を可能にする。通話処理部116は、例えば、通信部13を介して、VoIP(Voice over Internet Protocol)等によって、固定端末30または携帯端末40との間における音声通話を可能にする。 The call processing unit 116 enables a voice call between the detection unit 10 and the fixed terminal 30 or the mobile terminal 40 by controlling the sound input / output unit 15. The call processing unit 116 enables a voice call with the fixed terminal 30 or the mobile terminal 40 via the communication unit 13 by VoIP (Voice over Internet Protocol) or the like.
ストリーミング配信部117は、撮影部14によって撮影され、情報取得部111によって取得されている動画(例えばライブ映像)を、固定端末30または携帯端末40にストリーミング配信する。ストリーミング配信部117は、例えば、固定端末30または携帯端末40から動画の配信の要求があった場合、通信部13を介して、要求のあった固定端末30または携帯端末40に動画を配信する。 The streaming distribution unit 117 distributes a moving image (for example, a live video) captured by the image capturing unit 14 and acquired by the information acquiring unit 111 to the fixed terminal 30 or the mobile terminal 40 by streaming. For example, when there is a request for distribution of a moving image from the fixed terminal 30 or the mobile terminal 40, the streaming distribution unit 117 distributes the moving image to the fixed terminal 30 or the mobile terminal 40 via the communication unit 13.
(サーバー20)
図5は、サーバーのハードウェア構成を示すブロック図である。
(Server 20)
FIG. 5 is a block diagram illustrating a hardware configuration of the server.
サーバー20は、見守りシステム1全体を管理する装置である。サーバー20は、例えば、通信機能付きのコンピューターによって構成される。図5に示すように、サーバー20は、制御部21、記憶部(データベース)22および通信部23を備える。各構成要素は、信号をやり取りするためのバスを介して、相互に接続されている。サーバー20の各構成要素は、検出部10の各構成要素と同様の構成を有するため、説明を省略する。制御部21の機能構成については、図6を参照して説明する。 The server 20 is a device that manages the entire monitoring system 1. The server 20 is configured by, for example, a computer having a communication function. As shown in FIG. 5, the server 20 includes a control unit 21, a storage unit (database) 22, and a communication unit 23. The components are interconnected via a bus for exchanging signals. Each component of the server 20 has the same configuration as each component of the detection unit 10, and a description thereof will be omitted. The functional configuration of the control unit 21 will be described with reference to FIG.
図6は、サーバーの制御部の機能構成を示すブロック図である。 FIG. 6 is a block diagram illustrating a functional configuration of a control unit of the server.
制御部21は、プログラムを読み込んで処理を実行することによって、監視処理部211、イベント通知部212および動画処理部213として機能する。 The control unit 21 functions as the monitoring processing unit 211, the event notification unit 212, and the moving image processing unit 213 by reading the program and executing the processing.
監視処理部211は、検出部10から第1イベント通知を受信した場合、第1イベント通知に含まれる情報を、対象者60に対する監視に関する情報(以下「監視情報」と称する)として、記憶部22に記憶させる。監視処理部211は、監視情報として、例えば、対象者60の識別情報、イベント情報、所定の行動の判定に用いられた画像、および第1イベント通知の受信時刻等を互いに対応付けて、記憶部22に記憶させる。なお、第1イベント通知がイベントの発生時刻に関する情報を含む場合、監視処理部211は、第1イベント通知の受信時刻に代えて、イベントの発生時刻を記憶部22に記憶させてもよい。 When receiving the first event notification from the detection unit 10, the monitoring processing unit 211 uses the information included in the first event notification as information related to monitoring the target person 60 (hereinafter, referred to as “monitoring information”), and stores the information in the storage unit 22. To memorize. The monitoring processing unit 211 associates, for example, identification information of the target person 60, event information, an image used for determination of a predetermined action, a reception time of the first event notification, and the like with each other as monitoring information. 22. When the first event notification includes information on the event occurrence time, the monitoring processing unit 211 may cause the storage unit 22 to store the event occurrence time instead of the reception time of the first event notification.
なお、検出部10のセンサーID、検出部10の配置場所(検出部10が配置される居室の番号等)、および検出部10によって監視される対象者60の名前の対応関係が、予め記憶部22に記憶されていてもよい。この場合、監視処理部211は、対象者60の識別情報として、検出部10のセンサーID、検出部10の配置場所、および検出部10によって監視される対象者60の名前の少なくとも一つの情報を、記憶部22に記憶させてもよい。また、対象者60はICタグを携帯していてもよく、監視処理部211は、対象者60の識別情報として、対象者60の居室に設置されたRFIDリーダー等によって読み取られたICタグの情報を、記憶部22に記憶させてもよい。 The correspondence between the sensor ID of the detection unit 10, the location of the detection unit 10 (such as the number of the living room where the detection unit 10 is disposed), and the name of the subject 60 monitored by the detection unit 10 is stored in advance in the storage unit. 22 may be stored. In this case, the monitoring processing unit 211 uses at least one of the sensor ID of the detection unit 10, the location of the detection unit 10, and the name of the target person 60 monitored by the detection unit 10 as the identification information of the target person 60. , May be stored in the storage unit 22. In addition, the subject 60 may carry an IC tag, and the monitoring processing unit 211 uses the information of the IC tag read by an RFID reader or the like installed in the room of the subject 60 as identification information of the subject 60. May be stored in the storage unit 22.
イベント通知部212は、検出部10から第1イベント通知を受信した場合、固定端末30および携帯端末40の少なくとも一方に通知する。より具体的には、イベント通知部212は、上述したような、対象者60の識別情報、イベント情報、および所定の行動の判定に用いられた画像等を含む第2イベント通知を、通信部23を介して固定端末30および携帯端末40の少なくとも一方に送信する。イベント通知部212は、ネットワーク50に接続されている固定端末30および携帯端末40の全てに通知してもよいし、一部のみに通知してもよい。第1イベント通知の送信元である検出部10のセンサーIDと、第2イベント通知の送信先である固定端末30および携帯端末40のIDである端末IDとの対応関係が、予め記憶部22に記憶されていてもよい。この場合、イベント通知部212は、通知先として、第1イベント通知を送信した検出部10に対応する、固定端末30および携帯端末40の少なくとも一方を選定してもよい。 When receiving the first event notification from the detection unit 10, the event notification unit 212 notifies at least one of the fixed terminal 30 and the mobile terminal 40. More specifically, the event notification unit 212 transmits the second event notification including the identification information of the target person 60, the event information, and the image used for the determination of the predetermined action as described above to the communication unit 23. To at least one of the fixed terminal 30 and the portable terminal 40. The event notification unit 212 may notify all of the fixed terminal 30 and the portable terminal 40 connected to the network 50, or may notify only some of them. The correspondence between the sensor ID of the detection unit 10 that is the transmission source of the first event notification and the terminal IDs that are the IDs of the fixed terminal 30 and the mobile terminal 40 that are the transmission destinations of the second event notification is stored in the storage unit 22 in advance. It may be stored. In this case, the event notification unit 212 may select at least one of the fixed terminal 30 and the mobile terminal 40 corresponding to the detection unit 10 that has transmitted the first event notification as the notification destination.
なお、第2イベント通知は、第1イベント通知を送信した検出部10によって取得された動画のダウンロード先としての通信アドレス等を、さらに含んでもよい。イベント通知部212は、通信アドレスとして、第1イベント通知を送信した検出部10に対応する通信アドレスを選定してもよい。 Note that the second event notification may further include a communication address or the like as a download destination of the moving image acquired by the detection unit 10 that has transmitted the first event notification. The event notification unit 212 may select a communication address corresponding to the detection unit 10 that has transmitted the first event notification as the communication address.
動画処理部213は、検出部10から受信した動画を、記憶部22に記憶させる。より具体的には、動画処理部213は、検出部10の動画処理部115から受信した一連の動画信号に含まれる動画を1つに纏めて、所定の第1時間(例えば、数秒間〜数分間等)分の動画ファイルを生成し、記憶部22に記憶させる。 The moving image processing unit 213 causes the storage unit 22 to store the moving image received from the detecting unit 10. More specifically, the moving image processing unit 213 collects the moving images included in the series of moving image signals received from the moving image processing unit 115 of the detection unit 10 into a single first time (for example, several seconds to several seconds). For example, a moving image file for minutes) is generated and stored in the storage unit 22.
なお、検出部10から動画が常時送信される場合、動画処理部213は、送信された所定の第2時間(例えば、数秒間、数分間、数時間、数日間、数週間または数か月間等)分の動画を、記憶部22に一時的に記憶させてもよい。そして、動画処理部213は、検出部10から第1イベント通知を受信した場合、記憶部22に一時的に記憶させていた所定の第2時間分の動画から、イベントの発生時刻を含む所定の第1時間分の動画を切り出して、記憶部22に記憶させてもよい。動画処理部213は、動画の一時記憶の時間が所定の第2時間を超えた場合、古いタイムスタンプの動画から順に上書きさせる一方、所定の第1時間分の動画には上書きしないように、記憶部22を制御してもよい。 When the moving image is constantly transmitted from the detecting unit 10, the moving image processing unit 213 determines whether the moving image is transmitted for a predetermined second time (for example, several seconds, several minutes, several hours, several days, several weeks, several months, or the like). ) May be temporarily stored in the storage unit 22. Then, when receiving the first event notification from the detection unit 10, the moving image processing unit 213 determines the predetermined event including the event occurrence time from the moving image for the predetermined second time temporarily stored in the storage unit 22. The moving image for the first hour may be cut out and stored in the storage unit 22. When the temporary storage time of the moving image exceeds the predetermined second time, the moving image processing unit 213 causes the moving image with the oldest time stamp to be overwritten in order, but not to overwrite the moving image for the predetermined first time. The unit 22 may be controlled.
(固定端末30、携帯端末40)
固定端末30および携帯端末40は、見守りシステム1のユーザーインターフェースとして機能する装置である。固定端末30は、例えば、通信機能付きのコンピューターによって構成される。固定端末30は、見守りシステム1の管理者や、スタッフ70を統括する責任者によって使用される端末であってもよい。また、固定端末30は、上述したような、検出部10のセンサーID、配置場所および対象者60の名前の対応関係等の入力を受け付けてもよく、受け付けた入力に関する情報をサーバー20に送信し、サーバー20に記憶させてもよい。なお、端末装置の一例としての固定端末30は、後述する携帯端末40と同様の構成を有するため、固定端末30の構成要素については説明を省略する。
(Fixed terminal 30, portable terminal 40)
The fixed terminal 30 and the mobile terminal 40 are devices that function as a user interface of the watching system 1. The fixed terminal 30 is configured by, for example, a computer with a communication function. The fixed terminal 30 may be a terminal used by an administrator of the watching system 1 or a person in charge of the staff 70. In addition, the fixed terminal 30 may receive an input such as the sensor ID of the detection unit 10, the location of the detection unit 10, and the correspondence between the name of the subject 60 and the like, and transmits information about the received input to the server 20. , May be stored in the server 20. Note that the fixed terminal 30 as an example of the terminal device has a configuration similar to that of a mobile terminal 40 described later, and a description of the components of the fixed terminal 30 will be omitted.
図7は、携帯端末のハードウェア構成を示すブロック図である。 FIG. 7 is a block diagram illustrating a hardware configuration of the mobile terminal.
携帯端末40は、タブレット型コンピューター、スマートフォンまたは携帯電話等の、持ち運び可能な通信端末機器によって構成される。図7に示すように、携帯端末40は、制御部41、記憶部42、通信部(無線通信部)43、表示部44、操作入力部45、音入出力部46およびインターフェース部47を備える。各構成要素は、信号をやり取りするためのバスを介して、相互に接続されている。制御部41、記憶部42、通信部43および音入出力部46は、検出部10の各構成要素と同様の構成を有するため、説明を省略する。制御部41の機能構成については、図8を参照して後述する。 The mobile terminal 40 is configured by a portable communication terminal device such as a tablet computer, a smartphone, or a mobile phone. As shown in FIG. 7, the mobile terminal 40 includes a control unit 41, a storage unit 42, a communication unit (wireless communication unit) 43, a display unit 44, an operation input unit 45, a sound input / output unit 46, and an interface unit 47. The components are interconnected via a bus for exchanging signals. The control unit 41, the storage unit 42, the communication unit 43, and the sound input / output unit 46 have the same configuration as each component of the detection unit 10, and thus the description is omitted. The functional configuration of the control unit 41 will be described later with reference to FIG.
表示部44は、例えばLCD(液晶ディスプレイ)や有機ELディスプレイ等の表示装置を備える。表示部44は、サーバー20から受信した第2イベント通知に含まれる対象者60の監視情報や、監視情報に対する操作画面、操作入力部45において入力された操作の内容等を表示する。 The display unit 44 includes a display device such as an LCD (liquid crystal display) or an organic EL display. The display unit 44 displays the monitoring information of the subject 60 included in the second event notification received from the server 20, an operation screen for the monitoring information, the content of the operation input in the operation input unit 45, and the like.
操作入力部45は、所定の操作の入力を受け付ける装置を備える。所定の操作は、例えば、ログイン用のIDおよびパスワードの入力操作や、対象者60との音声通話の要求および終了の操作、対象者60のライブ映像の配信の要求および終了の操作、通知されたイベントの確認操作、イベントを発生させた対象者60への対応を行う旨の入力操作等の各種操作を含む。なお、対象者60への対応は、例えば、救命、看護、介護および介助等の各種対応を含む。 The operation input unit 45 includes a device that receives an input of a predetermined operation. The predetermined operation is, for example, an operation of inputting a login ID and a password, an operation of requesting and ending a voice call with the target person 60, an operation of requesting and ending a live video distribution of the target person 60, and receiving a notification. The operation includes various operations such as an operation of confirming the event and an input operation of responding to the target person 60 that has caused the event. The response to the target person 60 includes, for example, various responses such as lifesaving, nursing, care, and assistance.
なお、表示部44および操作入力部45は、表示部44としてのLCDの表示面に、操作入力部45としてのタッチ検出部を重畳することによって、タッチパネルを構成してもよい。 The display unit 44 and the operation input unit 45 may constitute a touch panel by superimposing a touch detection unit as the operation input unit 45 on a display surface of an LCD as the display unit 44.
インターフェース部47は、外部機器との間においてデータの入出力を行う回路を備える。インターフェース部47は、例えば、Bluetooth(登録商標)規格、IrDA規格等の赤外線通信、またはUSB規格を用いたインターフェース回路等を備える。なお、インターフェース部47は、通信部43に含まれてもよい。 The interface unit 47 includes a circuit that inputs and outputs data to and from an external device. The interface unit 47 includes an interface circuit using infrared communication such as the Bluetooth (registered trademark) standard or the IrDA standard, or the USB standard. Note that the interface unit 47 may be included in the communication unit 43.
図8は、携帯端末の制御部の機能構成を示すブロック図である。 FIG. 8 is a block diagram illustrating a functional configuration of a control unit of the mobile terminal.
制御部41は、プログラムを読み込んで処理を実行することによって、監視処理部411、通話処理部412およびストリーミング再生部413として機能する。 The control unit 41 functions as a monitoring processing unit 411, a call processing unit 412, and a streaming reproduction unit 413 by reading the program and executing the processing.
監視処理部411は、サーバー20から第2イベント通知を受信した場合、第2イベント通知に含まれる情報を記憶部42に記憶させたり、表示部44に表示させたりする。より具体的には、監視処理部411は、例えば、対象者60の識別情報、イベント情報、所定の行動の判定に用いられた画像、および第2イベント通知の受信時刻等を、記憶部42に記憶させたり、表示部44に表示させたりする。なお、第2イベント通知がイベントの発生時刻に関する情報を含む場合、監視処理部411は、第2イベント通知の受信時刻に代えて、イベントの発生時刻を記憶部42に記憶させたり、表示部44に表示させたりしてもよい。 When receiving the second event notification from the server 20, the monitoring processing unit 411 causes the storage unit 42 to store the information included in the second event notification, or causes the display unit 44 to display the information. More specifically, the monitoring processing unit 411 stores, for example, the identification information of the target person 60, the event information, the image used for the determination of the predetermined action, the reception time of the second event notification, and the like in the storage unit 42. It is stored or displayed on the display unit 44. When the second event notification includes information on the event occurrence time, the monitoring processing unit 411 stores the event occurrence time in the storage unit 42 instead of the reception time of the second event notification, or displays the display unit 44 May be displayed.
また、監視処理部411は、表示部44に表示された第2イベント通知に含まれる情報に対して、操作入力部45において所定の操作の入力が受け付けられた場合、当該操作に応じた所定の処理を実行する。監視処理部411は、例えば、操作入力部45においてイベントを発生させた対象者60への対応を行う旨の入力操作が受け付けられた場合、サーバー20に通知する。この場合、サーバー20は、対象者60への対応を行う旨の入力が受け付けられたことを示す情報を、記憶部22に記憶された当該対象者60のイベント情報に対応付けて、記憶部22に記憶させてもよい。 When the operation input unit 45 receives an input of a predetermined operation with respect to the information included in the second event notification displayed on the display unit 44, the monitoring processing unit 411 performs a predetermined operation corresponding to the operation. Execute the process. The monitoring processing unit 411 notifies the server 20 when, for example, an input operation for responding to the target person 60 that has caused the event is received in the operation input unit 45. In this case, the server 20 associates the information indicating that the input to perform the response to the target person 60 has been received with the event information of the target person 60 stored in the storage unit 22 and associates the information with the storage unit 22. May be stored.
通話処理部412は、操作入力部45において音声通話の要求操作が受け付けられた場合、音入出力部46を制御することによって、検出部10との間における音声通話を可能にする。通話処理部412は、例えば、通信部43を介して、VoIP等によって、第1イベント通知をサーバー20に送信した検出部10との間における音声通話を可能にする。 When a request operation for a voice call is received by the operation input unit 45, the call processing unit 412 controls the sound input / output unit 46 to enable a voice call with the detection unit 10. The call processing unit 412 enables a voice call with the detection unit 10 that has transmitted the first event notification to the server 20 via the communication unit 43 by VoIP or the like, for example.
ストリーミング再生部413は、検出部10から配信された動画をストリーミング再生し、表示部44に表示させる。より具体的には、ストリーミング再生部413は、操作入力部45において受け付けられたライブ映像の配信の要求操作に応じて、検出部10のストリーミング配信部117から配信された動画をストリーミング再生し、表示部44に表示させる。 The streaming reproduction unit 413 performs streaming reproduction of the moving image distributed from the detection unit 10 and causes the display unit 44 to display the moving image. More specifically, the streaming reproduction unit 413 performs streaming reproduction of the moving image distributed from the streaming distribution unit 117 of the detection unit 10 in response to a live video distribution request operation received at the operation input unit 45, and displays the moving image. It is displayed on the unit 44.
なお、検出部10、サーバー20、固定端末30および携帯端末40は、上述した構成要素以外の構成要素を含んでもよく、あるいは、上述した構成要素のうちの一部を含まなくてもよい。例えば、サーバー20は、必要に応じて、各種コマンドや各種データ等の入力を受け付ける入力部等をさらに備えてもよい。 Note that the detection unit 10, the server 20, the fixed terminal 30, and the mobile terminal 40 may include components other than the above-described components, or may not include some of the above-described components. For example, the server 20 may further include an input unit that receives inputs of various commands and various data as needed.
(暴力行為等の判定処理)
以下、複数人イベントとしての暴力行為等の判定処理について詳細に説明する。イベント判定部113は、情報取得部111によって取得された、対象者60に関する画像または音の情報に基づいて、以下の少なくとも一つの判定処理を実行することによって、暴力行為等の発生の有無を判定する。
(Judgment processing of violent acts, etc.)
Hereinafter, determination processing of violent acts as a multiple-person event will be described in detail. The event determination unit 113 determines whether or not violence has occurred by performing at least one of the following determination processes based on the image or sound information about the subject 60 acquired by the information acquisition unit 111. I do.
(1)画像による判定処理
イベント判定部113は、例えば、撮影部14によって撮影され、情報取得部111によって取得された対象者60に関する画像に基づいて、暴力行為等の発生の有無を判定する。より具体的には、イベント判定部113は、例えば、情報取得部111によって取得された画像から抽出された、対象者60を含む複数人のうちの少なくとも一人の人領域(人シルエットまたは人矩形)の時間変化に基づいて、暴力行為等の発生の有無を判定する。
(1) Image Determination Process The event determination unit 113 determines, for example, whether or not violence has occurred based on an image of the subject 60 captured by the imaging unit 14 and acquired by the information acquisition unit 111. More specifically, for example, the event determination unit 113 extracts at least one person region (a person silhouette or a person rectangle) among a plurality of persons including the target person 60 extracted from the image acquired by the information acquisition unit 111. The presence or absence of violence or the like is determined based on the time change of.
図9は、暴力行為等の判定処理の一例を説明するための図である。 FIG. 9 is a diagram for explaining an example of a determination process of a violent act or the like.
図9の(a)および(b)は、情報取得部111によって取得された画像において抽出された、ベッドの所在領域を除く居室内における立位姿勢のスタッフ70の人矩形の時間変化を示している。(b)は、例えば(a)の直後、または数サンプル後に抽出された人矩形である。なお、情報取得部111によって取得された画像には、当該スタッフ70以外の人物(例えば、対象者60)も含まれるが、図9では説明の都合上、対象者60を殴ろうとするスタッフ70のみが示されているものとする。 (A) and (b) of FIG. 9 show the temporal change of the person rectangle of the staff member 70 in the standing posture in the living room excluding the bed area, which is extracted from the image acquired by the information acquiring unit 111. I have. (B) is a human rectangle extracted immediately after (a) or after several samples, for example. Note that the image acquired by the information acquisition unit 111 includes a person other than the staff 70 (for example, the subject 60). However, in FIG. Shall be shown.
(A)人領域のエッジの移動速度による判定処理
暴力行為等を行う人物は、殴ったり蹴ったりする際に、腕または脚を勢いよく振り上げたり、振り下ろしたりする可能性が高い。すなわち、暴力行為等を行う人物の手または足の先に対応する、人矩形のエッジの少なくとも一部は、高速に移動する可能性が高い。例えば図9に示すように、スタッフ70が対象者60を殴る際に、腕を振り下ろすことによって、スタッフ70の手に対応する人矩形のエッジである破線部Eが、(a)から(b)の位置に(矢印の方向に)高速に移動する可能性が高い。
(A) Judgment Process Based on Moving Speed of Edge in Human Area A person who performs violence or the like is likely to vigorously swing up or down his arms or legs when hitting or kicking. That is, at least a part of the edge of the person rectangle corresponding to the tip of the hand or foot of the person who performs violence or the like is likely to move at high speed. For example, as shown in FIG. 9, when the staff 70 hits the target person 60, the dashed line portion E, which is the edge of the person rectangle corresponding to the hand of the staff 70, is swung down from the (a) to (b). ) Is likely to move quickly (in the direction of the arrow).
このため、イベント判定部113は、人領域の時間変化として、例えば、情報取得部111によって取得された画像において抽出された、対象者60を含む複数人のうちの少なくとも一人の人矩形のエッジの移動速度を確認する。イベント判定部113は、例えば、エッジの移動速度を、エッジの移動量およびエッジの移動時間に基づいて算出する。そして、イベント判定部113は、例えば、当該エッジの少なくとも一部の移動速度が所定の速度以上である場合、複数人イベントとしての暴力行為等が発生したと判定する。一方、イベント判定部113は、当該エッジの少なくとも一部の移動速度が所定の速度未満である場合、暴力行為等が発生していないと判定する。イベント判定部113は、例えば、図9に示す例において、人矩形の4つの辺が示すエッジの一部である破線部Eの移動速度が、所定の速度以上であるか否かを判定する。所定の速度は、撮影部14において使用されるカメラの特性(例えば、広角レンズの特性)等に応じて設定されてもよい。なお、イベント判定部113は、人矩形の全てのエッジの移動速度が所定の速度以上である場合には、対象者60が単に転倒したり、スタッフ70が単に急いで移動したりしただけであり、暴力行為等は発生していないと判定してもよい。 For this reason, the event determination unit 113 determines, as the time change of the human region, for example, the edge of the edge of at least one of a plurality of persons including the target person 60 extracted in the image acquired by the information acquisition unit 111. Check the moving speed. The event determination unit 113 calculates the moving speed of the edge based on the moving amount of the edge and the moving time of the edge, for example. Then, for example, when the moving speed of at least a part of the edge is equal to or higher than a predetermined speed, the event determining unit 113 determines that a violent act as a multi-person event has occurred. On the other hand, when the moving speed of at least a part of the edge is lower than the predetermined speed, the event determining unit 113 determines that a violent act or the like has not occurred. For example, in the example illustrated in FIG. 9, the event determination unit 113 determines whether or not the moving speed of the broken line portion E, which is a part of the edge indicated by the four sides of the human rectangle, is equal to or higher than a predetermined speed. The predetermined speed may be set according to characteristics of a camera used in the photographing unit 14 (for example, characteristics of a wide-angle lens). Note that when the moving speeds of all the edges of the human rectangle are equal to or higher than the predetermined speed, the event determining unit 113 simply causes the target person 60 to fall or the staff 70 to move quickly. Alternatively, it may be determined that violence has not occurred.
(B)人領域のエッジが移動する軌跡による判定処理
暴力行為等を行う人物は、繰り返し何度も殴ったり蹴ったりする可能性が高く、暴力行為等を行う人物の手または足の先に対応する、人矩形のエッジの少なくとも一部は、所定の同じ領域を繰り返し移動する可能性が高い。例えば、図9に示す例において、スタッフ70の手に対応する人矩形のエッジである破線部Eは、(a)および(b)の位置の間を繰り返し移動する可能性が高い。
(B) Judgment processing based on the trajectory where the edge of the human area moves A person who commits violence is likely to repeatedly hit or kick, and corresponds to the tip of the hand or foot of the person who commits violence. At least a part of the edge of the human rectangle has a high possibility of repeatedly moving in the same predetermined area. For example, in the example shown in FIG. 9, the broken line portion E which is the edge of the person rectangle corresponding to the hand of the staff 70 has a high possibility of repeatedly moving between the positions (a) and (b).
このため、イベント判定部113は、人領域の時間変化として、例えば、情報取得部111によって取得された画像において抽出された、対象者60を含む複数人のうちの少なくとも一人の人矩形のエッジが移動する軌跡を確認する。そして、イベント判定部113は、例えば、当該エッジの少なくとも一部が所定の領域を繰り返し移動する場合、複数人イベントとしての暴力行為等が発生したと判定する。一方、イベント判定部113は、当該エッジの少なくとも一部が所定の領域を繰り返し移動しない場合、暴力行為等が発生していないと判定する。所定の領域は、撮影部14において使用されるカメラの特性(例えば、広角レンズの特性)等に応じて設定されてもよい。 For this reason, the event determination unit 113 determines that the edge of the rectangle of at least one of a plurality of persons including the target person 60 extracted in the image acquired by the information acquisition unit 111 as the time change of the human area. Check the moving path. Then, for example, when at least a part of the edge repeatedly moves in a predetermined area, the event determination unit 113 determines that a violent act as a multi-person event has occurred. On the other hand, if at least a part of the edge does not repeatedly move in the predetermined area, the event determination unit 113 determines that violence has not occurred. The predetermined area may be set according to the characteristics of the camera used in the photographing unit 14 (for example, the characteristics of a wide-angle lens).
なお、上述した2つの判定処理において、イベント判定部113は、人矩形のエッジの時間変化の代わりに、人矩形のアスペクト比(短辺に対する長辺の比率)の時間変化に基づいて、暴力行為等の発生の有無を判定してもよい。また、イベント判定部113は、人矩形のエッジの時間変化の代わりに、人シルエットのエッジの時間変化に基づいて、暴力行為等の発生の有無を判定してもよい。 In the above-described two determination processes, the event determination unit 113 performs the violent action based on the time change of the aspect ratio (the ratio of the long side to the short side) of the person rectangle instead of the time change of the edge of the person rectangle. May be determined. Further, the event determination unit 113 may determine whether a violent act or the like has occurred based on the time change of the edge of the person silhouette instead of the time change of the edge of the person rectangle.
また、イベント判定部113は、人物の領域(人領域)から推定された当該人物の関節点に基づいて、暴力行為等の発生の有無を判定してもよい。すなわち、イベント判定部113は、暴力行為等を行う人物の腕または脚における関節点を推定し、推定した関節点の時間変化に基づいて、暴力行為等の発生の有無を判定してもよい。 Further, the event determination unit 113 may determine whether violence or the like has occurred based on the joint points of the person estimated from the region of the person (person region). That is, the event determination unit 113 may estimate a joint point on an arm or a leg of a person who performs a violent act or the like, and may determine whether or not the violent act or the like has occurred based on a temporal change of the estimated joint point.
(2)音の情報による判定処理
イベント判定部113は、例えば、音入出力部15に入力され、情報取得部111によって取得された対象者60に関する音の情報に基づいて、暴力行為等の発生の有無を判定する。
(2) Judgment Process Based on Sound Information The event judgment unit 113 generates, for example, a violent act based on the sound information about the target person 60 input to the sound input / output unit 15 and acquired by the information acquisition unit 111. Is determined.
音入出力部15は、暴力行為等が行われている場合、対象者60を含む複数人のうちの少なくとも一人から発生する音の入力を受け付ける。音入出力部15に入力される音の例としては、例えば、殴る音、蹴る音、暴力行為等を受けた人物が転倒する音、当該人物が転倒する際に家具等に衝突する音、暴力行為等を受ける人物による叫び声、うめき声、「痛い」、「やめて」または「助けて」等の言葉を含む音声、暴力行為等を行う人物による罵声、「このやろう」または「ばかやろう」等の言葉を含む音声等が挙げられるが、これらに限定されない。 The sound input / output unit 15 receives an input of a sound generated from at least one of a plurality of persons including the target person 60 when a violent act or the like is performed. Examples of the sound input to the sound input / output unit 15 include, for example, a beating sound, a kicking sound, a sound of a person who has been subjected to violent acts, a sound of colliding with furniture when the person falls, a violence, and the like. Screaming, moaning, voice including words such as "pain", "stop" or "help" by a person who receives the act, etc., swearing by a person who commits violent acts, "this yarou" or "idiot" And the like, but are not limited thereto.
(A)音のレベルによる判定処理
暴力行為等が行われる場合、上述したような音の少なくとも一つが、大きなレベルで発生する確率が高い。このため、イベント判定部113は、情報取得部111によって取得された音の情報に基づいて、例えば、対象者60を含む複数人のうちの少なくとも一人から発生した音のレベルを確認する。そして、イベント判定部113は、例えば、当該音のレベルが所定のレベル以上である場合、複数人イベントとしての暴力行為等が発生したと判定し、当該音のレベルが所定のレベル未満である場合、暴力行為等が発生していないと判定する。例えば、イベント判定部113は、暴力行為等を受けた人物が転倒する際に家具等に衝突する音のレベルが所定のレベル以上である場合、暴力行為等が発生したと判定する。
(A) Judgment Processing Based on Sound Level When violent acts or the like are performed, there is a high probability that at least one of the sounds described above occurs at a large level. For this reason, the event determination unit 113 confirms, for example, the level of a sound generated from at least one of a plurality of persons including the target person 60 based on the sound information acquired by the information acquisition unit 111. Then, for example, when the level of the sound is equal to or higher than a predetermined level, the event determination unit 113 determines that a violent act as a multi-person event has occurred, and when the level of the sound is lower than the predetermined level. It is determined that violence has not occurred. For example, the event determination unit 113 determines that a violent act or the like has occurred if the level of the sound colliding with furniture or the like when the person who has been subjected to the violent act or the like falls down is equal to or higher than a predetermined level.
(B)音声の内容による判定処理
暴力行為等を受ける人物、または暴力行為等を行う人物の少なくとも一方は、上述したような音声を発する確率が高い。このため、イベント判定部113は、情報取得部111によって取得された音の情報に基づいて、例えば、対象者60を含む複数人のうちの少なくとも一人が発した音声の内容を確認する。イベント判定部113は、周知の音声認識処理によって、当該音声の内容を確認してもよい。
(B) Judgment Process Based on Voice Content At least one of a person who receives a violent act or a person who performs a violent act or the like has a high probability of emitting the above-mentioned sound. For this reason, the event determination unit 113 confirms, for example, the content of the voice uttered by at least one of a plurality of persons including the target person 60 based on the sound information acquired by the information acquisition unit 111. The event determination unit 113 may confirm the content of the voice by a well-known voice recognition process.
そして、イベント判定部113は、例えば、当該音声の内容が所定の内容である場合、複数人イベントとしての暴力行為等が発生したと判定し、当該音声の内容が所定の内容でない場合、暴力行為等が発生していないと判定する。所定の内容は、例えば、暴力行為等を受ける人物による叫び声、うめき声、「痛い」、「やめて」または「助けて」等の言葉を含む音声、暴力行為等を行う人物による罵声、「このやろう」または「ばかやろう」等の言葉を含む音声等であってもよいが、これらに限定されない。また、所定の内容は、見守りシステム1の管理者や、スタッフ70を統括する責任者等によって、固定端末30等を介して事前に入力され、サーバー20に記憶された音声の内容であってもよい。 Then, for example, when the content of the voice is a predetermined content, the event determination unit 113 determines that a violent act or the like as a multi-person event has occurred, and when the content of the voice is not the predetermined content, It is determined that no occurrence has occurred. The predetermined content may be, for example, a scream, a moan, a voice including words such as "pain", "stop" or "help" by a person who is subjected to violence, an abuse by a person who performs violence, " Or a voice including words such as "" or "Fool", but is not limited thereto. In addition, the predetermined content may be a voice content that is input in advance by the manager of the watching system 1 or a person who supervises the staff 70 via the fixed terminal 30 or the like and stored in the server 20. Good.
以上のように、画像による判定処理では、取得された対象者60に関する画像に基づいて、複数人イベントの発生の有無が判定される。これにより、対象者イベントの判定処理にも使用されている対象者60に関する画像に基づいて、追加の情報を必要とせずに、複数人イベントの発生の有無が判定される。 As described above, in the determination process based on the image, the presence or absence of the occurrence of the multi-person event is determined based on the acquired image regarding the target person 60. Accordingly, the presence or absence of the occurrence of the multi-person event is determined based on the image of the target person 60 that is also used in the determination processing of the target person event without requiring additional information.
また、対象者60を含む複数人のうちの少なくとも一人の人領域のエッジの移動速度が確認され、当該エッジの少なくとも一部の移動速度が所定の速度以上であるか否かに基づいて、複数人イベントの発生の有無が判定される。これにより、肉体的な暴力行為等が精度よく検出され、当該暴力行為等が抑止される。 In addition, the moving speed of the edge of at least one person region among the plurality of persons including the target person 60 is confirmed, and based on whether the moving speed of at least a part of the edge is equal to or higher than a predetermined speed, It is determined whether a human event has occurred. Thereby, physical violence or the like is accurately detected, and the violence or the like is suppressed.
また、対象者60を含む複数人のうちの少なくとも一人の人領域のエッジが移動する軌跡が確認され、当該エッジの少なくとも一部が所定の領域を繰り返し移動するか否かに基づいて、複数人イベントの発生の有無が判定される。これにより、上述したような人領域のエッジの移動速度とは異なる指標に基づいて、肉体的な暴力行為等が精度よく検出され、当該暴力行為等が抑止される。 Further, a trajectory in which the edge of at least one of the plurality of persons including the target person 60 moves is confirmed, and based on whether at least a part of the edge repeatedly moves in the predetermined area, the plurality of persons are determined. It is determined whether an event has occurred. Thereby, based on an index different from the moving speed of the edge of the human region as described above, a physical violence or the like is accurately detected, and the violence or the like is suppressed.
また、音の情報による判定処理では、取得された対象者60に関する音の情報に基づいて、複数人イベントの発生の有無が判定される。これにより、上述したような対象者60に関する画像とは異なる情報に基づいて、複数人イベントの発生の有無が判定される。より具体的には、肉体的な暴力行為等だけでなく、暴力行為等を行う人物の罵声や暴言等による精神的な暴力行為等についても、複数人イベントとして発生の有無が判定され得る。 In the determination process based on the sound information, the presence or absence of the occurrence of the multi-person event is determined based on the acquired sound information on the target person 60. As a result, the presence / absence of a multi-person event is determined based on information different from the image regarding the target person 60 as described above. More specifically, not only physical violence and the like, but also mental violence and the like caused by abusive or abusive words of a person performing the violence or the like can be determined as to whether or not an event has occurred as a multiple-person event.
また、対象者60を含む複数人のうちの少なくとも一人から発生した音のレベルが確認され、当該音のレベルが所定のレベル以上であるか否かに基づいて、複数人イベントの発生の有無が判定される。これにより、肉体的または精神的な暴力行為等が精度よく検出され、当該暴力行為等が抑止される。 In addition, the level of a sound generated from at least one of a plurality of persons including the target person 60 is confirmed, and based on whether or not the level of the sound is equal to or higher than a predetermined level, it is determined whether or not a multi-person event has occurred. Is determined. As a result, physical or mental violence or the like is accurately detected, and the violence or the like is suppressed.
また、対象者60を含む複数人のうちの少なくとも一人が発する音声の内容が確認され、当該音声の内容が所定の内容であるか否かに基づいて、複数人イベントの発生の有無が判定される。これにより、上述したような音のレベルとは異なる指標に基づいて、肉体的または精神的な暴力行為等が精度よく検出され、当該暴力行為等が抑止される。 Further, the content of the voice uttered by at least one of the plurality of persons including the target person 60 is confirmed, and the presence or absence of the occurrence of the multi-person event is determined based on whether or not the content of the voice is a predetermined content. You. Thereby, based on an index different from the sound level as described above, a physical or mental violence or the like is accurately detected, and the violence or the like is suppressed.
なお、イベント判定部113は、上述した4つの判定処理のうち複数の判定処理を実行することによって、複数人イベントとしての暴力行為等の発生の有無を判定してもよい。すなわち、イベント判定部113は、例えば、複数の判定処理を実行し、実行した全ての判定処理において暴力行為等が発生したと判定した場合のみ、暴力行為等が発生したと最終判定してもよい。あるいは、イベント判定部113は、複数の判定処理を実行し、少なくとも一つの判定処理において暴力行為等が発生したと判定した場合には、暴力行為等が発生したと最終判定してもよい。また、イベント判定部113は、上述した4つの判定処理以外の判定処理を実行してもよい。 The event determination unit 113 may determine whether a violent act or the like has occurred as a multi-person event by executing a plurality of determination processes out of the four determination processes described above. That is, for example, the event determination unit 113 may execute a plurality of determination processes and make a final determination that a violent act or the like has occurred only when it is determined that a violent act or the like has occurred in all of the executed determination processes. . Alternatively, the event determination unit 113 may execute a plurality of determination processes, and when it is determined in at least one determination process that a violent act or the like has occurred, the event determination unit 113 may make a final determination that a violent act or the like has occurred. Further, the event determination unit 113 may execute a determination process other than the four determination processes described above.
(第1実施形態)
以下、図10を参照して、本発明の第1実施形態に係る処理の手順について説明する。
(1st Embodiment)
Hereinafter, the processing procedure according to the first embodiment of the present invention will be described with reference to FIG.
図10は、第1実施形態に係る処理の手順を示すフローチャートである。図10のフローチャートに示すアルゴリズムは、検出部10の記憶部12にプログラムとして記憶されており、制御部11によって実行される。 FIG. 10 is a flowchart illustrating a procedure of a process according to the first embodiment. The algorithm shown in the flowchart of FIG. 10 is stored as a program in the storage unit 12 of the detection unit 10, and is executed by the control unit 11.
図10に示すように、制御部11は、まず、情報取得部111として、対象者60に関する情報を取得する(ステップS101)。より具体的には、制御部11は、撮影部14によって撮影された、対象者60に関する画像を取得する。また、制御部11は、後述するステップS105において、対象者60に関する音の情報に基づいて複数人イベントの判定処理を実行する場合、対象者60に関する画像に加え、対象者60に関する音の情報を取得してもよい。 As illustrated in FIG. 10, the control unit 11 first obtains information on the target person 60 as the information obtaining unit 111 (Step S101). More specifically, the control unit 11 acquires an image of the subject 60, which is captured by the imaging unit 14. In addition, in the later-described step S105, when performing the determination process of the multi-person event based on the information on the sound about the target person 60 in step S105 described later, the control unit 11 outputs the sound information on the target person 60 in addition to the image on the target person 60 May be acquired.
続いて、制御部11は、複数人判定部112として、ステップS101において取得された画像に、複数人が写っているか否かを判定する(ステップS102)。 Subsequently, the control unit 11 determines whether or not a plurality of persons are included in the image acquired in step S101 as the multiple person determination unit 112 (step S102).
画像に複数人が写っていると判定しない場合(ステップS102:NO)、制御部11は、ステップS103の処理に進む。そして、制御部11は、イベント判定部113として、判定対象とする所定のイベントの種類を対象者イベントに設定し、ステップS101において取得された画像に基づいて、対象者イベントの判定処理を実行する(ステップS103)。そして、制御部11は、対象者イベントが発生したか否かを判定する(ステップS104)。すなわち、制御部11は、対象者イベントとして、対象者60の起床、離床、転落もしくは転倒等を含む所定の行動、ナースコールまたは微体動異常等が発生したか否かを判定する。 When it is not determined that a plurality of persons are included in the image (step S102: NO), the control unit 11 proceeds to the process of step S103. Then, the control unit 11 sets the type of the predetermined event to be determined as the subject event as the event determination unit 113, and executes the subject event determination process based on the image acquired in step S101. (Step S103). Then, the control unit 11 determines whether or not the target person event has occurred (Step S104). That is, the control unit 11 determines whether or not a predetermined action including wake-up, leaving the bed, falling, or falling of the subject 60, a nurse call, abnormal body movement, or the like has occurred as the subject person event.
対象者イベントが発生していないと判定する場合(ステップS104:NO)、制御部11は処理を終了する。 When it is determined that the target person event has not occurred (step S104: NO), the control unit 11 ends the process.
対象者イベントが発生したと判定する場合(ステップS104:YES)、制御部11は、後述するステップS107の処理に進む。 When determining that the target person event has occurred (step S104: YES), the control unit 11 proceeds to the process of step S107 described later.
一方、画像に複数人が写っていると判定する場合(ステップS102:YES)、制御部11は、ステップS105の処理に進む。そして、制御部11は、イベント判定部113として、判定対象とする所定のイベントの種類を複数人イベントに設定し、ステップS101において取得された情報に基づいて、複数人イベントの判定処理を実行する(ステップS105)。より具体的には、制御部11は、ステップS101において取得された画像および音の情報の少なくとも一方に基づいて、複数人イベントとしての暴力行為等の判定処理を実行する。そして、制御部11は、複数人イベントが発生したか否かを判定する(ステップS106)。 On the other hand, when it is determined that a plurality of persons are included in the image (step S102: YES), the control unit 11 proceeds to the process of step S105. Then, the control unit 11 sets the type of the predetermined event to be determined to be a multi-person event as the event determination unit 113, and performs a multi-person event determination process based on the information acquired in step S101. (Step S105). More specifically, the control unit 11 executes a determination process of a violent act as a multi-person event, based on at least one of the image and sound information acquired in step S101. Then, the control unit 11 determines whether a multiple-person event has occurred (Step S106).
複数人イベントが発生していないと判定する場合(ステップS106:NO)、制御部11は処理を終了する。 When it is determined that the multiple-person event has not occurred (step S106: NO), the control unit 11 ends the process.
複数人イベントが発生したと判定する場合(ステップS106:YES)、制御部11は、ステップS107の処理に進む。 When it is determined that the multiple-person event has occurred (step S106: YES), the control unit 11 proceeds to the process of step S107.
ステップS104またはS106がYESである場合、制御部11は、イベント通知部114として、対象者イベントまたは複数人イベントの発生をサーバー20等に通知する(ステップS107)。より具体的には、制御部11は、対象者イベントが発生したと判定した場合、対象者イベントの発生をサーバー20等に通知する。また、制御部11は、複数人イベントが発生したと判定した場合、複数人イベントの発生をサーバー20等に通知する。 If step S104 or S106 is YES, the control unit 11 notifies the server 20 or the like of the occurrence of the target person event or the multi-person event as the event notification unit 114 (step S107). More specifically, when determining that the subject event has occurred, the control unit 11 notifies the server 20 or the like of the occurrence of the subject event. When determining that a multi-person event has occurred, the control unit 11 notifies the server 20 or the like of the occurrence of the multi-person event.
続いて、制御部11は、動画処理部115として、情報取得部111によって取得された、イベントの発生時刻を含む所定の第1時間分の動画をサーバー20に送信し、サーバー20の記憶部22に記憶させる(ステップS108)。なお、制御部11は、ステップS106において複数人イベントが発生したと判定した場合のみ、ステップS108の処理を実行してもよい。また、上述したように、制御部11は、サーバー20に動画を常時送信している場合、イベントの発生時刻を含む所定の第1時間分の動画を切り出して記憶するように、サーバー20に指示してもよい。 Subsequently, the control unit 11 transmits the moving image for a predetermined first time including the event occurrence time acquired by the information acquiring unit 111 to the server 20 as the moving image processing unit 115, and stores the moving image in the storage unit 22 of the server 20. (Step S108). Note that the control unit 11 may execute the process of step S108 only when it is determined in step S106 that a multiple-person event has occurred. Further, as described above, when the moving image is constantly transmitted to the server 20, the control unit 11 instructs the server 20 to cut out and store the moving image for a predetermined first time including the event occurrence time. May be.
以上のように、第1実施形態では、取得された対象者60に関する情報に基づいて、対象者60を含む複数人に関する所定のイベントが発生したか否かが判定される。そして、複数人に関する所定のイベントが発生したと判定された場合、当該イベントの発生が通知される。これにより、複数人に関する所定のイベントとしての暴力行為等が、別途の監視カメラ等を用いることなく監視され、施設における暴力行為等が抑止される。 As described above, in the first embodiment, it is determined whether or not a predetermined event relating to a plurality of persons including the target person 60 has occurred based on the acquired information regarding the target person 60. When it is determined that a predetermined event relating to a plurality of persons has occurred, the occurrence of the event is notified. As a result, violence as a predetermined event relating to a plurality of persons is monitored without using a separate monitoring camera or the like, and violence or the like in the facility is suppressed.
また、取得された対象者60に関する画像に、複数人が写っているか否かが判定される。そして、画像に複数人が写っていないと判定された場合、判定対象とする所定のイベントの種類が対象者イベントに設定され、対象者イベントの発生の有無が判定される。一方、画像に複数人が写っていると判定された場合、判定対象とする所定のイベントの種類が複数人イベントに設定され、複数人イベントの発生の有無が判定される。すなわち、対象者イベントの判定処理および複数人イベントの判定処理のいずれか一方が、選択的に実行される。これにより、負荷が重い各々の判定処理が同時に実行されないで済み、処理の負荷が軽減され得る。 Further, it is determined whether or not a plurality of persons are included in the acquired image of the subject 60. If it is determined that a plurality of persons are not shown in the image, the type of the predetermined event to be determined is set as the target person event, and it is determined whether or not the target person event has occurred. On the other hand, if it is determined that a plurality of persons are present in the image, the type of the predetermined event to be determined is set to the multi-person event, and it is determined whether or not the multi-person event has occurred. That is, one of the subject person event determination process and the multi-person event determination process is selectively executed. This eliminates the need to simultaneously execute each of the heavy load determination processes, and can reduce the processing load.
また、制御部11は、イベントの発生時刻を含む所定の時間分の動画を、サーバー20の記憶部22に記憶させる。これにより、例えば、複数人イベントとしての暴力行為等の証拠となる動画が、記憶部22に記憶され得る。 Further, the control unit 11 causes the storage unit 22 of the server 20 to store a moving image for a predetermined time including the time of occurrence of the event. Thereby, for example, a moving image serving as evidence of violence as a multi-person event can be stored in the storage unit 22.
(第2実施形態)
以下、図11を参照して、本発明の第2実施形態に係る処理の手順について説明する。第1実施形態では、取得された画像に複数人が写っているか否かに基づいて、対象者イベントの判定処理および複数人イベントの判定処理のいずれか一方が、選択的に実行されると説明した。第2実施形態では、イベントの判定処理として、第1実施形態とは異なる処理が実行される。
(2nd Embodiment)
Hereinafter, the procedure of the process according to the second embodiment of the present invention will be described with reference to FIG. In the first embodiment, it is described that one of the subject event determination process and the multi-person event determination process is selectively executed based on whether or not a plurality of persons appear in the acquired image. did. In the second embodiment, a process different from that of the first embodiment is executed as the event determination process.
図11は、第2実施形態に係る処理の手順を示すフローチャートである。図11のフローチャートに示すアルゴリズムは、検出部10の記憶部12にプログラムとして記憶されており、制御部11によって実行される。なお、図11のステップS204以外の各ステップの処理は、図10の各ステップの処理と同様であるため、説明を省略する。ただし、ステップS201において、制御部11は、対象者60に関する情報として、対象者60に関する画像、または対象者60に関する音の情報のいずれか一方を取得してもよい。 FIG. 11 is a flowchart illustrating a procedure of a process according to the second embodiment. The algorithm shown in the flowchart of FIG. 11 is stored as a program in the storage unit 12 of the detection unit 10, and is executed by the control unit 11. The processing in each step other than step S204 in FIG. 11 is the same as the processing in each step in FIG. However, in step S201, the control unit 11 may acquire, as the information regarding the target person 60, either an image regarding the target person 60 or sound information regarding the target person 60.
図11に示すように、制御部11は、取得された画像に複数人が写っているか否かに関わらず、イベント判定部113として、対象者イベントの判定処理および複数人イベントの判定処理の両方を実行する。すなわち、制御部11は、判定対象とする所定のイベントの種類を、対象者イベントおよび複数人イベントのいずれか一方に制限せずに、対象者イベントの判定処理および複数人イベントの判定処理の両方を実行する。そして、制御部11は、ステップS204において、イベント判定部113として、対象者イベントまたは複数人イベントが発生したか否かを判定する。 As shown in FIG. 11, the control unit 11 performs both the subject person event determination process and the multi-person event determination process as the event determination unit 113 regardless of whether or not the acquired image includes a plurality of people. Execute That is, the control unit 11 does not limit the type of the predetermined event to be determined to either the target person event or the multi-person event, and performs both the target person event determination processing and the multi-person event determination processing. Execute Then, in step S204, the control unit 11 causes the event determination unit 113 to determine whether or not a target person event or a multi-person event has occurred.
以上のように、第2実施形態では、取得された画像に複数人が写っているか否かに関わらず、対象者イベントの判定処理および複数人イベントの判定処理の両方が実行される。これにより、画像に複数人が写っているか否かが明確でなく、複数人が写っているか否かが正しく判定されなかったり、複数人が写っているか否かの判定処理自体が実行されなかったりする場合でも、複数人イベントの判定処理が確実に実行される。したがって、複数人イベントとしての暴力行為等の検出精度が向上され得る。 As described above, in the second embodiment, both the target person event determination processing and the multi-person event determination processing are executed regardless of whether or not a plurality of persons are included in the acquired image. As a result, it is not clear whether or not a plurality of people are included in the image, and it is not correctly determined whether or not a plurality of people are captured, or the determination process itself of whether or not a plurality of people are captured is not performed. However, the determination process of the multi-person event is executed reliably. Therefore, the detection accuracy of a violent act as a multi-person event can be improved.
なお、本発明は、上述した実施形態に限定されず、特許請求の範囲内において、種々の変更や改良等が可能である。 Note that the present invention is not limited to the above-described embodiment, and various changes and improvements can be made within the scope of the claims.
例えば、上述した実施形態では、複数人イベントが発生したと判定された場合、複数人イベントの発生が通知される場合を例に挙げて説明したが、本発明はこれに限定されない。 For example, in the above-described embodiment, the case where the occurrence of the multi-person event is notified when it is determined that the multi-person event has occurred has been described as an example, but the present invention is not limited to this.
検出部10は、例えば、複数人イベントが発生したと判定した場合、複数人イベントの発生を対象者イベントの発生として通知してもよい。より具体的には、検出部10は、図10のステップS107または図11のステップS205において、複数人イベントとしての暴力行為等の発生を、例えば対象者60の転倒のイベントの発生として、サーバー20に通知してもよい。なお、検出部10は、複数人イベントの発生を、対象者60の転倒以外のイベントの発生として通知してもよいが、通知される対象者イベントは、スタッフ70等のユーザーによって通知を無効化されないイベントであることが好ましい。そして、サーバー20は、固定端末30および携帯端末40の少なくとも一方に、例えば対象者60の転倒のイベントの発生を通知してもよい。これにより、複数人イベントとして暴力行為等が検出されることが、スタッフ70等に知られずに済む。したがって、スタッフ70が、自身の行動も判定対象とされることを意識して慎重に行動し過ぎたり、対象者60への対応を行うことを躊躇したりする事態が回避され得る。一方、サーバー20は、例えば転倒の動画として暴力行為等の動画を記憶し、固定端末30および携帯端末40の少なくとも一方は、例えば転倒の画像として暴力行為等の画像を表示する。これにより、暴力行為等が検出され得ることが、スタッフ70等に知られずに済む一方、暴力行為等の証拠となる動画が記憶されたり、暴力行為等の画像がユーザーに表示されたりすることによって、暴力行為等が抑止される。 For example, when the detection unit 10 determines that a multi-person event has occurred, the detection unit 10 may notify the occurrence of the multi-person event as the occurrence of the target person event. More specifically, in step S107 in FIG. 10 or step S205 in FIG. 11, the detection unit 10 determines that the occurrence of a violent act or the like as a multiple-person event has occurred, May be notified. The detection unit 10 may notify the occurrence of the multi-person event as the occurrence of an event other than the fall of the target person 60. However, the notification of the target person event to be notified is invalidated by the user such as the staff 70. Preferably, the event is not performed. Then, the server 20 may notify at least one of the fixed terminal 30 and the portable terminal 40 of the occurrence of the event of the fall of the subject 60, for example. As a result, the fact that a violent act or the like is detected as a multiple-person event does not have to be known to the staff 70 or the like. Therefore, it is possible to avoid a situation in which the staff member 70 acts too cautiously, taking into account that his / her own behavior is also a determination target, or hesitates to deal with the target person 60. On the other hand, the server 20 stores, for example, a moving image such as a violent act as a moving image of a fall, and at least one of the fixed terminal 30 and the portable terminal 40 displays, for example, an image of a violent act or the like as a fall image. Thus, it is not necessary for the staff 70 or the like to know that a violent act or the like can be detected. , Violence, etc. are deterred.
また、検出部10は、複数人イベントが発生したと判定した場合において、対象者イベントの発生として通知するとき、見守りシステム1の管理者や、スタッフ70を統括する責任者等のみによって確認される情報を付加して、サーバー20に通知してもよい。あるいは、検出部10が、複数人イベントの発生をサーバー20に通常通りに通知する一方、サーバー20が、複数人イベントの発生を対象者イベントの発生として、当該情報を付加して、固定端末30および携帯端末40の少なくとも一方に通知してもよい。当該情報は、複数人イベントの発生が、対象者イベントの発生として通知されることを示すフラグ等であってもよい。したがって、複数人イベントとして暴力行為等が検出され得ることが、スタッフ70等に知られずに済む一方、管理者または責任者等は、例えば固定端末30等を介して当該情報を確認することによって、暴力行為等を抑止できる。 In addition, when the detection unit 10 determines that a multi-person event has occurred, when notifying that a target person event has occurred, the detection unit 10 is confirmed only by the manager of the watching system 1 or the person in charge of the staff 70. The information may be added to notify the server 20. Alternatively, the detection unit 10 notifies the server 20 of the occurrence of the multi-person event as usual, while the server 20 determines that the occurrence of the multi-person event is the occurrence of the subject event and adds the information to the fixed terminal 30. And at least one of the portable terminals 40 may be notified. The information may be a flag or the like indicating that the occurrence of the multi-person event is notified as the occurrence of the target person event. Therefore, it is not necessary for the staff 70 or the like to know that a violent act or the like can be detected as a multi-person event. On the other hand, the administrator or the responsible person confirms the information via the fixed terminal 30 or the like. Violence can be suppressed.
また、検出部10は、複数人イベントが発生したと判定した場合でも、複数人イベントの発生を通知する処理自体を実行しなくてもよい。検出部10は、スタッフ70等のユーザーの指示に応じて、または自動的に、複数人イベントの通知を有効化したり無効化したりしてもよい。例えば、検出部10は、当該通知を通常は有効化する一方、対象者60の家族が対象者60を訪問している時間帯等の、複数人イベントの発生が誤判定される可能性が高い場合には、当該通知を無効化してもよい。あるいは、検出部10は、当該通知を通常は無効化する一方、勤務中のスタッフ70の人数が少ない夜間の時間帯等の、複数人イベントが発生する可能性が高い場合には、当該通知を有効化してもよい。これにより、処理の負荷が軽減され得る。なお、検出部10は、複数人イベントの発生を通知しない場合でも、複数人イベントの発生時刻を含む所定の第1時間分の動画を送信する処理については実行してもよい。これにより、複数人イベントの発生についての誤判定が多い場合等に、複数人イベントの通知が無効化されたときでも、記憶された動画が後から確認されることによって、複数人イベントとしての暴力行為等が抑止される。 Further, even when it is determined that the multi-person event has occurred, the detection unit 10 does not have to execute the process of notifying the occurrence of the multi-person event. The detection unit 10 may enable or disable the notification of the multi-person event in response to an instruction of a user such as the staff 70 or automatically. For example, the detection unit 10 normally activates the notification, while it is highly likely that the occurrence of a multi-person event, such as a time period during which the family of the target person 60 is visiting the target person 60, is erroneously determined. In such a case, the notification may be invalidated. Alternatively, the detection unit 10 normally invalidates the notification, and when there is a high possibility that a multi-person event will occur, such as during a nighttime when the number of staff members 70 at work is small, the detection unit 10 will disable the notification. May be activated. Thereby, the processing load can be reduced. Note that, even when the detection of the occurrence of the multi-person event is not notified, the detection unit 10 may execute the process of transmitting the moving image for a predetermined first time including the occurrence time of the multi-person event. As a result, even when the notification of the multi-person event is invalidated, for example, when there is a large number of erroneous determinations about the occurrence of the multi-person event, the stored moving image can be checked later, and the violence as the multi-person event can be confirmed. Acts are deterred.
また、上述した実施形態では、検出部10が、複数人イベントの発生をサーバー20に通知する場合を例に挙げて説明したが、本発明はこれに限定されない。検出部10は、例えば、複数人イベントが発生したと判定した場合、音を出力することによって、複数人イベントの発生を周囲の人物に通知してもよい。より具体的には、検出部10は、図10のステップS107または図11のステップS205において、音入出力部15に注意を促す音を出力させることによって、複数人イベントの発生を周囲の人物に通知してもよい。この場合、検出部10の制御部11は、イベント通知部114として、音入出力部15を制御する。注意を促す音の例としては、例えば、チャイムや音楽、所定の音声等が挙げられるが、これらに限定されない。これにより、検出部10は、複数人イベントとしての暴力行為等の発生を、暴力行為等を行っている人物や、暴力行為等を止めることができる周囲のスタッフ70等に通知できるため、暴力行為等が効果的に抑止される。 Further, in the above-described embodiment, the case where the detection unit 10 notifies the server 20 of the occurrence of the multi-person event has been described as an example, but the present invention is not limited to this. For example, when it is determined that a multi-person event has occurred, the detection unit 10 may output a sound to notify a surrounding person of the occurrence of the multi-person event. More specifically, in step S107 of FIG. 10 or step S205 of FIG. 11, the detection unit 10 outputs a sound that calls attention to the sound input / output unit 15 to notify the surrounding people of the occurrence of the multi-person event. You may be notified. In this case, the control unit 11 of the detection unit 10 controls the sound input / output unit 15 as the event notification unit 114. Examples of sounds that call attention include, but are not limited to, chimes, music, and predetermined sounds. Accordingly, the detection unit 10 can notify the occurrence of the violence or the like as a multi-person event to a person who is performing the violence or the like, a staff member 70 or the like who can stop the violence, or the like. Etc. are effectively suppressed.
また、検出部10、サーバー20、固定端末30および携帯端末40における少なくとも一部の処理は、他の装置においてそれぞれ実行されてもよい。例えば、上述した実施形態では、図10および図11の処理が、検出部10において実行される場合を例に挙げて説明したが、当該処理は、サーバー20、固定端末30または携帯端末40において実行されてもよい。この場合、サーバー20、固定端末30または携帯端末40は、検出部10から対象者60に関する情報を取得して、当該処理を実行すればよい。これにより、上述した実施形態に係る処理が、リソース等の都合上、検出部10において実行され得ない場合でも、複数人イベントとしての暴力行為等が抑止される。 Further, at least a part of the processing in the detection unit 10, the server 20, the fixed terminal 30, and the mobile terminal 40 may be respectively executed in other devices. For example, in the above-described embodiment, the case where the processing in FIGS. 10 and 11 is executed in the detection unit 10 has been described as an example, but the processing is executed in the server 20, the fixed terminal 30, or the mobile terminal 40. May be done. In this case, the server 20, the fixed terminal 30, or the mobile terminal 40 may acquire information about the target person 60 from the detection unit 10 and execute the process. Thereby, even when the processing according to the above-described embodiment cannot be executed in the detection unit 10 due to resources or the like, violence or the like as a multi-person event is suppressed.
また、上述した実施形態では、検出部10、サーバー20、固定端末30および携帯端末40をそれぞれ一つの装置として説明したが、本発明はこれに限定されない。例えば、各構成要素について、各種の判定処理を実行する情報処理装置と、その他の処理を実行する装置とが、別々に構成されてもよい。この場合、情報処理装置とその他の処理を実行する装置とは、有線または無線によって接続されてもよい。 Further, in the above-described embodiment, the detection unit 10, the server 20, the fixed terminal 30, and the mobile terminal 40 are described as one device, respectively, but the present invention is not limited to this. For example, for each component, an information processing device that executes various determination processes and a device that executes other processes may be separately configured. In this case, the information processing device and the device that executes other processing may be connected by wire or wirelessly.
また、上述した実施形態に係る処理は、上述したフローチャートのステップ以外のステップを含んでもよく、あるいは、上述したステップのうちの一部を含まなくてもよい。また、ステップの順序は、上述した実施形態に限定されない。さらに、各ステップは、他のステップと組み合わされて一つのステップとして実行されてもよく、他のステップに含まれて実行されてもよく、複数のステップに分割されて実行されてもよい。 Further, the processing according to the above-described embodiment may include steps other than the steps in the above-described flowchart, or may not include some of the above-described steps. Further, the order of the steps is not limited to the above embodiment. Further, each step may be executed as one step in combination with another step, may be executed by being included in another step, or may be executed by being divided into a plurality of steps.
また、上述した実施形態に係る見守りシステム1における各種処理を行う手段および方法は、専用のハードウエア回路、およびプログラムされたコンピューターのいずれによっても実現することが可能である。上述したプログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上述したプログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能として各装置のソフトウェアに組み込まれてもよい。 The means and method for performing various processes in the watching system 1 according to the above-described embodiment can be realized by any of a dedicated hardware circuit and a programmed computer. The above-described program may be provided by a computer-readable recording medium such as a USB memory or a DVD (Digital Versatile Disc) -ROM, or may be provided online via a network such as the Internet. In this case, the program recorded on the computer-readable recording medium is usually transferred to and stored in a storage unit such as a hard disk. Further, the above-described program may be provided as independent application software, or may be incorporated as one function into the software of each device.
1 見守りシステム、
10 検出部、
11 制御部、
111 情報取得部、
112 複数人判定部、
113 イベント判定部、
114 イベント通知部、
115 動画処理部、
116 通話処理部、
117 ストリーミング配信部、
12 記憶部、
13 通信部、
14 撮影部、
15 音入出力部、
16 ナースコール入力部、
20 サーバー、
21 制御部、
211 監視処理部、
212 イベント通知部、
213 動画処理部、
22 記憶部、
23 通信部、
30 固定端末、
40 携帯端末、
41 制御部、
411 監視処理部、
412 通話処理部、
413 ストリーミング再生部、
42 記憶部、
43 通信部、
44 表示部、
45 操作入力部、
46 音入出力部、
47 インターフェース部、
50 ネットワーク、
51 アクセスポイント、
60 対象者、
70 スタッフ。
1 Watching system,
10 detector,
11 control unit,
111 information acquisition unit,
112 multi-person determination unit,
113 event determination unit,
114 event notification unit,
115 video processing unit,
116 call processing unit,
117 streaming distribution unit,
12 storage unit,
13 communication unit,
14 shooting section,
15 sound input / output unit,
16 Nurse call input section,
20 servers,
21 control part,
211 monitoring processing unit,
212 event notification unit,
213 video processing unit,
22 storage unit,
23 communication section,
30 fixed terminals,
40 mobile terminals,
41 control unit,
411 monitoring processing unit,
412 call processing unit,
413 streaming playback unit,
42 storage unit,
43 communication unit,
44 display,
45 operation input unit,
46 sound input / output unit,
47 interface section,
50 networks,
51 access points,
60 subjects,
70 staff.
Claims (14)
前記対象者に関する情報を取得する情報取得部と、
前記情報取得部によって取得された前記情報に基づいて、前記対象者を含む複数人に関する所定のイベントが発生したか否かを判定するイベント判定部と、
前記イベント判定部によって前記複数人に関する所定のイベントが発生したと判定された場合、前記複数人に関する所定のイベントの発生を通知するイベント通知部と、
を有する見守り装置。 A watching device that notifies the occurrence of a predetermined event related to a target person who is a watching target,
An information acquisition unit that acquires information about the target person,
Based on the information acquired by the information acquisition unit, an event determination unit that determines whether a predetermined event related to a plurality of persons including the target person has occurred,
When it is determined that the predetermined event related to the plurality of people has occurred by the event determination unit, an event notification unit that notifies the occurrence of the predetermined event related to the plurality of people,
Watching device with.
前記イベント判定部は、前記情報取得部によって取得された前記画像に基づいて、前記複数人に関する所定のイベントが発生したか否かを判定する請求項1に記載の見守り装置。 The information acquisition unit acquires an image of the subject,
The watching device according to claim 1, wherein the event determination unit determines whether a predetermined event related to the plurality of people has occurred based on the image acquired by the information acquisition unit.
前記イベント判定部は、前記情報取得部によって取得された前記音の情報に基づいて、前記複数人に関する所定のイベントが発生したか否かを判定する請求項1〜4のいずれか一項に記載の見守り装置。 The information acquisition unit acquires sound information about the subject,
The event determination unit according to any one of claims 1 to 4, wherein the event determination unit determines whether a predetermined event related to the plurality of people has occurred based on the sound information acquired by the information acquisition unit. Watching device.
前記イベント判定部は、
前記複数人判定部によって前記画像に前記複数人が写っていないと判定された場合、判定対象とする所定のイベントの種類を前記対象者に関する所定のイベントに設定し、前記対象者に関する所定のイベントが発生したか否かを判定し、
前記複数人判定部によって前記画像に前記複数人が写っていると判定された場合、前記判定対象とする所定のイベントの種類を前記複数人に関する所定のイベントに設定し、前記複数人に関する所定のイベントが発生したか否かを判定する請求項1〜7のいずれか一項に記載の見守り装置。 The image about the subject acquired by the information acquisition unit, further comprising a plurality of people determination unit to determine whether or not the plurality of people are shown,
The event determination unit includes:
When it is determined that the plurality of persons are not shown in the image by the plurality of persons determination unit, a type of a predetermined event to be determined is set to a predetermined event regarding the target person, and a predetermined event regarding the target person is set. Judge whether or not has occurred,
When the plurality of persons is determined to be present in the image by the plurality of persons determination unit, the type of the predetermined event to be determined is set to a predetermined event regarding the plurality of persons, and a predetermined event regarding the plurality of persons is set. The watching device according to any one of claims 1 to 7, wherein it is determined whether an event has occurred.
前記対象者に関する情報を取得する取得ステップと、
前記取得ステップにおいて取得された前記情報に基づいて、前記対象者を含む複数人に関する所定のイベントが発生したか否かを判定する判定ステップと、
前記判定ステップにおいて前記複数人に関する所定のイベントが発生したと判定された場合、当該複数人に関する所定のイベントの発生を通知する通知ステップと、
を含む処理をコンピューターに実行させるための制御プログラム。 A control program for a watching device that notifies occurrence of a predetermined event related to a target person who is a watching target,
An acquisition step of acquiring information on the target person,
Based on the information obtained in the obtaining step, a determining step of determining whether a predetermined event related to a plurality of persons including the target person has occurred,
A notification step of notifying the occurrence of the predetermined event related to the plurality of persons when it is determined that the predetermined event related to the plurality of persons has occurred in the determination step;
A control program that causes a computer to execute processing that includes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018132996A JP2020013185A (en) | 2018-07-13 | 2018-07-13 | Watching device and watching device control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018132996A JP2020013185A (en) | 2018-07-13 | 2018-07-13 | Watching device and watching device control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020013185A true JP2020013185A (en) | 2020-01-23 |
Family
ID=69170620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018132996A Pending JP2020013185A (en) | 2018-07-13 | 2018-07-13 | Watching device and watching device control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020013185A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111524318A (en) * | 2020-04-26 | 2020-08-11 | 中控华运(厦门)集成电路有限公司 | Intelligent health condition monitoring method and system based on behavior recognition |
KR102635351B1 (en) * | 2022-10-18 | 2024-02-13 | (주)이미지데이 | Crime prevention system |
-
2018
- 2018-07-13 JP JP2018132996A patent/JP2020013185A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111524318A (en) * | 2020-04-26 | 2020-08-11 | 中控华运(厦门)集成电路有限公司 | Intelligent health condition monitoring method and system based on behavior recognition |
CN111524318B (en) * | 2020-04-26 | 2022-03-01 | 熵基华运(厦门)集成电路有限公司 | Intelligent health condition monitoring method and system based on behavior recognition |
KR102635351B1 (en) * | 2022-10-18 | 2024-02-13 | (주)이미지데이 | Crime prevention system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6784213B2 (en) | Observed person monitoring system | |
US20190046080A1 (en) | Monitoring target person monitoring device, method, and system | |
JP6852733B2 (en) | Living body monitoring device and living body monitoring method | |
JP7138619B2 (en) | Monitoring terminal and monitoring method | |
JPWO2017082037A1 (en) | Central processing unit and method of monitored person monitoring system, and monitored person monitoring system | |
JP6292283B2 (en) | Behavior detection device, behavior detection method, and monitored person monitoring device | |
JP2020013185A (en) | Watching device and watching device control program | |
US20180322334A1 (en) | Person Monitoring Device And Method, And Person Monitoring System | |
WO2018016392A1 (en) | Orientation detection device and orientation detection method | |
JP6318192B2 (en) | Emergency call device and system | |
JP7137155B2 (en) | Monitored Person Monitoring Support System, Monitored Person Monitoring Support Method and Program | |
JP6504255B2 (en) | Care support system and care support method | |
JP7351339B2 (en) | Image processing system, image processing program, and image processing method | |
JP7500929B2 (en) | IMAGE PROCESSING SYSTEM, IMAGE PROCESSING PROGRAM, AND IMAGE PROCESSING METHOD | |
JP7327396B2 (en) | Control program, report output method, and report output device | |
JP7425413B2 (en) | Monitored person monitoring support device, monitored person monitoring support method, monitored person monitoring support system, and monitored person monitoring support server device | |
JP2020140418A (en) | Mobile terminal control program, mobile terminal, and monitoring system | |
JP6292363B2 (en) | Terminal device, terminal device display method, and monitored person monitoring system | |
WO2021024691A1 (en) | Image processing system, image processing program, and image processing method | |
JP2020052808A (en) | Supervision device, supervision system, supervision program, and supervision method | |
WO2021033597A1 (en) | Image processing system, image processing program, and image processing method | |
JP7264066B2 (en) | Monitored Person Monitoring Support System | |
JP7247898B2 (en) | Monitored person monitoring system | |
JP7338268B2 (en) | Monitoring system and monitoring method | |
JP2020184201A (en) | Information reporting program, information processing device, and method to be executed by computer in order to report information |