JPWO2020003704A1 - Control program, report output method, and report output device - Google Patents

Control program, report output method, and report output device Download PDF

Info

Publication number
JPWO2020003704A1
JPWO2020003704A1 JP2020527229A JP2020527229A JPWO2020003704A1 JP WO2020003704 A1 JPWO2020003704 A1 JP WO2020003704A1 JP 2020527229 A JP2020527229 A JP 2020527229A JP 2020527229 A JP2020527229 A JP 2020527229A JP WO2020003704 A1 JPWO2020003704 A1 JP WO2020003704A1
Authority
JP
Japan
Prior art keywords
event
target person
information
procedure
report
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020527229A
Other languages
Japanese (ja)
Other versions
JP7327396B2 (en
Inventor
寛 古川
寛 古川
武士 阪口
武士 阪口
海里 姫野
海里 姫野
恵美子 寄▲崎▼
恵美子 寄▲崎▼
遠山 修
修 遠山
藤原 浩一
浩一 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2020003704A1 publication Critical patent/JPWO2020003704A1/en
Application granted granted Critical
Publication of JP7327396B2 publication Critical patent/JP7327396B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G12/00Accommodation for nursing, e.g. in hospitals, not covered by groups A61G1/00 - A61G11/00, e.g. trolleys for transport of medicaments or food; Prescription lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M9/00Arrangements for interconnection not involving centralised switching

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Tourism & Hospitality (AREA)
  • Biomedical Technology (AREA)
  • Marketing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Child & Adolescent Psychology (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Nursing (AREA)
  • Economics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Alarm Systems (AREA)

Abstract

イベントの発生の未然の防止に役立つ、イベントの発生状況の分析結果を可視化したレポートを出力する。事故に繋がる可能性がある所定のイベントのイベント情報、および、このイベント情報に関連付けられた画像データを取得し、対象者70について、イベントの発生状況の情報、または、イベントの発生状況の情報および画像データを用いて、イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成し、これを出力する。Outputs a report that visualizes the analysis results of the event occurrence status, which is useful for preventing the occurrence of events. The event information of a predetermined event that may lead to an accident and the image data associated with this event information are acquired, and for the target person 70, the event occurrence status information or the event occurrence status information and By analyzing the occurrence status of events using image data, a report that visualizes the analysis results is created and output.

Description

本発明は制御プログラム、レポート出力方法、およびレポート出力装置に関し、スタッフにより対応が行われる対象者に関するレポートを出力する制御プログラム、レポート出力方法、およびレポート出力装置に関する。 The present invention relates to a control program, a report output method, and a report output device, and relates to a control program, a report output method, and a report output device that output a report about a target person to be dealt with by staff.

我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢などにより、介護を必要とする被介護者等の増加が想定される。 In Japan, the longevity of life has become remarkable due to the improvement of living standards, the improvement of sanitary environment, and the improvement of medical standards due to the high economic growth after the war. For this reason, coupled with the decline in the birth rate, the aging society has a high aging rate. In such an aging society, it is expected that the number of long-term care recipients will increase due to illness, injury, and aging.

要介護者等は、病院や老人福祉施設などの施設において、歩行中に転倒したり、ベッドから転落して怪我をしたりする虞がある。そのため、要介護者等がこのような状態になったときに看護師や介護士がすぐに駆けつけられるようにするために、要介護者等の状態を検知するためのシステムの開発が進められている。 People requiring long-term care may fall while walking or fall out of bed and get injured in facilities such as hospitals and welfare facilities for the elderly. Therefore, in order for nurses and caregivers to be able to rush immediately when a person requiring long-term care becomes in such a state, the development of a system for detecting the state of the person requiring long-term care is being promoted. There is.

このようなシステムとして特許文献1に開示されたナースコールシステムにおいては、患者のベッドに対して設置されたカメラの撮像映像から、患者の起床、離床のいずれかの状態になったか否かを判断する。そして、起床、または離床が行われた場合には、ナースステーションに設けられたナースコール親機に、カメラの撮像映像を表示させている。 In the nurse call system disclosed in Patent Document 1 as such a system, it is determined from the image captured by the camera installed on the patient's bed whether or not the patient is in a state of getting up or getting out of bed. To do. Then, when the person gets up or gets out of bed, the nurse call master unit provided in the nurse station displays the captured image of the camera.

また、介護業務に関し、事故やこれに繋がるヒヤリハットの対策が誤っていることによりヒヤリハット事例を再発させないために、特許文献2では、対策が必要なヒヤリハット事例が発生したか否かを判別する医療介護支援装置が開示されている。この医療介護支援装置では、介護担当者により入力されるケース記録と、データベースに記録されている過去のヒヤリハット事例との類似度合い(是正通知ヒット率)を算出し、是正通知ヒット率が所定値以上であった場合に、改善が必要な対策情報として特定している。 In addition, in order to prevent the recurrence of a hiyari hat case due to an accident or an incorrect countermeasure for the hiyari hat that leads to the accident, in patent document 2, medical care to determine whether or not a hiyari hat case requiring countermeasures has occurred. The support device is disclosed. In this medical care support device, the degree of similarity (correction notification hit rate) between the case record input by the caregiver and the past hiyari hat cases recorded in the database is calculated, and the correction notification hit rate is equal to or higher than the predetermined value. If so, it is specified as countermeasure information that needs improvement.

特開2014−90913号公報Japanese Unexamined Patent Publication No. 2014-90913 特開2013−191184号公報Japanese Unexamined Patent Publication No. 2013-191184

しかしながら、特許文献1に開示されたナースコールシステムでは、ベッドにいる患者の起床、離床については、検知できるが、事故やヒヤリハットを未然に防ぐことにはできない。また、特許文献2に開示された医療介護支援装置は、発生したヒヤリハットを過去の事例と比較することで、過去のヒヤリハットへの対策が誤っていることを特定するものであり、事故やこれに繋がるヒヤリハットの発生を未然に防ぐものではない。 However, the nurse call system disclosed in Patent Document 1 can detect getting up and getting out of bed of a patient in bed, but cannot prevent accidents and hiatus. In addition, the medical care and long-term care support device disclosed in Patent Document 2 identifies that the countermeasures against the past hiyari hats are incorrect by comparing the generated hiyari hats with the past cases. It does not prevent the occurrence of connected hiyari hats.

本発明は、上記事情に鑑みてなされたものであり、事故に繋がる可能性があるイベントを分析することで、イベントの発生の未然の防止に役立つレポートを出力可能な制御プログラム、レポート出力方法、およびレポート出力装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and is a control program, a report output method, which can output a report useful for preventing the occurrence of an event by analyzing an event that may lead to an accident. And to provide a report output device.

本発明の上記課題は、以下の手段によって解決される。 The above object of the present invention is solved by the following means.

(1)蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する手順(b)と、
前記手順(b)において作成されたレポートを出力する手順(c)と、
を含む処理をコンピューターに実行させるための制御プログラム。
(1) Based on the accumulated event information of a predetermined event that may lead to an accident and the image data associated with the event, which is the output of the detection unit that detects the movement of the target person in the observation area. The event information that recorded the predetermined event regarding the target person in the observation area for which the occurrence was determined, and the image obtained by photographing the observation area for a predetermined period including the time when the event occurred. Procedure (a) for acquiring data and
The analysis result is visualized by analyzing the occurrence status of the event with respect to the target person using the information on the occurrence status of the event, or using the information on the occurrence status of the event and the image data. Procedure (b) to create the report to be
The procedure (c) for outputting the report created in the above procedure (b) and
A control program that causes a computer to perform processing that includes.

(2)前記イベントの前記発生状況の情報には、前記イベントの発生件数、および発生時刻が含まれる、上記(1)に記載の制御プログラム。 (2) The control program according to (1) above, wherein the information on the occurrence status of the event includes the number of occurrences of the event and the occurrence time.

(3)所定の前記イベントには、前記対象者の転倒を判定した転倒のイベント、または前記対象者の転落を判定した転落のイベントが含まれる、上記(1)、または上記(2)に記載の制御プログラム。 (3) The above-mentioned (1) or (2), wherein the predetermined event includes a fall event in which the fall of the target person is determined, or a fall event in which the fall of the target person is determined. Control program.

(4)前記対象者への対応を行うスタッフは、携帯端末を携帯し、
前記イベントが発生することに応じて、前記スタッフが前記携帯端末を通じて入力した、前記イベントを確認したことを示す情報が、前記イベント情報に含まれる、上記(1)から上記(3)のいずれかに記載の制御プログラム。
(4) The staff who responds to the target person carry a mobile terminal and carry it.
Any one of the above (1) to (3), wherein the information indicating that the event has been confirmed, which is input by the staff through the mobile terminal in response to the occurrence of the event, is included in the event information. The control program described in.

(5)前記手順(b)は、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データを、表示する手順(b1)と、
ユーザーによるコメントの入力を受け付ける手順(b2)と、を含み、
前記手順(c)では、前記手順(b2)で受け付けた、前記コメントを含む前記レポートを作成する、上記(1)から上記(4)のいずれかに記載の制御プログラム。
(5) The procedure (b) includes a procedure (b1) of displaying the image data of the target person in a period before and after the time when the number of occurrences of the event per unit period increases.
Including the procedure (b2) for accepting comment input by the user.
In the procedure (c), the control program according to any one of (1) to (4) above, which creates the report including the comment received in the procedure (b2).

(6)さらに、前記手順(a)で取得した前記イベント情報に基づいて、前記対象者について、前記イベントの単位期間当たりの発生件数の増加の発生有無を判定し、増加の発生を判定した場合には、前記対象者の前記イベントに関し、注意を促すコメントを作成する手順(d)を含み、
前記手順(b)では、前記手順(d)において作成した前記コメントを含む前記レポートを作成する、上記(1)から上記(4)のいずれかに記載の制御プログラム。
(6) Further, when it is determined whether or not the number of occurrences of the event has increased per unit period for the target person based on the event information acquired in the procedure (a), and the occurrence of the increase is determined. Includes step (d) of creating a cautionary comment regarding the event of the subject.
The control program according to any one of (1) to (4) above, wherein in the procedure (b), the report including the comment created in the procedure (d) is created.

(7)前記手順(b)で作成する前記レポートには、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データが含まれる、上記(1)から上記(6)のいずれかに記載の制御プログラム。 (7) The report created in the procedure (b) includes the image data of the target person during the period before and after the time when the number of occurrences of the event per unit period increased. The control program according to any one of 1) to (6) above.

(8)蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する手順(b)と、
前記手順(b)において作成されたレポートを出力する手順(c)と、
を含むレポート出力方法。
(8) Based on the accumulated event information of a predetermined event that may lead to an accident and the image data associated with the event, which is the output of the detection unit that detects the movement of the target person in the observation area. The event information that recorded the predetermined event regarding the target person in the observation area for which the occurrence was determined, and the image obtained by photographing the observation area for a predetermined period including the time when the event occurred. Procedure (a) for acquiring data and
The analysis result is visualized by analyzing the occurrence status of the event with respect to the target person using the information on the occurrence status of the event, or using the information on the occurrence status of the event and the image data. Procedure (b) to create the report to be
The procedure (c) for outputting the report created in the above procedure (b) and
Report output method including.

(9)蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する取得部と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する作成部と、
前記作成部において作成されたレポートを出力する出力部と、
を備える、レポート出力装置。
(9) Based on the accumulated event information of a predetermined event that may lead to an accident and the image data associated with the event, which is the output of the detection unit that detects the movement of the target person in the observation area. The event information that recorded the predetermined event regarding the target person in the observation area for which the occurrence was determined, and the image obtained by photographing the observation area for a predetermined period including the time when the event occurred. The acquisition department that acquires data and
The analysis result is visualized by analyzing the occurrence status of the event with respect to the target person using the information on the occurrence status of the event, or using the information on the occurrence status of the event and the image data. The creation department that creates the report to be
An output unit that outputs the report created in the creation unit, and
A report output device.

本発明によれば、事故に繋がる可能性がある所定のイベントのイベント情報、および、このイベント情報に関連付けられた画像データを取得し、対象者について、イベントの発生状況の情報、または、イベントの発生状況の情報、および画像データを用いて、イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成し、これを出力する。これにより、事故に繋がる可能性のあるイベントの発生の未然の防止に役立つレポートを出力できる。 According to the present invention, event information of a predetermined event that may lead to an accident and image data associated with this event information are acquired, and information on the occurrence status of the event or information on the event occurrence status of the target person or the event By analyzing the occurrence status of the event using the information on the occurrence status and the image data, a report in which the analysis result is visualized is created and output. This makes it possible to output a report that helps prevent the occurrence of events that may lead to accidents.

見守りシステムの全体構成を示す図である。It is a figure which shows the whole structure of a watching system. 対象者の部屋に設置された検出部の例を示す図である。It is a figure which shows the example of the detection part installed in the room of a subject. 検出部の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the detection part. サーバーの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of a server. スタッフ端末の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the staff terminal. 見守りシステムの処理の手順を示すシーケンスチャートである。It is a sequence chart which shows the processing procedure of a monitoring system. 記憶部に記憶されるイベントリストの例である。This is an example of an event list stored in the storage unit. スタッフ端末に表示されるイベントの確認を行うための操作画面の例である。This is an example of an operation screen for checking the event displayed on the staff terminal. 第1の実施形態におけるレポートの出力処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of output processing of the report in 1st Embodiment. ある対象者における、転落・転倒の分析結果を可視化した例を示す図である。It is a figure which shows the example which visualized the analysis result of a fall / fall in a certain subject. 可視化した分析結果を出力したレポートの例を示す図である。It is a figure which shows the example of the report which output the visualized analysis result. 変形例におけるレポートの出力処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of output processing of a report in a modification.

以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted. In addition, the dimensional ratios in the drawings are exaggerated for convenience of explanation and may differ from the actual ratios.

(全体構成)
図1は本実施形態に係る見守りシステムの全体構成を示す図であり、図2は対象者の部屋のベッド周辺に設置された検出部の例を示す図である。
(overall structure)
FIG. 1 is a diagram showing an overall configuration of a monitoring system according to the present embodiment, and FIG. 2 is a diagram showing an example of a detection unit installed around a bed in a subject's room.

図1に示すように、見守りシステム1は、複数の検出部10、サーバー20、固定端末30、および1つ以上のスタッフ端末40を備える。サーバー20は、レポート出力装置として機能する。これらは、有線や無線によって、LAN(Local Area Network)、電話網またはデータ通信網等のネットワーク50を介して、相互に通信可能に接続される。ネットワーク50は、通信信号を中継するリピーター、ブリッジ、ルーターまたはクロスコネクト等の中継機を備えてもよい。図1に示す例では、スタッフ端末40、検出部10、サーバー20、および固定端末30は相互に、アクセスポイント51を含む無線LAN等(例えばIEEE802.11規格に従ったLAN)のネットワーク50によって、通信可能に接続されている。 As shown in FIG. 1, the monitoring system 1 includes a plurality of detection units 10, a server 20, a fixed terminal 30, and one or more staff terminals 40. The server 20 functions as a report output device. These are connected to each other by wire or wirelessly via a network 50 such as a LAN (Local Area Network), a telephone network, or a data communication network so as to be communicable with each other. The network 50 may include repeaters such as repeaters, bridges, routers or cross-connects that relay communication signals. In the example shown in FIG. 1, the staff terminal 40, the detection unit 10, the server 20, and the fixed terminal 30 are connected to each other by a network 50 such as a wireless LAN including an access point 51 (for example, a LAN according to the IEEE802.11 standard). It is connected so that it can communicate.

見守りシステム1は、対象者70に応じて適宜な場所に配設される。対象者70(見守り対象者、ケア対象者ともいう)は、例えば、病気や怪我等によって看護を必要とする患者、高齢による身体能力の低下等によって介護を必要とする被介護者、または一人暮らしの独居者等である。特に、早期発見および早期対処を可能にする観点から、対象者70は、例えば異常状態等の所定の不都合な事象がその者に生じた場合に、その発見を必要としている者であり得る。このため、見守りシステム1は、対象者70の種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、見守りシステム1は、複数の対象者70が入居する複数の部屋(居室)やナースステーションを含む複数の部屋を備える施設に配置されている。 The watching system 1 is arranged at an appropriate place according to the target person 70. The target person 70 (also referred to as a person to be watched over or a person to be cared for) is, for example, a patient who needs nursing care due to illness or injury, a person to be cared for due to deterioration of physical ability due to old age, or a person living alone. Those who live alone. In particular, from the viewpoint of enabling early detection and early coping, the subject 70 may be a person who needs the detection when a predetermined inconvenient event such as an abnormal state occurs in the person. Therefore, the watching system 1 is suitably arranged in a building such as a hospital, a welfare facility for the elderly, and a dwelling unit according to the type of the subject 70. In the example shown in FIG. 1, the watching system 1 is arranged in a facility including a plurality of rooms (living rooms) in which a plurality of target persons 70 are occupying and a plurality of rooms including a nurse station.

検出部10は、対象者70の観察領域であるそれぞれの居室に配置される。図1に示す例では、4つの検出部10が対象者70であるAさん、Bさん、Cさん、およびDさんの居室にそれぞれ配置されている。検出部10の観察領域にはベッド60が含まれている。対象者70に対して看護または介護を行うスタッフ80(ケアスタッフ、または介護スタッフともいう)は、それぞれ携帯端末であるスタッフ端末40を持ち歩いている。ただし、見守りシステム1が備える各構成の位置や個数等は、図1に示す例に限定されない。例えば、サーバー20は、ナースステーションに配置されなくてもよく、ネットワーク50に接続されている外部のサーバーユニットであってもよい。また固定端末30を省略し、サーバー20またはスタッフ端末40がその機能を担ってもよい。 The detection unit 10 is arranged in each living room which is an observation area of the subject 70. In the example shown in FIG. 1, four detection units 10 are arranged in the living rooms of Mr. A, Mr. B, Mr. C, and Mr. D, who are the subjects 70, respectively. The observation area of the detection unit 10 includes a bed 60. The staff 80 (also referred to as a care staff or a care staff) who provides nursing or nursing care to the subject 70 carries a staff terminal 40, which is a mobile terminal, respectively. However, the position, number, and the like of each configuration included in the monitoring system 1 are not limited to the example shown in FIG. For example, the server 20 does not have to be located at the nurse station and may be an external server unit connected to the network 50. Further, the fixed terminal 30 may be omitted, and the server 20 or the staff terminal 40 may carry out the function.

(検出部10)
図3は検出部の概略構成を示すブロック図である。同図に示すように、検出部10は、制御部11、通信部12、カメラ13、ナースコール部14、および音声入出力部15を備え、これらはバスによって、相互に接続されている。
(Detection unit 10)
FIG. 3 is a block diagram showing a schematic configuration of the detection unit. As shown in the figure, the detection unit 10 includes a control unit 11, a communication unit 12, a camera 13, a nurse call unit 14, and a voice input / output unit 15, which are connected to each other by a bus.

制御部11は、CPU(Central Processing Unit)、およびRAM(Random Access Memory)、ROM(Read Only Memory)、等のメモリにより構成され、プログラムにしたがって検出部10の各部の制御および演算処理を行う。なお、制御部11は、メモリとして、さらにHDD(Hard Disk Drive)を備えてもよい。 The control unit 11 is composed of a memory such as a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), and controls and performs arithmetic processing of each part of the detection unit 10 according to a program. The control unit 11 may further include an HDD (Hard Disk Drive) as a memory.

通信部12は、ネットワーク50を介して、例えば、サーバー20、固定端末30またはスタッフ端末40等の、他の装置と通信するためのインターフェース回路(例えばLANカード等)である。 The communication unit 12 is an interface circuit (for example, a LAN card) for communicating with other devices such as a server 20, a fixed terminal 30, or a staff terminal 40 via a network 50.

カメラ13は、例えば居室の天井、または壁の上部に配置され、観察領域として真下にある対象者70のベッド60を含む領域を撮影し、撮影画像(画像データ)を出力する。この撮影画像には、静止画および動画を含む。カメラ13は近赤外線カメラであるが、これに換えて可視光カメラを用いてもよく、これらを併用してもよい。 The camera 13 is arranged on the ceiling or the upper part of the wall of the living room, for example, and photographs an area including the bed 60 of the subject 70 directly below as an observation area, and outputs a photographed image (image data). This captured image includes still images and moving images. Although the camera 13 is a near-infrared camera, a visible light camera may be used instead of the near-infrared camera, or these may be used in combination.

制御部11は、カメラ13が撮影した撮影画像から、対象者70の所定の行動の発生を判定(認識)する。この判定する所定の行動には、ベッド60から起き上がる「起床」、ベッド60から離れる「離床」、ベッド60から転落する「転落」、および床面等に転倒する「転倒」が含まれる。 The control unit 11 determines (recognizes) the occurrence of a predetermined action of the target person 70 from the captured image taken by the camera 13. The predetermined action to be determined includes "getting up" from the bed 60, "getting out of bed" away from the bed 60, "falling" to fall from the bed 60, and "falling" to fall to the floor surface or the like.

制御部11は、複数の撮影画像(動画)から画像のシルエット(以下、「人シルエット」と称する)を検出する。人シルエットは、例えば、撮影時刻が前後する画像の差分を抽出する時間差分法により差分が相対的に大きい画素の範囲を抽出することで検出され得る。人シルエットは、撮影画像と背景画像との差分を抽出する背景差分法により検出されてもよい。起床、離床、転落、転倒の別は、検出した人シルエットから対象者70の姿勢(例えば立位、座位および横臥等)、およびベッド60等の居室内の設置物との相対的な位置から認識される。これらの認識は、制御部11のCPUが処理するプログラムにより行ってもよく、組み込み型の処理回路により行うようにしてもよい。以下においては、制御部11側でイベントの種類、および発生有無の判定を行うものとして説明する。しかしながら、これに限られずサーバー20側でこれらの認識の全部またはほとんどの処理を行うようにし、制御部11ではサーバー20への撮影画像の送信のみを行うようにしてもよい。制御部11は、いずれかの種類の行動を認識した場合、その行動(後述のイベント)が発生した旨の通知をサーバー20等に送信する。 The control unit 11 detects an image silhouette (hereinafter, referred to as “human silhouette”) from a plurality of captured images (moving images). The human silhouette can be detected, for example, by extracting a range of pixels having a relatively large difference by the time difference method for extracting the difference between images whose shooting times are before and after. The human silhouette may be detected by the background subtraction method that extracts the difference between the photographed image and the background image. The distinction between getting up, getting out of bed, falling, and falling is recognized from the detected person silhouette from the posture of the subject 70 (for example, standing, sitting, lying down, etc.) and the position relative to the installation in the living room such as the bed 60. Will be done. These recognitions may be performed by a program processed by the CPU of the control unit 11, or may be performed by a built-in processing circuit. In the following, it will be described that the control unit 11 side determines the type of event and the presence / absence of occurrence. However, the present invention is not limited to this, and the server 20 may perform all or most of these recognition processes, and the control unit 11 may only transmit the captured image to the server 20. When the control unit 11 recognizes any type of action, the control unit 11 transmits a notification to the server 20 or the like that the action (event described later) has occurred.

スタッフ80は、業務に応じた、対象者70への各種の対応を行う者である。業務には、医療業務、介護業務を含み得る。ここで、スタッフ80の業務が、対象者70に対する介護業務である場合に、各イベントに関する対応内容について説明する。イベントとして「起床」を判定し、その判定が所定時間内(施設で設定された起床時間(例えば午前7〜8時))であれば、モーニングケアを行う。このモーニングケアには、洗顔、歯磨き介助、義歯装着、着替え介助等が含まれる。また、「離床」のイベントであれば、車椅子移乗、歩行介助が必要となる場合がある。また、検出部10が判定したイベント以外の定期的(定時)なイベントとして、飲料、および食事介助、排泄介助、車椅子移乗、歩行介助、体位変換(褥瘡予防)がある。これらの定期的イベントは、ナースコール部14等により、定時になるとアラートを発生させるようにしてもよい。 The staff 80 is a person who performs various responses to the target person 70 according to the work. The work may include medical work and long-term care work. Here, when the work of the staff 80 is a long-term care work for the target person 70, the contents of correspondence regarding each event will be described. "Wake-up" is judged as an event, and if the judgment is within a predetermined time (wake-up time set at the facility (for example, 7:00 to 8:00 am)), morning care is performed. This morning care includes face washing, tooth brushing assistance, denture wearing, change of clothes assistance, and the like. In addition, if it is an event of "getting out of bed", wheelchair transfer and walking assistance may be required. In addition, as regular (regular) events other than the event determined by the detection unit 10, there are beverages, meal assistance, excretion assistance, wheelchair transfer, walking assistance, and postural change (pressure ulcer prevention). For these regular events, an alert may be generated at a fixed time by the nurse call unit 14 or the like.

ナースコール部14は、押しボタン式のスイッチを含み、スイッチが対象者70によって押されることでナースコール(ケアコールともいう)を検出する。押しボタン式のスイッチに換えて、音声マイクによりナースコールを検出してもよい。ナースコール部14のスイッチが押された場合、すなわち、ナースコールを検出した場合、制御部11は、通信部12およびネットワーク50を介して、ナースコールがあった旨の通知(ナースコール通知)をサーバー20等に送信する。 The nurse call unit 14 includes a push button type switch, and detects a nurse call (also referred to as a care call) when the switch is pressed by the subject 70. The nurse call may be detected by a voice microphone instead of the push button type switch. When the switch of the nurse call unit 14 is pressed, that is, when the nurse call is detected, the control unit 11 notifies that there is a nurse call (nurse call notification) via the communication unit 12 and the network 50. Send to server 20 etc.

音声入出力部15は、例えばスピーカーとマイクであり、通信部12を介してスタッフ端末40等との間で音声信号を送受信することで音声通話を可能とする。なお、音声入出力部15は検出部10の外部装置として、通信部12を介して検出部10に接続されてもよい。 The voice input / output unit 15 is, for example, a speaker and a microphone, and enables a voice call by transmitting and receiving a voice signal to and from the staff terminal 40 and the like via the communication unit 12. The voice input / output unit 15 may be connected to the detection unit 10 via the communication unit 12 as an external device of the detection unit 10.

また、検出部10は、ベッド60の方向に向けてマイクロ波を送受信して対象者70の体動(例えば呼吸動)によって生じたマイクロ波のドップラシフトを検出するドップラシフト方式の体動センサーを、さらに備えてもよい。この体動センサーにより、対象者70の呼吸動作に伴う胸部の体動(胸部の上下動)を検出し、その胸部の体動における周期の乱れや予め設定された閾値以下である胸部の体動における振幅を検知すると、微体動異常であると認識する。 Further, the detection unit 10 uses a doppler shift type body motion sensor that transmits and receives microwaves in the direction of the bed 60 to detect the doppler shift of the microwave generated by the body movement (for example, respiratory movement) of the subject 70. , You may prepare further. This body movement sensor detects the body movement of the chest (up and down movement of the chest) accompanying the breathing movement of the subject 70, and the disorder of the cycle in the body movement of the chest and the body movement of the chest that is below a preset threshold value. When the amplitude in is detected, it is recognized as a microbody movement abnormality.

本実施形態においては、ナースコール部14によるナースコール、および対象者70に関する検出部10が認識した状態の変化であって、起床、離床、転落、転倒、微体動異常、等のスタッフ80に発報(報知)を行うべき事象をイベントと称する。検出部10は、生じたイベントの情報および撮影画像をサーバー20へ送信(出力)する。 In the present embodiment, the nurse call by the nurse call unit 14 and the change in the state recognized by the detection unit 10 regarding the subject 70 are the changes in the state recognized by the staff 80 such as getting up, getting out of bed, falling, falling, and abnormal micromovement. An event that should be issued (notified) is called an event. The detection unit 10 transmits (outputs) information on the event that has occurred and a captured image to the server 20.

(サーバー20)
図4はサーバーの概略構成を示すブロック図である。サーバー20は、制御部21、通信部22、および記憶部23を備える。サーバー20は、対象者70用の居室と同じ建物内に設けられてもよく、遠隔地に設けられてネットワークを介して接続可能であってもよい。例えば、サーバー20は、インターネット等のネットワーク上に配置された複数のサーバーによって仮想的に構築されるクラウドサーバーであってもよい。各構成は、バスによって、相互に通信可能に接続されている。記憶部23は、データベースとして機能し、イベントリスト、対象者70、およびスタッフ80に関する各種情報を記憶する。制御部21は、通信部22と協働することで事故に繋がる可能性のある所定のイベントのイベント情報、およびイベントに関連付けられたイベントが発生した時点を含む所定期間の画像データを取得する取得部として機能する。また制御部21は、取得したこれらのデータからイベントの発生状況を分析することでレポートを作成する作成部として機能する。また制御部21は、通信部22と協働することで、作成したレポートを出力する出力部としても機能する。その他の制御部21、および通信部22は、検出部10の各構成と同様の機能を有するため、詳細な説明を省略する。このイベントリストには、後述するように、事故に繋がる可能性がある所定のイベント(例えば転落、転倒のイベント)を含む各種のイベントの情報が含まれる。この事故に繋がる可能性がある所定のイベントは、ヒヤリハットともよばれ、このままの状態が続くと事故になる可能性があるものである。
(Server 20)
FIG. 4 is a block diagram showing a schematic configuration of the server. The server 20 includes a control unit 21, a communication unit 22, and a storage unit 23. The server 20 may be provided in the same building as the living room for the target person 70, or may be provided in a remote location and can be connected via a network. For example, the server 20 may be a cloud server virtually constructed by a plurality of servers arranged on a network such as the Internet. Each configuration is communicatively connected to each other by a bus. The storage unit 23 functions as a database and stores various information about the event list, the target person 70, and the staff 80. The control unit 21 acquires event information of a predetermined event that may lead to an accident by cooperating with the communication unit 22, and image data for a predetermined period including a time when an event associated with the event occurs. Functions as a department. Further, the control unit 21 functions as a creation unit that creates a report by analyzing the occurrence status of an event from these acquired data. The control unit 21 also functions as an output unit that outputs the created report by cooperating with the communication unit 22. Since the other control unit 21 and the communication unit 22 have the same functions as the respective configurations of the detection unit 10, detailed description thereof will be omitted. As will be described later, this event list includes information on various events including predetermined events that may lead to an accident (for example, a fall or a fall event). A predetermined event that may lead to this accident is also called a hiyari hat, and if this condition continues, it may lead to an accident.

サーバー20は、検出部10が検出した、ナースコール、起床、離床、転落、転倒、等のイベントが、どの対象者70に関するものであるかを判定(識別)する。この判定は、イベントを検出した検出部10が設置されている部屋番号から、これに対応付けられている対象者70(すなわち、部屋の入居者)を判定する。そして、判定したイベントの種類と対象者70とを関連付けて記憶部23のイベントリストに追加する。なお、本実施形態では、対象者70の判定は、対象者70がICタグを携帯している場合には、このICタグを各部屋に設けたRFIDリーダーで読み取ることにより、判定してもよい。なお、相部屋等で、1つの部屋に複数の対象者70が存在する場合には、ベッド60毎に検出部10を配置することで、対象者70を判定してもよい。また、これに関連し、スタッフ80が携帯するスタッフ端末40をRFIDリーダーに近づけることにより、各スタッフ80の部屋への入室を検知するようにしてもよい。 The server 20 determines (identifies) which target person 70 the event such as nurse call, getting up, getting out of bed, falling, falling, etc. detected by the detection unit 10 is related to. In this determination, the target person 70 (that is, the resident of the room) associated with the room number in which the detection unit 10 that has detected the event is installed is determined. Then, the determined event type and the target person 70 are associated with each other and added to the event list of the storage unit 23. In the present embodiment, when the target person 70 carries an IC tag, the determination of the target person 70 may be made by reading the IC tag with an RFID reader provided in each room. .. When a plurality of target persons 70 exist in one room in a shared room or the like, the target person 70 may be determined by arranging the detection unit 10 for each bed 60. Further, in connection with this, the staff terminal 40 carried by the staff 80 may be brought close to the RFID reader to detect the entry of each staff 80 into the room.

(固定端末30)
固定端末30は、いわゆるPC(Personal Computer)であり、CPU、RAM等で構成される制御部、通信部、表示部、入力部、および音声入出力部を備える。固定端末30は、例えばナースステーション内に配置される。また、後述するレポートを出力する際、ユーザー(スタッフ80、このスタッフ80を管理する管理者等)の指示の入力により、表示部に分析結果を図表等により可視化したレポートを表示したり、外部のプリンター(図示せず)から用紙に出力させたりする。また、このレポートには、後述するようにユーザーが固定端末30の表示部(ディスプレイ)に表示された撮影画像を参照しながら、入力部から入力したコメントを含ませるようにしてもよい。
(Fixed terminal 30)
The fixed terminal 30 is a so-called PC (Personal Computer), and includes a control unit, a communication unit, a display unit, an input unit, and an audio input / output unit composed of a CPU, a RAM, and the like. The fixed terminal 30 is arranged in, for example, a nurse station. In addition, when outputting a report to be described later, by inputting an instruction from a user (staff 80, an administrator who manages this staff 80, etc.), a report in which the analysis result is visualized by a chart or the like is displayed on the display unit, or an external report is displayed. Output to paper from a printer (not shown). Further, as will be described later, this report may include a comment input from the input unit while referring to the captured image displayed on the display unit (display) of the fixed terminal 30.

また、スタッフ80または技術スタッフ等は、固定端末30を通じて、検出部10を各部屋(居室)に取り付けたときに、部屋番号と検出部10の対応付けをしたり、ベッド60等の居室内の設置物の位置情報、すなわち、天井のカメラ13による上方視の輪郭情報の校正、指定を行ったりする。また、入院または入居している対象者70の名前、ID番号等の識別情報と、各部屋番号との対応付けも行う。 Further, when the detection unit 10 is attached to each room (living room) through the fixed terminal 30, the staff 80 or the technical staff or the like can associate the room number with the detection unit 10 or in the living room such as the bed 60. The position information of the installation object, that is, the contour information of the upward view by the camera 13 on the ceiling is calibrated and designated. In addition, identification information such as the name and ID number of the subject 70 who is hospitalized or occupying is associated with each room number.

(スタッフ端末40)
図5は、スタッフ端末40の概略構成を示すブロック図である。スタッフ端末40は、制御部41、無線通信部42、表示部43、入力部44、および音声入出力部45を備え、これらはバスにより相互に接続される。制御部41は、検出部10の制御部11と同様の構成として、CPU、RAM、ROM等を備える。無線通信部42により、Wi−Fi、Bluetooth(登録商標)等の規格を用いた無線通信が可能であり、アクセスポイント51を経由して、または直接的に各装置と無線通信する。表示部43、および入力部44は、タッチパネルであり、液晶等で構成される表示部43の表示面に、入力部44としてのタッチセンサーを重畳させたものである。表示部43、入力部44によって、スタッフ80に対して、イベントリストに含まれる複数のイベントを一覧表示した各種の操作画面を表示したり、操作画面を通じて各種の操作を受け付けたりする。音声入出力部45は、例えばスピーカーとマイクであり、無線通信部42を介して他のスタッフ端末40との間でスタッフ80による音声通話を可能にする。スタッフ端末40は、見守りシステム1のユーザーインターフェースとして機能する機器であり、例えば、タブレット型コンピューター、スマートフォンまたは携帯電話等の、持ち運び可能な通信端末機器によって構成できる。
(Staff terminal 40)
FIG. 5 is a block diagram showing a schematic configuration of the staff terminal 40. The staff terminal 40 includes a control unit 41, a wireless communication unit 42, a display unit 43, an input unit 44, and a voice input / output unit 45, which are connected to each other by a bus. The control unit 41 includes a CPU, RAM, ROM, and the like as the same configuration as the control unit 11 of the detection unit 10. The wireless communication unit 42 enables wireless communication using standards such as Wi-Fi and Bluetooth (registered trademark), and wirelessly communicates with each device via the access point 51 or directly. The display unit 43 and the input unit 44 are touch panels, and a touch sensor as the input unit 44 is superimposed on the display surface of the display unit 43 composed of a liquid crystal or the like. The display unit 43 and the input unit 44 display to the staff 80 various operation screens displaying a list of a plurality of events included in the event list, and accept various operations through the operation screens. The voice input / output unit 45 is, for example, a speaker and a microphone, and enables voice communication by the staff 80 with another staff terminal 40 via the wireless communication unit 42. The staff terminal 40 is a device that functions as a user interface of the watching system 1, and can be configured by a portable communication terminal device such as a tablet computer, a smartphone, or a mobile phone.

スタッフ80は、業務開始時に、割り当てられたスタッフ端末40を通じて、ログイン認証処理を行う。スタッフ80は、スタッフ端末40のタッチパネル(表示部43、入力部44)を通じて、スタッフID、パスワードを入力する。スタッフ端末40は、これをサーバー20に送信する。サーバー20は、記憶部23に記憶している認証情報を突き合わせ、スタッフ80の権限に応じた認証結果をスタッフ端末40に送信することで、ログイン認証が終了する。 At the start of business, the staff 80 performs a login authentication process through the assigned staff terminal 40. The staff 80 inputs the staff ID and password through the touch panel (display unit 43, input unit 44) of the staff terminal 40. The staff terminal 40 transmits this to the server 20. The server 20 collates the authentication information stored in the storage unit 23 and transmits the authentication result according to the authority of the staff 80 to the staff terminal 40 to complete the login authentication.

(見守りシステムの処理の手順)
次に、見守りシステム1全体で行われる、イベント情報、および画像データの蓄積処理について図6を参照して説明する。図6は、見守りシステムの処理の手順を示すシーケンスチャートである。
(Procedure for monitoring system processing)
Next, the event information and image data accumulation processing performed in the entire monitoring system 1 will be described with reference to FIG. FIG. 6 is a sequence chart showing the processing procedure of the watching system.

(ステップS110)
図6に示すように、検出部10は、観察領域における対象者70の動き、または対象者70によるナースコールのイベントを検出する。そして、検出部10は、対象者70の動きから、転落、転倒、等の他のイベントの発生の有無を判定する。
(Step S110)
As shown in FIG. 6, the detection unit 10 detects the movement of the subject 70 in the observation area or the event of the nurse call by the subject 70. Then, the detection unit 10 determines whether or not another event such as a fall or a fall has occurred based on the movement of the target person 70.

(ステップS120、S130)
そしてイベントの発生を判定した場合、そのイベント情報をサーバー20に送信する。また、検出部10は、イベントが発生した時に観察領域を撮影することで得られた画像データを送信する。この場合、発生したイベントの種類が特定の種類、例えば転落、転倒、等の事故に繋がる可能性のイベントであれば、発生時点を含む発生時点前後の所定時間(例えば数秒〜数十秒)の動画を送信し、その他の種類のイベントであれば発生時点の静止画を送信するようにしてもよい。なお、別の例として、検出部10は、撮影画像をサーバー20に連続して送信し続け、サーバー20側では、上書きさせながら所定時間分(例えば過去数時間分)だけ一時記憶部に記憶する。そしてサーバー20は、イベントが発生し、イベント情報を検出部10から受信するに応じて、一時記憶部から発生時点前後の静止画、または動画を読み出し、イベントに関連付けて保存するようにしてもよい。
(Steps S120, S130)
Then, when it is determined that an event has occurred, the event information is transmitted to the server 20. Further, the detection unit 10 transmits the image data obtained by photographing the observation area when the event occurs. In this case, if the type of event that occurred is a specific type, for example, an event that may lead to an accident such as a fall or a fall, the predetermined time (for example, several seconds to several tens of seconds) before and after the occurrence time including the occurrence time. A moving image may be transmitted, and if it is another type of event, a still image at the time of occurrence may be transmitted. As another example, the detection unit 10 continuously transmits the captured image to the server 20, and the server 20 stores the captured image in the temporary storage unit for a predetermined time (for example, the past several hours) while overwriting. .. Then, when an event occurs and the event information is received from the detection unit 10, the server 20 may read a still image or a moving image before and after the time of occurrence from the temporary storage unit and save the event in association with the event. ..

(ステップS140)
サーバー20は、イベントリストを更新する。図7は、記憶部23に記憶されるイベントリストの例である。イベントリストに含まれるイベントには、上述のように起床、離床、転落、転倒、およびナースコールが含まれる。ステップS120で送信された最新のイベントは、イベントリストの最後に追加される。
(Step S140)
The server 20 updates the event list. FIG. 7 is an example of an event list stored in the storage unit 23. The events included in the event list include getting up, getting out of bed, falling, falling, and a nurse call as described above. The latest event transmitted in step S120 is added to the end of the event list.

図7に示すように、各イベントには、自動的に付与される主キーとなるイベントID、部屋番号、対象者、イベント種類、発生日時(時刻)、画像データ、および対応状況の情報が含まれる。画像データは、上述のとおり、ステップS130で送信された、イベントの発生時に検出部10により撮影して得られた静止画、または動画のデータである。対応状況は、ステイタス、対応スタッフ、および対応日時(時刻)が含まれる。対応状況については後述する。 As shown in FIG. 7, each event includes event ID, room number, target person, event type, occurrence date / time (time), image data, and correspondence status information, which are automatically assigned primary keys. Is done. As described above, the image data is still image or moving image data obtained by being photographed by the detection unit 10 when an event occurs, which was transmitted in step S130. Response status includes status, response staff, and response date (time). The correspondence status will be described later.

図7に示す例では、イベントID010のイベントは転落であり、イベントID011、012のイベントは、ナースコールである。イベントID013〜015は順に、一人の対象者70(Bさん)に連続して発生した、起床、離床、および転倒である。イベントID010〜012のイベントに関する対応状況のステイタスは対応済みになっており、イベントID013〜015は未対応である。 In the example shown in FIG. 7, the event of event ID 010 is a fall, and the events of event IDs 011 and 012 are nurse calls. Event IDs 013 to 015 are, in order, getting up, getting out of bed, and falling in succession for one subject 70 (Mr. B). The status of the response status related to the event of event IDs 010 to 012 has already been supported, and event IDs 013 to 015 are not supported.

(ステップS150)
サーバー20は、新たなイベントが検出されて追加される、またはイベントのステイタスが変更されることで、イベントリストが更新された場合には、更新後のイベントリストを、ログイン中の全てのスタッフ端末40に配信する。なお、このときの配信先は、イベントを発生させた対象者70を担当するスタッフ80が用いるスタッフ端末40にのみ配信するようにしてもよい。イベントリストを受信した各スタッフ端末40は、サーバー20からイベントリストを受信するに応じて、受領確認コマンドを返す(図示せず)。なお、サーバー20からのイベントリストの送信は、差分データのみを送信するようにしてもよい。例えば、直前に送信したイベントリストに対して変化した部分、すなわち追加または更新があったイベントのみをイベントリストとして全てのスタッフ端末40に送信する。
(Step S150)
When a new event is detected and added, or the event status is changed, the server 20 updates the event list, and the updated event list is added to all logged-in staff terminals. Deliver to 40. The delivery destination at this time may be delivered only to the staff terminal 40 used by the staff 80 who is in charge of the target person 70 who generated the event. Each staff terminal 40 that has received the event list returns a receipt confirmation command in response to receiving the event list from the server 20 (not shown). The event list may be transmitted from the server 20 only by transmitting the difference data. For example, only the part that has changed from the event list transmitted immediately before, that is, the event that has been added or updated is transmitted as an event list to all staff terminals 40.

(ステップS160)
各スタッフ端末40は、サーバー20からイベントリストを受信するに応じて、表示部43の表示内容の更新を行う。
(Step S160)
Each staff terminal 40 updates the display content of the display unit 43 in response to receiving the event list from the server 20.

図8は、スタッフ端末40の表示部43に表示されるイベントへの対応方針を入力する操作画面431、432の例である。同図に示す操作画面431は、イベントリストが一覧表示される画面である。表示するイベントは、フリック操作することで上下にスクロールさせることが可能である。 FIG. 8 is an example of operation screens 431 and 432 for inputting an event response policy displayed on the display unit 43 of the staff terminal 40. The operation screen 431 shown in the figure is a screen on which the event list is displayed in a list. The event to be displayed can be scrolled up and down by flicking.

操作画面431の領域a11、a12は、それぞれ、図7のイベントリストのイベントID011、012に対応する。領域a11、a12には、ナースコールであること示すアイコン、および対応済みであることが表示されている。領域a13は、図7の破線枠で囲むイベントID013〜015に対応する。これらは、同一の対象者70(Bさん)に関するものであるため、同じ領域にまとめて表示される。また、未対応であることから、領域a13には、対応済みと区別し易いように、サムネイル画像を表示している。このサムネイル画像は、最新のイベント(ID015)に関する動画の画像i015(図7参照)から切り出した静止画から作成したものである。領域a14を操作することで、ログイン中の他のスタッフ80とテキストメッセージの交換を行える。制御部41は、操作画面431において、スタッフ80の領域a13へのクリック操作を受け付けることで、内容確認用の操作画面432に遷移させる。 The areas a11 and a12 of the operation screen 431 correspond to the event IDs 011 and 012 in the event list of FIG. 7, respectively. In the areas a11 and a12, an icon indicating that the call is a nurse call and that the correspondence has been completed are displayed. The area a13 corresponds to the event IDs 013 to 015 surrounded by the broken line frame in FIG. 7. Since these are related to the same subject 70 (Mr. B), they are displayed together in the same area. Further, since it is not supported, a thumbnail image is displayed in the area a13 so that it can be easily distinguished from the supported area. This thumbnail image is created from a still image cut out from the image i015 (see FIG. 7) of the moving image related to the latest event (ID015). By operating the area a14, text messages can be exchanged with other staff members 80 who are logged in. By accepting a click operation on the area a13 of the staff 80 on the operation screen 431, the control unit 41 transitions to the operation screen 432 for content confirmation.

(ステップS170)
スタッフ80は、スタッフ端末40に表示した操作画面432により、イベントの内容を確認する。操作画面432において、領域a21には、イベントを発生(判定)させた対象者70のID(名前:Bさん)、およびスタッフ端末40を使用するスタッフ80のID(名前:スタッフA)が表示されている。領域a22には、イベントの発生時刻からの経過時間が表示されている。なお、図7の破線枠内に示すように、対象者70(Bさん)については、起床、離床、転倒のイベントの発生を連続して判定し、共に未対応のステイタスであるので、この領域a22には、最新のイベント以外の「起床」、「離床」のイベントを表すアイコンが示されている。なお、領域a22に示す経過時間(「経過0分」)は、最新のイベントの発生を判定してからの経過時間(分未満を切り下げ)である。領域a23には、「転倒」を示す文字とアイコンが示されている。また領域a24には、転倒判定時の撮影画像のサムネイル画像が表示されている。スタッフ80は、サムネイル画像では情報として不十分で、さらに転倒を発生させた対象者70の状況を確認したいときは、下方にある「話す」ボタンや「見る」ボタンを操作する。「話す」ボタンを操作することで、音声入出力部15を通じて対象者70(Bさん)と通話できる。「見る」ボタンを操作することでカメラ13が撮影したライブ映像をストリーミング再生により視聴できる。
(Step S170)
The staff 80 confirms the content of the event on the operation screen 432 displayed on the staff terminal 40. On the operation screen 432, the ID (name: Mr. B) of the target person 70 who generated (determined) the event and the ID (name: staff A) of the staff 80 who uses the staff terminal 40 are displayed in the area a21. ing. In the area a22, the elapsed time from the time when the event occurred is displayed. As shown in the broken line frame in FIG. 7, for the subject 70 (Mr. B), the occurrence of wake-up, wake-up, and fall events is continuously determined, and both are unsupported statuses. On a22, icons representing "wake-up" and "get-away" events other than the latest event are shown. The elapsed time (“elapsed 0 minutes”) shown in the area a22 is the elapsed time (rounded down to the nearest minute) after determining the occurrence of the latest event. In the area a23, a character and an icon indicating "fall" are shown. Further, in the area a24, a thumbnail image of the captured image at the time of the fall determination is displayed. The staff 80 operates the "speak" button and the "view" button at the bottom when the thumbnail image is insufficient as information and he / she wants to confirm the situation of the subject 70 who has caused the fall. By operating the "speak" button, it is possible to talk with the target person 70 (Mr. B) through the voice input / output unit 15. By operating the "view" button, the live video captured by the camera 13 can be viewed by streaming playback.

スタッフ80(スタッフA)は、領域a25の「対応する」ボタンを操作することで表示した転落(ID015)を、自らが率先して担当することに決定する。対応しない場合には,領域a26内の戻るボタン(三角アイコン)を操作することで、イベントリスト画面に戻る。なお、あるスタッフ80が、図8に示す操作画面432を表示し、転落等のイベントの状態を確認している最中は、サーバー20の制御により、他のスタッフ80への禁則処理がなされる。例えば、あるスタッフ80が対象者70(Bさん)のイベントの状態を確認している時に、他のスタッフ80が同じイベント(ID013〜015)を選択したとしても、他のスタッフ80の操作画面431には、「状態確認中」の文字が表示され、「対応する」ボタンは表示されない、または選択できないようにする。 The staff 80 (staff A) decides to take the initiative in taking charge of the fall (ID015) displayed by operating the "corresponding" button in the area a25. If it does not correspond, the event list screen is returned by operating the back button (triangle icon) in the area a26. While a certain staff 80 displays the operation screen 432 shown in FIG. 8 and confirms the state of an event such as a fall, the server 20 controls the prohibition processing to the other staff 80. .. For example, even if one staff member 80 is checking the event status of the target person 70 (Mr. B) and another staff member 80 selects the same event (ID013 to 015), the operation screen 431 of the other staff member 80 Is displayed with the words "Checking status" and the "Corresponding" button is not displayed or cannot be selected.

(ステップS180、S190)
スタッフ端末40は、「対応する」ボタンが操作されることに応じて、サーバー20に選択されたイベントに関する対応要求を送信し、これに応じて、サーバー20は承認通知を返信する。
(Steps S180, S190)
The staff terminal 40 sends a response request regarding the selected event to the server 20 in response to the operation of the "correspondence" button, and the server 20 returns an approval notification in response.

(ステップS200)
サーバー20は、ステップS180の処理に応じてイベントリストを更新する。具体的には、イベントリスト(ID013〜015:転倒等)のステイタスを対応済みに変更する。本実施形態においては、スタッフ80が選択し、操作画面432に表示するイベントに対して上述の「対応する」ボタンを操作することに応じて、「対応済み」に変更している。すなわち、「対応する」ボタンの操作により、確認したことを示す情報である「対応済み」の対応状況が入力され、対応が行われたとみなして対応日時を記録する。より具体的には、図7のイベントリストにおいて、ステップS180、S190の処理が行われた時刻が、対応日時欄に記録される。なお、これに限られず、対応日時は、スタッフ80が、転落、転倒、ナースコール等のイベントを発生させた対象者70の部屋に入室した時刻を、対応日時欄に記録してもよく、別の操作画面により対応結果を入力することにより対応済みにし、入力時刻を対応日時欄に記録してもよい。また、サーバー20は、イベントリストを更新することに応じて、ログイン中の全てのスタッフ80に更新後のイベントリストを送信する。
(Step S200)
The server 20 updates the event list according to the process of step S180. Specifically, the status of the event list (ID013 to 015: fall, etc.) is changed to supported. In the present embodiment, the event is changed to "corresponding" in response to the operation of the above-mentioned "corresponding" button for the event selected by the staff 80 and displayed on the operation screen 432. That is, by operating the "correspondence" button, the correspondence status of "corresponding", which is information indicating confirmation, is input, and the correspondence date and time is recorded assuming that the correspondence has been performed. More specifically, in the event list of FIG. 7, the time when the processing of steps S180 and S190 is performed is recorded in the corresponding date and time column. The response date and time is not limited to this, and the response date and time may be recorded in the response date and time column when the staff 80 enters the room of the target person 70 who has caused an event such as a fall, a fall, or a nurse call. The correspondence may be made by inputting the correspondence result on the operation screen of, and the input time may be recorded in the correspondence date and time column. In addition, the server 20 transmits the updated event list to all logged-in staff 80 in response to updating the event list.

検出部10が発生を判定した事故に繋がる可能性のある所定のイベント、すなわち、転落、転倒のイベントの判定には、誤判定が含まれる。判定の基準を厳しくすると、実際に転落、転倒が発生したときに、判定漏れが生じる虞がある。一方で、判定の基準を緩くしすぎると、実際には、転落、転倒が生じていない場合に、転落、転倒のイベントの発生を判定するといった誤判定が発生しやすくなる。 The determination of a predetermined event that may lead to an accident for which the detection unit 10 has determined the occurrence, that is, a fall or fall event, includes an erroneous determination. If the judgment criteria are strict, there is a risk of omission of judgment when a fall or a fall actually occurs. On the other hand, if the criteria for determination are too loose, in reality, when a fall or a fall has not occurred, an erroneous determination such as determining the occurrence of a fall or a fall event is likely to occur.

本実施形態では、判定漏れを極力無くすように判定基準を厳しくしていないため、誤判定がある程度含まれる。この誤判定か実際に発生したかの判別を、スタッフ80が、スタッフ端末40を用いて、状況を確認することにより行う。具体的には、スタッフ80は、対象者70の状況を、通話や撮影した画像により確認することで、誤判定の場合に、実際に居室に出向く対応が必要ないことを確認できる。また、実際に転落、転倒が発生したとしても、負傷が発生せず、特に対応が必要でない場合もあり、この場合も、対象者70との通話等により無事であることを確認することで、居室に出向く対応を省略できる。 In the present embodiment, since the judgment criteria are not strict so as to eliminate the judgment omission as much as possible, erroneous judgment is included to some extent. The staff 80 determines whether or not this erroneous determination has actually occurred by confirming the situation using the staff terminal 40. Specifically, the staff 80 can confirm that it is not necessary to actually go to the living room in the case of an erroneous determination by confirming the situation of the target person 70 by a telephone call or an image taken. In addition, even if a fall or a fall actually occurs, there may be cases where no injury occurs and no special action is required. In this case as well, by confirming that it is safe by calling the target person 70 or the like, it is possible to confirm that it is safe. You can omit the correspondence to go to the living room.

なお、本明細書においては、検出部10が転落、転倒、等のイベントの発生を判定した場合には、実際に転落、転倒、等が発生していなくても、発生件数にカウントする。換言すると、この発生件数は、転倒、転落等の発生が疑われる疑い件数とも言い得る。 In this specification, when the detection unit 10 determines the occurrence of an event such as a fall or a fall, it is counted in the number of occurrences even if the fall, the fall, or the like does not actually occur. In other words, this number of occurrences can be said to be the number of suspected cases of falls, falls, etc.

以上のようにして、転落、転倒等のイベントの発生を判定した場合に、そのイベントへの対応状況を含めたイベント情報をイベントリストに蓄積する。次にこの蓄積されたイベントリストを用いて、イベントの発生状況、および対応状況を分析し、分析結果が可視化されるレポートを作成し、出力する処理について説明する。 As described above, when it is determined that an event such as a fall or a fall has occurred, event information including the response status to the event is accumulated in the event list. Next, using this accumulated event list, the process of analyzing the event occurrence status and response status, creating a report in which the analysis result is visualized, and outputting it will be described.

(レポートの出力処理)
図9は、第1の実施形態に係る見守りシステム1により実行されるレポートの出力処理の手順を示すフローチャートである。図9の処理は、主にサーバー20の制御部21が、記憶部23に記憶されたプログラムを実行することにより行われる。
(Report output processing)
FIG. 9 is a flowchart showing a procedure of output processing of a report executed by the monitoring system 1 according to the first embodiment. The process of FIG. 9 is mainly performed by the control unit 21 of the server 20 executing the program stored in the storage unit 23.

(ステップS310)
サーバー20の制御部21は、記憶部23のイベントリストに、発生を判定したイベントのイベント情報を蓄積(追加)する。また、イベントが発生したときの画像データ(静止画または動画)を、イベントに関連付けて蓄積する。この蓄積処理は、上述した処理(図6)により行われる。
(Step S310)
The control unit 21 of the server 20 accumulates (adds) event information of the event determined to occur in the event list of the storage unit 23. In addition, image data (still image or moving image) when an event occurs is stored in association with the event. This accumulation process is performed by the above-mentioned process (FIG. 6).

(ステップS320)
制御部21は、記憶部23から事故に繋がる可能性のある転落、転倒のイベント情報を取得する。これは、例えば、固定端末30を通じたユーザー(スタッフ80、このスタッフ80を管理する管理者、等)からの要求により、開始する。ユーザーは、固定端末30を通じて、特定の対象者70を選択する。制御部21は、この指定された対象者70に関する転落、転倒のイベント情報を取得する。なお、他の事故に繋がるイベントとして、離床のイベントを含ませてもよい。例えば、ベッド60、テレビ等の居室内の家具の配置が変更されたことで、就寝時におけるベッド60内の対象者70の体勢が変わる場合がある。これにより、脚等の身体の一部がベッド60からはみ出ることが多発し、離床のイベントが多く判定されることがある。このような事象では、離床は、ベッドからの転落を引き起こし、間接的に事故に繋がるイベントとなる。
(Step S320)
The control unit 21 acquires information on a fall or fall event that may lead to an accident from the storage unit 23. This is started, for example, by a request from a user (staff 80, an administrator who manages the staff 80, etc.) through the fixed terminal 30. The user selects a specific target person 70 through the fixed terminal 30. The control unit 21 acquires fall / fall event information regarding the designated target person 70. An event of getting out of bed may be included as an event leading to another accident. For example, the posture of the subject 70 in the bed 60 at bedtime may change due to the change in the arrangement of furniture in the living room such as the bed 60 and the television. As a result, a part of the body such as legs often protrudes from the bed 60, and many events of getting out of bed may be determined. In such an event, getting out of bed causes a fall from the bed, which indirectly leads to an accident.

(ステップS330)
制御部21は、取得したイベント情報から、転落、転倒の件数を分析する。図10は、ある対象者70(例えばBさん)における、転落・転倒の分析結果を可視化した例を示す図である。同図は、1日(6時〜翌日の5時(29時))の時間毎の転倒と転落の発生件数(発生件数)の合算の推移を示した表である。表中では、1回以上の転倒または転落のイベントが発生した時間帯を灰色で示している。
(Step S330)
The control unit 21 analyzes the number of falls and falls from the acquired event information. FIG. 10 is a diagram showing an example of visualizing the analysis result of a fall / fall in a certain subject 70 (for example, Mr. B). The figure is a table showing the total transition of the number of falls and the number of falls (number of occurrences) for each hour of one day (6:00 to 5:00 (29:00) the next day). In the table, the time zone in which one or more falls or fall events occurred is shown in gray.

(ステップS340)
制御部21は、転倒または転落のイベントの単位期間当たりの発生件数の増加があったか否かを判断する。この判断は、1時間単位で判断してもよく、1日単位で判断してもよい。1日単位で判断する場合、ある日の発生件数が、その前日、またはその日よりも前の数日の平均の発生件数に対して、所定倍数以上である場合に、増加があったと判断できる。図10に示す例では、10月21日の発生件数17件が、前2日間(20日、19日)の発生件数の平均値6.5件よりも2倍以上増加しているので、10月21日に発生件数の増加があったと判断できる。増加があれば、処理をステップS350に進める。一方で、増加がなければ処理をステップS360に進める。
(Step S340)
The control unit 21 determines whether or not there has been an increase in the number of falls or fall events per unit period. This judgment may be made on an hourly basis or on a daily basis. When judging on a daily basis, it can be judged that there is an increase when the number of occurrences on a certain day is a predetermined multiple or more with respect to the average number of occurrences on the previous day or several days before that day. In the example shown in FIG. 10, the number of occurrences on October 21 was 17 cases, which is more than double the average number of cases of 6.5 cases in the previous two days (20th and 19th). It can be judged that the number of occurrences increased on the 21st of March. If there is an increase, the process proceeds to step S350. On the other hand, if there is no increase, the process proceeds to step S360.

(ステップS350)
制御部21は、増加時期の前後のイベントに関連付けられている画像データを取得して、ユーザー(スタッフ80、管理者、等)が使用する固定端末30のディスプレイに、この画像データに基づく画像を表示する。表示する画像は、動画(例えば数秒〜数十秒)であるが、この動画から切り出した静止画であってもよい。
(Step S350)
The control unit 21 acquires image data associated with events before and after the increase period, and displays an image based on this image data on the display of the fixed terminal 30 used by the user (staff 80, administrator, etc.). indicate. The image to be displayed is a moving image (for example, several seconds to several tens of seconds), but it may be a still image cut out from this moving image.

なお、このときに、記憶部23に記憶されている対象者70の情報をディスプレイに表示してもよい。この対象者70の情報には、例えば対象者70の歩行状態情報(自立、車椅子、歩行器)が含まれる。また、前後の画像を表示する際に、制御部21が画像を解析することで、居室内の家具等(ベッド、歩行器、杖)を認識し、前後の2つの画像で、家具等の配置の変化があれば、そのことを示すアノテーション画像(囲み枠、注意文、等)を表示画像に追加するようにしてもよい。 At this time, the information of the target person 70 stored in the storage unit 23 may be displayed on the display. The information of the subject 70 includes, for example, walking state information (independence, wheelchair, walker) of the subject 70. Further, when displaying the front and rear images, the control unit 21 analyzes the images to recognize the furniture and the like (bed, walker, cane) in the living room, and arranges the furniture and the like in the two front and rear images. If there is a change in, an annotation image (box, cautionary statement, etc.) indicating that may be added to the display image.

(ステップS360)
制御部21は、レポートに追加するコメントを受け付ける。例えば、固定端末30を通じて、ユーザーからのコメントを受け付ける。
(Step S360)
The control unit 21 accepts comments to be added to the report. For example, a comment from a user is accepted through a fixed terminal 30.

ユーザーは、固定端末30のディスプレイに表示された増加時期の前後の2枚の画像を比較することで、得られる判断結果をコメントとして入力する。例えば、画像の比較により、以前の画像に比べて、転落、転倒のイベントの発生件数の増加が発生した時期以降の画像では、居室内の家具等の配置が変更されていれば、この家具等の配置の変更により、発生件数が増加したと推定できる。この家具等には、ベッド、テレビ、箪笥、等の固定家具のみならず、歩行器、車椅子、杖、等の歩行用の道具が含まれる。例えば、杖を置く位置を以前と異なる位置に変更したことにより、イベントの発生件数が増加する場合がある。 The user inputs the determination result obtained by comparing the two images before and after the increase time displayed on the display of the fixed terminal 30 as a comment. For example, by comparing the images, in the images after the time when the number of falls and falls events increased compared to the previous image, if the arrangement of furniture etc. in the living room is changed, this furniture etc. It can be estimated that the number of occurrences increased due to the change in the arrangement of. These furniture and the like include not only fixed furniture such as beds, televisions and porcelain, but also walking tools such as walkers, wheelchairs and canes. For example, changing the position where the wand is placed to a different position than before may increase the number of events that occur.

また対象者70の情報、例えば対象者70の歩行状態情報(自立、車椅子、歩行器)と、実際に1人でいる時の歩行状態(撮影画像)を比較してもよい。具体的には、居室内で、1人の時に転落、転倒した際に撮影した画像から実際の歩行状態を判別する。そしてこれが歩行状態情報とは異なり、対象者70が本来行うべきではない危険な歩行をしていることが判明したら、これを転倒のイベントが増加した理由として挙げることができる。この危険な走行の例としては、歩行器を使う対象者70が、歩行器を使用せずに居室内を壁伝いで自立して歩行する場合がある。 Further, the information of the target person 70, for example, the walking state information of the target person 70 (independence, wheelchair, walker) may be compared with the walking state (photographed image) when the subject is actually alone. Specifically, the actual walking state is determined from the images taken when a person falls or falls in the living room. Then, unlike the walking state information, if it is found that the subject 70 is walking dangerously, which should not be performed originally, this can be cited as the reason why the number of fall events has increased. As an example of this dangerous running, a subject 70 who uses a walker may walk independently along a wall in a living room without using a walker.

(ステップS370)
制御部21は、分析結果に基づいてレポートを作成する。また、ステップS360でコメントを受け付けたなら、そのコメントをレポートに追加する。
(Step S370)
The control unit 21 creates a report based on the analysis result. If a comment is received in step S360, the comment is added to the report.

(ステップS380)
制御部21は、固定端末30のディスプレイに表示したり、プリンターから用紙に印刷したり、要求に応じた送信先アドレスにレポートのデータを送信したりすることで、レポートを出力する。
(Step S380)
The control unit 21 outputs a report by displaying it on the display of the fixed terminal 30, printing it on paper from a printer, or transmitting report data to a destination address in response to a request.

図11は、可視化した分析結果を出力したレポートの例を示す図である。図11は、図10で示した分析結果を反映したものであり、ユーザーにより選択された対象者70(Bさん)に関する事故に繋がる可能性がある所定のイベントに関するレポートを示している。図11の上段の表は図10に示した図に対応している。中段の2枚の画像は、増加が発生した時期の前後の居室内の撮影画像である。下段のコメントは、ステップS360で受け付けたものである。 FIG. 11 is a diagram showing an example of a report that outputs the visualized analysis result. FIG. 11 reflects the analysis results shown in FIG. 10 and shows a report on a predetermined event that may lead to an accident regarding the subject 70 (Mr. B) selected by the user. The upper table of FIG. 11 corresponds to the figure shown in FIG. The two images in the middle row are images taken in the living room before and after the time when the increase occurred. The lower comment was received in step S360.

このように第1の実施形態では、事故に繋がる可能性がある所定のイベントのイベント情報、および、このイベント情報に関連付けられた画像データを取得し、対象者について、イベントの発生件数、発生時刻、および画像データを用いて、イベントの発生状況を分析することで、分析結果に基づいてイベントの発生状況が可視化されたレポートを作成し、これを出力する。 As described above, in the first embodiment, the event information of a predetermined event that may lead to an accident and the image data associated with the event information are acquired, and the number of events and the time of occurrence of the event are acquired for the target person. , And, by analyzing the event occurrence status using the image data, a report in which the event occurrence status is visualized based on the analysis result is created and output.

これにより、入居者(対象者70)の日々の行動から検知した、転倒・転落件数、転倒・転落の画像を分析し、ヒヤリハットを取り出した結果をまとめたレポートを出力でき、このレポートは、事故に繋がる可能のあるイベントの発生の未然の防止に役立つ。 As a result, it is possible to analyze the number of falls / falls and the images of falls / falls detected from the daily behavior of the resident (target person 70) and output a report summarizing the results of taking out the hiyari hat. It helps prevent the occurrence of events that may lead to.

施設では対象者70が居室内でどのような行動をしているか把握できていない。すなわち、入口のドアが閉まっている状態では、スタッフ80は、室内の様子は認識できない。そのため、入居者の危険行動(転倒に繋がりそうな歩行など)があることが分からないので、事故が発生してからの対策検討になってしまう。 At the facility, it is not possible to grasp what kind of behavior the subject 70 is doing in the living room. That is, when the entrance door is closed, the staff 80 cannot recognize the state of the room. Therefore, since it is not known that the resident has dangerous behavior (walking that may lead to a fall, etc.), it is necessary to consider countermeasures after the accident occurs.

これに対して、本実施形態によれば、検出部10が検知した転倒・転落のイベントを分析することで、施設のスタッフ80が把握できていない入居者(対象者70)の居室内での危険行動を知ることができる。また、危険行動を減らすための対策(家具の配置変更等)を促すことで、転倒、転落を現象させ、これらによる事故を未然に防止できる。 On the other hand, according to the present embodiment, by analyzing the fall / fall event detected by the detection unit 10, the resident (target person 70) whose staff 80 of the facility cannot grasp is in the living room. You can know dangerous behavior. In addition, by encouraging measures to reduce dangerous behavior (such as changing the arrangement of furniture), it is possible to cause falls and falls, and prevent accidents caused by these.

(変形例に係る見守りシステム1でのレポートの出力処理)
図10に示す実施形態においては、ユーザーからのコメントの入力を受け付けた。これに対して、以下に説明する変形例においては、制御部21側で、コメントを自動的に作成する。図12は、変形例におけるレポートの出力処理を示すフローチャートである。
(Report output processing in the monitoring system 1 related to the modified example)
In the embodiment shown in FIG. 10, input of a comment from the user is accepted. On the other hand, in the modification described below, the control unit 21 automatically creates a comment. FIG. 12 is a flowchart showing the output processing of the report in the modified example.

(ステップS410〜S440)
ここでは、制御部21は、図10に示したステップS310〜S340と同様の処理を行う。イベントの発生件数の増加があれば、処理をステップS465に進める。
(Steps S410 to S440)
Here, the control unit 21 performs the same processing as in steps S310 to S340 shown in FIG. If there is an increase in the number of events, the process proceeds to step S465.

(ステップS465)
制御部21は、増加に関して注意を促すコメントを作成する。このコメントは、定型文を用いるものであり、増加があった前後の期間で、居室内の家具の配置等の転倒、転落の増加に結びつく変更がなされたかを確認するためのコメントを作成する。例えば図11のレポートのコメント欄は、このような場合に想定される、増加に関して注意を促すコメントである。このコメントの一部、または全部は、あらかじめ記憶部23に記憶されていてもよい。
(Step S465)
The control unit 21 creates a comment calling attention to the increase. This comment uses a fixed phrase, and a comment is created to confirm whether changes such as the arrangement of furniture in the living room have been made in the period before and after the increase, which leads to an increase in falls. For example, the comment section of the report of FIG. 11 is a comment that calls attention to the increase that is expected in such a case. A part or all of this comment may be stored in the storage unit 23 in advance.

このように、制御部21側で、コメントを作成することによっても、第1の実施形態と同様の効果が得られるとともに、ユーザーがコメントを作成する手間を煩わせずに、レポートを作成できる。 In this way, by creating a comment on the control unit 21 side, the same effect as that of the first embodiment can be obtained, and a report can be created without bothering the user to create a comment.

(他の変形例)
上述した実施形態では、検出部10、サーバー20、固定端末30、およびスタッフ端末40をそれぞれ独立した別個の装置として説明した。しかしながら、これに限定されず、いくつかの構成を統合してもよい。例えばサーバー20の機能を固定端末30内に統合してもよい。
(Other variants)
In the above-described embodiment, the detection unit 10, the server 20, the fixed terminal 30, and the staff terminal 40 have been described as independent and separate devices. However, the present invention is not limited to this, and some configurations may be integrated. For example, the functions of the server 20 may be integrated in the fixed terminal 30.

また、上述した実施形態に係る見守りシステム1における処理は、上述のシーケンチャート、またはフローチャートのステップ以外のステップを含んでもよく、あるいは、上述したステップのうちの一部を含まなくてもよい。また、ステップの順序は、上述した実施形態に限定されない。さらに、各ステップは、他のステップと組み合わされて一つのステップとして実行されてもよく、他のステップに含まれて実行されてもよく、複数のステップに分割されて実行されてもよい。 Further, the process in the monitoring system 1 according to the above-described embodiment may include steps other than the steps of the sequence chart or the flowchart described above, or may not include a part of the steps described above. Further, the order of the steps is not limited to the above-described embodiment. Further, each step may be executed as one step in combination with other steps, may be executed by being included in other steps, or may be executed by being divided into a plurality of steps.

また、上述した実施形態に係る見守りシステム1における各種処理を行う手段および方法は、専用のハードウエア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記制御プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。 Further, the means and methods for performing various processes in the monitoring system 1 according to the above-described embodiment can be realized by either a dedicated hardware circuit or a programmed computer. The control program may be provided by a computer-readable recording medium such as a USB memory or a DVD (Digital Versaille Disc) -ROM, or may be provided online via a network such as the Internet. In this case, the program recorded on the computer-readable recording medium is usually transferred and stored in a storage unit such as a hard disk. Further, the above program may be provided as a single application software, or may be incorporated into the software of a device such as a detection unit as one function.

本出願は、2018年6月27日に出願された日本特許出願(特願2018−122274号)に基づいており、その開示内容は、参照され、全体として組み入れられている。 This application is based on a Japanese patent application (Japanese Patent Application No. 2018-122274) filed on June 27, 2018, the disclosure of which is referenced and incorporated as a whole.

1 見守りシステム
10 検出部
11 制御部
12 通信部
13 カメラ
14 ナースコール部
15 音声入出力部
20 サーバー
21 制御部
22 通信部
23 記憶部
30 固定端末
40 スタッフ端末
41 制御部
42 無線通信部
43 表示部
44 入力部
45 音声入出力部
50 ネットワーク
51 アクセスポイント
70 対象者(被介護者)
80 スタッフ(介護者)
1 Watching system 10 Detection unit 11 Control unit 12 Communication unit 13 Camera 14 Nurse call unit 15 Voice input / output unit 20 Server 21 Control unit 22 Communication unit 23 Storage unit 30 Fixed terminal 40 Staff terminal 41 Control unit 42 Wireless communication unit 43 Display unit 44 Input unit 45 Voice input / output unit 50 Network 51 Access point 70 Target person (care recipient)
80 staff (caregiver)

Claims (9)

蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する手順(b)と、
前記手順(b)において作成されたレポートを出力する手順(c)と、
を含む処理をコンピューターに実行させるための制御プログラム。
It is generated based on the accumulated event information of a predetermined event that may lead to an accident and the output of the detection unit that detects the movement of the target person in the observation area, which is the image data associated with the event. The event information that recorded the predetermined event regarding the target person in the observation area for which the determination was made, and the image data obtained by photographing the observation area for a predetermined period including the time when the event occurred are acquired. Procedure (a) and
The analysis result is visualized by analyzing the occurrence status of the event with respect to the target person using the information on the occurrence status of the event, or using the information on the occurrence status of the event and the image data. Procedure (b) to create the report to be
The procedure (c) for outputting the report created in the above procedure (b) and
A control program that causes a computer to perform processing that includes.
前記イベントの前記発生状況の情報には、前記イベントの発生件数、および発生時刻が含まれる、請求項1に記載の制御プログラム。 The control program according to claim 1, wherein the information on the occurrence status of the event includes the number of occurrences of the event and the occurrence time. 所定の前記イベントには、前記対象者の転倒を判定した転倒のイベント、または前記対象者の転落を判定した転落のイベントが含まれる、請求項1、または請求項2に記載の制御プログラム。 The control program according to claim 1 or 2, wherein the predetermined event includes a fall event in which the fall of the target person is determined, or a fall event in which the fall of the target person is determined. 前記対象者への対応を行うスタッフは、携帯端末を携帯し、
前記イベントが発生することに応じて、前記スタッフが前記携帯端末を通じて入力した、前記イベントを確認したことを示す情報が、前記イベント情報に含まれる、請求項1から請求項3のいずれかに記載の制御プログラム。
The staff who responds to the target person carry a mobile terminal and carry it.
The information according to any one of claims 1 to 3 included in the event information, which is input by the staff through the mobile terminal and indicates that the event has been confirmed in response to the occurrence of the event. Control program.
前記手順(b)は、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データを、表示する手順(b1)と、
ユーザーによるコメントの入力を受け付ける手順(b2)と、を含み、
前記手順(c)では、前記手順(b2)で受け付けた、前記コメントを含む前記レポートを作成する、請求項1から請求項4のいずれかに記載の制御プログラム。
The procedure (b) includes a procedure (b1) of displaying the image data of the target person in a period before and after the time when the number of occurrences of the event per unit period increases.
Including the procedure (b2) for accepting comment input by the user.
The control program according to any one of claims 1 to 4, wherein in the procedure (c), the report including the comment received in the procedure (b2) is created.
さらに、前記手順(a)で取得した前記イベント情報に基づいて、前記対象者について、前記イベントの単位期間当たりの発生件数の増加の発生有無を判定し、増加の発生を判定した場合には、前記対象者の前記イベントに関し、注意を促すコメントを作成する手順(d)を含み、
前記手順(b)では、前記手順(d)において作成した前記コメントを含む前記レポートを作成する、請求項1から請求項4のいずれかに記載の制御プログラム。
Further, based on the event information acquired in the procedure (a), it is determined whether or not the number of occurrences of the event has increased per unit period for the target person, and when it is determined that the increase has occurred, the occurrence of the increase is determined. Including the procedure (d) of creating a cautionary comment regarding the event of the target person.
The control program according to any one of claims 1 to 4, wherein in the procedure (b), the report including the comment created in the procedure (d) is created.
前記手順(b)で作成する前記レポートには、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データが含まれる、請求項1から請求項6のいずれかに記載の制御プログラム。 Claim 1 to claim that the report created in step (b) includes the image data of the subject during the period before and after the time when the number of occurrences of the event per unit period increased. Item 6. The control program according to any one of Item 6. 蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する手順(b)と、
前記手順(b)において作成されたレポートを出力する手順(c)と、
を含むレポート出力方法。
It is generated based on the accumulated event information of a predetermined event that may lead to an accident and the output of the detection unit that detects the movement of the target person in the observation area, which is the image data associated with the event. The event information that recorded the predetermined event regarding the target person in the observation area for which the determination was made, and the image data obtained by photographing the observation area for a predetermined period including the time when the event occurred are acquired. Procedure (a) and
The analysis result is visualized by analyzing the occurrence status of the event with respect to the target person using the information on the occurrence status of the event, or using the information on the occurrence status of the event and the image data. Procedure (b) to create the report to be
The procedure (c) for outputting the report created in the above procedure (b) and
Report output method including.
蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する取得部と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する作成部と、
前記作成部において作成されたレポートを出力する出力部と、
を備える、レポート出力装置。
It is generated based on the accumulated event information of a predetermined event that may lead to an accident and the output of the detection unit that detects the movement of the target person in the observation area, which is the image data associated with the event. The event information that recorded the predetermined event regarding the target person in the observation area for which the determination was made, and the image data obtained by photographing the observation area for a predetermined period including the time when the event occurred are acquired. Acquisition department and
The analysis result is visualized by analyzing the occurrence status of the event with respect to the target person using the information on the occurrence status of the event, or using the information on the occurrence status of the event and the image data. The creation department that creates the report to be
An output unit that outputs the report created in the creation unit, and
A report output device.
JP2020527229A 2018-06-27 2019-04-18 Control program, report output method, and report output device Active JP7327396B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018122274 2018-06-27
JP2018122274 2018-06-27
PCT/JP2019/016684 WO2020003704A1 (en) 2018-06-27 2019-04-18 Control program, report output method, and report output device

Publications (2)

Publication Number Publication Date
JPWO2020003704A1 true JPWO2020003704A1 (en) 2021-07-15
JP7327396B2 JP7327396B2 (en) 2023-08-16

Family

ID=68987024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020527229A Active JP7327396B2 (en) 2018-06-27 2019-04-18 Control program, report output method, and report output device

Country Status (2)

Country Link
JP (1) JP7327396B2 (en)
WO (1) WO2020003704A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7551536B2 (en) 2021-02-25 2024-09-17 株式会社フジタ Near-miss incident database generation method and near-miss incident database generation system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5379923B1 (en) * 2013-04-18 2013-12-25 都子 秋葉 Care receiver information analysis support device and program
JP2018005413A (en) * 2016-06-29 2018-01-11 富士通株式会社 State specification device, state specification program, and state specification method
JP2018088238A (en) * 2016-11-18 2018-06-07 株式会社ベネッセスタイルケア Service support device, service support method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5379923B1 (en) * 2013-04-18 2013-12-25 都子 秋葉 Care receiver information analysis support device and program
JP2018005413A (en) * 2016-06-29 2018-01-11 富士通株式会社 State specification device, state specification program, and state specification method
JP2018088238A (en) * 2016-11-18 2018-06-07 株式会社ベネッセスタイルケア Service support device, service support method, and program

Also Published As

Publication number Publication date
JP7327396B2 (en) 2023-08-16
WO2020003704A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
US10078951B2 (en) Method and process for determining whether an individual suffers a fall requiring assistance
JPWO2019216044A1 (en) System and system control method
JP6711474B2 (en) System, system control method, control program, and device including program
JP2024038108A (en) Information processing device, watching system, and control program
JP2019197263A (en) System and system control method
JP7396274B2 (en) Report output program, report output method, and report output device
JP7327396B2 (en) Control program, report output method, and report output device
JPWO2019216045A1 (en) System and system control method
JP7268679B2 (en) Control program, report output method, and report output device
JP7259540B2 (en) Determination device, control program for determination device, and determination method
JP7363779B2 (en) Control program, report output method, and report output device
JP2021176036A (en) Information processing device and information processing program
JP2020126553A (en) Watching system and control program for watching system
JP2021015497A (en) Control device, control program, and control method
JP7409305B2 (en) Report output program, report output method, and report output device
JPWO2019216066A1 (en) System and system control method
JP7251546B2 (en) Report output program, report output method, and report output device
JP7268387B2 (en) Monitoring device and program for monitoring device
JP2021176035A (en) Information processing device and information processing program
JPWO2019216057A1 (en) System and system control method
JP2021176038A (en) Information processing device and information processing program
JPWO2019216058A1 (en) System and system control method
JP2023000078A (en) Information processing apparatus, information processing system, operating state analysis method, and control program
JP2022189269A (en) Information processing apparatus, information processing system, information processing program, and control method
JP2022113309A (en) Information processing device, monitoring system, control program, and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230717

R150 Certificate of patent or registration of utility model

Ref document number: 7327396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150