JPWO2020003705A1 - Control program, report output method, and report output device - Google Patents

Control program, report output method, and report output device Download PDF

Info

Publication number
JPWO2020003705A1
JPWO2020003705A1 JP2020527230A JP2020527230A JPWO2020003705A1 JP WO2020003705 A1 JPWO2020003705 A1 JP WO2020003705A1 JP 2020527230 A JP2020527230 A JP 2020527230A JP 2020527230 A JP2020527230 A JP 2020527230A JP WO2020003705 A1 JPWO2020003705 A1 JP WO2020003705A1
Authority
JP
Japan
Prior art keywords
event
accident
procedure
image data
event information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020527230A
Other languages
Japanese (ja)
Other versions
JP7363779B2 (en
Inventor
寛 古川
寛 古川
武士 阪口
武士 阪口
海里 姫野
海里 姫野
恵美子 寄▲崎▼
恵美子 寄▲崎▼
遠山 修
修 遠山
藤原 浩一
浩一 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2020003705A1 publication Critical patent/JPWO2020003705A1/en
Application granted granted Critical
Publication of JP7363779B2 publication Critical patent/JP7363779B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G12/00Accommodation for nursing, e.g. in hospitals, not covered by groups A61G1/00 - A61G11/00, e.g. trolleys for transport of medicaments or food; Prescription lists
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Medical Informatics (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Nursing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Alarm Systems (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

施設内で発生した事故報告書の作成を支援する。事故に繋がる可能性のある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における対象者70に関するイベントを記録したイベント情報、および該イベントが発生した時に観察領域を撮影することで得られた画像データを複数蓄積した記憶部23から、事故に関連するイベントのイベント情報、および該イベントに関連づけられた画像データを取得する手順(a)と、取得したイベントのイベント情報、および画像データを用いてイベントに関する事故報告書を作成する手順(b)と、手順(b)において作成された事故報告書を出力する手順(c)と、を含む処理をコンピューターに実行させるための制御プログラムとする。Support the preparation of accident reports that occurred in the facility. The event information of a predetermined event that may lead to an accident, and image data associated with the event, the occurrence of which is determined based on the output of the detection unit that detects the movement of the target person in the observation area. Event information of the event related to the accident from the event information recording the event related to the subject 70 in the observation area and the storage unit 23 accumulating a plurality of image data obtained by photographing the observation area when the event occurs. , And the procedure (a) for acquiring the image data associated with the event, the procedure (b), and the procedure (b) for creating an accident report regarding the event using the acquired event information and the image data. It is a control program for causing a computer to execute a process including the procedure (c) for outputting the accident report created in.

Description

本発明は制御プログラム、報告書出力方法、および報告書出力装置に関し、スタッフにより対応が行われる対象者のイベントに関するレポートの作成を支援する制御プログラム、報告書出力方法、および報告書出力装置に関する。 The present invention relates to a control program, a report output method, and a report output device, and relates to a control program, a report output method, and a report output device that assists staff in creating a report on a subject's event.

我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢などにより、介護を必要とする被介護者等の増加が想定される。 In Japan, the longevity has become remarkable due to the improvement of living standards, the improvement of sanitary environment, and the improvement of medical standards due to the high economic growth after the war. For this reason, coupled with the decline in the birth rate, the aging society has a high aging rate. In such an aging society, it is expected that the number of long-term care recipients will increase due to illness, injury, and aging.

要介護者等は、病院や老人福祉施設などの施設において、歩行中に転倒したり、ベッドから転落して怪我をしたりする虞がある。一般に、このような事象は事故としての報告が求められる。 People requiring long-term care may fall while walking or fall out of bed and get injured in facilities such as hospitals and welfare facilities for the elderly. Generally, such an event is required to be reported as an accident.

特許文献1では、看護支援システムにおける医療事故を未然に防止するためにインシデント(ヒヤリハット)情報を医療従事者による文字入力などにより収集する場合に、多忙な医療従事者にとって、インシデント情報を時間経過に沿って客観的かつ正確に文字入力により行うのは手間がかかり、負担が大きいという課題を挙げている。このような課題を解決するために、特許文献1に開示された看護支援システムでは、医療従業者が、表示された看護予定情報の一部の文字列を修正してインシデント情報の要部を入力した場合に、この修正して得られた文字列をインシデント情報として記憶部に記録している。例えば、医療従業者は、10:00の時間に薬剤を「10mg」投与すべきところを誤って「100mg」投与しそうになった場合に、看護予定情報の「10mg」の文字列を「100mg」に修正する。そして、看護支援システムでは、これを看護予定情報に元から記載されている時間経過情報とともにインシデント情報として記録することで、医療従業者の入力の手間を軽減している。 In Patent Document 1, when incident (hiyari hat) information is collected by a medical worker by inputting characters in order to prevent a medical accident in a nursing support system, the incident information is collected over time for a busy medical worker. It is troublesome and burdensome to input characters objectively and accurately. In order to solve such a problem, in the nursing support system disclosed in Patent Document 1, the medical worker corrects a part of the character string of the displayed nursing schedule information and inputs the main part of the incident information. In that case, the character string obtained by this correction is recorded in the storage unit as incident information. For example, if a medical worker mistakenly administers "100 mg" instead of "10 mg" at 10:00, the character string "10 mg" in the nursing schedule information is changed to "100 mg". Correct to. Then, in the nursing support system, this is recorded as incident information together with the time lapse information originally described in the nursing schedule information, thereby reducing the trouble of inputting the medical staff.

特開2007−148767号公報JP-A-2007-148767

病院や老人福祉施設などの施設において事故が発生した場合には、マネージャー等の責任者が、当事者である入居者、および介護者等の第1発見者から状況を聞き出して、事故報告書を作成している。しかしながら、事実を確認する際に、入居者が高齢者である場合には記憶が曖昧で正確な状況を聞き出せなかったり、事故発生から時間が経っていると第1発見者であっても正確な情報を覚えていなかったりする。そのため事実の確認に手間取ったり、正確な事実が不明の中、推測された事実の中で対策検討をしたりするため、事故報告書の作成に時間も手間もかかるという課題があった。 When an accident occurs in a facility such as a hospital or a welfare facility for the elderly, the person in charge such as a manager asks the resident who is the party concerned and the first discoverer such as a caregiver about the situation and prepares an accident report. is doing. However, when confirming the facts, if the resident is an elderly person, the memory is ambiguous and it is not possible to find out the exact situation, or if time has passed since the accident occurred, even the first discoverer is accurate. I don't remember any information. Therefore, there is a problem that it takes time and effort to prepare an accident report because it takes time to confirm the facts and to consider countermeasures based on the inferred facts while the exact facts are unknown.

特許文献1に開示された看護システムでは、予め作成した看護予定情報の投与量等の文字列を修正することで、詳細なインシデント情報を入力の手間を省くものであり、インシデント情報の収集を効率よく行えるが、事故報告書の作成を支援するものではない。 In the nursing system disclosed in Patent Document 1, the trouble of inputting detailed incident information can be saved by modifying the character string such as the dose of the nursing schedule information created in advance, and the collection of incident information is efficient. It can be done well, but it does not support the preparation of accident reports.

本発明は、上記事情に鑑みてなされたものであり、蓄積されたイベント情報、および画像データを用いて事故報告書の作成を支援する制御プログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a control program that supports the creation of an accident report using the accumulated event information and image data.

本発明の上記課題は、以下の手段によって解決される。 The above object of the present invention is solved by the following means.

(1)事故に繋がる可能性のある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する前記イベントを記録した前記イベント情報、および該イベントが発生した時に前記観察領域を撮影することで得られた前記画像データを複数蓄積した記憶部から、事故に関連する前記イベントの前記イベント情報、および該イベントに関連づけられた前記画像データを取得する手順(a)と、
取得した前記イベントの前記イベント情報、および前記画像データを用いて前記イベントに関する事故報告書を作成する手順(b)と、
前記手順(b)において作成された事故報告書を出力する手順(c)と、
を含む処理をコンピューターに実行させるための制御プログラム。
(1) Occurrence is generated based on the event information of a predetermined event that may lead to an accident and the output of the detection unit that detects the movement of the target person in the observation area, which is the image data associated with the event. An accident occurs from the event information that records the event related to the subject in the determined observation area and the storage unit that stores a plurality of the image data obtained by photographing the observation area when the event occurs. The procedure (a) for acquiring the event information of the related event and the image data associated with the event, and
A procedure (b) for creating an accident report regarding the event using the acquired event information of the event and the image data, and
The procedure (c) for outputting the accident report created in the above procedure (b) and the procedure (c)
A control program that causes a computer to perform processing that includes.

(2)前記処理は、前記イベントを発生させた前記対象者それぞれに関連付けられた1つまたは複数のフォーマットを取得する手順(d)を、さらに含み、
前記手順(b)では、さらに、前記手順(d)で取得した前記フォーマットを用いて、前記事故報告書を作成する、上記(1)に記載の制御プログラム。
(2) The process further includes step (d) of acquiring one or more formats associated with each of the subject who generated the event.
The control program according to (1) above, wherein in the procedure (b), the accident report is further created using the format acquired in the procedure (d).

(3)前記処理は、複数の前記イベントの中から、事故に関連するイベントの選択を受け付ける手順(e)を、さらに含み、
前記手順(a)では、前記手順(e)で選択された前記イベントに関するイベント情報、および前記画像データを取得する、上記(1)または上記(2)に記載の制御プログラム。
(3) The process further includes a procedure (e) for accepting selection of an event related to the accident from the plurality of events.
The control program according to (1) or (2) above, wherein in the procedure (a), event information about the event selected in the procedure (e) and the image data are acquired.

(4)前記画像データは、前記観察領域を撮影して得られた動画、または連続して撮影した複数の静止画であり、前記事故報告書には、前記動画または前記静止画から生成した複数の画像が含まれる、上記(1)から上記(3)のいずれかに記載の制御プログラム。 (4) The image data is a moving image obtained by photographing the observation area or a plurality of still images photographed continuously, and the accident report includes the moving image or a plurality of still images generated from the still image. The control program according to any one of (1) to (3) above, which includes the image of.

(5)前記処理は、前記手順(a)で取得した画像データを表示して、ユーザーによる前記事故報告書に対する編集を受け付ける手順(f)をさらに含み、
前記手順(c)は、前記手順(f)において編集された前記事故報告書を出力する、上記(1)から上記(4)のいずれかに記載の制御プログラム。
(5) The process further includes a procedure (f) of displaying the image data acquired in the procedure (a) and accepting the user to edit the accident report.
The control program according to any one of (1) to (4) above, wherein the procedure (c) outputs the accident report edited in the procedure (f).

(6)前記イベントが発生することに応じて、前記対象者への対応を行うスタッフが端末を通じて入力した、前記イベントの状況を示す情報が、前記イベント情報に含まれる、上記(1)から上記(5)のいずれかに記載の制御プログラム。 (6) The above (1) to the above, the information indicating the status of the event, which is input through the terminal by the staff who responds to the target person in response to the occurrence of the event, is included in the event information. The control program according to any one of (5).

(7)前記記憶部には、前記イベントとして、転落、または転倒のイベントに関する前記イベント情報が蓄積されている、上記(1)から上記(6)のいずれかに記載の制御プログラム。 (7) The control program according to any one of (1) to (6) above, wherein the storage unit stores the event information regarding a fall or a fall event as the event.

(8)事故に繋がる可能性のある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する前記イベントを記録した前記イベント情報、および該イベントが発生した時に前記観察領域を撮影することで得られた前記画像データを複数蓄積した記憶部から、事故に関連する前記イベントの前記イベント情報、および該イベントに関連づけられた前記画像データを取得する手順(a)と、
取得した前記イベントの前記イベント情報、および前記画像データを用いて前記イベントに関する事故報告書を作成する手順(b)と、
前記手順(b)において作成された事故報告書を出力する手順(c)と、
を含む報告書出力方法。
(8) Occurrence is generated based on the event information of a predetermined event that may lead to an accident and the output of the detection unit that detects the movement of the target person in the observation area, which is the image data associated with the event. An accident occurs from the event information that records the event related to the subject in the determined observation area and the storage unit that stores a plurality of the image data obtained by photographing the observation area when the event occurs. The procedure (a) for acquiring the event information of the related event and the image data associated with the event, and
A procedure (b) for creating an accident report regarding the event using the acquired event information of the event and the image data, and
The procedure (c) for outputting the accident report created in the above procedure (b) and the procedure (c)
Report output method including.

(9)事故に繋がる可能性のある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する前記イベントを記録した前記イベント情報、および該イベントが発生した時に前記観察領域を撮影することで得られた前記画像データを複数蓄積した記憶部から、事故に関連する前記イベントの前記イベント情報、および該イベントに関連づけられた前記画像データを取得する取得部と、
取得した前記イベントの前記イベント情報、および前記画像データを用いて前記イベントに関する事故報告書を作成する作成部と、
前記作成部において作成された事故報告書を出力する出力部と、
を備える報告書出力装置。
(9) Occurrence is generated based on the event information of a predetermined event that may lead to an accident and the output of the detection unit that detects the movement of the target person in the observation area, which is the image data associated with the event. An accident occurs from the event information that records the event related to the subject in the determined observation area and the storage unit that stores a plurality of the image data obtained by photographing the observation area when the event occurs. An acquisition unit that acquires the event information of the related event and the image data associated with the event, and
A creation unit that creates an accident report related to the event using the acquired event information of the event and the image data.
An output unit that outputs the accident report created by the preparation unit,
Report output device.

本発明によれば、事故に繋がる可能性のある所定のイベントのイベント情報および画像データを複数蓄積した記憶部から、事故に関連するイベントのイベント情報、および画像データを取得し、これらを用いて事故報告書を作成し、これを出力する。これにより、事故報告書の作成を支援できる。 According to the present invention, event information and image data of an event related to an accident are acquired from a storage unit that stores a plurality of event information and image data of a predetermined event that may lead to an accident, and these are used. Create an accident report and output it. This can support the preparation of accident reports.

見守りシステムの全体構成を示す図である。It is a figure which shows the whole structure of a watching system. 対象者の部屋に設置された検出部の例を示す図である。It is a figure which shows the example of the detection part installed in the room of a subject. 検出部の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the detection part. サーバーの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of a server. スタッフ端末の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the staff terminal. 見守りシステムの処理の手順を示すシーケンスチャートである。It is a sequence chart which shows the processing procedure of a monitoring system. 記憶部に記憶されるイベントリストの例である。This is an example of an event list stored in the storage unit. スタッフ端末に表示されるイベントの確認を行うための操作画面の例である。This is an example of an operation screen for checking the event displayed on the staff terminal. イベントリストに特記事項を記述した変形例である。This is a modified example in which special notes are described in the event list. 事故報告書の出力処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of output processing of an accident report. 作成した事故報告書の例を示す図である。It is a figure which shows the example of the created accident report. 別のフォーマットを用いて作成した事故報告書の例を示す図である。It is a figure which shows the example of the accident report prepared using another format.

以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted. In addition, the dimensional ratios in the drawings are exaggerated for convenience of explanation and may differ from the actual ratios.

(全体構成)
図1は本実施形態に係る見守りシステムの全体構成を示す図であり、図2は対象者の部屋のベッド周辺に設置された検出部の例を示す図である。
(overall structure)
FIG. 1 is a diagram showing an overall configuration of a monitoring system according to the present embodiment, and FIG. 2 is a diagram showing an example of a detection unit installed around a bed in a subject's room.

図1に示すように、見守りシステム1は、複数の検出部10、サーバー20、固定端末30、および1つ以上のスタッフ端末40を備える。サーバー20は、報告書出力装置として機能する。これらは、有線や無線によって、LAN(Local Area Network)、電話網またはデータ通信網等のネットワーク50を介して、相互に通信可能に接続される。ネットワーク50は、通信信号を中継するリピーター、ブリッジ、ルーターまたはクロスコネクト等の中継機を備えてもよい。図1に示す例では、スタッフ端末40、検出部10、サーバー20、および固定端末30は相互に、アクセスポイント51を含む無線LAN等(例えばIEEE802.11規格に従ったLAN)のネットワーク50によって、通信可能に接続されている。 As shown in FIG. 1, the monitoring system 1 includes a plurality of detection units 10, a server 20, a fixed terminal 30, and one or more staff terminals 40. The server 20 functions as a report output device. These are connected to each other by wire or wirelessly via a network 50 such as a LAN (Local Area Network), a telephone network, or a data communication network so as to be communicable with each other. The network 50 may include repeaters such as repeaters, bridges, routers or cross-connects that relay communication signals. In the example shown in FIG. 1, the staff terminal 40, the detection unit 10, the server 20, and the fixed terminal 30 are connected to each other by a network 50 such as a wireless LAN including an access point 51 (for example, a LAN according to the IEEE 802.11 standard). It is connected so that it can communicate.

見守りシステム1は、対象者70に応じて適宜な場所に配設される。対象者70(見守り対象者、ケア対象者ともいう)は、例えば、病気や怪我等によって看護を必要とする患者、高齢による身体能力の低下等によって介護を必要とする被介護者、または一人暮らしの独居者等である。特に、早期発見および早期対処を可能にする観点から、対象者70は、例えば異常状態等の所定の不都合な事象がその者に生じた場合に、その発見を必要としている者であり得る。このため、見守りシステム1は、対象者70の種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、見守りシステム1は、複数の対象者70が入居する複数の部屋(居室)やナースステーションを含む複数の部屋を備える施設に配置されている。 The watching system 1 is arranged at an appropriate place according to the target person 70. The target person 70 (also referred to as a person to be watched over or a person to be cared for) is, for example, a patient who needs nursing care due to illness or injury, a care recipient who needs nursing care due to deterioration of physical ability due to old age, or a person living alone. Those who live alone. In particular, from the viewpoint of enabling early detection and early coping, the subject 70 may be a person who needs the detection when a predetermined inconvenient event such as an abnormal state occurs in the person. Therefore, the watching system 1 is suitably arranged in a building such as a hospital, a welfare facility for the elderly, and a dwelling unit according to the type of the subject 70. In the example shown in FIG. 1, the watching system 1 is arranged in a facility including a plurality of rooms (living rooms) in which a plurality of target persons 70 are occupying and a plurality of rooms including a nurse station.

検出部10は、対象者70の観察領域である施設内のそれぞれの居室に配置される。図1に示す例では、4つの検出部10が対象者70であるAさん、Bさん、CさんおよびDさんの居室にそれぞれ配置されている。検出部10の観察領域にはベッド60が含まれている。対象者70に対して看護または介護を行うスタッフ80(ケアスタッフ、または介護スタッフともいう)は、それぞれ携帯端末であるスタッフ端末40を持ち歩いている。ただし、見守りシステム1が備える各構成の位置や個数等は、図1に示す例に限定されない。例えば、サーバー20は、ナースステーションに配置されなくてもよく、ネットワーク50に接続されている外部のサーバーユニットであってもよい。また固定端末30を省略し、サーバー20またはスタッフ端末40がその機能を担ってもよい。 The detection unit 10 is arranged in each living room in the facility, which is the observation area of the subject 70. In the example shown in FIG. 1, four detection units 10 are arranged in the living rooms of Mr. A, Mr. B, Mr. C, and Mr. D, who are the subjects 70, respectively. The observation area of the detection unit 10 includes a bed 60. The staff 80 (also referred to as a care staff or a care staff) who provides nursing care or nursing care to the subject 70 carries a staff terminal 40, which is a mobile terminal, respectively. However, the position, number, and the like of each configuration included in the monitoring system 1 are not limited to the example shown in FIG. For example, the server 20 does not have to be located at the nurse station and may be an external server unit connected to the network 50. Further, the fixed terminal 30 may be omitted, and the server 20 or the staff terminal 40 may carry out the function.

(検出部10)
図3は検出部の概略構成を示すブロック図である。同図に示すように、検出部10は、制御部11、通信部12、カメラ13、ナースコール部14、および音声入出力部15を備え、これらはバスによって、相互に接続されている。
(Detection unit 10)
FIG. 3 is a block diagram showing a schematic configuration of the detection unit. As shown in the figure, the detection unit 10 includes a control unit 11, a communication unit 12, a camera 13, a nurse call unit 14, and a voice input / output unit 15, which are connected to each other by a bus.

制御部11は、CPU(Central Processing Unit)、およびRAM(Random Access Memory)、ROM(Read Only Memory)、等のメモリにより構成され、プログラムにしたがって検出部10の各部の制御および演算処理を行う。なお、制御部11は、メモリとして、さらにHDD(Hard Disk Drive)を備えてもよい。 The control unit 11 is composed of a CPU (Central Processing Unit) and a memory such as a RAM (Random Access Memory) and a ROM (Read Only Memory), and controls and performs arithmetic processing of each part of the detection unit 10 according to a program. The control unit 11 may further include an HDD (Hard Disk Drive) as a memory.

通信部12は、ネットワーク50を介して、例えば、サーバー20、固定端末30またはスタッフ端末40等の、他の装置と通信するためのインターフェース回路(例えばLANカード等)である。 The communication unit 12 is an interface circuit (for example, a LAN card) for communicating with other devices such as a server 20, a fixed terminal 30, or a staff terminal 40 via a network 50.

カメラ13は、例えば居室の天井、または壁の上部に配置され、観察領域として真下にある対象者70のベッド60を含む領域を撮影し、撮影画像(画像データ)を出力する。この撮影画像には、静止画および動画を含む。カメラ13は近赤外線カメラであるが、これに換えて可視光カメラを用いてもよく、これらを併用してもよい。 The camera 13 is arranged on the ceiling or the upper part of the wall of the living room, for example, and photographs an area including the bed 60 of the subject 70 directly below as an observation area, and outputs a photographed image (image data). This captured image includes still images and moving images. Although the camera 13 is a near-infrared camera, a visible light camera may be used instead of the near-infrared camera, or these may be used in combination.

制御部11は、カメラ13が撮影した撮影画像から、対象者70の所定の行動の発生を判定(認識)する。この判定する所定の行動には、ベッド60から起き上がる「起床」、ベッド60から離れる「離床」、ベッド60から転落する「転落」、および床面等に転倒する「転倒」が含まれる。 The control unit 11 determines (recognizes) the occurrence of a predetermined action of the target person 70 from the captured image taken by the camera 13. The predetermined action to be determined includes "getting up" from the bed 60, "getting out of bed" away from the bed 60, "falling" to fall from the bed 60, and "falling" to fall to the floor surface or the like.

制御部11は、複数の撮影画像(動画像)から画像のシルエット(以下、「人シルエット」と称する)を検出する。人シルエットは、例えば、撮影時刻が前後する画像の差分を抽出する時間差分法により差分が相対的に大きい画素の範囲を抽出することで検出され得る。人シルエットは、撮影画像と背景画像との差分を抽出する背景差分法により検出されてもよい。起床、離床、転倒、転落の別は、検出した人シルエットから対象者70の姿勢(例えば立位、座位および横臥等)、およびベッド60等の居室内の設置物との相対的な位置から認識される。これらの認識は、制御部11のCPUが処理するプログラムにより行ってもよく、組み込み型の処理回路により行うようにしてもよい。以下においては、制御部11側でイベントの種類、および発生有無の判定を行うものとして説明する。しかしながら、これに限られずサーバー20側でこれらの認識の全部またはほとんどの処理を行うようにし、制御部11ではサーバー20への撮影画像の送信のみを行うようにしてもよい。制御部11は、いずれかの種類のイベント(行動)を認識した場合、そのイベントが発生した旨の通知をサーバー20等に送信する。 The control unit 11 detects an image silhouette (hereinafter, referred to as “human silhouette”) from a plurality of captured images (moving images). The human silhouette can be detected, for example, by extracting a range of pixels having a relatively large difference by the time difference method for extracting the difference between images whose shooting times are before and after. The human silhouette may be detected by the background subtraction method that extracts the difference between the photographed image and the background image. The distinction between getting up, getting out of bed, falling, and falling is recognized from the detected person silhouette from the posture of the subject 70 (for example, standing, sitting, lying down, etc.) and the position relative to the installation in the living room such as the bed 60. Will be done. These recognitions may be performed by a program processed by the CPU of the control unit 11, or may be performed by a built-in processing circuit. In the following, it will be described that the control unit 11 side determines the type of event and the presence / absence of occurrence. However, the present invention is not limited to this, and the server 20 may perform all or most of these recognition processes, and the control unit 11 may only transmit the captured image to the server 20. When the control unit 11 recognizes any type of event (behavior), the control unit 11 transmits a notification that the event has occurred to the server 20 or the like.

スタッフ80は、業務に応じた、対象者70への各種の対応を行う者である。業務には、医療業務、介護業務を含み得る。ここで、スタッフ80の業務が、対象者70に対する介護業務である場合に、各イベントに関する対応内容について説明する。イベントとして「起床」を判定し、その判定が所定時間内(施設で設定された起床時間(例えば午前7〜8時))であれば、モーニングケアを行う。このモーニングケアには、洗顔、歯磨き介助、義歯装着、着替え介助等が含まれる。また、「離床」のイベントであれば、車椅子移乗、歩行介助が必要となる場合がある。また、検出部10が判定したイベント以外の定期的(定時)なイベントとして、飲料、および食事介助、排泄介助、車椅子移乗、歩行介助、体位変換(褥瘡予防)がある。これらの定期的イベントは、ナースコール部14等により、定時になるとアラートを発生させるようにしてもよい。 The staff 80 is a person who performs various responses to the target person 70 according to the work. The work may include medical work and long-term care work. Here, when the work of the staff 80 is a long-term care work for the target person 70, the contents of correspondence regarding each event will be described. "Wake-up" is judged as an event, and if the judgment is within a predetermined time (wake-up time set at the facility (for example, 7:00 to 8:00 am)), morning care is performed. This morning care includes face washing, tooth brushing assistance, denture wearing, change of clothes assistance, and the like. In addition, if it is an event of "getting out of bed", wheelchair transfer and walking assistance may be required. In addition, as regular (regular) events other than the event determined by the detection unit 10, there are beverages, meal assistance, excretion assistance, wheelchair transfer, walking assistance, and postural change (pressure ulcer prevention). For these regular events, an alert may be generated at a fixed time by the nurse call unit 14 or the like.

ナースコール部14は、押しボタン式のスイッチを含み、スイッチが対象者70によって押されることでナースコール(ケアコールともいう)を検出する。押しボタン式のスイッチに換えて、音声マイクによりナースコールを検出してもよい。ナースコール部14のスイッチが押された場合、すなわち、ナースコールを検出した場合、制御部11は、通信部12およびネットワーク50を介して、ナースコールがあった旨の通知(ナースコール通知)をサーバー20等に送信する。 The nurse call unit 14 includes a push button type switch, and detects a nurse call (also referred to as a care call) when the switch is pressed by the subject 70. The nurse call may be detected by a voice microphone instead of the push button type switch. When the switch of the nurse call unit 14 is pressed, that is, when the nurse call is detected, the control unit 11 notifies that there is a nurse call (nurse call notification) via the communication unit 12 and the network 50. Send to server 20 etc.

音声入出力部15は、例えばスピーカーとマイクであり、通信部12を介してスタッフ端末40等との間で音声信号を送受信することで音声通話を可能とする。なお、音声入出力部15は検出部10の外部装置として、通信部12を介して検出部10に接続されてもよい。 The voice input / output unit 15 is, for example, a speaker and a microphone, and enables a voice call by transmitting and receiving a voice signal to and from the staff terminal 40 and the like via the communication unit 12. The voice input / output unit 15 may be connected to the detection unit 10 via the communication unit 12 as an external device of the detection unit 10.

また、検出部10は、ベッド60の方向に向けてマイクロ波を送受信して対象者70の体動(例えば呼吸動)によって生じたマイクロ波のドップラシフトを検出するドップラシフト方式の体動センサーを、さらに備えてもよい。この体動センサーにより、対象者70の呼吸動作に伴う胸部の体動(胸部の上下動)を検出し、その胸部の体動における周期の乱れや予め設定された閾値以下である胸部の体動における振幅を検知すると、微体動異常であると認識する。 Further, the detection unit 10 uses a doppler shift type body motion sensor that transmits and receives microwaves in the direction of the bed 60 to detect the doppler shift of the microwave generated by the body movement (for example, respiratory movement) of the subject 70. , You may prepare further. This body movement sensor detects the body movement of the chest (up and down movement of the chest) accompanying the breathing movement of the subject 70, and the disorder of the cycle in the body movement of the chest and the body movement of the chest that is below a preset threshold value. When the amplitude in is detected, it is recognized as a microbody movement abnormality.

本実施形態においては、ナースコール部14によるナースコール、および対象者70に関する検出部10が認識した状態の変化であって、起床、離床、転落、転倒、微体動異常、等のスタッフ80に発報(報知)を行うべき事象をイベントと称する。検出部10は、生じたイベントの情報および撮影画像をサーバー20へ送信(出力)する。 In the present embodiment, the nurse call by the nurse call unit 14 and the change in the state recognized by the detection unit 10 regarding the subject 70 are the changes in the state recognized by the staff 80 such as getting up, getting out of bed, falling, falling, and abnormal physical movement. An event that should be issued (notified) is called an event. The detection unit 10 transmits (outputs) information on the event that has occurred and a captured image to the server 20.

(サーバー20)
図4はサーバーの概略構成を示すブロック図である。サーバー20は、制御部21、通信部22、および記憶部23を備える。サーバー20と記憶部23は、一体で同じ筐体内に配置されてもよく、分離して配置されてもよい。サーバー20、および記憶部23の一方、または両方は、対象者70用の居室と同じ建物内に設けられてもよく、遠隔地に設けられてネットワークを介して接続可能であってもよい。例えば、サーバー20は、インターネット等のネットワーク上に配置された複数のサーバーによって仮想的に構築されるクラウドサーバーであってもよい。各構成は、バスによって、相互に通信可能に接続されている。記憶部23は、データベースとして機能し、イベントリスト、対象者70、およびスタッフ80に関する各種情報を記憶する。制御部21は、通信部22と協働することで事故に関連するイベントのイベント情報、およびイベントに関連づけられた画像データを取得する取得部として機能する。また制御部21は、取得したこれらのデータから事故報告書を作成する作成部として機能する。また制御部21は、通信部22と協働することで、作成した事故報告書を出力する出力部としても機能する。その他の制御部21、および通信部22は、検出部10の各構成と同様の機能を有するため、詳細な説明を省略する。
(Server 20)
FIG. 4 is a block diagram showing a schematic configuration of the server. The server 20 includes a control unit 21, a communication unit 22, and a storage unit 23. The server 20 and the storage unit 23 may be integrally arranged in the same housing, or may be separately arranged. One or both of the server 20 and the storage unit 23 may be provided in the same building as the living room for the subject 70, or may be provided in a remote location and connectable via a network. For example, the server 20 may be a cloud server virtually constructed by a plurality of servers arranged on a network such as the Internet. Each configuration is communicatively connected to each other by a bus. The storage unit 23 functions as a database and stores various information about the event list, the target person 70, and the staff 80. The control unit 21 functions as an acquisition unit that acquires event information of an event related to an accident and image data associated with the event by cooperating with the communication unit 22. Further, the control unit 21 functions as a creation unit for creating an accident report from these acquired data. The control unit 21 also functions as an output unit that outputs the created accident report by cooperating with the communication unit 22. Since the other control unit 21 and the communication unit 22 have the same functions as the respective configurations of the detection unit 10, detailed description thereof will be omitted.

また、記憶部23には、事故報告書に関する予め定められた所定のフォーマットが記憶されている。このフォーマットは、事故報告書の提出先それぞれに対応して複数あり、例えば、(1)事故の当事者(対象者70)の住民票の住所、および(2)事故が発生した施設の所在地の市区町村(地方公共団体)への提出用のフォーマット、ならびに、(3)施設を管理する親会社への提出用のフォーマット、等が含まれる。複数のフォーマットは、それぞれ対象者70のIDに紐付けられている。なお、このうち(1)のフォーマットは対象者70毎に異なり、その他の(2)、(3)のフォーマットは、各対象者70で共通である。 Further, the storage unit 23 stores a predetermined format for the accident report. There are multiple formats for each destination of the accident report, for example, (1) the address of the resident's card of the person involved in the accident (target person 70), and (2) the city of the location of the facility where the accident occurred. Formats for submission to wards, towns and villages (local public organizations), and (3) formats for submission to the parent company that manages the facility, etc. are included. Each of the plurality of formats is associated with the ID of the target person 70. Of these, the format of (1) differs for each target person 70, and the other formats (2) and (3) are common to each target person 70.

また、記憶部23には、対象者70の対象者情報が記憶されている。この対象者情報には、被保険者番号、住所、年齢、要介護度、家族名、家族の連絡先、等の個人情報が含まれる。 Further, the storage unit 23 stores the target person information of the target person 70. This target person information includes personal information such as insured person number, address, age, degree of care required, family name, family contact information, and the like.

その他の制御部21、および通信部22は、検出部10の各構成と同様の機能を有するため、詳細な説明を省略する。このイベントリストには、後述するように、事故に繋がる可能性がある所定のイベント(例えば転落、転倒のイベント)を含む各種のイベントの情報が含まれる。この事故に繋がる可能性がある所定のイベントは、ヒヤリハットともよばれ、このままの状態が続くと事故になる可能性がある。 Since the other control unit 21 and the communication unit 22 have the same functions as the respective configurations of the detection unit 10, detailed description thereof will be omitted. As will be described later, this event list contains information on various events including predetermined events that may lead to an accident (for example, a fall or a fall event). A certain event that may lead to this accident is also called a hiyari hat, and if this condition continues, it may lead to an accident.

サーバー20は、検出部10が検出した、ナースコール、起床、離床、転落、転倒、等のイベントが、どの対象者70に関するものであるかを判定(識別)する。この判定は、イベントを検出した検出部10が設置されている部屋番号から、これに対応付けられている対象者70(すなわち、部屋の入居者)を判定する。そして、判定したイベントの種類と対象者70とを関連付けて記憶部23のイベントリストに追加する。なお、本実施形態では、対象者70の判定は、対象者70がICタグを携帯している場合には、このICタグを各部屋に設けたRFIDリーダーで読み取ることにより、判定してもよい。なお、相部屋等で、1つの部屋に複数の対象者70が存在する場合には、ベッド60毎に検出部10を配置することで、対象者70を判定してもよい。また、これに関連し、スタッフ80が携帯するスタッフ端末40をRFIDリーダーに近づけることにより、各スタッフ80の部屋への入室を検知するようにしてもよい。 The server 20 determines (identifies) which target person 70 the event such as nurse call, getting up, getting out of bed, falling, falling, etc. detected by the detection unit 10 is related to. In this determination, the target person 70 (that is, the resident of the room) associated with the room number in which the detection unit 10 that has detected the event is installed is determined. Then, the determined event type and the target person 70 are associated with each other and added to the event list of the storage unit 23. In the present embodiment, when the target person 70 carries an IC tag, the determination of the target person 70 may be made by reading the IC tag with an RFID reader provided in each room. .. When a plurality of target persons 70 exist in one room in a shared room or the like, the target person 70 may be determined by arranging the detection unit 10 for each bed 60. Further, in connection with this, the staff terminal 40 carried by the staff 80 may be brought close to the RFID reader to detect the entry of each staff 80 into the room.

(固定端末30)
固定端末30は、いわゆるPC(Personal Computer)であり、CPU、RAM等で構成される制御部、通信部、表示部、入力部、および音声入出力部を備える。固定端末30は、例えばナースステーション内に配置される。また、レポート(後述する事故報告書等)を出力する際、ユーザー(スタッフ80、このスタッフ80を管理する管理者等)の指示の入力により、表示部に分析結果を図表等により可視化したレポートを表示したり、外部のプリンター(図示せず)から用紙に出力させたりする。また、このレポートには、後述するようにユーザーが固定端末30の表示部(ディスプレイ)に表示された撮影画像を参照しながら、入力部からレポートの編集作業を受け付けるようにしてもよい。
(Fixed terminal 30)
The fixed terminal 30 is a so-called PC (Personal Computer), and includes a control unit, a communication unit, a display unit, an input unit, and an audio input / output unit composed of a CPU, a RAM, and the like. The fixed terminal 30 is arranged in, for example, a nurse station. In addition, when outputting a report (accident report, etc., which will be described later), by inputting instructions from the user (staff 80, manager who manages this staff 80, etc.), a report that visualizes the analysis results in a chart or the like is displayed on the display unit. Display or output to paper from an external printer (not shown). Further, in this report, as will be described later, the user may accept the editing work of the report from the input unit while referring to the captured image displayed on the display unit (display) of the fixed terminal 30.

また、スタッフ80または技術スタッフ等は、固定端末30を通じて、検出部10を各部屋(居室)に取り付けたときに、部屋番号と検出部10の対応付けをしたり、ベッド60等の居室内の設置物の位置情報、すなわち、天井のカメラ13による上方視の輪郭情報の校正、指定を行ったりする。また、入院または入居している対象者70の名前、ID番号等の識別情報と、各部屋番号との対応付けも行う。 Further, when the detection unit 10 is attached to each room (living room) through the fixed terminal 30, the staff 80 or the technical staff or the like can associate the room number with the detection unit 10 or in the living room such as the bed 60. The position information of the installation object, that is, the contour information of the upward view by the camera 13 on the ceiling is calibrated and designated. In addition, identification information such as the name and ID number of the subject 70 who is hospitalized or occupying is associated with each room number.

(スタッフ端末40)
図5は、スタッフ端末40の概略構成を示すブロック図である。スタッフ端末40は、制御部41、無線通信部42、表示部43、入力部44、および音声入出力部45を備え、これらはバスにより相互に接続される。制御部41は、検出部10の制御部11と同様の構成として、CPU、RAM、ROM等を備える。無線通信部42により、Wi−Fi、Bluetooth(登録商標)等の規格を用いた無線通信が可能であり、アクセスポイント51を経由して、または直接的に各装置と無線通信する。表示部43、および入力部44は、タッチパネルであり、液晶等で構成される表示部43の表示面に、入力部44としてのタッチセンサーを重畳させたものである。表示部43、入力部44によって、スタッフ80に対して、イベントリストに含まれる複数のイベントを一覧表示した各種の操作画面を表示したり、操作画面を通じて各種の操作を受け付けたりする。音声入出力部45は、例えばスピーカーとマイクであり、無線通信部42を介して他のスタッフ端末40との間でスタッフ80による音声通話を可能にする。スタッフ端末40は、見守りシステム1のユーザーインターフェースとして機能する機器であり、例えば、タブレット型コンピューター、スマートフォンまたは携帯電話等の、持ち運び可能な通信端末機器によって構成できる。
(Staff terminal 40)
FIG. 5 is a block diagram showing a schematic configuration of the staff terminal 40. The staff terminal 40 includes a control unit 41, a wireless communication unit 42, a display unit 43, an input unit 44, and a voice input / output unit 45, which are connected to each other by a bus. The control unit 41 includes a CPU, RAM, ROM, and the like as the same configuration as the control unit 11 of the detection unit 10. The wireless communication unit 42 enables wireless communication using standards such as Wi-Fi and Bluetooth (registered trademark), and wirelessly communicates with each device via the access point 51 or directly. The display unit 43 and the input unit 44 are touch panels, and a touch sensor as the input unit 44 is superimposed on the display surface of the display unit 43 composed of a liquid crystal or the like. The display unit 43 and the input unit 44 display to the staff 80 various operation screens displaying a list of a plurality of events included in the event list, and accept various operations through the operation screens. The voice input / output unit 45 is, for example, a speaker and a microphone, and enables voice communication by the staff 80 with another staff terminal 40 via the wireless communication unit 42. The staff terminal 40 is a device that functions as a user interface of the watching system 1, and can be configured by a portable communication terminal device such as a tablet computer, a smartphone, or a mobile phone.

スタッフ80は、業務開始時に、割り当てられたスタッフ端末40を通じて、ログイン認証処理を行う。スタッフ80は、スタッフ端末40のタッチパネル(表示部43、入力部44)を通じて、スタッフID、パスワードを入力する。スタッフ端末40は、これをサーバー20に送信する。サーバー20は、記憶部23に記憶している認証情報を突き合わせ、スタッフ80の権限に応じた認証結果をスタッフ端末40に送信することで、ログイン認証が終了する。 At the start of business, the staff 80 performs a login authentication process through the assigned staff terminal 40. The staff 80 inputs the staff ID and password through the touch panel (display unit 43, input unit 44) of the staff terminal 40. The staff terminal 40 transmits this to the server 20. The server 20 collates the authentication information stored in the storage unit 23 and transmits the authentication result according to the authority of the staff 80 to the staff terminal 40 to complete the login authentication.

(見守りシステムの処理の手順)
次に、見守りシステム1全体で行われる、イベント情報、および画像データの蓄積処理について図6を参照して説明する。図6は、見守りシステムの処理の手順を示すシーケンスチャートである。
(Procedure for monitoring system processing)
Next, the event information and image data accumulation processing performed in the entire monitoring system 1 will be described with reference to FIG. FIG. 6 is a sequence chart showing the processing procedure of the watching system.

(ステップS110)
図6に示すように、検出部10は、観察領域における対象者70の動き、または対象者70によるナースコールのイベントを検出する。そして、検出部10は、対象者70の動きから、転落、転倒、等の他のイベントの発生の有無を判定する。
(Step S110)
As shown in FIG. 6, the detection unit 10 detects the movement of the subject 70 in the observation area or the event of the nurse call by the subject 70. Then, the detection unit 10 determines whether or not another event such as a fall or a fall has occurred based on the movement of the target person 70.

(ステップS120、S130)
そしてイベントの発生を判定した場合、そのイベント情報をサーバー20に送信する。また、検出部10は、イベントが発生した時に観察領域を撮影することで得られた画像データを送信する。この場合、発生したイベントの種類が特定の種類、例えば転落、転倒であれば、発生時点を含む所定時間(例えば数秒〜数十秒)の動画、または連続して撮影した複数枚の静止画を送信し、その他の種類のイベントであれば発生時点の静止画を送信するようにしてもよい。なお、別の例として、検出部10は、撮影画像をサーバー20に連続して送信し続け、サーバー20側では、所定時間分(例えば過去数分)だけ一時記憶部に記憶する。そしてサーバー20は、イベントが発生し、イベント情報を検出部10から受信するに応じて、一時記憶部から発生時点の静止画、または動画を読み出し、イベントに関連付けて保存するようにしてもよい。
(Steps S120, S130)
Then, when it is determined that an event has occurred, the event information is transmitted to the server 20. Further, the detection unit 10 transmits the image data obtained by photographing the observation area when the event occurs. In this case, if the type of event that occurred is a specific type, for example, a fall or a fall, a moving image for a predetermined time (for example, several seconds to several tens of seconds) including the time of occurrence, or a plurality of still images taken continuously is displayed. It may be transmitted, and if it is another type of event, a still image at the time of occurrence may be transmitted. As another example, the detection unit 10 continuously transmits the captured image to the server 20, and the server 20 stores the captured image in the temporary storage unit for a predetermined time (for example, a few minutes in the past). Then, when an event occurs and the event information is received from the detection unit 10, the server 20 may read a still image or a moving image at the time of occurrence from the temporary storage unit and save the event in association with the event.

(ステップS140)
サーバー20は、イベントリストを更新する。図7は、記憶部23に記憶されるイベントリストの例である。イベントリストに含まれるイベントには、上述のように起床、離床、転落、転倒、およびナースコールが含まれる。ステップS120で送信された最新のイベントは、イベントリストの最後に追加される。
(Step S140)
The server 20 updates the event list. FIG. 7 is an example of an event list stored in the storage unit 23. The events included in the event list include getting up, getting out of bed, falling, falling, and a nurse call as described above. The latest event transmitted in step S120 is added to the end of the event list.

図7に示すように、各イベントには、自動的に付与される主キーとなるイベントID、部屋番号、対象者、イベント種類、発生日時(時刻)、画像データ、および対応状況の情報が含まれる。画像データは、上述のとおり、イベントの発生時に検出部10により撮影して得られた静止画、または動画のデータである。対応状況は、ステイタス、対応スタッフ、および対応日時(時刻)が含まれる。対応状況については後述する。 As shown in FIG. 7, each event includes event ID, room number, target person, event type, occurrence date / time (time), image data, and correspondence status information, which are automatically assigned primary keys. Is done. As described above, the image data is still image or moving image data obtained by being photographed by the detection unit 10 when an event occurs. Response status includes status, response staff, and response date (time). The correspondence status will be described later.

図7に示す例では、イベントID010のイベントは転落であり、イベントID011、012のイベントは、ナースコールである。イベントID013〜015は順に、起床、離床、転倒である。イベントID010〜012のイベントに関する対応状況のステイタスは対応済みになっており、イベントID013〜015は未対応である。 In the example shown in FIG. 7, the event of event ID 010 is a fall, and the events of event IDs 011 and 012 are nurse calls. Event IDs 013 to 015 are, in order, getting up, getting out of bed, and falling. The status of the response status related to the event of event IDs 010 to 012 has already been supported, and event IDs 013 to 015 are not supported.

(ステップS150)
サーバー20は、新たなイベントが検出されて追加される、またはイベントのステイタスが変更されることで、イベントリストが更新された場合には、更新後のイベントリストを、ログイン中の全てのスタッフ端末40に配信する。なお、このときの配信先は、イベントを発生させた対象者70を担当するスタッフ80が用いるスタッフ端末40にのみ配信するようにしてもよい。イベントリストを受信した各スタッフ端末40は、サーバー20からイベントリストを受信するに応じて、受領確認コマンドを返す(図示せず)。なお、サーバー20からのイベントリストの送信は、差分データのみを送信するようにしてもよい。例えば、直前に送信したイベントリストに対して変化した部分、すなわち追加または更新があったイベントのみをイベントリストとして全てのスタッフ端末40に送信する。
(Step S150)
When a new event is detected and added, or the event status is changed, the server 20 updates the event list, and the updated event list is added to all logged-in staff terminals. Deliver to 40. The delivery destination at this time may be delivered only to the staff terminal 40 used by the staff 80 who is in charge of the target person 70 who generated the event. Each staff terminal 40 that has received the event list returns a receipt confirmation command in response to receiving the event list from the server 20 (not shown). The event list may be transmitted from the server 20 only by transmitting the difference data. For example, only the part that has changed from the event list transmitted immediately before, that is, the event that has been added or updated is transmitted as an event list to all staff terminals 40.

(ステップS160)
各スタッフ端末40は、サーバー20からイベントリストを受信するに応じて、表示部43の表示内容の更新を行う。
(Step S160)
Each staff terminal 40 updates the display content of the display unit 43 in response to receiving the event list from the server 20.

図8は、スタッフ端末40の表示部43に表示されるナースコールへの対応方針を入力する操作画面431、432の例である。同図に示す操作画面431は、イベントリストが一覧表示される画面である。表示するイベントは、フリック操作することで上下にスクロールさせることが可能である。 FIG. 8 is an example of operation screens 431 and 432 for inputting a policy for responding to a nurse call displayed on the display unit 43 of the staff terminal 40. The operation screen 431 shown in the figure is a screen on which the event list is displayed in a list. The event to be displayed can be scrolled up and down by flicking.

操作画面431の領域a11、a12は、それぞれ、図7のイベントリストのイベントID011、012に対応する。領域a11、a12には、ナースコールであること示すアイコン、および対応済みであることが表示されている。領域a13は、図7の破線枠で囲むイベントID013〜015に対応する。これらは、同一の対象者70(Bさん)に関するものであるため、同じ領域にまとめて表示される。また、未対応であることから、領域a13には、最新のイベント(ID015)に関するサムネイル画像(画像i015)を表示している。領域a14を操作することでログイン中の他のスタッフ80とテキストメッセージの交換を行える。スタッフ80は、操作画面431で、領域a13をクリック操作することで、内容確認用の操作画面432に遷移する。 The areas a11 and a12 of the operation screen 431 correspond to the event IDs 011 and 012 in the event list of FIG. 7, respectively. In the areas a11 and a12, an icon indicating that the call is a nurse call and that the correspondence has been completed are displayed. The area a13 corresponds to the event IDs 013 to 015 surrounded by the broken line frame in FIG. 7. Since these are related to the same subject 70 (Mr. B), they are displayed together in the same area. Further, since it is not supported, a thumbnail image (image i015) related to the latest event (ID015) is displayed in the area a13. By operating the area a14, text messages can be exchanged with other staff members 80 who are logged in. The staff 80 transitions to the operation screen 432 for content confirmation by clicking and operating the area a13 on the operation screen 431.

(ステップS170)
スタッフ80は、スタッフ端末40に表示した操作画面432により、イベントの内容を確認する。操作画面432では、領域a21には、イベントを発生(判定)させた対象者名(Bさん)、およびスタッフ端末40を使用するスタッフ名(スタッフA)が表示されている。領域a22には、イベントの発生時刻からの経過時間が表示されている。なお、図7の破線枠内に示すように、対象者70(Bさん)については、起床、離床、転倒のイベントの発生を連続して判定し、共に未対応のステイタスであるので、この領域a22には、最新のイベント以外の「起床」、「離床」のイベントを表すアイコンが示されている。なお、領域a22に示す経過時間(「経過0分」)は、最新のイベントの発生を判定してからの経過時間(分未満を切り下げ)である。領域a23には、「転倒」を示す文字とアイコンが示されている。また領域a24には、転倒判定時の撮影画像のサムネイル画像が表示されている。スタッフ80は、サムネイル画像では情報として不十分で、さらに転倒を発生させた対象者70の状況を確認したいときは、下方にある「話す」ボタンや「見る」ボタンを操作する。「話す」ボタンを操作することで、音声入出力部15を通じて対象者70(Bさん)と通話できる。「見る」ボタンを操作することでカメラ13が撮影したライブ映像をストリーミング再生により視聴できる。
(Step S170)
The staff 80 confirms the content of the event on the operation screen 432 displayed on the staff terminal 40. On the operation screen 432, the name of the target person (Mr. B) who generated (determined) the event and the name of the staff (Staff A) who uses the staff terminal 40 are displayed in the area a21. In the area a22, the elapsed time from the time when the event occurred is displayed. As shown in the broken line frame in FIG. 7, for the subject 70 (Mr. B), the occurrence of wake-up, wake-up, and fall events is continuously determined, and both are unsupported statuses. On a22, icons representing "wake-up" and "get-away" events other than the latest event are shown. The elapsed time (“elapsed 0 minutes”) shown in the area a22 is the elapsed time (rounded down to the nearest minute) after determining the occurrence of the latest event. In the area a23, a character and an icon indicating "fall" are shown. Further, in the area a24, a thumbnail image of the captured image at the time of the fall determination is displayed. The staff 80 operates the "speak" button and the "view" button at the bottom when the thumbnail image is insufficient as information and he / she wants to confirm the situation of the subject 70 who has caused the fall. By operating the "speak" button, it is possible to talk with the target person 70 (Mr. B) through the voice input / output unit 15. By operating the "view" button, the live video captured by the camera 13 can be viewed by streaming playback.

スタッフ80(スタッフA)は、領域a25の「対応する」ボタンを操作することで表示した転落(ID015)を、自らが率先して担当することに決定する。対応しない場合には,領域a26内の戻るボタン(三角アイコン)を操作することで、イベントリスト画面に戻る。なお、あるスタッフ80が、図8に示す操作画面432を表示し、転落等のイベントの状態を確認している最中は、サーバー20の制御により、他のスタッフ80への禁則処理がなされる。例えば、あるスタッフ80が対象者70(Bさん)のイベントの状態を確認している時に、他のスタッフ80が同じイベント(ID013〜015)を選択したとしても、他のスタッフ80の操作画面431には、「状態確認中」の文字が表示され、「対応する」ボタンは表示されない、または選択できないようにする。 The staff 80 (staff A) decides to take the initiative in taking charge of the fall (ID015) displayed by operating the "corresponding" button in the area a25. If it does not correspond, the event list screen is returned by operating the back button (triangle icon) in the area a26. While a certain staff 80 displays the operation screen 432 shown in FIG. 8 and confirms the state of an event such as a fall, the server 20 controls the prohibition processing to the other staff 80. .. For example, even if one staff member 80 is checking the event status of the target person 70 (Mr. B) and another staff member 80 selects the same event (ID013 to 015), the operation screen 431 of the other staff member 80 Is displayed with the words "Checking status" and the "Corresponding" button is not displayed or cannot be selected.

(ステップS180、S190)
スタッフ端末40は、「対応する」ボタンが操作されることに応じて、サーバー20に選択されたイベントに関する対応要求を送信し、これに応じて、サーバー20は承認通知を返信する。
(Steps S180, S190)
The staff terminal 40 sends a response request regarding the selected event to the server 20 in response to the operation of the "correspondence" button, and the server 20 returns an approval notification in response.

(ステップS200)
サーバー20は、ステップS180の処理に応じてイベントリストを更新する。具体的には、イベントリスト(ID013〜015:転倒等)のステイタスを対応済みに変更する。本実施形態においては、スタッフ80が選択し、操作画面432に表示するイベントに対して上述の「対応する」ボタンを操作することに応じて、「対応済み」に変更している。すなわち、「対応する」ボタンの操作により、確認したことを示す情報である「対応済み」の対応状況が入力され、対応が行われたとみなして対応日時を記録する。より具体的には、図7のイベントリストにおいて、ステップS180、S190の処理が行われた時刻が、対応日時欄に記録される。なお、これに限られず、対応日時は、スタッフ80が、転落、転倒、ナースコール等のイベントを発生させた対象者70の部屋に入室した時刻を、対応日時欄に記録してもよく、別の操作画面により対応結果を入力することにより対応済みにし、入力時刻を対応日時欄に記録してもよい。また、サーバー20は、イベントリストを更新することに応じて、ログイン中の全てのスタッフ80に更新後のイベントリストを送信する。
(Step S200)
The server 20 updates the event list according to the process of step S180. Specifically, the status of the event list (ID013 to 015: fall, etc.) is changed to supported. In the present embodiment, the event is changed to "corresponding" in response to the operation of the above-mentioned "corresponding" button for the event selected by the staff 80 and displayed on the operation screen 432. That is, by operating the "correspondence" button, the correspondence status of "corresponding", which is information indicating that the confirmation has been made, is input, and the correspondence date and time is recorded assuming that the correspondence has been performed. More specifically, in the event list of FIG. 7, the time when the processing of steps S180 and S190 is performed is recorded in the corresponding date and time column. The response date and time is not limited to this, and the response date and time may be recorded in the response date and time column when the staff 80 enters the room of the target person 70 who has caused an event such as a fall, a fall, or a nurse call. The correspondence may be made by inputting the correspondence result on the operation screen of, and the input time may be recorded in the correspondence date and time column. In addition, the server 20 transmits the updated event list to all logged-in staff 80 in response to updating the event list.

検出部10が発生を判定した事故に繋がる可能性のある所定のイベント、すなわち、転落、転倒のイベントの判定には、誤判定が含まれる。判定の基準を厳しくすると、実際に転落、転倒が発生したときに、判定漏れが生じる虞がある。一方で、判定の基準を緩くしすぎると、実際には、転落、転倒が生じていない場合に、転落、転倒のイベントの発生を判定するといった誤判定が発生しやすくなる。 The determination of a predetermined event that may lead to an accident for which the detection unit 10 has determined the occurrence, that is, a fall or fall event, includes an erroneous determination. If the judgment criteria are strict, there is a risk of omission of judgment when a fall or a fall actually occurs. On the other hand, if the criteria for determination are too loose, in reality, when a fall or a fall has not occurred, an erroneous determination such as determining the occurrence of a fall or a fall event is likely to occur.

本実施形態では、判定漏れを極力無くすように判定基準を厳しくしていないため、誤判定がある程度含まれる。この誤判定か実際に発生したかの判別を、スタッフ80が、スタッフ端末40を用いて、状況を確認することにより行う。具体的には、スタッフ80は、対象者70の状況を、通話や撮影した画像により確認することで、誤判定の場合に、実際に居室に出向く対応が必要ないことを確認できる。また、実際に転落、転倒が発生したとしても、ケガ等が発生せず、特に対応が必要でない場合もあり、この場合も、対象者70との通話等により無事であることを確認することで、居室に出向く対応を省略できる。 In the present embodiment, since the judgment criteria are not strict so as to eliminate the judgment omission as much as possible, erroneous judgment is included to some extent. The staff 80 determines whether or not this erroneous determination has actually occurred by confirming the situation using the staff terminal 40. Specifically, the staff 80 can confirm that it is not necessary to actually go to the living room in the case of an erroneous determination by confirming the situation of the target person 70 by a telephone call or an image taken. In addition, even if a fall or a fall actually occurs, there may be cases where no injury or the like occurs and no particular action is required. In this case as well, by confirming that it is safe by calling the target person 70 or the like. , You can omit the correspondence to go to the living room.

一方で、内容を確認した結果、特別な対応が必要な事故が発生したと判断した場合、対象者70への対応を行っている時、または事後的に、さらに、イベントの状況を示す情報、すなわち、事故である旨を示す特記事項をこのイベントに付与してもよい。この特記事項は、スタッフ80が、スタッフ端末40を通じて入力してもよく、スタッフ80や管理者が固定端末30を通じて入力してもよい。図9は、特記事項を付与したイベントリストの変形例である。イベントID015では、事故であったため、特記事項に「事故」であることを示すコメントを追記している。なお、特記事項欄ではなく、スタッフ80のスタッフ端末40を通じた操作入力により、ステイタス欄を「対応済み」から「事故」に変更するようにしてもよい。さらに、特記事項欄に、スタッフ80等の目撃者(第1発見者)による事故の状況を記録するようにしてもよい。 On the other hand, as a result of checking the contents, if it is determined that an accident requiring special measures has occurred, information indicating the status of the event, when dealing with the target person 70, or after the fact, That is, a special note indicating that it is an accident may be added to this event. This special note may be input by the staff 80 through the staff terminal 40, or may be input by the staff 80 or the administrator through the fixed terminal 30. FIG. 9 is a modified example of the event list to which special notes are added. In event ID 015, since it was an accident, a comment indicating that it was an "accident" was added to the special notes. It should be noted that the status column may be changed from "corresponding" to "accident" by the operation input through the staff terminal 40 of the staff 80 instead of the special notes column. Further, the situation of the accident by the witness (first discoverer) such as the staff 80 may be recorded in the special notes column.

ここで、本明細書でいう「事故」とは、施設内で発生した、対象者70のケガおよび死亡事故であり、特に転落、転倒による骨折、出血等であり、医療機関において治療(施設内における医療処置を含む。)、又は入院したものである。ただし、擦過傷や打撲など比較的軽易なケガは除く。 Here, the "accident" referred to in the present specification is an injury and fatal accident of the subject 70 that occurred in the facility, particularly a fall, a fracture due to a fall, a bleeding, etc., and is treated at a medical institution (in the facility). Including medical treatment in.) Or hospitalized. However, relatively light injuries such as abrasions and bruises are excluded.

以上のようにして、転落、転倒等のイベントの発生を判定した場合に、そのイベントへの対応状況を含めたイベント情報、およびこのイベントが発生した時に観察領域を撮影することで得られた画像データを蓄積する。本実施形態においては、事故発生時には、このような見守りシステムによって継続的に記憶部23に蓄積されたこれらのデータを活用して、事故報告書を作成し、出力するものである。 As described above, when it is determined that an event such as a fall or a fall has occurred, the event information including the response status to the event and the image obtained by photographing the observation area when this event occurs. Accumulate data. In the present embodiment, when an accident occurs, an accident report is created and output by utilizing these data continuously accumulated in the storage unit 23 by such a monitoring system.

(事故報告書の出力処理)
図10は、第1の実施形態に係る見守りシステム1により実行される事故報告書の出力処理の手順を示すフローチャートである。図10の処理は、主にサーバー20の制御部21が、記憶部23等に記憶されたプログラムを実行することにより行われる。
(Accident report output processing)
FIG. 10 is a flowchart showing a procedure for outputting an accident report executed by the monitoring system 1 according to the first embodiment. The process of FIG. 10 is mainly performed by the control unit 21 of the server 20 executing the program stored in the storage unit 23 or the like.

(ステップS310)
サーバー20の制御部21は、記憶部23のイベントリストに、発生を判定したイベントのイベント情報を蓄積(追加)する。この蓄積処理は、上述した処理(図6)により行われる。
(Step S310)
The control unit 21 of the server 20 accumulates (adds) event information of the event determined to occur in the event list of the storage unit 23. This accumulation process is performed by the above-mentioned process (FIG. 6).

(ステップS320)
制御部21は、記憶部23に蓄積されているイベントリストを取得する。これは、例えば、固定端末30を通じたユーザー(スタッフ80、このスタッフ80を管理する管理者、等)からの要求により、開始する。
(Step S320)
The control unit 21 acquires the event list stored in the storage unit 23. This is started, for example, by a request from a user (staff 80, an administrator who manages the staff 80, etc.) through the fixed terminal 30.

(ステップS330)
制御部21は、イベントリストのイベント情報を一覧表示し、ユーザーによる事故に関連するイベントの選択を受け付ける。例えば、ユーザーは、固定端末30のディスプレイに一覧表示したイベント情報の中から、事故に関連するイベントの選択を行う。ユーザーが事故の発生日時、対象者70の情報を予め知っているのであれば、合致するイベントをイベントリストから選択する。図9の例では、イベントID015の選択を受け付ける。あるいは特記事項に「事故」が記載されているのをユーザーが探して選択してもよい。なお、この選択は、図9の変形例のように特記事項欄に「事故」が記載されること等により、事故のイベントであることが検索できるような態様で、イベントリストに蓄積されていれば、制御部21側で自動的に、検索により事故のイベントを抽出し、表示するようにしてもよい。
(Step S330)
The control unit 21 displays a list of event information in the event list, and accepts the user's selection of an event related to the accident. For example, the user selects an event related to the accident from the event information listed on the display of the fixed terminal 30. If the user knows the date and time of the accident and the information of the target person 70 in advance, the matching event is selected from the event list. In the example of FIG. 9, the selection of the event ID 015 is accepted. Alternatively, the user may search for and select the "accident" described in the special notes. In addition, this selection should be accumulated in the event list in such a manner that it can be searched as an accident event by describing "accident" in the special notes column as in the modified example of FIG. For example, the control unit 21 may automatically extract and display accident events by searching.

(ステップS340)
制御部21は、記憶部23から、ステップS330で選択されたイベントに関連付けられている画像データ(動画)を取得する。
(Step S340)
The control unit 21 acquires image data (moving image) associated with the event selected in step S330 from the storage unit 23.

(ステップS350)
制御部21は、記憶部23から、ステップS330で選択されたイベントのイベント情報を参照し、イベントを発生させた対象者70、すなわち事故の当事者である対象者70の被保険者番号、住所、年齢、要介護度等の対象者情報を取得する。
(Step S350)
The control unit 21 refers to the event information of the event selected in step S330 from the storage unit 23, and the insured number, address, and the insured number and address of the target person 70 who generated the event, that is, the target person 70 who is a party to the accident. Acquire target person information such as age and degree of care required.

(ステップS360)
制御部21は、記憶部23から、ステップS330で選択されたイベントのイベント情報を参照し、イベントを発生させた対象者70、すなわち事故の当事者である対象者70に関連付けられている事故報告書のフォーマットを取得する。このフォーマットは、例えば上述のように対象者70の住民票の住所、施設の所在地の市区町村向けのフォーマット、および親会社への提出用のフォーマットがある。
(Step S360)
The control unit 21 refers to the event information of the event selected in step S330 from the storage unit 23, and the accident report associated with the target person 70 who generated the event, that is, the target person 70 who is a party to the accident. Get the format of. As described above, this format includes, for example, the address of the resident's card of the target person 70, the format for the municipality where the facility is located, and the format for submission to the parent company.

(ステップS370)
制御部21は、ステップS320で取得したイベント情報、ステップS340〜S360で取得した、画像データ、対象者情報、およびフォーマットを用いて、事故報告書を作成する。図11、図12は、ステップS370で作成した事故報告書の例である。事故報告書は、フォーマットが複数であれば、そのフォーマットを用いて複数作成される。作成した事故報告書には、事故が発生したときの撮影画像(動画)から生成した、複数の画像が含まれる。同図の例では、1秒間隔の連続した4枚の画像から作成したサムネイル画像を報告書に貼り付けている。
(Step S370)
The control unit 21 creates an accident report using the event information acquired in step S320, the image data acquired in steps S340 to S360, the target person information, and the format. 11 and 12 are examples of the accident report prepared in step S370. If there are multiple formats, multiple accident reports will be created using that format. The created accident report includes a plurality of images generated from the images (moving images) taken when the accident occurred. In the example of the figure, thumbnail images created from four consecutive images at 1-second intervals are pasted in the report.

(ステップS380)
ここでは、制御部21は、ユーザーによるステップS370で作成した、事故報告書に対する編集を受け付ける。例えば、ユーザーは、固定端末30のディスプレイに表示した事故報告書を参照しながら、固定端末30を通じてこの事故報告書に関する編集を行う。このときに、サムネイル画像ではなく、ステップS340で取得した動画像(数秒)をディスプレイに表示するようにしてもよい。また、スタッフ80等の目撃者(第1発見者)による事故発生状況に関する特記事項があれば、ディスプレイに表示するようにしてもよい。ユーザーは、これらの情報を参照しながら、事故報告書の編集を行う。このとき、ユーザーが、ディスプレイに表示された画像や特記事項を参照しながら、事故への対応策、例えば床マットの位置が悪かったり、固定が不十分であったりすることが、これらの情報から判明すれば、対応策を入力できる。
(Step S380)
Here, the control unit 21 accepts the user to edit the accident report created in step S370. For example, the user edits the accident report through the fixed terminal 30 while referring to the accident report displayed on the display of the fixed terminal 30. At this time, the moving image (several seconds) acquired in step S340 may be displayed on the display instead of the thumbnail image. Further, if there is a special note regarding the accident occurrence situation by the witness (first discoverer) such as the staff 80, it may be displayed on the display. The user edits the accident report while referring to this information. At this time, the user can refer to the image displayed on the display and special notes, and take measures against the accident, for example, the position of the floor mat is incorrect or the fixing is insufficient, based on this information. Once you know, you can enter a workaround.

(ステップS390)
制御部21は、固定端末30のディスプレイに表示したり、プリンターから用紙に印刷したり、要求に応じた送信先アドレスにレポートのデータを送信したりすることで、事故報告書を出力する。
(Step S390)
The control unit 21 outputs an accident report by displaying it on the display of the fixed terminal 30, printing it on paper from a printer, or transmitting report data to a destination address in response to a request.

このように本実施形態では、事故に繋がる可能性のある所定のイベントのイベント情報および画像データを複数蓄積した記憶部から、事故に関連するイベントのイベント情報、および画像データを取得し、これらを用いて事故報告書を作成し、これを出力する。これにより、事故報告書の作成を支援できる。特に本実施形態では、記憶部23に事故が発生した時の状況を検出部10が撮影画像等により記録しているので客観的な事実情報を取り出すことができる。特に事故発生時の状況をテキストデータではなく画像データを参照して説明できるので事故報告書の作成支援に効果があり具体的な対策が検討できる。また、対象者70に関連付けられた複数のフォーマットを用いて、複数の事故報告書を同時に作成するので、作成にかかる時間を短縮でき手間を省くことができる。 As described above, in the present embodiment, the event information and the image data of the event related to the accident are acquired from the storage unit which has accumulated a plurality of the event information and the image data of the predetermined event which may lead to the accident, and these are obtained. Create an accident report using it and output it. This can support the preparation of accident reports. In particular, in the present embodiment, since the detection unit 10 records the situation when an accident occurs in the storage unit 23 by a captured image or the like, objective fact information can be extracted. In particular, since the situation at the time of an accident can be explained by referring to image data instead of text data, it is effective in supporting the creation of accident reports and specific measures can be considered. Further, since a plurality of accident reports are simultaneously created by using a plurality of formats associated with the target person 70, the time required for the creation can be shortened and the labor can be saved.

(変形例)
上述した実施形態では、検出部10、サーバー20、固定端末30およびスタッフ端末40をそれぞれ独立した別個の装置として説明した。しかしながら、これに限定されず、いくつかの構成を統合してもよい。例えばサーバー20の機能を固定端末30内に統合してもよい。
(Modification example)
In the above-described embodiment, the detection unit 10, the server 20, the fixed terminal 30, and the staff terminal 40 have been described as independent and separate devices. However, the present invention is not limited to this, and some configurations may be integrated. For example, the functions of the server 20 may be integrated in the fixed terminal 30.

また、上述した実施形態に係る見守りシステム1における処理は、上述のシーケンチャート、またはフローチャートのステップ以外のステップを含んでもよく、あるいは、上述したステップのうちの一部を含まなくてもよい。また、ステップの順序は、上述した実施形態に限定されない。さらに、各ステップは、他のステップと組み合わされて一つのステップとして実行されてもよく、他のステップに含まれて実行されてもよく、複数のステップに分割されて実行されてもよい。 Further, the process in the monitoring system 1 according to the above-described embodiment may include steps other than the steps of the sequence chart or the flowchart described above, or may not include a part of the steps described above. Further, the order of the steps is not limited to the above-described embodiment. Further, each step may be executed as one step in combination with other steps, may be executed by being included in other steps, or may be executed by being divided into a plurality of steps.

また、上述した実施形態に係る見守りシステム1における各種処理を行う手段および方法は、専用のハードウエア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。 Further, the means and methods for performing various processes in the monitoring system 1 according to the above-described embodiment can be realized by either a dedicated hardware circuit or a programmed computer. The program may be provided by a computer-readable recording medium such as a USB memory or a DVD (Digital Versail Disc) -ROM, or may be provided online via a network such as the Internet. In this case, the program recorded on the computer-readable recording medium is usually transferred and stored in a storage unit such as a hard disk. Further, the above program may be provided as a single application software, or may be incorporated into the software of a device such as a detection unit as one function.

本出願は、2018年6月26日に出願された日本特許出願(特願2018−120824号)に基づいており、その開示内容は、参照され、全体として組み入れられている。 This application is based on a Japanese patent application (Japanese Patent Application No. 2018-120824) filed on June 26, 2018, the disclosure of which is referenced and incorporated as a whole.

1 見守りシステム
10 検出部
11 制御部
12 通信部
13 カメラ
14 ナースコール部
15 音声入出力部
20 サーバー
21 制御部
22 通信部
23 記憶部
30 固定端末
40 スタッフ端末
41 制御部
42 無線通信部
43 表示部
44 入力部
45 音声入出力部
50 ネットワーク
51 アクセスポイント
60 ベッド
70 対象者(被介護者)
80 スタッフ(介護者)
1 Watching system 10 Detection unit 11 Control unit 12 Communication unit 13 Camera 14 Nurse call unit 15 Voice input / output unit 20 Server 21 Control unit 22 Communication unit 23 Storage unit 30 Fixed terminal 40 Staff terminal 41 Control unit 42 Wireless communication unit 43 Display unit 44 Input unit 45 Voice input / output unit 50 Network 51 Access point 60 Bed 70 Target person (care recipient)
80 staff (caregiver)

Claims (9)

事故に繋がる可能性のある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する前記イベントを記録した前記イベント情報、および該イベントが発生した時に前記観察領域を撮影することで得られた前記画像データを複数蓄積した記憶部から、事故に関連する前記イベントの前記イベント情報、および該イベントに関連づけられた前記画像データを取得する手順(a)と、
取得した前記イベントの前記イベント情報、および前記画像データを用いて前記イベントに関する事故報告書を作成する手順(b)と、
前記手順(b)において作成された事故報告書を出力する手順(c)と、
を含む処理をコンピューターに実行させるための制御プログラム。
The event information of a predetermined event that may lead to an accident, and image data associated with the event, the occurrence of which is determined based on the output of the detection unit that detects the movement of the target person in the observation area. The event information related to the accident from the event information recording the event related to the subject in the observation area and the storage unit accumulating a plurality of the image data obtained by photographing the observation area when the event occurs. The procedure (a) for acquiring the event information of the event and the image data associated with the event, and
A procedure (b) for creating an accident report regarding the event using the acquired event information of the event and the image data, and
The procedure (c) for outputting the accident report created in the above procedure (b) and the procedure (c)
A control program that causes a computer to perform processing that includes.
前記処理は、前記イベントを発生させた前記対象者それぞれに関連付けられた1つまたは複数のフォーマットを取得する手順(d)を、さらに含み、
前記手順(b)では、さらに、前記手順(d)で取得した前記フォーマットを用いて、前記事故報告書を作成する、請求項1に記載の制御プログラム。
The process further comprises step (d) of acquiring one or more formats associated with each of the subject who caused the event.
The control program according to claim 1, wherein in the procedure (b), the accident report is further created using the format acquired in the procedure (d).
前記処理は、複数の前記イベントの中から、事故に関連するイベントの選択を受け付ける手順(e)を、さらに含み、
前記手順(a)では、前記手順(e)で選択された前記イベントに関するイベント情報、および前記画像データを取得する、請求項1または請求項2に記載の制御プログラム。
The process further includes a procedure (e) for accepting selection of an event related to the accident from the plurality of events.
The control program according to claim 1 or 2, wherein in the procedure (a), event information related to the event selected in the procedure (e) and the image data are acquired.
前記画像データは、前記観察領域を撮影して得られた動画、または連続して撮影した複数の静止画であり、前記事故報告書には、前記動画または前記静止画から生成した複数の画像が含まれる、請求項1から請求項3のいずれかに記載の制御プログラム。 The image data is a moving image obtained by photographing the observation area or a plurality of still images photographed continuously, and the accident report includes the moving image or a plurality of images generated from the still image. The control program according to any one of claims 1 to 3, which is included. 前記処理は、前記手順(a)で取得した画像データを表示して、ユーザーによる前記事故報告書に対する編集を受け付ける手順(f)をさらに含み、
前記手順(c)は、前記手順(f)において編集された前記事故報告書を出力する、請求項1から請求項4のいずれかに記載の制御プログラム。
The process further includes a procedure (f) of displaying the image data acquired in the procedure (a) and accepting the user to edit the accident report.
The control program according to any one of claims 1 to 4, wherein the procedure (c) outputs the accident report edited in the procedure (f).
前記イベントが発生することに応じて、前記対象者への対応を行うスタッフが端末を通じて入力した、前記イベントの状況を示す情報が、前記イベント情報に含まれる、請求項1から請求項5のいずれかに記載の制御プログラム。 Any of claims 1 to 5, wherein the information indicating the status of the event, which is input through the terminal by the staff who responds to the target person in response to the occurrence of the event, is included in the event information. The control program described in the event. 前記記憶部には、前記イベントとして、転落、または転倒のイベントに関する前記イベント情報が蓄積されている、請求項1から請求項6のいずれかに記載の制御プログラム。 The control program according to any one of claims 1 to 6, wherein the event information regarding a fall or a fall event is stored in the storage unit as the event. 事故に繋がる可能性のある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する前記イベントを記録した前記イベント情報、および該イベントが発生した時に前記観察領域を撮影することで得られた前記画像データを複数蓄積した記憶部から、事故に関連する前記イベントの前記イベント情報、および該イベントに関連づけられた前記画像データを取得する手順(a)と、
取得した前記イベントの前記イベント情報、および前記画像データを用いて前記イベントに関する事故報告書を作成する手順(b)と、
前記手順(b)において作成された事故報告書を出力する手順(c)と、
を含む報告書出力方法。
The event information of a predetermined event that may lead to an accident, and image data associated with the event, the occurrence of which is determined based on the output of the detection unit that detects the movement of the target person in the observation area. The event information related to the accident from the event information recording the event related to the subject in the observation area and the storage unit accumulating a plurality of the image data obtained by photographing the observation area when the event occurs. The procedure (a) for acquiring the event information of the event and the image data associated with the event, and
A procedure (b) for creating an accident report regarding the event using the acquired event information of the event and the image data, and
The procedure (c) for outputting the accident report created in the above procedure (b) and the procedure (c)
Report output method including.
事故に繋がる可能性のある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する前記イベントを記録した前記イベント情報、および該イベントが発生した時に前記観察領域を撮影することで得られた前記画像データを複数蓄積した記憶部から、事故に関連する前記イベントの前記イベント情報、および該イベントに関連づけられた前記画像データを取得する取得部と、
取得した前記イベントの前記イベント情報、および前記画像データを用いて前記イベントに関する事故報告書を作成する作成部と、
前記作成部において作成された事故報告書を出力する出力部と、
を備える報告書出力装置。
The event information of a predetermined event that may lead to an accident, and image data associated with the event, the occurrence of which is determined based on the output of the detection unit that detects the movement of the target person in the observation area. The event information related to the accident from the event information recording the event related to the subject in the observation area and the storage unit accumulating a plurality of the image data obtained by photographing the observation area when the event occurs. An acquisition unit that acquires the event information of the event and the image data associated with the event, and
A creation unit that creates an accident report related to the event using the acquired event information of the event and the image data.
An output unit that outputs the accident report created by the preparation unit,
Report output device.
JP2020527230A 2018-06-26 2019-04-18 Control program, report output method, and report output device Active JP7363779B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018120824 2018-06-26
JP2018120824 2018-06-26
PCT/JP2019/016686 WO2020003705A1 (en) 2018-06-26 2019-04-18 Control program, report output method, and report output device

Publications (2)

Publication Number Publication Date
JPWO2020003705A1 true JPWO2020003705A1 (en) 2021-08-02
JP7363779B2 JP7363779B2 (en) 2023-10-18

Family

ID=68987026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020527230A Active JP7363779B2 (en) 2018-06-26 2019-04-18 Control program, report output method, and report output device

Country Status (2)

Country Link
JP (1) JP7363779B2 (en)
WO (1) WO2020003705A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080281638A1 (en) * 2007-05-07 2008-11-13 Your Choice Living, Inc. Method and apparatus for tracking, documenting, and predicting fall-related activities
US20150244993A1 (en) * 2011-12-19 2015-08-27 Careview Communications, Inc Electronic patient sitter management system and method for implementing
WO2017082037A1 (en) * 2015-11-11 2017-05-18 コニカミノルタ株式会社 Central processing device and method for person monitoring system, and person monitoring system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9934427B2 (en) 2010-09-23 2018-04-03 Stryker Corporation Video monitoring system
US8675920B2 (en) 2011-04-04 2014-03-18 Alarm.Com Incorporated Fall detection and reporting technology
JP2012242938A (en) 2011-05-17 2012-12-10 Toshiba Corp Radiogram interpretation report device, radiogram interpretation report program, and radiogram interpretation report system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080281638A1 (en) * 2007-05-07 2008-11-13 Your Choice Living, Inc. Method and apparatus for tracking, documenting, and predicting fall-related activities
US20150244993A1 (en) * 2011-12-19 2015-08-27 Careview Communications, Inc Electronic patient sitter management system and method for implementing
WO2017082037A1 (en) * 2015-11-11 2017-05-18 コニカミノルタ株式会社 Central processing device and method for person monitoring system, and person monitoring system

Also Published As

Publication number Publication date
JP7363779B2 (en) 2023-10-18
WO2020003705A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
US20190231625A1 (en) Central processing device and central processing method for monitored-person monitoring system, and monitored-person monitoring system
US20180374570A1 (en) Central processing device and central processing method for subject observation system and subject observation system
WO2017209094A1 (en) Monitoring system
JP2020166873A (en) System, system control method, control program, computer-readable recording medium recorded with control program, and information manager terminal
JPWO2019216044A1 (en) System and system control method
JP2019197263A (en) System and system control method
JP7234948B2 (en) Monitoring system and display method of event list
WO2020003715A1 (en) Report output program, report output method, and report output device
JP7363779B2 (en) Control program, report output method, and report output device
WO2019216045A1 (en) System and system control method
JP7327396B2 (en) Control program, report output method, and report output device
JP7268679B2 (en) Control program, report output method, and report output device
JP2021015497A (en) Control device, control program, and control method
JP2020126553A (en) Watching system and control program for watching system
JPWO2019216066A1 (en) System and system control method
JP7268387B2 (en) Monitoring device and program for monitoring device
JP7404682B2 (en) Control device, control program, and control method
JP7354549B2 (en) Monitoring device and monitoring program
JP7409305B2 (en) Report output program, report output method, and report output device
JP2021176038A (en) Information processing device and information processing program
JP2021015498A (en) Control device, control program and control method
JP2020190871A (en) Determination device, control program of determination device, and determination method
WO2019216058A1 (en) System and system control method
JP2019195446A (en) System and control method of system
JP2023108852A (en) Display device, display system, display method, and display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230918

R150 Certificate of patent or registration of utility model

Ref document number: 7363779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150