JP7327396B2 - Control program, report output method, and report output device - Google Patents

Control program, report output method, and report output device Download PDF

Info

Publication number
JP7327396B2
JP7327396B2 JP2020527229A JP2020527229A JP7327396B2 JP 7327396 B2 JP7327396 B2 JP 7327396B2 JP 2020527229 A JP2020527229 A JP 2020527229A JP 2020527229 A JP2020527229 A JP 2020527229A JP 7327396 B2 JP7327396 B2 JP 7327396B2
Authority
JP
Japan
Prior art keywords
event
report
subject
information
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020527229A
Other languages
Japanese (ja)
Other versions
JPWO2020003704A1 (en
Inventor
寛 古川
武士 阪口
海里 姫野
恵美子 寄▲崎▼
修 遠山
浩一 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2020003704A1 publication Critical patent/JPWO2020003704A1/en
Application granted granted Critical
Publication of JP7327396B2 publication Critical patent/JP7327396B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G12/00Accommodation for nursing, e.g. in hospitals, not covered by groups A61G1/00 - A61G11/00, e.g. trolleys for transport of medicaments or food; Prescription lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M9/00Arrangements for interconnection not involving centralised switching

Description

本発明は制御プログラム、レポート出力方法、およびレポート出力装置に関し、スタッフにより対応が行われる対象者に関するレポートを出力する制御プログラム、レポート出力方法、およびレポート出力装置に関する。 TECHNICAL FIELD The present invention relates to a control program, a report output method, and a report output device, and more particularly to a control program, a report output method, and a report output device for outputting a report on a target person treated by staff.

我が国は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善、および医療水準の向上等により、長寿命化が顕著となっている。このため、出生率の低下と相まって、高齢化率が高い高齢化社会になっている。このような高齢化社会では、病気、怪我、および加齢などにより、介護を必要とする被介護者等の増加が想定される。 In Japan, life expectancy has increased remarkably due to improvements in living standards, sanitary environments, and medical standards that have accompanied the post-war period of rapid economic growth. For this reason, coupled with the declining birth rate, Japan is becoming an aging society with a high rate of aging. In such an aging society, it is expected that the number of people requiring nursing care will increase due to illness, injury, aging, and the like.

要介護者等は、病院や老人福祉施設などの施設において、歩行中に転倒したり、ベッドから転落して怪我をしたりする虞がある。そのため、要介護者等がこのような状態になったときに看護師や介護士がすぐに駆けつけられるようにするために、要介護者等の状態を検知するためのシステムの開発が進められている。 BACKGROUND ART In facilities such as hospitals and welfare facilities for the elderly, persons requiring care may fall while walking or fall from a bed and be injured. Therefore, in order to enable nurses and caregivers to rush to the caregiver when the care recipient is in such a state, systems have been developed to detect the condition of the care recipient. there is

このようなシステムとして特許文献1に開示されたナースコールシステムにおいては、患者のベッドに対して設置されたカメラの撮像映像から、患者の起床、離床のいずれかの状態になったか否かを判断する。そして、起床、または離床が行われた場合には、ナースステーションに設けられたナースコール親機に、カメラの撮像映像を表示させている。 In the nurse call system disclosed in Patent Document 1 as such a system, it is determined whether the patient is getting up or getting out of bed from the image captured by a camera installed on the patient's bed. do. Then, when the patient wakes up or leaves the bed, the image picked up by the camera is displayed on the nurse call main unit provided in the nurse station.

また、介護業務に関し、事故やこれに繋がるヒヤリハットの対策が誤っていることによりヒヤリハット事例を再発させないために、特許文献2では、対策が必要なヒヤリハット事例が発生したか否かを判別する医療介護支援装置が開示されている。この医療介護支援装置では、介護担当者により入力されるケース記録と、データベースに記録されている過去のヒヤリハット事例との類似度合い(是正通知ヒット率)を算出し、是正通知ヒット率が所定値以上であった場合に、改善が必要な対策情報として特定している。 In addition, regarding nursing care work, in order to prevent near-miss incidents from recurring due to an accident or a mistake in the countermeasures for near-miss incidents that lead to this, Patent Document 2 discloses a medical care system that determines whether or not a near-miss incident requiring countermeasures has occurred. An assist device is disclosed. This medical care support device calculates the degree of similarity (correction notification hit rate) between the case record input by the caregiver and past near-miss incidents recorded in the database. If it is, it is specified as countermeasure information that needs to be improved.

特開2014-90913号公報JP 2014-90913 A 特開2013-191184号公報JP 2013-191184 A

しかしながら、特許文献1に開示されたナースコールシステムでは、ベッドにいる患者の起床、離床については、検知できるが、事故やヒヤリハットを未然に防ぐことにはできない。また、特許文献2に開示された医療介護支援装置は、発生したヒヤリハットを過去の事例と比較することで、過去のヒヤリハットへの対策が誤っていることを特定するものであり、事故やこれに繋がるヒヤリハットの発生を未然に防ぐものではない。 However, although the nurse call system disclosed in Patent Literature 1 can detect when a patient gets up and leaves the bed, it cannot prevent accidents and near misses. In addition, the medical care support device disclosed in Patent Document 2 identifies errors in countermeasures against past near-miss incidents by comparing near-miss incidents that have occurred in the past. It does not prevent the occurrence of close calls that lead to each other.

本発明は、上記事情に鑑みてなされたものであり、事故に繋がる可能性があるイベントを分析することで、イベントの発生の未然の防止に役立つレポートを出力可能な制御プログラム、レポート出力方法、およびレポート出力装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and a control program capable of outputting a report useful for preventing the occurrence of an event by analyzing an event that may lead to an accident, a report output method, and to provide a report output device.

本発明の上記課題は、以下の手段によって解決される。 The above problems of the present invention are solved by the following means.

(1)蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する手順(b)と、
前記手順(b)において作成されたレポートを出力する手順(c)と、
を含む処理であって、
前記手順(b)は、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データを、表示する手順(b1)と、
ユーザーによるコメントの入力を受け付ける手順(b2)と、を含み、
前記手順(b)では、前記手順(b2)で受け付けた、前記コメントを含む前記レポートを作成する、処理をコンピューターに実行させるための制御プログラム。
(2)蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する手順(b)と、
前記手順(b)において作成されたレポートを出力する手順(c)と、
前記手順(a)で取得した前記イベント情報に基づいて、前記対象者について、前記イベントの単位期間当たりの発生件数の増加の発生有無を判定し、増加の発生を判定した場合には、前記対象者の前記イベントに関し、注意を促すコメントを作成する手順(d)と、
を含む処理であって、
前記手順(b)では、前記手順(d)において作成した前記コメントを含む前記レポートを作成する、処理をコンピューターに実行させるための制御プログラム。
(3)蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する手順(b)と、
前記手順(b)において作成されたレポートを出力する手順(c)と、
を含む処理であって、
前記手順(b)で作成する前記レポートには、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データが含まれる、処理をコンピューターに実行させるための制御プログラム。
(1) Accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, based on the output of a detection unit that detects the movement of the subject in the observation area and the event information recording the predetermined event related to the subject in the observation area determined to have occurred, and the image obtained by photographing the observation area for a predetermined period including the time when the event occurred. a procedure (a) for obtaining data;
For the subject, the analysis result is visualized by analyzing the occurrence status of the event using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data. step (b) of creating a report to be
a step (c) of outputting the report created in the step (b);
A process including
The step (b) includes a step (b1) of displaying the image data for the period before and after the time when the number of occurrences of the event per unit period increases for the subject;
including a step (b2) for receiving comments input by the user,
In the step (b), a control program for causing a computer to execute a process of creating the report including the comments received in the step (b2) .
(2) accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, based on the output of a detection unit that detects the movement of the subject in the observation area; and the event information recording the predetermined event related to the subject in the observation area determined to have occurred, and the image obtained by photographing the observation area for a predetermined period including the time when the event occurred. a procedure (a) for obtaining data;
For the subject, the analysis result is visualized by analyzing the occurrence status of the event using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data. step (b) of creating a report to be
a step (c) of outputting the report created in the step (b);
Based on the event information acquired in the procedure (a), it is determined whether or not the number of occurrences of the event per unit period has increased for the target person, and if it is determined that the increase has occurred, the target person a step (d) of creating a comment calling attention to the event of the person;
A process including
A control program for causing a computer to execute, in step (b), the process of creating the report including the comment created in step (d).
(3) accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, based on the output of a detection unit that detects the movement of the subject in the observation area; and the event information recording the predetermined event related to the subject in the observation area determined to have occurred, and the image obtained by photographing the observation area for a predetermined period including the time when the event occurred. a procedure (a) for obtaining data;
For the subject, the analysis result is visualized by analyzing the occurrence status of the event using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data. step (b) of creating a report to be
a step (c) of outputting the report created in the step (b);
A process including
Executing a process on a computer, wherein the report created in the step (b) includes the image data of the period before and after the period when the number of occurrences of the event per unit period increased for the subject. control program to let

)前記イベントの前記発生状況の情報には、前記イベントの発生件数、および発生時刻が含まれる、上記(1)から上記(3)のいずれかに記載の制御プログラム。 ( 4 ) The control program according to any one of (1) to (3) above, wherein the information on the occurrence status of the event includes the number of occurrences of the event and the time of occurrence.

)所定の前記イベントには、前記対象者の転倒を判定した転倒のイベント、または前記対象者の転落を判定した転落のイベントが含まれる、上記(1)から上記(4)のいずれかに記載の制御プログラム。 ( 5 ) Any one of (1) to (4) above, wherein the predetermined event includes a fall event in which the fall of the subject is determined, or a fall event in which the fall of the subject is determined. Control program described in .

)前記対象者への対応を行うスタッフは、携帯端末を携帯し、
前記イベントが発生することに応じて、前記スタッフが前記携帯端末を通じて入力した、前記イベントを確認したことを示す情報が、前記イベント情報に含まれる、上記(1)から上記()のいずれかに記載の制御プログラム。
( 6 ) The staff who respond to the above-mentioned target person carry a mobile terminal,
Any one of (1) to ( 5 ) above, wherein the event information includes information indicating that the event has been confirmed, which is input by the staff through the mobile terminal in response to the occurrence of the event. Control program described in .

)蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを、レポート出力装置が取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、レポート出力装置が、分析結果が可視化されるレポートを作成する手順(b)と、
レポート出力装置が、前記手順(b)において作成されたレポートを出力する手順(c)と、
を含
前記手順(b)は、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データを、表示する手順(b1)と、
ユーザーによるコメントの入力を受け付ける手順(b2)と、を含み、
前記手順(b)では、前記手順(b2)で受け付けた、前記コメントを含む前記レポートを作成する、レポート出力方法。
(8)蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを、レポート出力装置が取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、レポート出力装置が、分析結果が可視化されるレポートを作成する手順(b)と、
レポート出力装置が、前記手順(b)において作成されたレポートを出力する手順(c)と、
前記手順(a)で取得した前記イベント情報に基づいて、前記対象者について、前記イベントの単位期間当たりの発生件数の増加の発生有無を判定し、増加の発生を判定した場合には、前記対象者の前記イベントに関し、レポート出力装置が、注意を促すコメントを作成する手順(d)と
を含み
前記手順(b)では、前記手順(d)において作成した前記コメントを含む前記レポートを作成する、レポート出力方法。
(9)蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを、レポート出力装置が取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、レポート出力装置が、分析結果が可視化されるレポートを作成する手順(b)と、
レポート出力装置が、前記手順(b)において作成されたレポートを出力する手順(c)と、
を含み
前記手順(b)で作成する前記レポートには、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データが含まれる、レポート出力方法。
( 7 ) accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, based on the output of a detection unit that detects the movement of the subject in the observation area; and the event information recording the predetermined event related to the subject in the observation area determined to have occurred, and the image obtained by photographing the observation area for a predetermined period including the time when the event occurred. Procedure (a) for acquiring data by the report output device ;
By analyzing the event occurrence status of the subject using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data, the report output device , a procedure (b) for creating a report in which the analysis results are visualized;
a step (c) in which the report output device outputs the report created in the step (b);
contains
The step (b) includes a step (b1) of displaying the image data for the period before and after the time when the number of occurrences of the event per unit period increases for the subject;
including a step (b2) for receiving comments input by the user,
The report output method , wherein in the step (b), the report including the comments received in the step (b2) is created .
(8) accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, based on the output of a detection unit that detects the movement of the subject in the observation area; and the event information recording the predetermined event related to the subject in the observation area determined to have occurred, and the image obtained by photographing the observation area for a predetermined period including the time when the event occurred. Procedure (a) for acquiring data by the report output device;
By analyzing the event occurrence status of the subject using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data, the report output device , a procedure (b) for creating a report in which the analysis results are visualized;
a step (c) in which the report output device outputs the report created in the step (b);
Based on the event information acquired in the procedure (a), it is determined whether or not the number of occurrences of the event per unit period has increased for the target person, and if it is determined that the increase has occurred, the target person a step (d) in which the report output device creates a comment calling attention to the event of the person;
contains
The report output method, wherein in the step (b), the report including the comments created in the step (d) is created.
(9) accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, based on the output of a detection unit that detects the movement of the subject in the observation area; and the event information recording the predetermined event related to the subject in the observation area determined to have occurred, and the image obtained by photographing the observation area for a predetermined period including the time when the event occurred. Procedure (a) for acquiring data by the report output device;
By analyzing the event occurrence status of the subject using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data, the report output device , a procedure (b) for creating a report in which the analysis results are visualized;
a step (c) in which the report output device outputs the report created in the step (b);
contains
The report output method, wherein the report created in the step (b) includes the image data of the period before and after the time when the number of occurrences of the event per unit period increases for the subject.

(10)蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する取得部と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する作成部と、
前記作成部において作成されたレポートを出力する出力部と、
前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データを、表示させるとともに、ユーザーによるコメントの入力を受け付ける制御部と、
を備え、
前記作成部は、前記制御部が受け付けた、前記コメントを含む前記レポートを作成する、レポート出力装置。
(11)蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する取得部と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する作成部と、
前記作成部において作成されたレポートを出力する出力部と、
を備え、
前記作成部は、取得した前記イベント情報に基づいて、前記対象者について、前記イベントの単位期間当たりの発生件数の増加の発生有無を判定し、増加の発生を判定した場合には、前記対象者の前記イベントに関し、注意を促すコメントを作成し、および前記コメントを含む前記レポートを作成する、レポート出力装置。
(12)蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する取得部と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する作成部と、
前記作成部において作成されたレポートを出力する出力部と、
を備え、
前記作成部が作成する前記レポートには、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データが含まれる、レポート出力装置。
(10) accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, based on the output of a detection unit that detects the movement of the subject in the observation area; and the event information recording the predetermined event related to the subject in the observation area determined to have occurred, and the image obtained by photographing the observation area for a predetermined period including the time when the event occurred. an acquisition unit that acquires data;
For the subject, the analysis result is visualized by analyzing the occurrence status of the event using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data. a creation unit that creates a report to be
an output unit that outputs the report created by the creation unit;
a control unit for displaying the image data of the period before and after the period when the number of occurrences of the event per unit period increased for the target person, and for accepting an input of a comment by a user;
with
The report output device, wherein the creation unit creates the report including the comments received by the control unit .
(11) accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, based on the output of a detection unit that detects the movement of the subject in the observation area; and the event information recording the predetermined event related to the subject in the observation area determined to have occurred, and the image obtained by photographing the observation area for a predetermined period including the time when the event occurred. an acquisition unit that acquires data;
For the subject, the analysis result is visualized by analyzing the occurrence status of the event using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data. a creation unit that creates a report to be
an output unit that outputs the report created by the creation unit;
with
Based on the acquired event information, the creation unit determines whether or not the number of occurrences of the event per unit period has increased for the target person, and if it is determined that the increase has occurred, the target person a report output device that generates an attention-grabbing comment and generates the report containing the comment regarding the event of the .
(12) accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, based on the output of a detection unit that detects the movement of the subject in the observation area; and the event information recording the predetermined event related to the subject in the observation area determined to have occurred, and the image obtained by photographing the observation area for a predetermined period including the time when the event occurred. an acquisition unit that acquires data;
For the subject, the analysis result is visualized by analyzing the occurrence status of the event using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data. a creation unit that creates a report to be
an output unit that outputs the report created by the creation unit;
with
The report output device, wherein the report created by the creation unit includes the image data of the period before and after the time when the number of occurrences of the event per unit period increases for the target person.

本発明によれば、事故に繋がる可能性がある所定のイベントのイベント情報、および、このイベント情報に関連付けられた画像データを取得し、対象者について、イベントの発生状況の情報、または、イベントの発生状況の情報、および画像データを用いて、イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成し、これを出力する。これにより、事故に繋がる可能性のあるイベントの発生の未然の防止に役立つレポートを出力できる。 According to the present invention, event information of a predetermined event that may lead to an accident and image data associated with this event information are acquired, and information on the occurrence of the event or information on the event for the subject is acquired. By analyzing the event occurrence status using the information on the occurrence status and the image data, a report that visualizes the analysis results is created and output. As a result, it is possible to output a report useful for preventing the occurrence of an event that may lead to an accident.

見守りシステムの全体構成を示す図である。It is a figure showing the whole watching system composition. 対象者の部屋に設置された検出部の例を示す図である。It is a figure which shows the example of the detection part installed in the room of a subject. 検出部の概略構成を示すブロック図である。4 is a block diagram showing a schematic configuration of a detection unit; FIG. サーバーの概略構成を示すブロック図である。3 is a block diagram showing a schematic configuration of a server; FIG. スタッフ端末の概略構成を示すブロック図である。2 is a block diagram showing a schematic configuration of a staff terminal; FIG. 見守りシステムの処理の手順を示すシーケンスチャートである。It is a sequence chart which shows the procedure of the process of a watching system. 記憶部に記憶されるイベントリストの例である。It is an example of an event list stored in a storage unit. スタッフ端末に表示されるイベントの確認を行うための操作画面の例である。It is an example of the operation screen for confirming the event displayed on the staff terminal. 第1の実施形態におけるレポートの出力処理の手順を示すフローチャートである。7 is a flow chart showing the procedure of report output processing according to the first embodiment. ある対象者における、転落・転倒の分析結果を可視化した例を示す図である。FIG. 10 is a diagram showing an example of visualizing analysis results of falling/falling in a certain subject; 可視化した分析結果を出力したレポートの例を示す図である。FIG. 10 is a diagram showing an example of a report outputting visualized analysis results; 変形例におけるレポートの出力処理の手順を示すフローチャートである。FIG. 11 is a flow chart showing a procedure of report output processing in a modified example; FIG.

以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 Hereinafter, embodiments of the present invention will be described with reference to the attached drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and overlapping descriptions are omitted. Also, the dimensional ratios in the drawings are exaggerated for convenience of explanation, and may differ from the actual ratios.

(全体構成)
図1は本実施形態に係る見守りシステムの全体構成を示す図であり、図2は対象者の部屋のベッド周辺に設置された検出部の例を示す図である。
(overall structure)
FIG. 1 is a diagram showing the overall configuration of the watching system according to the present embodiment, and FIG. 2 is a diagram showing an example of detection units installed around the bed in the subject's room.

図1に示すように、見守りシステム1は、複数の検出部10、サーバー20、固定端末30、および1つ以上のスタッフ端末40を備える。サーバー20は、レポート出力装置として機能する。これらは、有線や無線によって、LAN(Local Area Network)、電話網またはデータ通信網等のネットワーク50を介して、相互に通信可能に接続される。ネットワーク50は、通信信号を中継するリピーター、ブリッジ、ルーターまたはクロスコネクト等の中継機を備えてもよい。図1に示す例では、スタッフ端末40、検出部10、サーバー20、および固定端末30は相互に、アクセスポイント51を含む無線LAN等(例えばIEEE802.11規格に従ったLAN)のネットワーク50によって、通信可能に接続されている。 As shown in FIG. 1, the monitoring system 1 includes a plurality of detection units 10, a server 20, a fixed terminal 30, and one or more staff terminals 40. FIG. Server 20 functions as a report output device. These are connected by wire or wirelessly so as to be able to communicate with each other via a network 50 such as a LAN (Local Area Network), a telephone network, or a data communication network. Network 50 may include repeaters, such as repeaters, bridges, routers, or cross-connects that relay communication signals. In the example shown in FIG. 1, the staff terminal 40, the detection unit 10, the server 20, and the fixed terminal 30 are mutually connected via a network 50 such as a wireless LAN (for example, a LAN conforming to the IEEE 802.11 standard) including an access point 51. Connected for communication.

見守りシステム1は、対象者70に応じて適宜な場所に配設される。対象者70(見守り対象者、ケア対象者ともいう)は、例えば、病気や怪我等によって看護を必要とする患者、高齢による身体能力の低下等によって介護を必要とする被介護者、または一人暮らしの独居者等である。特に、早期発見および早期対処を可能にする観点から、対象者70は、例えば異常状態等の所定の不都合な事象がその者に生じた場合に、その発見を必要としている者であり得る。このため、見守りシステム1は、対象者70の種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、見守りシステム1は、複数の対象者70が入居する複数の部屋(居室)やナースステーションを含む複数の部屋を備える施設に配置されている。 The watching system 1 is arranged at an appropriate place according to the target person 70 . The target person 70 (also referred to as a person to be watched over or a person to be cared for) is, for example, a patient who needs nursing care due to illness or injury, a cared person who needs nursing care due to a decline in physical ability due to old age, or a person who lives alone. Those who live alone, etc. In particular, from the viewpoint of enabling early detection and early countermeasures, the subject 70 can be a person who needs detection when a predetermined inconvenient event such as an abnormal condition occurs to the person. Therefore, the watching system 1 is preferably installed in buildings such as hospitals, welfare facilities for the elderly, and dwelling units according to the type of the target person 70 . In the example shown in FIG. 1, the watching system 1 is placed in a facility that includes a plurality of rooms (living rooms) in which a plurality of subjects 70 reside and a plurality of rooms including a nurse station.

検出部10は、対象者70の観察領域であるそれぞれの居室に配置される。図1に示す例では、4つの検出部10が対象者70であるAさん、Bさん、Cさん、およびDさんの居室にそれぞれ配置されている。検出部10の観察領域にはベッド60が含まれている。対象者70に対して看護または介護を行うスタッフ80(ケアスタッフ、または介護スタッフともいう)は、それぞれ携帯端末であるスタッフ端末40を持ち歩いている。ただし、見守りシステム1が備える各構成の位置や個数等は、図1に示す例に限定されない。例えば、サーバー20は、ナースステーションに配置されなくてもよく、ネットワーク50に接続されている外部のサーバーユニットであってもよい。また固定端末30を省略し、サーバー20またはスタッフ端末40がその機能を担ってもよい。 The detection unit 10 is arranged in each living room, which is the observation area of the subject 70 . In the example shown in FIG. 1, the four detection units 10 are arranged in the rooms of the subjects 70, Mr. A, Mr. B, Mr. C, and Mr. D, respectively. The observation area of the detector 10 includes the bed 60 . A staff member 80 (also referred to as a care staff member or a care staff member) who nurses or cares for a subject 70 carries a staff terminal 40, which is a portable terminal. However, the position, the number, and the like of each component included in the watching system 1 are not limited to the example shown in FIG. 1 . For example, server 20 may not be located at a nurse's station, but may be an external server unit connected to network 50 . Alternatively, the fixed terminal 30 may be omitted and the server 20 or the staff terminal 40 may perform the function.

(検出部10)
図3は検出部の概略構成を示すブロック図である。同図に示すように、検出部10は、制御部11、通信部12、カメラ13、ナースコール部14、および音声入出力部15を備え、これらはバスによって、相互に接続されている。
(Detector 10)
FIG. 3 is a block diagram showing a schematic configuration of the detector. As shown in the figure, the detection unit 10 includes a control unit 11, a communication unit 12, a camera 13, a nurse call unit 14, and an audio input/output unit 15, which are interconnected by a bus.

制御部11は、CPU(Central Processing Unit)、およびRAM(Random Access Memory)、ROM(Read Only Memory)、等のメモリにより構成され、プログラムにしたがって検出部10の各部の制御および演算処理を行う。なお、制御部11は、メモリとして、さらにHDD(Hard Disk Drive)を備えてもよい。 The control unit 11 includes a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), and other memories, and performs control and arithmetic processing of each unit of the detection unit 10 according to a program. Note that the control unit 11 may further include an HDD (Hard Disk Drive) as a memory.

通信部12は、ネットワーク50を介して、例えば、サーバー20、固定端末30またはスタッフ端末40等の、他の装置と通信するためのインターフェース回路(例えばLANカード等)である。 The communication unit 12 is an interface circuit (for example, a LAN card, etc.) for communicating with other devices such as the server 20 , the fixed terminal 30 , or the staff terminal 40 via the network 50 .

カメラ13は、例えば居室の天井、または壁の上部に配置され、観察領域として真下にある対象者70のベッド60を含む領域を撮影し、撮影画像(画像データ)を出力する。この撮影画像には、静止画および動画を含む。カメラ13は近赤外線カメラであるが、これに換えて可視光カメラを用いてもよく、これらを併用してもよい。 The camera 13 is arranged, for example, on the ceiling or upper part of the wall of the living room, photographs an area including the bed 60 of the subject 70 directly below as an observation area, and outputs a photographed image (image data). The captured images include still images and moving images. Although the camera 13 is a near-infrared camera, a visible light camera may be used in place of this, or these may be used in combination.

制御部11は、カメラ13が撮影した撮影画像から、対象者70の所定の行動の発生を判定(認識)する。この判定する所定の行動には、ベッド60から起き上がる「起床」、ベッド60から離れる「離床」、ベッド60から転落する「転落」、および床面等に転倒する「転倒」が含まれる。 The control unit 11 determines (recognizes) occurrence of a predetermined action of the subject 70 from the captured image captured by the camera 13 . Predetermined actions to be determined include "getting up" from the bed 60, "getting out of bed" from the bed 60, "falling" from the bed 60, and "falling" to the floor or the like.

制御部11は、複数の撮影画像(動画)から画像のシルエット(以下、「人シルエット」と称する)を検出する。人シルエットは、例えば、撮影時刻が前後する画像の差分を抽出する時間差分法により差分が相対的に大きい画素の範囲を抽出することで検出され得る。人シルエットは、撮影画像と背景画像との差分を抽出する背景差分法により検出されてもよい。起床、離床、転落、転倒の別は、検出した人シルエットから対象者70の姿勢(例えば立位、座位および横臥等)、およびベッド60等の居室内の設置物との相対的な位置から認識される。これらの認識は、制御部11のCPUが処理するプログラムにより行ってもよく、組み込み型の処理回路により行うようにしてもよい。以下においては、制御部11側でイベントの種類、および発生有無の判定を行うものとして説明する。しかしながら、これに限られずサーバー20側でこれらの認識の全部またはほとんどの処理を行うようにし、制御部11ではサーバー20への撮影画像の送信のみを行うようにしてもよい。制御部11は、いずれかの種類の行動を認識した場合、その行動(後述のイベント)が発生した旨の通知をサーバー20等に送信する。 The control unit 11 detects image silhouettes (hereinafter referred to as “human silhouettes”) from a plurality of captured images (moving images). A human silhouette can be detected, for example, by extracting a range of pixels with relatively large differences by a time difference method of extracting differences between images captured at different times. A person silhouette may be detected by a background subtraction method that extracts a difference between a captured image and a background image. The distinction between getting up, leaving the bed, falling, and falling is recognized from the posture of the target person 70 (for example, standing, sitting, lying down, etc.) from the detected human silhouette, and from the position relative to the bed 60 and other installations in the living room. be done. These recognitions may be performed by a program processed by the CPU of the control unit 11, or may be performed by a built-in processing circuit. In the following description, it is assumed that the control unit 11 determines the type of event and whether or not it has occurred. However, the present invention is not limited to this, and all or most of these recognition processes may be performed on the server 20 side, and the control section 11 may only transmit the captured image to the server 20 . If any type of action is recognized, the control unit 11 transmits a notification to the effect that the action (event described later) has occurred to the server 20 or the like.

スタッフ80は、業務に応じた、対象者70への各種の対応を行う者である。業務には、医療業務、介護業務を含み得る。ここで、スタッフ80の業務が、対象者70に対する介護業務である場合に、各イベントに関する対応内容について説明する。イベントとして「起床」を判定し、その判定が所定時間内(施設で設定された起床時間(例えば午前7~8時))であれば、モーニングケアを行う。このモーニングケアには、洗顔、歯磨き介助、義歯装着、着替え介助等が含まれる。また、「離床」のイベントであれば、車椅子移乗、歩行介助が必要となる場合がある。また、検出部10が判定したイベント以外の定期的(定時)なイベントとして、飲料、および食事介助、排泄介助、車椅子移乗、歩行介助、体位変換(褥瘡予防)がある。これらの定期的イベントは、ナースコール部14等により、定時になるとアラートを発生させるようにしてもよい。 The staff member 80 is a person who provides various services to the target person 70 according to the work. Services may include medical services and nursing services. Here, when the work of the staff 80 is nursing work for the target person 70, the contents of the correspondence regarding each event will be described. "Wake-up" is determined as an event, and if the determination is within a predetermined time (wake-up time set in the facility (for example, 7:00 to 8:00 am)), morning care is performed. This morning care includes washing the face, assistance with brushing teeth, wearing of dentures, assistance with changing clothes, and the like. In addition, if it is an event of "getting out of bed", wheelchair transfer and walking assistance may be required. Regular (regular) events other than the events determined by the detection unit 10 include beverages, meal assistance, excretion assistance, wheelchair transfer, walking assistance, and position change (bedsore prevention). For these periodic events, the nurse call unit 14 or the like may generate an alert at the scheduled time.

ナースコール部14は、押しボタン式のスイッチを含み、スイッチが対象者70によって押されることでナースコール(ケアコールともいう)を検出する。押しボタン式のスイッチに換えて、音声マイクによりナースコールを検出してもよい。ナースコール部14のスイッチが押された場合、すなわち、ナースコールを検出した場合、制御部11は、通信部12およびネットワーク50を介して、ナースコールがあった旨の通知(ナースコール通知)をサーバー20等に送信する。 The nurse call unit 14 includes a push-button switch, and detects a nurse call (also called a care call) when the subject 70 pushes the switch. A nurse call may be detected by a voice microphone in place of the push-button switch. When the switch of the nurse call unit 14 is pressed, that is, when a nurse call is detected, the control unit 11 notifies the nurse call via the communication unit 12 and the network 50 (nurse call notification). It is transmitted to the server 20 or the like.

音声入出力部15は、例えばスピーカーとマイクであり、通信部12を介してスタッフ端末40等との間で音声信号を送受信することで音声通話を可能とする。なお、音声入出力部15は検出部10の外部装置として、通信部12を介して検出部10に接続されてもよい。 The voice input/output unit 15 is, for example, a speaker and a microphone, and enables voice communication by transmitting and receiving voice signals to and from the staff terminal 40 and the like via the communication unit 12 . Note that the voice input/output unit 15 may be connected to the detection unit 10 via the communication unit 12 as an external device of the detection unit 10 .

また、検出部10は、ベッド60の方向に向けてマイクロ波を送受信して対象者70の体動(例えば呼吸動)によって生じたマイクロ波のドップラシフトを検出するドップラシフト方式の体動センサーを、さらに備えてもよい。この体動センサーにより、対象者70の呼吸動作に伴う胸部の体動(胸部の上下動)を検出し、その胸部の体動における周期の乱れや予め設定された閾値以下である胸部の体動における振幅を検知すると、微体動異常であると認識する。 Further, the detection unit 10 includes a Doppler shift type body motion sensor that transmits and receives microwaves toward the direction of the bed 60 and detects the Doppler shift of the microwaves caused by body motion (for example, respiratory motion) of the subject 70. , may further comprise: This body motion sensor detects the body motion of the chest (vertical motion of the chest) associated with the breathing motion of the subject 70, and detects the disturbance of the cycle of the body motion of the chest and the body motion of the chest which is below a preset threshold value. When the amplitude at is detected, it is recognized as abnormal micromotion.

本実施形態においては、ナースコール部14によるナースコール、および対象者70に関する検出部10が認識した状態の変化であって、起床、離床、転落、転倒、微体動異常、等のスタッフ80に発報(報知)を行うべき事象をイベントと称する。検出部10は、生じたイベントの情報および撮影画像をサーバー20へ送信(出力)する。 In this embodiment, the nurse call by the nurse call unit 14 and the change in the state recognized by the detection unit 10 regarding the subject 70, such as getting up, getting out of bed, falling, falling, abnormal micromotion, etc. An event that should be reported (notified) is called an event. The detection unit 10 transmits (outputs) information about the event that has occurred and the captured image to the server 20 .

(サーバー20)
図4はサーバーの概略構成を示すブロック図である。サーバー20は、制御部21、通信部22、および記憶部23を備える。サーバー20は、対象者70用の居室と同じ建物内に設けられてもよく、遠隔地に設けられてネットワークを介して接続可能であってもよい。例えば、サーバー20は、インターネット等のネットワーク上に配置された複数のサーバーによって仮想的に構築されるクラウドサーバーであってもよい。各構成は、バスによって、相互に通信可能に接続されている。記憶部23は、データベースとして機能し、イベントリスト、対象者70、およびスタッフ80に関する各種情報を記憶する。制御部21は、通信部22と協働することで事故に繋がる可能性のある所定のイベントのイベント情報、およびイベントに関連付けられたイベントが発生した時点を含む所定期間の画像データを取得する取得部として機能する。また制御部21は、取得したこれらのデータからイベントの発生状況を分析することでレポートを作成する作成部として機能する。また制御部21は、通信部22と協働することで、作成したレポートを出力する出力部としても機能する。その他の制御部21、および通信部22は、検出部10の各構成と同様の機能を有するため、詳細な説明を省略する。このイベントリストには、後述するように、事故に繋がる可能性がある所定のイベント(例えば転落、転倒のイベント)を含む各種のイベントの情報が含まれる。この事故に繋がる可能性がある所定のイベントは、ヒヤリハットともよばれ、このままの状態が続くと事故になる可能性があるものである。
(Server 20)
FIG. 4 is a block diagram showing a schematic configuration of the server. The server 20 includes a control section 21 , a communication section 22 and a storage section 23 . The server 20 may be provided in the same building as the living room for the subject 70, or may be provided in a remote location and connectable via a network. For example, the server 20 may be a cloud server virtually constructed by a plurality of servers arranged on a network such as the Internet. Each component is communicatively connected to each other by a bus. The storage unit 23 functions as a database and stores various types of information regarding the event list, the subject 70 and the staff 80 . The control unit 21 cooperates with the communication unit 22 to acquire event information of a predetermined event that may lead to an accident and image data for a predetermined period including the time when the event associated with the event occurs. functions as a department. The control unit 21 also functions as a creation unit that creates a report by analyzing the event occurrence status from the acquired data. The control unit 21 also functions as an output unit that outputs the created report by cooperating with the communication unit 22 . Since the control unit 21 and the communication unit 22 have functions similar to those of the components of the detection unit 10, detailed description thereof will be omitted. As will be described later, this event list contains information on various events including predetermined events that may lead to accidents (for example, events of falls and overturns). A predetermined event that may lead to an accident is also called a near-miss event, and if the situation continues as it is, an accident may occur.

サーバー20は、検出部10が検出した、ナースコール、起床、離床、転落、転倒、等のイベントが、どの対象者70に関するものであるかを判定(識別)する。この判定は、イベントを検出した検出部10が設置されている部屋番号から、これに対応付けられている対象者70(すなわち、部屋の入居者)を判定する。そして、判定したイベントの種類と対象者70とを関連付けて記憶部23のイベントリストに追加する。なお、本実施形態では、対象者70の判定は、対象者70がICタグを携帯している場合には、このICタグを各部屋に設けたRFIDリーダーで読み取ることにより、判定してもよい。なお、相部屋等で、1つの部屋に複数の対象者70が存在する場合には、ベッド60毎に検出部10を配置することで、対象者70を判定してもよい。また、これに関連し、スタッフ80が携帯するスタッフ端末40をRFIDリーダーに近づけることにより、各スタッフ80の部屋への入室を検知するようにしてもよい。 The server 20 determines (identifies) to which subject 70 an event such as a nurse call, getting up, getting out of bed, falling, falling, etc. detected by the detection unit 10 relates to. This determination determines the target person 70 (that is, the occupant of the room) associated with the room number in which the detection unit 10 that detected the event is installed. Then, the determined event type and the target person 70 are associated with each other and added to the event list in the storage unit 23 . In this embodiment, if the subject 70 carries an IC tag, the subject 70 may be determined by reading the IC tag with an RFID reader provided in each room. . In addition, when a plurality of subjects 70 exist in one room, such as in a shared room, the subject 70 may be determined by arranging the detection unit 10 for each bed 60 . Further, in relation to this, by bringing the staff terminal 40 carried by the staff 80 closer to the RFID reader, the entry of each staff member 80 into the room may be detected.

(固定端末30)
固定端末30は、いわゆるPC(Personal Computer)であり、CPU、RAM等で構成される制御部、通信部、表示部、入力部、および音声入出力部を備える。固定端末30は、例えばナースステーション内に配置される。また、後述するレポートを出力する際、ユーザー(スタッフ80、このスタッフ80を管理する管理者等)の指示の入力により、表示部に分析結果を図表等により可視化したレポートを表示したり、外部のプリンター(図示せず)から用紙に出力させたりする。また、このレポートには、後述するようにユーザーが固定端末30の表示部(ディスプレイ)に表示された撮影画像を参照しながら、入力部から入力したコメントを含ませるようにしてもよい。
(Fixed terminal 30)
The fixed terminal 30 is a so-called PC (Personal Computer), and includes a control section, a communication section, a display section, an input section, and an audio input/output section, each of which includes a CPU, a RAM, and the like. The fixed terminal 30 is arranged, for example, in a nurse station. In addition, when outputting a report, which will be described later, a user (staff 80, administrator who manages this staff 80, etc.) inputs instructions to display a report in which the analysis results are visualized in a chart or the like on the display unit, or an external For example, a printer (not shown) outputs the data on paper. In addition, the report may include a comment input by the user through the input unit while referring to the photographed image displayed on the display unit (display) of the fixed terminal 30, as will be described later.

また、スタッフ80または技術スタッフ等は、固定端末30を通じて、検出部10を各部屋(居室)に取り付けたときに、部屋番号と検出部10の対応付けをしたり、ベッド60等の居室内の設置物の位置情報、すなわち、天井のカメラ13による上方視の輪郭情報の校正、指定を行ったりする。また、入院または入居している対象者70の名前、ID番号等の識別情報と、各部屋番号との対応付けも行う。 In addition, the staff 80 or technical staff, etc., through the fixed terminal 30, when the detection unit 10 is attached to each room (living room), associate the room number and the detection unit 10, Positional information of the installed object, that is, calibration and designation of upward-view contour information by the camera 13 on the ceiling are performed. Also, identification information such as the name and ID number of the subject 70 who is hospitalized or resides in the room is associated with each room number.

(スタッフ端末40)
図5は、スタッフ端末40の概略構成を示すブロック図である。スタッフ端末40は、制御部41、無線通信部42、表示部43、入力部44、および音声入出力部45を備え、これらはバスにより相互に接続される。制御部41は、検出部10の制御部11と同様の構成として、CPU、RAM、ROM等を備える。無線通信部42により、Wi-Fi、Bluetooth(登録商標)等の規格を用いた無線通信が可能であり、アクセスポイント51を経由して、または直接的に各装置と無線通信する。表示部43、および入力部44は、タッチパネルであり、液晶等で構成される表示部43の表示面に、入力部44としてのタッチセンサーを重畳させたものである。表示部43、入力部44によって、スタッフ80に対して、イベントリストに含まれる複数のイベントを一覧表示した各種の操作画面を表示したり、操作画面を通じて各種の操作を受け付けたりする。音声入出力部45は、例えばスピーカーとマイクであり、無線通信部42を介して他のスタッフ端末40との間でスタッフ80による音声通話を可能にする。スタッフ端末40は、見守りシステム1のユーザーインターフェースとして機能する機器であり、例えば、タブレット型コンピューター、スマートフォンまたは携帯電話等の、持ち運び可能な通信端末機器によって構成できる。
(Staff terminal 40)
FIG. 5 is a block diagram showing a schematic configuration of the staff terminal 40. As shown in FIG. The staff terminal 40 includes a control section 41, a wireless communication section 42, a display section 43, an input section 44, and an audio input/output section 45, which are interconnected by a bus. The control unit 41 has a configuration similar to that of the control unit 11 of the detection unit 10, and includes a CPU, a RAM, a ROM, and the like. The wireless communication unit 42 enables wireless communication using standards such as Wi-Fi and Bluetooth (registered trademark), and wirelessly communicates with each device via the access point 51 or directly. The display unit 43 and the input unit 44 are touch panels, and a touch sensor as the input unit 44 is superimposed on the display surface of the display unit 43 made of liquid crystal or the like. The display unit 43 and the input unit 44 display various operation screens showing a list of a plurality of events included in the event list to the staff 80, and accept various operations through the operation screens. The voice input/output unit 45 is, for example, a speaker and a microphone, and enables the staff 80 to make voice calls with other staff terminals 40 via the wireless communication unit 42 . The staff terminal 40 is a device that functions as a user interface of the monitoring system 1, and can be configured by portable communication terminal devices such as tablet computers, smart phones, or mobile phones.

スタッフ80は、業務開始時に、割り当てられたスタッフ端末40を通じて、ログイン認証処理を行う。スタッフ80は、スタッフ端末40のタッチパネル(表示部43、入力部44)を通じて、スタッフID、パスワードを入力する。スタッフ端末40は、これをサーバー20に送信する。サーバー20は、記憶部23に記憶している認証情報を突き合わせ、スタッフ80の権限に応じた認証結果をスタッフ端末40に送信することで、ログイン認証が終了する。 The staff member 80 performs login authentication processing through the assigned staff terminal 40 at the start of work. The staff 80 inputs the staff ID and password through the touch panel (display unit 43, input unit 44) of the staff terminal 40. FIG. The staff terminal 40 transmits this to the server 20 . The server 20 compares the authentication information stored in the storage unit 23 and transmits the authentication result corresponding to the authority of the staff 80 to the staff terminal 40, thereby completing the login authentication.

(見守りシステムの処理の手順)
次に、見守りシステム1全体で行われる、イベント情報、および画像データの蓄積処理について図6を参照して説明する。図6は、見守りシステムの処理の手順を示すシーケンスチャートである。
(Processing procedure of monitoring system)
Next, the process of accumulating event information and image data performed by the entire watching system 1 will be described with reference to FIG. 6 . FIG. 6 is a sequence chart showing the procedure of processing of the watching system.

(ステップS110)
図6に示すように、検出部10は、観察領域における対象者70の動き、または対象者70によるナースコールのイベントを検出する。そして、検出部10は、対象者70の動きから、転落、転倒、等の他のイベントの発生の有無を判定する。
(Step S110)
As shown in FIG. 6 , the detection unit 10 detects movement of the subject 70 in the observation area or an event of a nurse call by the subject 70 . Then, the detection unit 10 determines from the movement of the subject 70 whether or not another event such as a fall has occurred.

(ステップS120、S130)
そしてイベントの発生を判定した場合、そのイベント情報をサーバー20に送信する。また、検出部10は、イベントが発生した時に観察領域を撮影することで得られた画像データを送信する。この場合、発生したイベントの種類が特定の種類、例えば転落、転倒、等の事故に繋がる可能性のイベントであれば、発生時点を含む発生時点前後の所定時間(例えば数秒~数十秒)の動画を送信し、その他の種類のイベントであれば発生時点の静止画を送信するようにしてもよい。なお、別の例として、検出部10は、撮影画像をサーバー20に連続して送信し続け、サーバー20側では、上書きさせながら所定時間分(例えば過去数時間分)だけ一時記憶部に記憶する。そしてサーバー20は、イベントが発生し、イベント情報を検出部10から受信するに応じて、一時記憶部から発生時点前後の静止画、または動画を読み出し、イベントに関連付けて保存するようにしてもよい。
(Steps S120, S130)
When it is determined that an event has occurred, the event information is transmitted to the server 20 . Further, the detection unit 10 transmits image data obtained by photographing an observation area when an event occurs. In this case, if the type of the event that occurred is a specific type, for example, an event that may lead to an accident such as a fall, a predetermined time (for example, several seconds to several tens of seconds) before and after the time of occurrence, including the time of occurrence A moving image may be transmitted, and if the event is of another type, a still image at the time of occurrence may be transmitted. As another example, the detection unit 10 continuously transmits the captured images to the server 20, and the server 20 stores the captured images in a temporary storage unit for a predetermined time period (for example, the past several hours) while overwriting the captured images. . Then, when an event occurs and the server 20 receives event information from the detection unit 10, the server 20 may read still images or moving images around the time of occurrence from the temporary storage unit, and store them in association with the event. .

(ステップS140)
サーバー20は、イベントリストを更新する。図7は、記憶部23に記憶されるイベントリストの例である。イベントリストに含まれるイベントには、上述のように起床、離床、転落、転倒、およびナースコールが含まれる。ステップS120で送信された最新のイベントは、イベントリストの最後に追加される。
(Step S140)
Server 20 updates the event list. FIG. 7 is an example of an event list stored in the storage unit 23. As shown in FIG. Events included in the event list include getting up, getting out of bed, falling, falling, and nurse call as described above. The latest event sent in step S120 is added to the end of the event list.

図7に示すように、各イベントには、自動的に付与される主キーとなるイベントID、部屋番号、対象者、イベント種類、発生日時(時刻)、画像データ、および対応状況の情報が含まれる。画像データは、上述のとおり、ステップS130で送信された、イベントの発生時に検出部10により撮影して得られた静止画、または動画のデータである。対応状況は、ステイタス、対応スタッフ、および対応日時(時刻)が含まれる。対応状況については後述する。 As shown in FIG. 7, each event includes an automatically assigned primary key event ID, room number, target audience, event type, date and time of occurrence (time), image data, and information on response status. be The image data is, as described above, still image data or moving image data obtained by the detection unit 10 capturing an image when an event occurs, which is transmitted in step S130. The response status includes status, response staff, and response date and time (time). The status of support will be described later.

図7に示す例では、イベントID010のイベントは転落であり、イベントID011、012のイベントは、ナースコールである。イベントID013~015は順に、一人の対象者70(Bさん)に連続して発生した、起床、離床、および転倒である。イベントID010~012のイベントに関する対応状況のステイタスは対応済みになっており、イベントID013~015は未対応である。 In the example shown in FIG. 7, the event with event ID 010 is a fall, and the events with event IDs 011 and 012 are nurse calls. Event IDs 013 to 015 are, in order, wake-up, getting out of bed, and falling, which occurred consecutively for one target person 70 (Mr. B). The status of the handling status of events with event IDs 010 to 012 is handled, and event IDs 013 to 015 are unhandled.

(ステップS150)
サーバー20は、新たなイベントが検出されて追加される、またはイベントのステイタスが変更されることで、イベントリストが更新された場合には、更新後のイベントリストを、ログイン中の全てのスタッフ端末40に配信する。なお、このときの配信先は、イベントを発生させた対象者70を担当するスタッフ80が用いるスタッフ端末40にのみ配信するようにしてもよい。イベントリストを受信した各スタッフ端末40は、サーバー20からイベントリストを受信するに応じて、受領確認コマンドを返す(図示せず)。なお、サーバー20からのイベントリストの送信は、差分データのみを送信するようにしてもよい。例えば、直前に送信したイベントリストに対して変化した部分、すなわち追加または更新があったイベントのみをイベントリストとして全てのスタッフ端末40に送信する。
(Step S150)
When the event list is updated by detecting and adding a new event or changing the status of the event, the server 20 sends the updated event list to all staff terminals currently logged in. Deliver to 40. At this time, the delivery destination may be only the staff terminal 40 used by the staff 80 in charge of the target person 70 who caused the event. Each staff terminal 40 that has received the event list returns an acknowledgment command in response to receiving the event list from the server 20 (not shown). It should be noted that the transmission of the event list from the server 20 may be performed by transmitting only difference data. For example, only changed parts, that is, events that have been added or updated with respect to the previously transmitted event list, are transmitted to all staff terminals 40 as an event list.

(ステップS160)
各スタッフ端末40は、サーバー20からイベントリストを受信するに応じて、表示部43の表示内容の更新を行う。
(Step S160)
Each staff terminal 40 updates the display contents of the display unit 43 in response to receiving the event list from the server 20 .

図8は、スタッフ端末40の表示部43に表示されるイベントへの対応方針を入力する操作画面431、432の例である。同図に示す操作画面431は、イベントリストが一覧表示される画面である。表示するイベントは、フリック操作することで上下にスクロールさせることが可能である。 FIG. 8 shows examples of operation screens 431 and 432 for inputting a response policy to an event displayed on the display unit 43 of the staff terminal 40 . An operation screen 431 shown in the figure is a screen on which an event list is displayed. The displayed events can be scrolled up and down by flicking.

操作画面431の領域a11、a12は、それぞれ、図7のイベントリストのイベントID011、012に対応する。領域a11、a12には、ナースコールであること示すアイコン、および対応済みであることが表示されている。領域a13は、図7の破線枠で囲むイベントID013~015に対応する。これらは、同一の対象者70(Bさん)に関するものであるため、同じ領域にまとめて表示される。また、未対応であることから、領域a13には、対応済みと区別し易いように、サムネイル画像を表示している。このサムネイル画像は、最新のイベント(ID015)に関する動画の画像i015(図7参照)から切り出した静止画から作成したものである。領域a14を操作することで、ログイン中の他のスタッフ80とテキストメッセージの交換を行える。制御部41は、操作画面431において、スタッフ80の領域a13へのクリック操作を受け付けることで、内容確認用の操作画面432に遷移させる。 Areas a11 and a12 of the operation screen 431 correspond to event IDs 011 and 012 of the event list in FIG. 7, respectively. Areas a11 and a12 display an icon indicating that it is a nurse call and that the response has been completed. Area a13 corresponds to event IDs 013 to 015 surrounded by a dashed frame in FIG. Since these are related to the same subject 70 (Mr. B), they are collectively displayed in the same area. In addition, since it is not supported, a thumbnail image is displayed in the area a13 so as to be easily distinguished from the supported one. This thumbnail image is created from a still image clipped from the moving image i015 (see FIG. 7) relating to the latest event (ID015). Text messages can be exchanged with other logged-in staff members 80 by operating the area a14. When the staff member 80 clicks on the area a13 on the operation screen 431, the control unit 41 causes the operation screen 431 to transition to the operation screen 432 for confirming the contents.

(ステップS170)
スタッフ80は、スタッフ端末40に表示した操作画面432により、イベントの内容を確認する。操作画面432において、領域a21には、イベントを発生(判定)させた対象者70のID(名前:Bさん)、およびスタッフ端末40を使用するスタッフ80のID(名前:スタッフA)が表示されている。領域a22には、イベントの発生時刻からの経過時間が表示されている。なお、図7の破線枠内に示すように、対象者70(Bさん)については、起床、離床、転倒のイベントの発生を連続して判定し、共に未対応のステイタスであるので、この領域a22には、最新のイベント以外の「起床」、「離床」のイベントを表すアイコンが示されている。なお、領域a22に示す経過時間(「経過0分」)は、最新のイベントの発生を判定してからの経過時間(分未満を切り下げ)である。領域a23には、「転倒」を示す文字とアイコンが示されている。また領域a24には、転倒判定時の撮影画像のサムネイル画像が表示されている。スタッフ80は、サムネイル画像では情報として不十分で、さらに転倒を発生させた対象者70の状況を確認したいときは、下方にある「話す」ボタンや「見る」ボタンを操作する。「話す」ボタンを操作することで、音声入出力部15を通じて対象者70(Bさん)と通話できる。「見る」ボタンを操作することでカメラ13が撮影したライブ映像をストリーミング再生により視聴できる。
(Step S170)
The staff 80 confirms the contents of the event by the operation screen 432 displayed on the staff terminal 40 . In an area a21 of the operation screen 432, the ID of the subject 70 (name: Mr. B) who caused the event to occur (judged) and the ID of the staff 80 (name: staff A) who uses the staff terminal 40 are displayed. ing. The area a22 displays the elapsed time from the occurrence time of the event. As shown in the dashed frame in FIG. 7, for the target person 70 (Mr. B), the occurrence of events such as getting up, getting out of bed, and falling is continuously determined. In a22, icons representing "wake up" and "get out of bed" events other than the latest event are shown. The elapsed time (“elapsed 0 minutes”) shown in the area a22 is the elapsed time (rounded down to the nearest minute) after the occurrence of the latest event is determined. An area a23 shows characters and an icon indicating "overturn". A thumbnail image of the captured image at the time of overturn determination is displayed in the area a24. When the staff member 80 wants to confirm the situation of the subject 70 who caused the fall because the thumbnail image is not enough information, the staff member 80 operates the "talk" button or the "view" button located below. By operating the “talk” button, the user can talk with the target person 70 (Mr. B) through the voice input/output unit 15 . By operating the "view" button, the live video captured by the camera 13 can be viewed by streaming playback.

スタッフ80(スタッフA)は、領域a25の「対応する」ボタンを操作することで表示した転落(ID015)を、自らが率先して担当することに決定する。対応しない場合には,領域a26内の戻るボタン(三角アイコン)を操作することで、イベントリスト画面に戻る。なお、あるスタッフ80が、図8に示す操作画面432を表示し、転落等のイベントの状態を確認している最中は、サーバー20の制御により、他のスタッフ80への禁則処理がなされる。例えば、あるスタッフ80が対象者70(Bさん)のイベントの状態を確認している時に、他のスタッフ80が同じイベント(ID013~015)を選択したとしても、他のスタッフ80の操作画面431には、「状態確認中」の文字が表示され、「対応する」ボタンは表示されない、または選択できないようにする。 The staff 80 (staff A) decides to take the initiative in taking charge of the fall (ID015) displayed by operating the "correspond" button in the area a25. If not, the back button (triangular icon) in the area a26 is operated to return to the event list screen. While a certain staff member 80 is displaying the operation screen 432 shown in FIG. 8 and confirming the state of an event such as a fall, other staff members 80 are prohibited from doing so under the control of the server 20. . For example, even if another staff member 80 selects the same event (ID 013 to 015) while one staff member 80 is confirming the event status of the target person 70 (Mr. B), the operation screen 431 of the other staff member 80 is displayed. , the text "Confirming status" is displayed, and the "Corresponding" button is not displayed or cannot be selected.

(ステップS180、S190)
スタッフ端末40は、「対応する」ボタンが操作されることに応じて、サーバー20に選択されたイベントに関する対応要求を送信し、これに応じて、サーバー20は承認通知を返信する。
(Steps S180, S190)
The staff terminal 40 transmits a response request regarding the selected event to the server 20 in response to the operation of the "response" button, and the server 20 responds with an approval notification.

(ステップS200)
サーバー20は、ステップS180の処理に応じてイベントリストを更新する。具体的には、イベントリスト(ID013~015:転倒等)のステイタスを対応済みに変更する。本実施形態においては、スタッフ80が選択し、操作画面432に表示するイベントに対して上述の「対応する」ボタンを操作することに応じて、「対応済み」に変更している。すなわち、「対応する」ボタンの操作により、確認したことを示す情報である「対応済み」の対応状況が入力され、対応が行われたとみなして対応日時を記録する。より具体的には、図7のイベントリストにおいて、ステップS180、S190の処理が行われた時刻が、対応日時欄に記録される。なお、これに限られず、対応日時は、スタッフ80が、転落、転倒、ナースコール等のイベントを発生させた対象者70の部屋に入室した時刻を、対応日時欄に記録してもよく、別の操作画面により対応結果を入力することにより対応済みにし、入力時刻を対応日時欄に記録してもよい。また、サーバー20は、イベントリストを更新することに応じて、ログイン中の全てのスタッフ80に更新後のイベントリストを送信する。
(Step S200)
The server 20 updates the event list according to the process of step S180. Specifically, the status of the event list (ID 013 to 015: falls, etc.) is changed to handled. In this embodiment, the event selected by the staff 80 and displayed on the operation screen 432 is changed to "handled" in response to the operation of the above-described "handle" button. That is, by operating the "Response" button, a response status of "Responded", which is information indicating confirmation, is input, and it is assumed that the response has been made, and the date and time of response is recorded. More specifically, in the event list of FIG. 7, the times when the processes of steps S180 and S190 were performed are recorded in the corresponding date/time column. Note that the response date and time is not limited to this, and the staff 80 may record the time when the staff 80 entered the room of the target person 70 who caused an event such as a fall, a fall, a nurse call, etc. in the response date and time column. By inputting the response result on the operation screen, the response may be completed, and the input time may be recorded in the response date and time column. In addition, the server 20 transmits the updated event list to all logged-in staff members 80 in response to updating the event list.

検出部10が発生を判定した事故に繋がる可能性のある所定のイベント、すなわち、転落、転倒のイベントの判定には、誤判定が含まれる。判定の基準を厳しくすると、実際に転落、転倒が発生したときに、判定漏れが生じる虞がある。一方で、判定の基準を緩くしすぎると、実際には、転落、転倒が生じていない場合に、転落、転倒のイベントの発生を判定するといった誤判定が発生しやすくなる。 An erroneous determination is included in determination of a predetermined event that may lead to an accident determined by the detection unit 10 to occur, that is, a fall event. If the criteria for determination are made stricter, there is a risk that failure to make a determination will occur when a fall or overturn actually occurs. On the other hand, if the criteria for determination are made too loose, erroneous determinations such as determining the occurrence of a fall or overturn event when a fall or overturn has not actually occurred are more likely to occur.

本実施形態では、判定漏れを極力無くすように判定基準を厳しくしていないため、誤判定がある程度含まれる。この誤判定か実際に発生したかの判別を、スタッフ80が、スタッフ端末40を用いて、状況を確認することにより行う。具体的には、スタッフ80は、対象者70の状況を、通話や撮影した画像により確認することで、誤判定の場合に、実際に居室に出向く対応が必要ないことを確認できる。また、実際に転落、転倒が発生したとしても、負傷が発生せず、特に対応が必要でない場合もあり、この場合も、対象者70との通話等により無事であることを確認することで、居室に出向く対応を省略できる。 In this embodiment, since the judgment criteria are not strict so as to eliminate judgment omissions as much as possible, erroneous judgments are included to some extent. The staff 80 uses the staff terminal 40 to check the situation to determine whether this misjudgment has actually occurred. Specifically, the staff member 80 confirms the situation of the target person 70 through a call or a photographed image, thereby confirming that there is no need to actually go to the living room in the event of an erroneous determination. In addition, even if a fall actually occurs, there may be cases where no injury occurs and no particular response is required. You can omit the need to go to your room.

なお、本明細書においては、検出部10が転落、転倒、等のイベントの発生を判定した場合には、実際に転落、転倒、等が発生していなくても、発生件数にカウントする。換言すると、この発生件数は、転倒、転落等の発生が疑われる疑い件数とも言い得る。 In this specification, when the detection unit 10 determines that an event such as a fall has occurred, it is counted as the number of occurrences even if the event does not actually occur. In other words, this number of occurrences can also be said to be the number of suspected occurrences of falls, falls, and the like.

以上のようにして、転落、転倒等のイベントの発生を判定した場合に、そのイベントへの対応状況を含めたイベント情報をイベントリストに蓄積する。次にこの蓄積されたイベントリストを用いて、イベントの発生状況、および対応状況を分析し、分析結果が可視化されるレポートを作成し、出力する処理について説明する。 As described above, when it is determined that an event such as a fall has occurred, the event information including the response status to the event is accumulated in the event list. Next, the process of analyzing the event occurrence status and response status using this accumulated event list, and creating and outputting a report that visualizes the analysis results will be described.

(レポートの出力処理)
図9は、第1の実施形態に係る見守りシステム1により実行されるレポートの出力処理の手順を示すフローチャートである。図9の処理は、主にサーバー20の制御部21が、記憶部23に記憶されたプログラムを実行することにより行われる。
(Report output processing)
FIG. 9 is a flowchart showing a procedure of report output processing executed by the watching system 1 according to the first embodiment. The processing in FIG. 9 is mainly performed by the control unit 21 of the server 20 executing a program stored in the storage unit 23 .

(ステップS310)
サーバー20の制御部21は、記憶部23のイベントリストに、発生を判定したイベントのイベント情報を蓄積(追加)する。また、イベントが発生したときの画像データ(静止画または動画)を、イベントに関連付けて蓄積する。この蓄積処理は、上述した処理(図6)により行われる。
(Step S310)
The control unit 21 of the server 20 accumulates (adds) event information of the event determined to occur in the event list of the storage unit 23 . Also, image data (still image or moving image) when an event occurs is stored in association with the event. This accumulation processing is performed by the above-described processing (FIG. 6).

(ステップS320)
制御部21は、記憶部23から事故に繋がる可能性のある転落、転倒のイベント情報を取得する。これは、例えば、固定端末30を通じたユーザー(スタッフ80、このスタッフ80を管理する管理者、等)からの要求により、開始する。ユーザーは、固定端末30を通じて、特定の対象者70を選択する。制御部21は、この指定された対象者70に関する転落、転倒のイベント情報を取得する。なお、他の事故に繋がるイベントとして、離床のイベントを含ませてもよい。例えば、ベッド60、テレビ等の居室内の家具の配置が変更されたことで、就寝時におけるベッド60内の対象者70の体勢が変わる場合がある。これにより、脚等の身体の一部がベッド60からはみ出ることが多発し、離床のイベントが多く判定されることがある。このような事象では、離床は、ベッドからの転落を引き起こし、間接的に事故に繋がるイベントとなる。
(Step S320)
The control unit 21 acquires from the storage unit 23 the event information of a fall or overturn that may lead to an accident. This is initiated, for example, by a request from a user (staff 80, administrator managing this staff 80, etc.) through fixed terminal 30. FIG. A user selects a specific target person 70 through the fixed terminal 30 . The control unit 21 acquires the event information of the falling and tumbling related to the designated subject 70 . Note that an event of getting out of bed may be included as an event leading to another accident. For example, the posture of the subject 70 in the bed 60 at bedtime may change due to a change in the arrangement of furniture such as the bed 60 and the television in the living room. As a result, a part of the body such as the leg often protrudes from the bed 60, and many events of getting out of bed may be determined. In such an event, getting out of bed is an event that causes a fall out of bed, indirectly leading to an accident.

(ステップS330)
制御部21は、取得したイベント情報から、転落、転倒の件数を分析する。図10は、ある対象者70(例えばBさん)における、転落・転倒の分析結果を可視化した例を示す図である。同図は、1日(6時~翌日の5時(29時))の時間毎の転倒と転落の発生件数(発生件数)の合算の推移を示した表である。表中では、1回以上の転倒または転落のイベントが発生した時間帯を灰色で示している。
(Step S330)
The control unit 21 analyzes the number of falls and falls from the acquired event information. FIG. 10 is a diagram showing an example of visualization of analysis results of falls in a subject 70 (for example, Mr. B). This figure is a table showing the transition of the total number of occurrences (number of occurrences) of falls and falls for each hour of the day (from 6:00 to 5:00 (29:00) of the next day). The time periods in which one or more falls or fall events occurred are shown in gray in the table.

(ステップS340)
制御部21は、転倒または転落のイベントの単位期間当たりの発生件数の増加があったか否かを判断する。この判断は、1時間単位で判断してもよく、1日単位で判断してもよい。1日単位で判断する場合、ある日の発生件数が、その前日、またはその日よりも前の数日の平均の発生件数に対して、所定倍数以上である場合に、増加があったと判断できる。図10に示す例では、10月21日の発生件数17件が、前2日間(20日、19日)の発生件数の平均値6.5件よりも2倍以上増加しているので、10月21日に発生件数の増加があったと判断できる。増加があれば、処理をステップS350に進める。一方で、増加がなければ処理をステップS360に進める。
(Step S340)
The control unit 21 determines whether or not there has been an increase in the number of occurrences per unit period of falling events. This determination may be made in units of one hour or in units of one day. When the determination is made on a daily basis, it can be determined that there has been an increase if the number of occurrences on a certain day is a predetermined multiple or more of the average number of occurrences on the previous day or several days before that day. In the example shown in FIG. 10, the number of occurrences of 17 on October 21st is more than double the average number of occurrences of 6.5 for the previous two days (20th and 19th). It can be judged that there was an increase in the number of occurrences on the 21st of the month. If there is an increase, the process proceeds to step S350. On the other hand, if there is no increase, the process proceeds to step S360.

(ステップS350)
制御部21は、増加時期の前後のイベントに関連付けられている画像データを取得して、ユーザー(スタッフ80、管理者、等)が使用する固定端末30のディスプレイに、この画像データに基づく画像を表示する。表示する画像は、動画(例えば数秒~数十秒)であるが、この動画から切り出した静止画であってもよい。
(Step S350)
The control unit 21 acquires image data associated with events before and after the increase period, and displays an image based on this image data on the display of the fixed terminal 30 used by the user (staff 80, administrator, etc.). indicate. The image to be displayed is a moving image (for example, several seconds to several tens of seconds), but may be a still image clipped from this moving image.

なお、このときに、記憶部23に記憶されている対象者70の情報をディスプレイに表示してもよい。この対象者70の情報には、例えば対象者70の歩行状態情報(自立、車椅子、歩行器)が含まれる。また、前後の画像を表示する際に、制御部21が画像を解析することで、居室内の家具等(ベッド、歩行器、杖)を認識し、前後の2つの画像で、家具等の配置の変化があれば、そのことを示すアノテーション画像(囲み枠、注意文、等)を表示画像に追加するようにしてもよい。 At this time, the information of the subject 70 stored in the storage unit 23 may be displayed on the display. The information about the subject 70 includes, for example, the walking state information of the subject 70 (independent, wheelchair, walker). When the front and back images are displayed, the control unit 21 analyzes the images to recognize the furniture, etc. (bed, walker, cane) in the living room. If there is a change in , an annotation image (enclosing frame, note, etc.) indicating that change may be added to the display image.

(ステップS360)
制御部21は、レポートに追加するコメントを受け付ける。例えば、固定端末30を通じて、ユーザーからのコメントを受け付ける。
(Step S360)
The control unit 21 accepts comments to be added to the report. For example, comments from users are accepted through the fixed terminal 30 .

ユーザーは、固定端末30のディスプレイに表示された増加時期の前後の2枚の画像を比較することで、得られる判断結果をコメントとして入力する。例えば、画像の比較により、以前の画像に比べて、転落、転倒のイベントの発生件数の増加が発生した時期以降の画像では、居室内の家具等の配置が変更されていれば、この家具等の配置の変更により、発生件数が増加したと推定できる。この家具等には、ベッド、テレビ、箪笥、等の固定家具のみならず、歩行器、車椅子、杖、等の歩行用の道具が含まれる。例えば、杖を置く位置を以前と異なる位置に変更したことにより、イベントの発生件数が増加する場合がある。 The user compares the two images before and after the increase period displayed on the display of the fixed terminal 30, and inputs the judgment result obtained as a comment. For example, by comparing images, if the arrangement of furniture, etc. in the living room has been changed in the images after the time when the number of events such as falls and falls has increased compared to the previous images, this furniture, etc. It can be assumed that the number of occurrences increased due to the change in the arrangement of The furniture includes not only fixed furniture such as beds, televisions, and chests of drawers, but also tools for walking such as walkers, wheelchairs, canes, and the like. For example, the number of events may increase due to changing the position of the wand to a different position than before.

また対象者70の情報、例えば対象者70の歩行状態情報(自立、車椅子、歩行器)と、実際に1人でいる時の歩行状態(撮影画像)を比較してもよい。具体的には、居室内で、1人の時に転落、転倒した際に撮影した画像から実際の歩行状態を判別する。そしてこれが歩行状態情報とは異なり、対象者70が本来行うべきではない危険な歩行をしていることが判明したら、これを転倒のイベントが増加した理由として挙げることができる。この危険な走行の例としては、歩行器を使う対象者70が、歩行器を使用せずに居室内を壁伝いで自立して歩行する場合がある。 Also, the information of the subject 70, for example, the walking state information of the subject 70 (independent, wheelchair, walker) may be compared with the actual walking state (photographed image) when the subject 70 is alone. Specifically, the actual walking state is determined from an image taken when the person falls or falls alone in a living room. If this is different from walking state information and it is found that the subject 70 is walking dangerously, which should not be done, this can be cited as the reason for the increase in falling events. An example of this dangerous running is when a subject 70 using a walker walks independently along a wall in a living room without using a walker.

(ステップS370)
制御部21は、分析結果に基づいてレポートを作成する。また、ステップS360でコメントを受け付けたなら、そのコメントをレポートに追加する。
(Step S370)
The control unit 21 creates a report based on the analysis results. Also, if a comment is received in step S360, the comment is added to the report.

(ステップS380)
制御部21は、固定端末30のディスプレイに表示したり、プリンターから用紙に印刷したり、要求に応じた送信先アドレスにレポートのデータを送信したりすることで、レポートを出力する。
(Step S380)
The control unit 21 outputs the report by displaying it on the display of the fixed terminal 30, printing it on paper from a printer, or transmitting the report data to the requested destination address.

図11は、可視化した分析結果を出力したレポートの例を示す図である。図11は、図10で示した分析結果を反映したものであり、ユーザーにより選択された対象者70(Bさん)に関する事故に繋がる可能性がある所定のイベントに関するレポートを示している。図11の上段の表は図10に示した図に対応している。中段の2枚の画像は、増加が発生した時期の前後の居室内の撮影画像である。下段のコメントは、ステップS360で受け付けたものである。 FIG. 11 is a diagram showing an example of a report outputting visualized analysis results. FIG. 11 reflects the analysis results shown in FIG. 10, and shows a report regarding a predetermined event that may lead to an accident regarding the target person 70 (Mr. B) selected by the user. The upper table in FIG. 11 corresponds to the diagram shown in FIG. The two images in the middle row are captured images in the living room before and after the period when the increase occurred. The comments at the bottom are those received in step S360.

このように第1の実施形態では、事故に繋がる可能性がある所定のイベントのイベント情報、および、このイベント情報に関連付けられた画像データを取得し、対象者について、イベントの発生件数、発生時刻、および画像データを用いて、イベントの発生状況を分析することで、分析結果に基づいてイベントの発生状況が可視化されたレポートを作成し、これを出力する。 As described above, in the first embodiment, event information of a predetermined event that may lead to an accident and image data associated with this event information are acquired, and the number of occurrences of the event and the time of occurrence are obtained for the subject. , and image data to analyze the occurrence of events, create and output a report in which the occurrence of events is visualized based on the analysis results.

これにより、入居者(対象者70)の日々の行動から検知した、転倒・転落件数、転倒・転落の画像を分析し、ヒヤリハットを取り出した結果をまとめたレポートを出力でき、このレポートは、事故に繋がる可能のあるイベントの発生の未然の防止に役立つ。 As a result, it is possible to analyze the number of falls detected from the daily behavior of the resident (subject 70) and the images of the falls, and output a report summarizing the results of picking out near misses. It helps prevent the occurrence of events that may lead to

施設では対象者70が居室内でどのような行動をしているか把握できていない。すなわち、入口のドアが閉まっている状態では、スタッフ80は、室内の様子は認識できない。そのため、入居者の危険行動(転倒に繋がりそうな歩行など)があることが分からないので、事故が発生してからの対策検討になってしまう。 The facility cannot grasp how the subject 70 behaves in the living room. That is, when the entrance door is closed, the staff member 80 cannot recognize the state of the room. Therefore, since it is not known that the resident has a dangerous behavior (such as walking that may lead to a fall), countermeasures will be considered after an accident occurs.

これに対して、本実施形態によれば、検出部10が検知した転倒・転落のイベントを分析することで、施設のスタッフ80が把握できていない入居者(対象者70)の居室内での危険行動を知ることができる。また、危険行動を減らすための対策(家具の配置変更等)を促すことで、転倒、転落を現象させ、これらによる事故を未然に防止できる。 On the other hand, according to the present embodiment, by analyzing the fall event detected by the detection unit 10, the facility staff 80 cannot grasp the resident (subject 70) in the living room. Recognize risky behavior. In addition, by promoting countermeasures to reduce risky behavior (such as rearrangement of furniture), it is possible to reduce the occurrence of overturns and falls, thereby preventing accidents from occurring.

(変形例に係る見守りシステム1でのレポートの出力処理)
図10に示す実施形態においては、ユーザーからのコメントの入力を受け付けた。これに対して、以下に説明する変形例においては、制御部21側で、コメントを自動的に作成する。図12は、変形例におけるレポートの出力処理を示すフローチャートである。
(Report output processing in monitoring system 1 according to modification)
In the embodiment shown in FIG. 10, input of comments from the user is accepted. On the other hand, in the modified example described below, the comment is automatically created on the control section 21 side. FIG. 12 is a flowchart showing report output processing in the modification.

(ステップS410~S440)
ここでは、制御部21は、図10に示したステップS310~S340と同様の処理を行う。イベントの発生件数の増加があれば、処理をステップS465に進める。
(Steps S410 to S440)
Here, the control unit 21 performs the same processing as steps S310 to S340 shown in FIG. If there is an increase in the number of event occurrences, the process proceeds to step S465.

(ステップS465)
制御部21は、増加に関して注意を促すコメントを作成する。このコメントは、定型文を用いるものであり、増加があった前後の期間で、居室内の家具の配置等の転倒、転落の増加に結びつく変更がなされたかを確認するためのコメントを作成する。例えば図11のレポートのコメント欄は、このような場合に想定される、増加に関して注意を促すコメントである。このコメントの一部、または全部は、あらかじめ記憶部23に記憶されていてもよい。
(Step S465)
The control unit 21 creates a comment calling attention to the increase. This comment uses fixed phrases, and is used to confirm whether the layout of furniture in the living room, etc., has been changed in the period before and after the increase, leading to an increase in overturning and falling. For example, the comment column of the report in FIG. 11 is a comment calling attention to the possible increase in such a case. Part or all of this comment may be stored in the storage unit 23 in advance.

このように、制御部21側で、コメントを作成することによっても、第1の実施形態と同様の効果が得られるとともに、ユーザーがコメントを作成する手間を煩わせずに、レポートを作成できる。 Thus, by creating comments on the control unit 21 side, the same effect as in the first embodiment can be obtained, and a report can be created without the user having to bother creating comments.

(他の変形例)
上述した実施形態では、検出部10、サーバー20、固定端末30、およびスタッフ端末40をそれぞれ独立した別個の装置として説明した。しかしながら、これに限定されず、いくつかの構成を統合してもよい。例えばサーバー20の機能を固定端末30内に統合してもよい。
(Other modifications)
In the above-described embodiment, the detection unit 10, the server 20, the fixed terminal 30, and the staff terminal 40 have been described as independent and separate devices. However, it is not limited to this, and several configurations may be integrated. For example, the functionality of server 20 may be integrated within fixed terminal 30 .

また、上述した実施形態に係る見守りシステム1における処理は、上述のシーケンチャート、またはフローチャートのステップ以外のステップを含んでもよく、あるいは、上述したステップのうちの一部を含まなくてもよい。また、ステップの順序は、上述した実施形態に限定されない。さらに、各ステップは、他のステップと組み合わされて一つのステップとして実行されてもよく、他のステップに含まれて実行されてもよく、複数のステップに分割されて実行されてもよい。 Moreover, the process in the watching system 1 which concerns on embodiment mentioned above may include steps other than the steps of the above-mentioned sequence chart or a flowchart, or may not include some of the steps mentioned above. Also, the order of steps is not limited to the embodiment described above. Furthermore, each step may be combined with other steps and executed as one step, may be executed while being included in other steps, or may be divided into a plurality of steps and executed.

また、上述した実施形態に係る見守りシステム1における各種処理を行う手段および方法は、専用のハードウエア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記制御プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、一機能としてその検出部等の装置のソフトウエアに組み込まれてもよい。 Moreover, means and methods for performing various processes in the watching system 1 according to the above-described embodiment can be realized by either a dedicated hardware circuit or a programmed computer. The control program may be provided by a computer-readable recording medium such as a USB memory or a DVD (Digital Versatile Disc)-ROM, or may be provided online via a network such as the Internet. In this case, the program recorded on the computer-readable recording medium is usually transferred to and stored in a storage unit such as a hard disk. Further, the program may be provided as independent application software, or may be incorporated as a function into the software of the device such as the detection unit.

本出願は、2018年6月27日に出願された日本特許出願(特願2018-122274号)に基づいており、その開示内容は、参照され、全体として組み入れられている。 This application is based on a Japanese patent application (Japanese Patent Application No. 2018-122274) filed on June 27, 2018, the disclosure of which is incorporated herein by reference.

1 見守りシステム
10 検出部
11 制御部
12 通信部
13 カメラ
14 ナースコール部
15 音声入出力部
20 サーバー
21 制御部
22 通信部
23 記憶部
30 固定端末
40 スタッフ端末
41 制御部
42 無線通信部
43 表示部
44 入力部
45 音声入出力部
50 ネットワーク
51 アクセスポイント
70 対象者(被介護者)
80 スタッフ(介護者)
1 monitoring system 10 detection unit 11 control unit 12 communication unit 13 camera 14 nurse call unit 15 voice input/output unit 20 server 21 control unit 22 communication unit 23 storage unit 30 fixed terminal 40 staff terminal 41 control unit 42 wireless communication unit 43 display unit 44 input unit 45 voice input/output unit 50 network 51 access point 70 target person (cared person)
80 staff (caregivers)

Claims (12)

蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する手順(b)と、
前記手順(b)において作成されたレポートを出力する手順(c)と、
を含む処理であって、
前記手順(b)は、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データを、表示する手順(b1)と、
ユーザーによるコメントの入力を受け付ける手順(b2)と、を含み、
前記手順(b)では、前記手順(b2)で受け付けた、前記コメントを含む前記レポートを作成する、処理をコンピューターに実行させるための制御プログラム。
Accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, generated based on the output of a detection unit that detects the movement of the subject in the observation area acquisition of the event information recording the predetermined event related to the subject in the observation area where Step (a) to
For the subject, the analysis result is visualized by analyzing the occurrence status of the event using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data. step (b) of creating a report to be
a step (c) of outputting the report created in the step (b);
A process including
The step (b) includes a step (b1) of displaying the image data for the period before and after the time when the number of occurrences of the event per unit period increases for the subject;
including a step (b2) for receiving comments input by the user,
In the step (b), a control program for causing a computer to execute a process of creating the report including the comments received in the step (b2) .
蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する手順(b)と、
前記手順(b)において作成されたレポートを出力する手順(c)と、
前記手順(a)で取得した前記イベント情報に基づいて、前記対象者について、前記イベントの単位期間当たりの発生件数の増加の発生有無を判定し、増加の発生を判定した場合には、前記対象者の前記イベントに関し、注意を促すコメントを作成する手順(d)と、
を含む処理であって、
前記手順(b)では、前記手順(d)において作成した前記コメントを含む前記レポートを作成する、処理をコンピューターに実行させるための制御プログラム。
Accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, generated based on the output of a detection unit that detects the movement of the subject in the observation area acquisition of the event information recording the predetermined event related to the subject in the observation area where Step (a) to
For the subject, the analysis result is visualized by analyzing the occurrence status of the event using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data. step (b) of creating a report to be
a step (c) of outputting the report created in the step (b);
Based on the event information acquired in the procedure (a), it is determined whether or not the number of occurrences of the event per unit period has increased for the target person, and if it is determined that the increase has occurred, the target person a step (d) of creating a comment calling attention to the event of the person;
A process including
A control program for causing a computer to execute, in step (b), the process of creating the report including the comment created in step (d) .
蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する手順(b)と、
前記手順(b)において作成されたレポートを出力する手順(c)と、
を含む処理であって、
前記手順(b)で作成する前記レポートには、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データが含まれる、処理をコンピューターに実行させるための制御プログラム。
Accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, generated based on the output of a detection unit that detects the movement of the subject in the observation area acquisition of the event information recording the predetermined event related to the subject in the observation area where Step (a) to
For the subject, the analysis result is visualized by analyzing the occurrence status of the event using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data. step (b) of creating a report to be
a step (c) of outputting the report created in the step (b);
A process including
Executing a process on a computer, wherein the report created in the step (b) includes the image data of the period before and after the period when the number of occurrences of the event per unit period increased for the subject. control program to let
前記イベントの前記発生状況の情報には、前記イベントの発生件数、および発生時刻が含まれる、請求項1から請求項3のいずれかに記載の制御プログラム。 4. The control program according to any one of claims 1 to 3, wherein the information on the occurrence status of the event includes the number of occurrences of the event and the time of occurrence. 所定の前記イベントには、前記対象者の転倒を判定した転倒のイベント、または前記対象者の転落を判定した転落のイベントが含まれる、請求項1から請求項4のいずれかに記載の制御プログラム。 5. The control program according to any one of claims 1 to 4, wherein the predetermined event includes a fall event in which it is determined that the subject has fallen or a fall event in which it is determined that the subject has fallen. . 前記対象者への対応を行うスタッフは、携帯端末を携帯し、
前記イベントが発生することに応じて、前記スタッフが前記携帯端末を通じて入力した、前記イベントを確認したことを示す情報が、前記イベント情報に含まれる、請求項1から請求項のいずれかに記載の制御プログラム。
The staff who respond to the subject person carry a mobile terminal,
6. The event information according to any one of claims 1 to 5 , wherein the event information includes information input by the staff through the portable terminal in response to the occurrence of the event and indicating that the event has been confirmed. control program.
蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを、レポート出力装置が取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、レポート出力装置が、分析結果が可視化されるレポートを作成する手順(b)と、
レポート出力装置が、前記手順(b)において作成されたレポートを出力する手順(c)と、
を含
前記手順(b)は、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データを、表示する手順(b1)と、
ユーザーによるコメントの入力を受け付ける手順(b2)と、を含み、
前記手順(b)では、前記手順(b2)で受け付けた、前記コメントを含む前記レポートを作成する、レポート出力方法。
Accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, generated based on the output of a detection unit that detects the movement of the subject in the observation area and the image data obtained by photographing the observation area for a predetermined period including the time when the event occurred, Procedure (a) acquired by the report output device ;
By analyzing the event occurrence status of the subject using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data, the report output device , a procedure (b) for creating a report in which the analysis results are visualized;
a step (c) in which the report output device outputs the report created in the step (b);
contains
The step (b) includes a step (b1) of displaying the image data for the period before and after the time when the number of occurrences of the event per unit period increases for the subject;
including a step (b2) for receiving comments input by the user,
The report output method , wherein in the step (b), the report including the comments received in the step (b2) is created .
蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを、レポート出力装置が取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、レポート出力装置が、分析結果が可視化されるレポートを作成する手順(b)と、
レポート出力装置が、前記手順(b)において作成されたレポートを出力する手順(c)と、
前記手順(a)で取得した前記イベント情報に基づいて、前記対象者について、前記イベントの単位期間当たりの発生件数の増加の発生有無を判定し、増加の発生を判定した場合には、前記対象者の前記イベントに関し、レポート出力装置が、注意を促すコメントを作成する手順(d)と
を含
前記手順(b)では、前記手順(d)において作成した前記コメントを含む前記レポートを作成する、レポート出力方法。
Accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, generated based on the output of a detection unit that detects the movement of the subject in the observation area and the image data obtained by photographing the observation area for a predetermined period including the time when the event occurred, Procedure (a) acquired by the report output device ;
By analyzing the event occurrence status of the subject using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data, the report output device , a procedure (b) for creating a report in which the analysis results are visualized;
a step (c) in which the report output device outputs the report created in the step (b);
Based on the event information acquired in the procedure (a), it is determined whether or not the number of occurrences of the event per unit period has increased for the target person, and if it is determined that the increase has occurred, the target person a step (d) in which the report output device creates a comment calling attention to the event of the person;
contains
The report output method , wherein in the step (b), the report including the comments created in the step (d) is created .
蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを、レポート出力装置が取得する手順(a)と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、レポート出力装置が、分析結果が可視化されるレポートを作成する手順(b)と、
レポート出力装置が、前記手順(b)において作成されたレポートを出力する手順(c)と、
を含
前記手順(b)で作成する前記レポートには、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データが含まれる、レポート出力方法。
Accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, generated based on the output of a detection unit that detects the movement of the subject in the observation area and the image data obtained by photographing the observation area for a predetermined period including the time when the event occurred, Procedure (a) acquired by the report output device ;
By analyzing the event occurrence status of the subject using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data, the report output device , a procedure (b) for creating a report in which the analysis results are visualized;
a step (c) in which the report output device outputs the report created in the step (b);
contains
The report output method, wherein the report created in the step (b) includes the image data of the period before and after the time when the number of occurrences of the event per unit period increases for the subject.
蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する取得部と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する作成部と、
前記作成部において作成されたレポートを出力する出力部と、
前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データを、表示させるとともに、ユーザーによるコメントの入力を受け付ける制御部と、
を備え、
前記作成部は、前記制御部が受け付けた、前記コメントを含む前記レポートを作成する、レポート出力装置。
Accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, generated based on the output of a detection unit that detects the movement of the subject in the observation area acquisition of the event information recording the predetermined event related to the subject in the observation area where an acquisition unit that
For the subject, the analysis result is visualized by analyzing the occurrence status of the event using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data. a creation unit that creates a report to be
an output unit that outputs the report created by the creation unit;
a control unit for displaying the image data of the period before and after the period when the number of occurrences of the event per unit period increased for the target person, and for accepting an input of a comment by a user;
with
The report output device, wherein the creation unit creates the report including the comments received by the control unit .
蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する取得部と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する作成部と、
前記作成部において作成されたレポートを出力する出力部と、
を備え
前記作成部は、取得した前記イベント情報に基づいて、前記対象者について、前記イベントの単位期間当たりの発生件数の増加の発生有無を判定し、増加の発生を判定した場合には、前記対象者の前記イベントに関し、注意を促すコメントを作成し、および前記コメントを含む前記レポートを作成する、レポート出力装置。
Accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, generated based on the output of a detection unit that detects the movement of the subject in the observation area acquisition of the event information recording the predetermined event related to the subject in the observation area where an acquisition unit that
For the subject, the analysis result is visualized by analyzing the occurrence status of the event using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data. a creation unit that creates a report to be
an output unit that outputs the report created by the creation unit;
with
Based on the acquired event information, the creation unit determines whether or not the number of occurrences of the event per unit period has increased for the target person, and if it is determined that the increase has occurred, the target person a report output device that generates an attention-grabbing comment and generates the report containing the comment regarding the event of the .
蓄積された、事故に繋がる可能性がある所定のイベントのイベント情報、および該イベントに関連付けられた画像データであって、観察領域における対象者の動きを検出する検出部の出力に基づいて、発生を判定した前記観察領域における前記対象者に関する所定の前記イベントを記録した前記イベント情報、および該イベントが発生した時点を含む所定期間の前記観察領域を撮影することで得られた前記画像データを取得する取得部と、
前記対象者について、前記イベントの発生状況の情報を用いて、または、前記イベントの前記発生状況の情報、および前記画像データを用いて、前記イベントの発生状況を分析することで、分析結果が可視化されるレポートを作成する作成部と、
前記作成部において作成されたレポートを出力する出力部と、
を備え、
前記作成部が作成する前記レポートには、前記対象者について、前記イベントの単位期間当たりの発生件数の増加があった時期の前後の期間の前記画像データが含まれる、レポート出力装置。
Accumulated event information of a predetermined event that may lead to an accident and image data associated with the event, generated based on the output of a detection unit that detects the movement of the subject in the observation area acquisition of the event information recording the predetermined event related to the subject in the observation area where an acquisition unit that
For the subject, the analysis result is visualized by analyzing the occurrence status of the event using the information on the occurrence status of the event or using the information on the occurrence status of the event and the image data. a creation unit that creates a report to be
an output unit that outputs the report created by the creation unit;
with
The report output device, wherein the report created by the creation unit includes the image data of the period before and after the time when the number of occurrences of the event per unit period increases for the target person.
JP2020527229A 2018-06-27 2019-04-18 Control program, report output method, and report output device Active JP7327396B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018122274 2018-06-27
JP2018122274 2018-06-27
PCT/JP2019/016684 WO2020003704A1 (en) 2018-06-27 2019-04-18 Control program, report output method, and report output device

Publications (2)

Publication Number Publication Date
JPWO2020003704A1 JPWO2020003704A1 (en) 2021-07-15
JP7327396B2 true JP7327396B2 (en) 2023-08-16

Family

ID=68987024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020527229A Active JP7327396B2 (en) 2018-06-27 2019-04-18 Control program, report output method, and report output device

Country Status (2)

Country Link
JP (1) JP7327396B2 (en)
WO (1) WO2020003704A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5379923B1 (en) 2013-04-18 2013-12-25 都子 秋葉 Care receiver information analysis support device and program
JP2018005413A (en) 2016-06-29 2018-01-11 富士通株式会社 State specification device, state specification program, and state specification method
JP2018088238A (en) 2016-11-18 2018-06-07 株式会社ベネッセスタイルケア Service support device, service support method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5379923B1 (en) 2013-04-18 2013-12-25 都子 秋葉 Care receiver information analysis support device and program
JP2018005413A (en) 2016-06-29 2018-01-11 富士通株式会社 State specification device, state specification program, and state specification method
JP2018088238A (en) 2016-11-18 2018-06-07 株式会社ベネッセスタイルケア Service support device, service support method, and program

Also Published As

Publication number Publication date
JPWO2020003704A1 (en) 2021-07-15
WO2020003704A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
JP2024038108A (en) Information processing equipment, monitoring system, and control program
JP6711474B2 (en) System, system control method, control program, and device including program
JP7396274B2 (en) Report output program, report output method, and report output device
JP7234948B2 (en) Monitoring system and display method of event list
JP7327396B2 (en) Control program, report output method, and report output device
JP7268679B2 (en) Control program, report output method, and report output device
JP2020052808A (en) Supervision device, supervision system, supervision program, and supervision method
WO2019216045A1 (en) System and system control method
JP7363779B2 (en) Control program, report output method, and report output device
JP2021015497A (en) Control device, control program, and control method
JP7259540B2 (en) Determination device, control program for determination device, and determination method
JP7467869B2 (en) CONTROL PROGRAM, INFORMATION PROCESSING APPARATUS, AND INFORMATION PROCESSING SYSTEM
JP7268387B2 (en) Monitoring device and program for monitoring device
JP7152795B2 (en) Monitoring system for people requiring nursing care
JP7251546B2 (en) Report output program, report output method, and report output device
WO2019216066A1 (en) System and system control method
JP2022189269A (en) Information processing apparatus, information processing system, information processing program, and control method
WO2020003714A1 (en) Report output program, report output method, and report output device
JP2023108852A (en) Display device, display system, display method, and display program
JP2021176035A (en) Information processing device and information processing program
JP2022190750A (en) Information processing apparatus, information processing system, information processing program, and control method
JP2023000078A (en) Information processing apparatus, information processing system, operating state analysis method, and control program
JP2021176038A (en) Information processing device and information processing program
JPWO2019216057A1 (en) System and system control method
JP2021176036A (en) Information processing device and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230717

R150 Certificate of patent or registration of utility model

Ref document number: 7327396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150