JP7327397B2 - Computer-implemented programs, information processing systems, and computer-implemented methods - Google Patents

Computer-implemented programs, information processing systems, and computer-implemented methods Download PDF

Info

Publication number
JP7327397B2
JP7327397B2 JP2020527343A JP2020527343A JP7327397B2 JP 7327397 B2 JP7327397 B2 JP 7327397B2 JP 2020527343 A JP2020527343 A JP 2020527343A JP 2020527343 A JP2020527343 A JP 2020527343A JP 7327397 B2 JP7327397 B2 JP 7327397B2
Authority
JP
Japan
Prior art keywords
resident
coefficient
time
walking
sitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020527343A
Other languages
Japanese (ja)
Other versions
JPWO2020003952A1 (en
Inventor
寛 古川
武士 阪口
海里 姫野
恵美子 寄▲崎▼
修 遠山
浩一 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2020003952A1 publication Critical patent/JPWO2020003952A1/en
Application granted granted Critical
Publication of JP7327397B2 publication Critical patent/JP7327397B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Landscapes

  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Emergency Management (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Marketing (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Human Resources & Organizations (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)

Description

本開示はデータ処理に関し、より特定的には、歩行軌跡に基づくデータ処理に関する。 The present disclosure relates to data processing, and more particularly to data processing based on walking trajectories.

介護が必要な人の活動度の把握に関し、例えば、特開2006-012057号公報(特許文献1)は、「要介護の高齢者等の生活状況を把握し、該高齢者の自立活動度を測定する自立活動度測定システム」を開示している。特許文献1に開示されたシステムは、「要介護の高齢者等である測定対象者Aの寝床94aでの位置を寝床センサ12hにより検出し、寝床センサ12hにより検出された位置に基づいて測定対象者の状態、該状態の開始時刻及び保持時間を検出し、検出結果として記憶する。また、寝床から所定の距離以上離れた設備、例えば、ポータブルトイレ94bを利用していることを設備(ポータブルトイレ)センサ12iにより検出し、利用開始時刻及び利用時間を検出結果として記憶する。そして、寝床センサ12hによる検出結果及びポータブルトイレセンサ12iによる検出結果を表示する。」というものである([要約]参照)。 Regarding grasping the activity level of a person who needs nursing care, for example, Japanese Patent Application Laid-Open No. 2006-012057 (Patent Document 1) describes, "Understanding the living situation of an elderly person who requires nursing care, etc., and estimating the degree of independent activity of the elderly person. Independent activity measurement system that measures" is disclosed. The system disclosed in Patent Document 1 "detects the position of a person A to be measured, who is an elderly person requiring nursing care, on a bed 94a by a bed sensor 12h, and determines the measurement target based on the position detected by the bed sensor 12h. The state of the person, the start time and the retention time of the state are detected and stored as detection results.In addition, it is possible to detect that the user is using a facility that is at a predetermined distance from the bed, such as a portable toilet 94b. ) is detected by the sensor 12i, and the usage start time and the usage time are stored as detection results, and the detection results by the bed sensor 12h and the portable toilet sensor 12i are displayed." (See [Summary].) ).

特開2015-215711号公報(特許文献2)は、『居住者の生活に寄り添う形で居住者の行動や生態の相対的な変化を見守るべく、個人差が著しい「老い」の進行を、その居住者の能力や環境に応じて相対的に評価しその評価に合った見守りの仕様を提示できる見守りシステム』を開示している([要約]の[課題]参照)。 Japanese Patent Application Laid-Open No. 2015-215711 (Patent Document 2) discloses that "In order to monitor the relative changes in the behavior and ecology of the residents in a way that closely follows the lives of the residents, the progress of 'aging', which has significant individual differences, can be monitored. A watching system that can relatively evaluate according to the resident's ability and environment and present the specification of watching according to the evaluation” (see [Problem] in [Summary]).

特開2006-012057号公報JP 2006-012057 A 特開2015-215711号公報JP 2015-215711 A

見守りや介護を必要とする人は、施設などに長期にわたって滞在することが多く、その間に行動状況が変わる場合がある。したがって、行動状況の経時変化を容易に把握できる技術が必要とされている。 People who need to be watched or cared for often stay in facilities for a long period of time, and their behavior may change during that time. Therefore, there is a need for a technology that can easily grasp changes over time in behavioral situations.

また、介護認定は、例えば、対象者、介護者への聞き取りや主治医の意見等に基づいて行なわれ、定量的な測定ができず、要介護度の判定に時間がかかる場合がある。したがって、定量的な測定が可能で、判定に時間がかからない技術が必要とされている。 In addition, care certification is performed based on, for example, interviews with the subject and caregivers, opinions of attending physicians, etc., and quantitative measurement is not possible, and it may take time to determine the degree of care required. Therefore, there is a need for a technique that enables quantitative measurement and does not take much time for determination.

本開示は上述のような背景に鑑みてなされたものであって、ある局面における目的は、介護が必要な人の行動状況の変化を容易に把握できる技術を提供することである。他の局面における目的は、介護度の認定のために使用可能な定量的な情報を導出する技術を提供することである。 The present disclosure has been made in view of the background as described above, and an object in one aspect is to provide a technique that can easily grasp changes in the behavioral situation of a person who needs nursing care. An object in another aspect is to provide techniques for deriving quantitative information that can be used for certification of care level.

ある実施の形態に従うと、介護度を判定するためにコンピュータで実行されるプログラムが提供される。このプログラムはコンピュータに、入居者の歩行軌跡を表わし、異なる日に取得された複数の軌跡データを取得するステップと、複数の軌跡データに基づいて、入居者による一日の複数の行動状態を識別し、識別された各行動状態の各々の時間を算出するステップと、各行動状態の時間と予め規定された係数とを乗算して積を算出し、各積を加算することにより、入居者の一日の行動量を算出するステップとを実行させる。 According to one embodiment, a computer-executable program is provided for determining a level of care. The program instructs the computer to represent the resident's walking trajectory, obtain a plurality of trajectory data obtained on different days, and identify a plurality of daily behavioral states of the resident based on the plurality of trajectory data. and calculating the time for each of the identified behavioral states; multiplying the time for each behavioral state by a predetermined coefficient to calculate a product; and a step of calculating the amount of activity for the day.

ある実施の形態に従うと、プログラムはコンピュータに、複数の日の各々について算出された各行動量を比較することにより、入居者の活動状態の変化を導出するステップをさらに実行させる。 According to one embodiment, the program further causes the computer to derive a change in the resident's activity status by comparing each calculated amount of activity for each of the plurality of days.

ある実施の形態に従うと、複数の行動状態は、歩行、座位、横臥、車椅子での移動の少なくとも二つ以上を含む。 According to an embodiment, the plurality of behavioral states includes at least two or more of walking, sitting, lying, and moving in a wheelchair.

ある実施の形態に従うと、複数の行動状態は、歩行、座位、横臥を含む。歩行の時間に対する第1係数と、座位の時間に対する第2係数と、横臥の時間に対する第3係数との大小関係は、第1係数>第2係数>第3係数である。 According to one embodiment, the plurality of behavioral states includes walking, sitting, and lying. The magnitude relationship among the first coefficient for walking time, the second coefficient for sitting time, and the third coefficient for lying time is first coefficient>second coefficient>third coefficient.

ある実施の形態に従うと、取得するステップは、入居者の居室における各軌跡データを集計することを含む。 According to an embodiment, the obtaining step includes summarizing each trajectory data in the resident's living room.

他の実施の形態に従うと、情報処理装置が提供される。この情報処理装置は、メモリーと、メモリーに結合されたプロセッサーとを備える。プロセッサーは、入居者の歩行軌跡を表わし、異なる日に取得された複数の軌跡データを取得し、複数の軌跡データに基づいて、入居者による一日の複数の行動状態を識別し、識別された各行動状態の各々の時間を算出し、各行動状態の時間と予め規定された係数とを乗算して積を算出し、各積を加算することにより、入居者の一日の行動量を算出するように構成されている。 According to another embodiment, an information processing device is provided. The information processing device includes a memory and a processor coupled to the memory. The processor obtains a plurality of trajectory data representing the resident's walking trajectory and obtained on different days, identifies a plurality of daily behavioral states by the resident based on the plurality of trajectory data, and identifies Calculate the time for each behavioral state, multiply the time for each behavioral state by a predetermined coefficient to calculate the product, and add each product to calculate the daily activity amount of the resident. is configured to

ある実施の形態に従うと、プロセッサーは、複数の日の各々について算出された各行動量を比較することにより、入居者の活動状態の変化を導出するようにさらに構成されている。 According to an embodiment, the processor is further configured to derive a change in the resident's activity status by comparing each calculated activity measure for each of the plurality of days.

ある実施の形態に従う情報処理装置において、複数の行動状態は、歩行、座位、横臥、車椅子での移動の少なくとも二つ以上を含む。 In the information processing apparatus according to one embodiment, the plurality of behavioral states includes at least two or more of walking, sitting, lying down, and moving in a wheelchair.

ある実施の形態に従う情報処理装置において、複数の行動状態は、歩行、座位、横臥を含む。歩行の時間に対する第1係数と、座位の時間に対する第2係数と、横臥の時間に対する第3係数との大小関係は、第1係数>第2係数>第3係数である。 In an information processing apparatus according to an embodiment, the plurality of behavioral states includes walking, sitting, and lying down. The magnitude relationship among the first coefficient for walking time, the second coefficient for sitting time, and the third coefficient for lying time is first coefficient>second coefficient>third coefficient.

ある実施の形態に従う情報処理装置において、取得することは、入居者の居室における各軌跡データを集計することを含む。 In an information processing apparatus according to an embodiment, obtaining includes summing each trajectory data in a resident's living room.

他の実施の形態に従うと、介護度を判定するためにコンピュータで実行される方法が提供される。この方法は、入居者の歩行軌跡を表わし、異なる日に取得された複数の軌跡データを取得するステップと、複数の軌跡データに基づいて、入居者による一日の複数の行動状態を識別し、識別された各行動状態の各々の時間を算出するステップと、各行動状態の時間と予め規定された係数とを乗算して積を算出し、各積を加算することにより、入居者の一日の行動量を算出するステップとを含む。 According to another embodiment, a computer-implemented method is provided for determining a level of care. The method comprises the steps of obtaining a plurality of trajectory data representative of a resident's walking trajectory and obtained on different days; identifying a plurality of daily behavioral states of the resident based on the plurality of trajectory data; calculating the time for each of the identified behavioral states; multiplying the time for each behavioral state by a predefined coefficient to calculate a product; and calculating the amount of activity of

他の実施の形態に従うと、方法は、複数の日の各々について算出された各行動量を比較することにより、入居者の活動状態の変化を導出するステップをさらに含む。 According to another embodiment, the method further comprises the step of deriving a change in the resident's activity status by comparing each calculated activity measure for each of the plurality of days.

他の実施の形態に従う方法において、複数の行動状態は、歩行、座位、横臥、車椅子での移動の少なくとも二つ以上を含む。 In a method according to another embodiment, the plurality of behavioral states includes at least two or more of walking, sitting, lying, and moving in a wheelchair.

他の実施の形態に従う方法において、複数の行動状態は、歩行、座位、横臥を含む。歩行の時間に対する第1係数と、座位の時間に対する第2係数と、横臥の時間に対する第3係数との大小関係は、第1係数>第2係数>第3係数である。 In a method according to another embodiment, the plurality of behavioral states includes walking, sitting and lying. The magnitude relationship among the first coefficient for walking time, the second coefficient for sitting time, and the third coefficient for lying time is first coefficient>second coefficient>third coefficient.

他の実施の形態に従う方法において、取得するステップは、入居者の居室における各軌跡データを集計することを含む。 In a method according to another embodiment, the obtaining step includes summarizing each trajectory data in the resident's living room.

ある局面において、介護が必要な人の行動状況の変化を容易に把握できる。他の局面において、介護度の認定のために使用可能な定量的な情報を導出することができる。 In a certain situation, it is possible to easily grasp changes in the behavior of a person who needs nursing care. In other aspects, quantitative information can be derived that can be used for certification of care levels.

この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。 The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the invention taken in conjunction with the accompanying drawings.

見守りシステム100の構成の一例を示す図である。It is a figure which shows an example of a structure of the watching system 100. FIG. 見守りシステム100の構成の概要を示すブロック図である。It is a block diagram which shows the outline of a structure of the watching system 100. FIG. クラウドサーバー150として機能するコンピューターシステム300のハードウェア構成を表わすブロック図である。3 is a block diagram showing the hardware configuration of computer system 300 functioning as cloud server 150. FIG. センサーボックス119を用いた見守りシステム100の装置構成の概略の一例を示す図である。It is a figure which shows an example of an outline of an apparatus structure of the watching system 100 using the sensor box 119. FIG. クラウドサーバー150が備えるハードディスク5におけるデータの格納の一態様を表わす図である。4 is a diagram showing one mode of data storage in hard disk 5 provided in cloud server 150. FIG. クラウドサーバー150のハードディスク5におけるデータの格納の一態様を概念的に表す図である。4 is a diagram conceptually showing one mode of data storage in hard disk 5 of cloud server 150. FIG. ある実施の形態に従うクラウドサーバー150のCPU1が実行する処理の一部を表わすフローチャートである。4 is a flow chart showing part of the processing executed by CPU 1 of cloud server 150 according to an embodiment. ある実施の形態に従ってモニター8に表示される入居者の活動状態の結果と室内行動量との推移を表わす図である。FIG. 10 is a diagram showing transitions between results of the resident's activity state displayed on the monitor 8 and the amount of indoor activity according to an embodiment;

以下、図面を参照しつつ、本開示に係る技術思想の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the technical concept according to the present disclosure will be described with reference to the drawings. In the following description, the same parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

[技術思想]
まず最初に、本開示に係る技術思想について説明する。ある局面において、システムは、見守り対象者(例えば、介護施設の入居者等)の移動経路を測定し、居室内に配置されたカメラから送られる画像データを用いて画像解析を行なうことにより、入居者の行動状態を把握することができる。その上で、システムは、対象者の歩行時間、座位時間(ベッド端あるいは椅子に座っている時間)、および横臥時間(ベッドで横になっている時間)を計測する。対象者の体勢や活動内容によって運動量が異なるので、運動の負荷が反映されるような係数が予め設定される。システムは、計測した各時間に、行動状態に応じて設定された係数を乗じて積を算出し、各積の和を行動量として算出する。
[Technical concept]
First, the technical idea according to the present disclosure will be described. In one aspect, the system measures the movement route of a person to be watched over (for example, a resident of a nursing care facility), performs image analysis using image data sent from a camera placed in the living room, It is possible to grasp the behavioral state of the person. The system then measures the subject's walking time, sitting time (time sitting on the edge of the bed or chair), and lying time (time lying on the bed). Since the amount of exercise varies depending on the subject's posture and activity content, a coefficient that reflects the exercise load is set in advance. The system calculates the product by multiplying each measured time by a coefficient set according to the behavioral state, and calculates the sum of the products as the amount of activity.

さらに、システムは、同一の入居者について、異なる日の行動量をそれぞれ算出し、各行動量を比較することで、当該入居者の行動量の変化を検出する。 Further, the system calculates the amount of activity of the same resident on different days and compares the amounts of activity to detect changes in the amount of activity of the resident.

[見守りシステムの構成]
図1は、見守りシステム100の構成の一例を示す図である。見守り対象は、例えば、施設の居室領域180に設けられた各居室内の入居者である。図1の見守りシステム100では、居室領域180に、居室110,120が設けられている。居室110は、入居者111に割り当てられている。居室120は、入居者121に割り当てられている。図1の例では、見守りシステム100に含まれる居室の数は2であるが、当該数はこれに限定されない。
[Configuration of monitoring system]
FIG. 1 is a diagram showing an example of the configuration of the watching system 100. As shown in FIG. The watching target is, for example, a resident in each living room provided in the living room area 180 of the facility. In the monitoring system 100 of FIG. 1 , living rooms 110 and 120 are provided in a living room area 180 . A living room 110 is assigned to a resident 111 . A living room 120 is assigned to a resident 121 . In the example of FIG. 1, the number of living rooms included in the watching system 100 is two, but the number is not limited to this.

見守りシステム100では、居室110,120にそれぞれ設置されたセンサーボックス119と、管理センター130に設置された管理サーバー200と、アクセスポイント140とが、ネットワーク190を介して接続される。ネットワーク190は、イントラネットおよびインターネットのいずれをも含み得る。 In monitoring system 100 , sensor boxes 119 installed in living rooms 110 and 120 , management server 200 installed in management center 130 , and access point 140 are connected via network 190 . Network 190 may include both intranets and the Internet.

見守りシステム100では、介護者141が携帯する携帯端末143、および、介護者142が携帯する携帯端末144は、アクセスポイント140を介してネットワーク190に接続可能である。さらに、センサーボックス119、管理サーバー200、および、アクセスポイント140は、ネットワーク190を介して、クラウドサーバー150と通信可能である。 In the watching system 100 , a mobile terminal 143 carried by a caregiver 141 and a mobile terminal 144 carried by a caregiver 142 can be connected to a network 190 via an access point 140 . Furthermore, sensor box 119 , management server 200 and access point 140 can communicate with cloud server 150 via network 190 .

居室110,120は、それぞれ、設備として、タンス112、ベッド113、および、トイレ114を含む。居室110のドアには、当該ドアの開閉を検出するドアセンサー118が設置されている。トイレ114のドアには、トイレ114の開閉を検出するトイレセンサー116が設置されている。ベッド113には、各入居者111,121の臭いを検出する臭いセンサー117が設置されている。各入居者111,121は、当該入居者111,121のバイタル情報を検出するバイタルセンサー290を装着している。検出されるバイタル情報は、入居者の体温、呼吸、心拍数等を含む。居室110,120では、各入居者111,121は、それぞれ、ケアコール子機115を操作することができる。 Living rooms 110 and 120 each include a wardrobe 112, a bed 113, and a toilet 114 as equipment. A door sensor 118 is installed on the door of the living room 110 to detect opening and closing of the door. A toilet sensor 116 for detecting opening and closing of the toilet 114 is installed on the door of the toilet 114 . A bed 113 is provided with an odor sensor 117 that detects the odor of each of the residents 111 and 121 . Each resident 111,121 is equipped with a vital sensor 290 for detecting vital information of the resident 111,121. The detected vital information includes the resident's body temperature, respiration, heart rate, and the like. In living rooms 110 and 120, each resident 111 and 121 can operate a care call slave device 115, respectively.

センサーボックス119は、居室110,120内の物体の挙動を検出するためのセンサーを内蔵している。センサーの一例は、物体の動作を検出するためのドップラーセンサーである。他の例は、カメラである。センサーボックス119は、センサーとしてドップラーセンサーとカメラの双方を含んでもよい。 The sensor box 119 incorporates sensors for detecting behavior of objects in the living rooms 110 and 120 . One example of a sensor is a Doppler sensor for detecting motion of an object. Another example is a camera. Sensor box 119 may include both a Doppler sensor and a camera as sensors.

図2を参照して、見守りシステム100の構成要素について説明する。図2は、見守りシステム100の構成の概要を示すブロック図である。 The constituent elements of the watching system 100 will be described with reference to FIG. 2 . FIG. 2 is a block diagram showing an overview of the configuration of the watching system 100. As shown in FIG.

[センサーボックス119]
センサーボックス119は、制御装置101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、通信インターフェイス104と、カメラ105と、ドップラーセンサー106と、無線通信装置107と、記憶装置108とを備える。
[Sensor box 119]
The sensor box 119 includes a control device 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a communication interface 104, a camera 105, a Doppler sensor 106, a wireless communication device 107, and a storage device. 108.

制御装置101は、センサーボックス119を制御する。制御装置101は、たとえば、少なくとも1つの集積回路によって構成される。集積回路は、たとえば、少なくとも1つのCPU(Central Processing Unit)、MPU(Micro Processing Unit)その他のプロセッサー、少なくとも1つのASIC(Application Specific Integrated Circuit)、少なくとも1つのFPGA(Field Programmable Gate Array)、またはこれらの組み合わせなどによって構成される。 The control device 101 controls the sensor box 119 . The control device 101 is composed of, for example, at least one integrated circuit. Integrated circuits include, for example, at least one CPU (Central Processing Unit), MPU (Micro Processing Unit) and other processors, at least one ASIC (Application Specific Integrated Circuit), at least one FPGA (Field Programmable Gate Array), or these It is composed of a combination of

通信インターフェイス104には、アンテナ(図示しない)などが接続される。センサーボックス119は、当該アンテナを介して、外部の通信機器との間でデータをやり取りする。外部の通信機器は、たとえば、管理サーバー200、携帯端末143,144その他の端末、アクセスポイント140、クラウドサーバー150、その他の通信端末などを含む。 An antenna (not shown) and the like are connected to the communication interface 104 . The sensor box 119 exchanges data with an external communication device via the antenna. External communication devices include, for example, the management server 200, the mobile terminals 143, 144 and other terminals, the access point 140, the cloud server 150 and other communication terminals.

カメラ105は、一実現例では、近赤外カメラである。近赤外カメラは、近赤外光を投光するIR(Infrared)投光器を含む。近赤外カメラが用いられることにより、夜間でも居室110,120の内部を表わす画像が撮影され得る。他の実現例では、カメラ105は、可視光のみを受光する監視カメラである。さらに他の実現例では、カメラ105として、3Dセンサやサーモグラフィーカメラが用いられてもよい。センサーボックス119およびカメラ105は、一体として構成されてもよいし、別体で構成されてもよい。 Camera 105, in one implementation, is a near-infrared camera. A near-infrared camera includes an IR (Infrared) projector that projects near-infrared light. By using a near-infrared camera, an image representing the inside of living room 110, 120 can be captured even at night. In other implementations, camera 105 is a surveillance camera that receives only visible light. In still other implementations, camera 105 may be a 3D sensor or a thermographic camera. The sensor box 119 and the camera 105 may be configured integrally or separately.

ドップラーセンサー106は、たとえばマイクロ波ドップラーセンサーであり、電波を放射及び受信して、居室110,120内の物体の挙動(動作)を検出する。これにより、居室110,120の入居者111,121の生体情報が検出され得る。一例では、ドップラーセンサー106は、24GHz帯のマイクロ波を各居室110,120のベッド113に向けて放射し、入居者111,121で反射した反射波を受信する。反射波は、入居者111,121の動作により、ドップラーシフトしている。ドップラーセンサー106は、当該反射波から、入居者111,121の呼吸状態や心拍数を検出し得る。 The Doppler sensor 106 is, for example, a microwave Doppler sensor that emits and receives radio waves to detect the behavior (movement) of objects in the living rooms 110 and 120 . Thereby, the biological information of the residents 111 and 121 in the living rooms 110 and 120 can be detected. In one example, the Doppler sensor 106 emits microwaves in the 24 GHz band toward the beds 113 of the living rooms 110 and 120 and receives reflected waves reflected by the residents 111 and 121 . The reflected waves are Doppler-shifted by the motions of the residents 111 and 121 . The Doppler sensor 106 can detect the respiratory state and heart rate of the residents 111 and 121 from the reflected waves.

無線通信装置107は、ケアコール子機240、ドアセンサー118、トイレセンサー116、臭いセンサー117、および、バイタルセンサー290からの信号を受信し、当該信号を制御装置101へ送信する。たとえば、ケアコール子機240は、ケアコールボタン241を備える。当該ボタンが操作されると、ケアコール子機240は、当該操作があったことを示す信号を無線通信装置107へ送信する。ドアセンサー118、トイレセンサー116、臭いセンサー117、および、バイタルセンサー290は、それぞれの検出結果を無線通信装置107へ送信する。 Wireless communication device 107 receives signals from care call slave device 240 , door sensor 118 , toilet sensor 116 , odor sensor 117 , and vital sensor 290 and transmits the signals to control device 101 . For example, care call slave device 240 has care call button 241 . When the button is operated, care call slave device 240 transmits a signal indicating that the operation has been performed to wireless communication device 107 . Door sensor 118 , toilet sensor 116 , odor sensor 117 , and vital sensor 290 transmit their detection results to wireless communication device 107 .

記憶装置108は、たとえば、フラッシュメモリーまたはハードディスク等の固定記憶装置、あるいは、外付けの記憶装置などの記録媒体である。記憶装置108は、制御装置101によって実行されるプログラム、および、当該プログラムの実行に利用される各種のデータを格納する。各種のデータは、入居者111,121の行動情報を含んでいてもよい。行動情報の詳細は後述する。 The storage device 108 is, for example, a fixed storage device such as a flash memory or hard disk, or a recording medium such as an external storage device. The storage device 108 stores programs executed by the control device 101 and various data used for executing the programs. Various data may include the behavior information of residents 111 and 121 . Details of the action information will be described later.

上記のプログラムおよびデータのうち少なくとも一方は、制御装置101がアクセス可能な記憶装置であれば、記憶装置108以外の記憶装置(たとえば、制御装置101の記憶領域(たとえば、キャッシュメモリーなど)、ROM102、RAM103、外部機器(たとえば、管理サーバー200や携帯端末143,144等)に格納されていてもよい。 At least one of the programs and data described above can be stored in a storage device other than the storage device 108 (for example, a storage area of the control device 101 (eg, cache memory), a ROM 102, a storage device that can be accessed by the control device 101). It may be stored in the RAM 103, external equipment (for example, the management server 200, mobile terminals 143, 144, etc.).

[行動情報]
上記の行動情報について、説明する。行動情報は、たとえば入居者111,121が所定の行動を実行したことを表わす情報である。一例では、所定の行動は、入居者111,121が起きたことを表わす「起床」、入居者111,121が寝具から離れたことを表わす「離床」、入居者111,121が寝具から落ちたことを表わす「転落」、および、入居者111,121が倒れたことを表わす「転倒」の4つの行動を含む。
[Action information]
The above action information will be explained. Action information is, for example, information indicating that residents 111 and 121 have performed a predetermined action. In one example, the predetermined actions are "waking up" indicating that the residents 111 and 121 have woken up, "getting out of bed" indicating that the residents 111 and 121 have left the bedding, and the residents 111 and 121 have fallen off the bedding. It includes four actions of "falling down" indicating that the residents 111 and 121 have fallen down.

一実施の形態では、制御装置101が、各居室110,120に設置されたカメラ105が撮像した画像に基づいて、各居室110,120に関連付けられた入居者111,121の各行動情報を生成する。制御装置101は、たとえば、上記画像から入居者111,121の頭部を検出し、この検出した入居者111,121の頭部における大きさの時間変化に基づいて、入居者111,121の「起床」、「離床」、「転倒」および「転落」を検出する。以下、行動情報の生成の一具体例を、より詳細に説明する。 In one embodiment, the control device 101 generates each action information of the residents 111 and 121 associated with each living room 110 and 120 based on the images captured by the cameras 105 installed in each living room 110 and 120. do. For example, the control device 101 detects the heads of the residents 111 and 121 from the above images, and determines the " Detects "getting up", "getting out of bed", "falling" and "falling". A specific example of generating behavior information will be described in more detail below.

まず、記憶装置108に、居室110,120における各ベッド113の所在領域、第1閾値Th1、第2閾値Th2、および、第3閾値Th3が格納される。第1閾値Th1は、ベッド113の所在領域内において、横臥姿勢にあるときと座位姿勢にあるときとの間で入居者の頭部の大きさを識別する。第2閾値Th2は、ベッド113の所在領域を除く居室110,120内において、入居者の頭部の大きさに基づいて、当該入居者が立位姿勢にあるか否かを識別する。第3閾値Th3は、ベッド113の所在領域を除く居室110,120内において、入居者の頭部の大きさに基づいて、当該入居者が横臥姿勢にあるか否かを識別する。 First, the storage device 108 stores the location area of each bed 113 in the rooms 110 and 120, the first threshold Th1, the second threshold Th2, and the third threshold Th3. The first threshold Th1 distinguishes the size of the resident's head between the lying posture and the sitting posture within the location area of the bed 113 . The second threshold Th2 identifies whether or not the resident is in a standing posture in the living rooms 110 and 120 excluding the area where the bed 113 is located, based on the size of the resident's head. The third threshold Th3 identifies whether or not the resident is lying down based on the head size of the resident in the living rooms 110 and 120 excluding the area where the bed 113 is located.

制御装置101は、対象画像から、例えば背景差分法やフレーム差分法によって、入居者111,121の人物の領域として、動体領域を抽出する。制御装置101は、さらに、当該抽出した動体領域から、例えば円形や楕円形のハフ変換によって、予め用意された頭部のモデルを用いたパターンマッチングによって、頭部検出用に学習したニューラルネットワークによって導出された閾値を用いて、入居者111,121の頭部領域を抽出する。制御装置101は、当該抽出された頭部の位置および大きさから、「起床」、「離床」、「転倒」および「転落」を検知する。 The control device 101 extracts a moving body region as a human region of the residents 111 and 121 from the target image by, for example, a background subtraction method or a frame subtraction method. The control device 101 further derives from the extracted moving object region, for example, a circular or elliptical Hough transform, pattern matching using a head model prepared in advance, and a neural network trained for head detection. The head regions of the residents 111 and 121 are extracted using the threshold values thus obtained. The control device 101 detects "getting up", "getting out of bed", "falling", and "falling" from the extracted position and size of the head.

制御装置101は、上記のように抽出された頭部の位置がベッド113の所在領域内にあり、かつ、上記のように抽出された頭部の大きさが第1閾値Th1を用いることによって横臥姿勢の大きさから座位姿勢の大きさへと変化したことを検出した場合に、行動「起床」が発生したことを決定してもよい。 The control device 101 determines that the position of the head extracted as described above is within the location area of the bed 113 and the size of the head extracted as described above is determined by using the first threshold value Th1. It may be determined that the action "wake up" has occurred when it detects a change from posture magnitude to sitting posture magnitude.

制御装置101は、上記のように抽出された頭部の位置がベッド113の所在領域内からベッド113の所在領域外へ移動した場合において、上記のように抽出された頭部の大きさに対して第2閾値Th2を適用することにより、頭部がある大きさから立位姿勢の大きさへと変化したことを検出したときには、行動「離床」が発生したと判定してもよい。 When the position of the head extracted as described above moves from within the location area of the bed 113 to outside the location area of the bed 113, the control device 101 controls the size of the head extracted as described above. By applying the second threshold Th2 to the head position, it may be determined that the action "getting out of bed" has occurred when it is detected that the size of the head has changed from a certain size to the size of the standing posture.

制御装置101は、上記のように抽出された頭部の位置がベッド113の所在領域内からベッド113の所在領域外へ移動した場合において、上記のように抽出された頭部の大きさに対して第3閾値Th3を適用することにより、頭部がある大きさから横臥姿勢の大きさへと変化したことを検出したときには、行動「転落」が発生したと判定してもよい。 When the position of the head extracted as described above moves from within the location area of the bed 113 to outside the location area of the bed 113, the control device 101 controls the size of the head extracted as described above. By applying the third threshold value Th3 to , it may be determined that the action "fall" has occurred when it is detected that the head has changed from a certain size to the size of the lying posture.

制御装置101は、上記のように抽出された頭部の位置がベッド113の所在領域を除く居室110,120内に位置し、かつ、抽出された頭部の大きさが第3閾値Th3を用いることによって或る大きさから横臥姿勢の大きさへと変化したことを検出した場合には、行動「転倒」が発生したと決定してもよい。 The control device 101 determines that the position of the head extracted as described above is located in the living room 110 or 120 excluding the location area of the bed 113, and the size of the extracted head uses the third threshold value Th3. It may be determined that the action "fall" has occurred if it detects a change from a size to a lying size by .

以上説明されたように、一具体例では、センサーボックス119の制御装置101が、入居者111,121の各行動情報を生成する。なお、他の局面に従う見守りシステム100では、居室110,120内の画像を用いて、制御装置101以外の他の要素(例えば、クラウドサーバー150)が入居者111,121の行動情報を生成してもよい。 As described above, in one specific example, the control device 101 of the sensor box 119 generates each action information of the residents 111 and 121 . In addition, in the monitoring system 100 according to another aspect, an element other than the control device 101 (for example, the cloud server 150) generates the behavior information of the residents 111 and 121 using the images in the living rooms 110 and 120. good too.

[携帯端末143,144]
携帯端末143,144は、制御装置221と、ROM222と、RAM223と、通信インターフェイス224と、ディスプレイ226と、記憶装置228と、入力デバイス229とを含む。ある局面において、携帯端末143,144は、例えば、スマートフォン、タブレット端末、腕時計型端末その他のウェアラブル装置等として実現される。
[Portable terminals 143, 144]
The mobile terminals 143 , 144 include a control device 221 , a ROM 222 , a RAM 223 , a communication interface 224 , a display 226 , a storage device 228 and an input device 229 . In one aspect, the mobile terminals 143 and 144 are implemented as, for example, smart phones, tablet terminals, wristwatch-type terminals, and other wearable devices.

制御装置221は、携帯端末143,144を制御する。制御装置221は、たとえば、少なくとも1つの集積回路によって構成される。集積回路は、たとえば、少なくとも1つのCPU、少なくとも1つのASIC、少なくとも1つのFPGA、またはそれらの組み合わせなどによって構成される。 The control device 221 controls the mobile terminals 143 and 144 . The control device 221 is composed of, for example, at least one integrated circuit. An integrated circuit is composed of, for example, at least one CPU, at least one ASIC, at least one FPGA, or a combination thereof.

通信インターフェイス224には、アンテナ(図示しない)などが接続される。携帯端末143,144は、当該アンテナおよびアクセスポイント140を介して、外部の通信機器との間でデータをやり取りする。外部の通信機器は、たとえば、センサーボックス119、管理サーバー200などを含む。 An antenna (not shown) and the like are connected to the communication interface 224 . Mobile terminals 143 and 144 exchange data with external communication devices via the antenna and access point 140 . External communication equipment includes, for example, the sensor box 119, management server 200, and the like.

ディスプレイ226は、たとえば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等によって実現される。入力デバイス229は、たとえばディスプレイ226に設けられたタッチセンサーによって実現される。当該タッチセンサーは、携帯端末143,144に対するタッチ操作を受け付け、当該タッチ操作に応じた信号を制御装置221へ出力する。 The display 226 is implemented by, for example, a liquid crystal display, an organic EL (Electro Luminescence) display, or the like. The input device 229 is implemented by a touch sensor provided on the display 226, for example. The touch sensor receives a touch operation on the mobile terminals 143 and 144 and outputs a signal corresponding to the touch operation to the control device 221 .

記憶装置228は、たとえば、フラッシュメモリー、ハードディスクその他の固定記憶装置、あるいは、着脱可能なデータ記録媒体等により実現される。 The storage device 228 is implemented by, for example, a flash memory, a hard disk or other fixed storage device, or a removable data recording medium.

[クラウドサーバーの構成]
図3を参照して、コンピュータの一種としてのクラウドサーバー150の構成について説明する。図3は、クラウドサーバー150として機能するコンピューターシステム300のハードウェア構成を表わすブロック図である。
[Cloud server configuration]
The configuration of the cloud server 150 as a type of computer will be described with reference to FIG. FIG. 3 is a block diagram showing the hardware configuration of computer system 300 that functions as cloud server 150. As shown in FIG.

コンピューターシステム300は、主たる構成要素として、プログラムを実行するCPU1と、コンピューターシステム300の使用者による指示の入力を受けるマウス2およびキーボード3と、CPU1によるプログラムの実行により生成されたデータ、又はマウス2若しくはキーボード3を介して入力されたデータを揮発的に格納するRAM4と、データを不揮発的に格納するハードディスク5と、光ディスク駆動装置6と、通信インターフェイス(I/F)7と、モニター8とを含む。各構成要素は、相互にデータバスによって接続されている。光ディスク駆動装置6には、CD-ROM9その他の光ディスクが装着される。 The computer system 300 has, as main components, a CPU 1 that executes a program, a mouse 2 and a keyboard 3 that receive instructions input by the user of the computer system 300, data generated by the execution of the program by the CPU 1, or the mouse 2 Alternatively, a RAM 4 for volatilely storing data input via a keyboard 3, a hard disk 5 for nonvolatilely storing data, an optical disk drive 6, a communication interface (I/F) 7, and a monitor 8 are provided. include. Each component is connected to each other by a data bus. The optical disc drive device 6 is loaded with a CD-ROM 9 or other optical discs.

コンピューターシステム300における処理は、各ハードウェアおよびCPU1により実行されるソフトウェアによって実現される。このようなソフトウェアは、ハードディスク5に予め記憶されている場合がある。また、ソフトウェアは、CD-ROM9その他の記録媒体に格納されて、コンピュータープログラムとして流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なアプリケーションプログラムとして提供される場合もある。このようなソフトウェアは、光ディスク駆動装置6その他の読取装置によりその記録媒体から読み取られて、あるいは、通信インターフェイス7を介してダウンロードされた後、ハードディスク5に一旦格納される。そのソフトウェアは、CPU1によってハードディスク5から読み出され、RAM4に実行可能なプログラムの形式で格納される。CPU1は、そのプログラムを実行する。 Processing in the computer system 300 is implemented by each piece of hardware and software executed by the CPU 1 . Such software may be stored in the hard disk 5 in advance. Also, the software may be stored in a CD-ROM 9 or other recording medium and distributed as a computer program. Alternatively, the software may be provided as a downloadable application program by a so-called information provider connected to the Internet. Such software is read from the recording medium by the optical disk drive 6 or other reading device, or downloaded via the communication interface 7, and then temporarily stored in the hard disk 5. FIG. The software is read from the hard disk 5 by the CPU 1 and stored in the RAM 4 in the form of an executable program. CPU1 executes the program.

図3に示されるコンピューターシステム300を構成する各構成要素は、一般的なものである。したがって、本開示に係る技術思想の本質的な部分の一つは、RAM4、ハードディスク5、CD-ROM9その他の記録媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。記録媒体は、一時的でない、コンピューター読取可能なデータ記録媒体を含み得る。なお、コンピューターシステム300の各ハードウェアの動作は周知であるので、詳細な説明は繰り返さない。 Each component that makes up the computer system 300 shown in FIG. 3 is conventional. Therefore, it can be said that one of the essential parts of the technical idea according to the present disclosure is software stored in RAM 4, hard disk 5, CD-ROM 9 or other recording media, or software that can be downloaded via a network. Recording media may include non-transitory computer-readable data recording media. Since the operation of each piece of hardware in computer system 300 is well known, detailed description will not be repeated.

なお、記録媒体としては、CD-ROM、FD(Flexible Disk)、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、IC(Integrated Circuit)カード(メモリーカードを含む)、光カード、マスクROM、EPROM(Electronically Programmable Read-Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリー等の固定的にプログラムを担持する媒体でもよい。 The recording medium is not limited to CD-ROM, FD (Flexible Disk), hard disk, magnetic tape, cassette tape, optical disk (MO (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile Disc)). , IC (Integrated Circuit) card (including memory card), optical card, mask ROM, EPROM (Electronically Programmable Read-Only Memory), EEPROM (Electronically Erasable Programmable Read-Only Memory), flash ROM and other semiconductor memories It may be a medium that literally carries the program.

ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。 The program here includes not only a program that can be directly executed by the CPU, but also a program in source program format, a compressed program, an encrypted program, and the like.

[見守りシステム100の装置構成]
図4を参照して、見守りシステム100を用いた見守りについて説明する。図4は、センサーボックス119を用いた見守りシステム100の装置構成の概略の一例を示す図である。
[Device configuration of watching system 100]
Watching using the watching system 100 will be described with reference to FIG. FIG. 4 is a diagram showing an example of a schematic device configuration of the monitoring system 100 using the sensor box 119. As shown in FIG.

見守りシステム100は、見守り対象者(監視対象者)である入居者111,121その他の入居者を見守るために利用される。図4に示されるように、居室110の天井には、センサーボックス119が取り付けられている。他の居室にも同様にセンサーボックス119が取り付けられている。 The watching system 100 is used to watch over residents 111 and 121 who are watching targets (monitoring targets) and other residents. As shown in FIG. 4, a sensor box 119 is attached to the ceiling of living room 110 . Sensor boxes 119 are similarly installed in other living rooms.

範囲410は、センサーボックス119による検出範囲を表わす。センサーボックス119が前述のドップラーセンサーを有する場合、当該ドップラーセンサーは、範囲410内で生じた人の挙動を検出する。センサーボックス119がセンサーとしてカメラを有する場合、当該カメラは、範囲410内の画像を撮影する。 Range 410 represents the detection range by sensor box 119 . If the sensor box 119 has a Doppler sensor as described above, the Doppler sensor detects human behavior occurring within the range 410 . If sensor box 119 has a camera as a sensor, the camera takes an image within area 410 .

センサーボックス119は、たとえば、介護施設、医療施設、宅内などに設置される。図4の例では、センサーボックス119は、天井に取り付けられており、入居者111およびベッド113を天井から撮影している。センサーボックス119の取り付け場所は天井に限られず、居室110の側壁に取り付けられてもよい。 Sensor box 119 is installed, for example, in nursing homes, medical facilities, homes, and the like. In the example of FIG. 4, the sensor box 119 is attached to the ceiling and photographs the resident 111 and the bed 113 from the ceiling. The mounting location of the sensor box 119 is not limited to the ceiling, and may be mounted on the side wall of the living room 110 .

見守りシステム100は、カメラ105から得られた一連の画像(すなわち、映像)に基づいて入居者111に生じている危険を検知する。一例として、検知可能な危険は、入居者111の転倒や、危険個所(たとえば、ベッドの柵など)に入居者111がいる状態などを含む。 The watching system 100 detects a danger to the resident 111 based on a series of images (that is, video) obtained from the camera 105 . By way of example, detectable hazards include resident 111 falling, resident 111 being in a hazardous area (eg, bed rails, etc.), and the like.

見守りシステム100は、入居者111に危険が生じていることを検知した場合に、そのことを介護者141,143等に報知する。報知方法の一例として、見守りシステム100は、入居者111の危険を介護者141,142の携帯端末143,144に通知する。携帯端末143,144は、当該通知を受信すると、入居者111の危険をメッセージ、音声、振動等で介護者141,142に報知する。これにより、介護者141,142は、入居者111に危険が生じていることを即座に把握でき、入居者111の元に素早く駆け付けることができる。 When the watching system 100 detects that the resident 111 is in danger, the monitoring system 100 notifies the caregivers 141, 143, etc. of the fact. As an example of the notification method, the watching system 100 notifies the mobile terminals 143 and 144 of the caregivers 141 and 142 of the danger of the resident 111 . Upon receiving the notification, the mobile terminals 143 and 144 notify the caregivers 141 and 142 of the danger of the resident 111 by message, voice, vibration, or the like. As a result, the caregivers 141 and 142 can immediately grasp that the resident 111 is in danger, and can quickly rush to the resident 111 .

なお、図4には、見守りシステム100が1つのセンサーボックス119を備えている例が示されているが、見守りシステム100は、複数のセンサーボックス119を備えてもよい。また、図4には、見守りシステム100が複数の携帯端末143,144を備えている例が示されているが、見守りシステム100は、一つの携帯端末でも実現され得る。 Note that FIG. 4 shows an example in which the monitoring system 100 includes one sensor box 119 , but the monitoring system 100 may include a plurality of sensor boxes 119 . Moreover, although FIG. 4 shows an example in which the watching system 100 is provided with a plurality of mobile terminals 143 and 144, the watching system 100 can also be realized by a single mobile terminal.

[データ構造]
図5を参照して、クラウドサーバー150のデータ構造について説明する。図5は、クラウドサーバー150が備えるハードディスク5におけるデータの格納の一態様を表わす図である。
[data structure]
The data structure of the cloud server 150 will be described with reference to FIG. FIG. 5 is a diagram showing one mode of data storage in hard disk 5 included in cloud server 150. As shown in FIG.

ハードディスク5は、テーブル60を保持している。テーブル60は、各居室に設けられた各センサーから送信されるデータを逐次保存している。より具体的には、テーブル60は、部屋ID61と、日時62と、X座標値63と、Y座標値64とを含む。部屋ID61は、入居者の居室を識別する。日時62は、センサーから送られた信号が取得された日時を識別する。X座標値63は、当該日時において検出された点、すなわち、入居者の位置のX座標値を表わす。Y座標値64は、当該日時において検出された点、すなわち、入居者の位置のY座標値を表わす。ある局面において、X座標値およびY座標値の元となる座標軸は、例えば、当該居室の端点(例えば、部屋の片隅)を基準として規定される。別の局面において、当該座標軸は、各居室が設けられた施設におけるある一点を基準として規定されてもよい。 The hard disk 5 holds a table 60. FIG. The table 60 sequentially stores data transmitted from each sensor provided in each living room. More specifically, table 60 includes room ID 61 , date and time 62 , X coordinate value 63 , and Y coordinate value 64 . The room ID 61 identifies the room of the resident. Date and time 62 identifies the date and time when the signal sent from the sensor was acquired. The X-coordinate value 63 represents the X-coordinate value of the point detected at the date and time, that is, the position of the resident. Y-coordinate value 64 represents the Y-coordinate value of the point detected at the date and time, that is, the position of the resident. In one aspect, the coordinate axes from which the X coordinate value and the Y coordinate value are based are defined, for example, with reference to the end point of the living room (for example, one corner of the room). In another aspect, the coordinate axes may be defined with reference to a certain point in the facility where each living room is provided.

さらに、ハードディスク5は、センサーボックス119から送られた画像データを保持している。画像データは予め定められた時間間隔で取得される。CPU1は、各画像データを用いて画像解析を行なうことにより、入居者の状態を識別することができる。例えば、CPU1は、各画像データから頭を抽出し、入居者が横になっている時間、入居者がベッド113に座っている時間、および、入居者が歩いている時間を抽出し得る。 Furthermore, the hard disk 5 holds image data sent from the sensor box 119 . Image data is acquired at predetermined time intervals. The CPU 1 can identify the state of the resident by performing image analysis using each image data. For example, the CPU 1 can extract the head from each image data, the time the resident is lying down, the time the resident is sitting on the bed 113, and the time the resident is walking.

なお、居室で歩行する人は、入居者以外に介護者や家族などの可能性もある。したがって、CPU1は、入居者以外の人の歩行軌跡を除外し得る。例えば、CPU1は、各歩行軌跡について歩行速度を算出し、入居者以外の健常者の歩行速度と推定される一定速度以上の速度が算出された歩行軌跡を、画像解析の対象から除外し得る。この場合、健常者の歩行速度として、予め測定された歩行速度や、画像解析の際に測定された歩行速度が使用できる。例えば、CPU1は、歩行軌跡から複数の時刻で検出された各点について、x座標値およびy座標値と、各点のうちのある点から次の点に至るまでの時間とに基づいて、歩行速度を算出し得る。 In addition to the resident, there is a possibility that the person walking in the living room may be a caregiver or a family member. Therefore, the CPU 1 can exclude the walking trajectories of people other than the resident. For example, the CPU 1 may calculate the walking speed for each walking trajectory, and exclude the walking trajectory for which a speed equal to or higher than a certain speed, which is estimated to be the walking speed of a healthy person other than the resident, is calculated from the object of image analysis. In this case, as the walking speed of a healthy person, a walking speed measured in advance or a walking speed measured during image analysis can be used. For example, for each point detected at a plurality of times from the walking trajectory, the CPU 1 calculates the walking distance based on the x-coordinate value, the y-coordinate value, and the time from one point to the next point. Velocity can be calculated.

図6を参照して、クラウドサーバー150のデータ構造についてさらに説明する。図6は、クラウドサーバー150のハードディスク5におけるデータの格納の一態様を概念的に表す図である。ハードディスク5は、テーブル600を格納している。テーブル600は、入居者毎に観測された、日々のデータを保持している。 The data structure of the cloud server 150 will be further described with reference to FIG. FIG. 6 is a diagram conceptually showing one mode of data storage in the hard disk 5 of the cloud server 150. As shown in FIG. The hard disk 5 stores a table 600. FIG. Table 600 holds daily data observed for each resident.

テーブル600は、入居者ID610と、年月日620と、歩行時間630と、座位時間640と、横臥時間650と、室内行動量660とを含む。入居者ID610は、観測の対象となった入居者を識別する。年月日620は、移動が観測された年月日を表わす。歩行時間630は、その年月日において入居者が歩行している時間として算出された時間を表わす。座位時間640は、その年月日において入居者が座っている時間として算出された時間を表わす。 Table 600 includes resident ID 610 , date 620 , walking time 630 , sitting time 640 , lying time 650 , and amount of indoor activity 660 . The resident ID 610 identifies the resident who is the object of observation. Date 620 represents the date when the movement was observed. The walking time 630 represents the time calculated as the time during which the resident is walking on that date. The sitting time 640 represents the time calculated as the sitting time of the resident on the date.

横臥時間650は、その年月日において入居者が横になっている時間として算出された時間を表わす。室内行動量660は、当該入居者の室内における行動量を表わす。室内行動量660は、ある局面において、歩行時間630と座位時間640と横臥時間650とを用いて算出される。例えば、CPU1は、歩行時間630、座位時間640および横臥時間650のそれぞれに対して予め設定された係数を乗じ、各積の和を室内行動量660として算出する。なお、各係数は、例えば以下の大小関係を満たすように設定され得る。横臥時間の係数<座位時間の係数<歩行時間の係数
入居者の状態は上記の3つに限られず、さらに多くの状態および当該状態に応じた係数が用いられてもよい。例えば、車椅子で移動している状態、立ったままでいる状態、運動している状態等について、それぞれ係数が設定されて、室内行動量の算出に使用されてもよい。ここで、運動は、例えば、かかと上げ、屈伸等、施設の入居者の運動能力に応じた運動を含む。このような場合、各係数の大小関係は、以下のようになる。
横臥時間の係数<座位時間の係数<立っている時間の係数<車椅子で移動している時間の係数<歩行時間の係数<運動している時間の係数
[CPU1の動作概要]
(1)ある局面において、CPU1は、入居者の歩行軌跡を表わし、異なる日に取得された複数の軌跡データをハードディスク5から取得する。CPU1は、複数の軌跡データに基づいて、入居者による一日の複数の行動状態を識別する。行動状態は、例えば、歩行状態、座位状態、横臥状態等を含む。別の局面において、歩行状態は、自立歩行、補助装置を用いた歩行、車椅子での移動を含み得る。CPU1は、識別された各行動状態の各々の時間を算出する。CPU1は、各行動状態の時間と予め規定された係数とを乗算して積を算出し、各積を加算することにより、入居者の一日の行動量を算出する。
The lying time 650 represents the time calculated as the time during which the resident is lying on the date. The amount of indoor activity 660 represents the amount of indoor activity of the resident. Indoor activity amount 660 is calculated using walking time 630, sitting time 640, and lying time 650 in a certain aspect. For example, the CPU 1 multiplies each of the walking time 630 , the sitting time 640 and the lying time 650 by a preset coefficient, and calculates the sum of the products as the indoor activity amount 660 . Note that each coefficient can be set so as to satisfy the following magnitude relationship, for example. Coefficient of lying time<Coefficient of sitting time<Coefficient of walking time The conditions of the resident are not limited to the above three, and more conditions and coefficients corresponding to the conditions may be used. For example, a coefficient may be set for each of the states of moving in a wheelchair, standing, exercising, etc., and used to calculate the amount of indoor activity. Here, exercise includes, for example, heel raises, bending and stretching, and other exercises according to the athletic ability of the resident of the facility. In such a case, the magnitude relationship of each coefficient is as follows.
Coefficient of lying time < Coefficient of sitting time < Coefficient of standing time < Coefficient of time moving in a wheelchair < Coefficient of walking time < Coefficient of time exercising [Overview of CPU 1 operation]
(1) In a certain aspect, the CPU 1 obtains from the hard disk 5 a plurality of locus data representing the resident's walking locus and obtained on different days. The CPU 1 identifies a plurality of daily behavior states of the resident based on the plurality of trajectory data. The behavioral state includes, for example, a walking state, a sitting state, a lying state, and the like. In another aspect, the ambulatory state can include independent walking, walking with an assistive device, and movement in a wheelchair. CPU 1 calculates the time for each identified behavioral state. The CPU 1 multiplies the time of each behavioral state by a predetermined coefficient to calculate the product, and adds the products to calculate the daily activity amount of the resident.

(2)ある局面において、CPU1は、複数の日の各々について算出された各室内行動量を比較することにより、入居者の活動状態の変化を導出する。例えば、管理サーバー200のユーザーが、室内行動量の比較対象として、一つ以上の過去の日付を指定し得る。管理サーバー200は、その指定された日付をクラウドサーバー150に送信する。CPU1は、指定された日付の歩行軌跡データおよび画像データをハードディスク5から読み出す。CPU1は、画像データを用いて画像解析を行ない、人の状態を分類する。さらに別の局面において、CPU1が、人の画像と共に移動する物体を検出した場合には、入居者が歩行補助装置あるいは車椅子で移動している状態にあると判断する。 (2) In a certain aspect, the CPU 1 derives a change in the resident's activity state by comparing each indoor activity amount calculated for each of a plurality of days. For example, the user of the management server 200 can specify one or more past dates as targets for indoor activity comparison. Management server 200 transmits the specified date to cloud server 150 . The CPU 1 reads from the hard disk 5 the walking locus data and the image data for the specified date. The CPU 1 performs image analysis using the image data and classifies the state of the person. In yet another aspect, when the CPU 1 detects an object moving with the image of the person, it determines that the resident is moving with a walking aid or wheelchair.

(3)ある局面において、複数の行動状態は、歩行、座位、横臥を含む。歩行の時間に対する第1係数と、座位の時間に対する第2係数と、横臥の時間に対する第3係数との大小関係は、第1係数>第2係数>第3係数である。第1係数、第2係数および第3係数は、例えば、各行動状態と消費エネルギーとが正の相関となる関係で規定され得る。各係数は、その大小関係を維持する範囲で、判断の目的に応じて、変更可能である。例えば、各係数は、各入居者の年齢、要介護度のレベル、認知症の有無等に応じて設定され得る。 (3) In some aspects, the plurality of behavioral states includes walking, sitting, and lying. The magnitude relationship among the first coefficient for walking time, the second coefficient for sitting time, and the third coefficient for lying time is first coefficient>second coefficient>third coefficient. The first coefficient, the second coefficient, and the third coefficient may be defined, for example, in a positive correlation relationship between each behavioral state and energy consumption. Each coefficient can be changed according to the purpose of judgment as long as the magnitude relationship is maintained. For example, each coefficient can be set according to the age of each resident, the level of care required, the presence or absence of dementia, and the like.

[制御構造]
図7を参照して、クラウドサーバー150の制御構造について説明する。図7は、ある実施の形態に従うクラウドサーバー150のCPU1が実行する処理の一部を表わすフローチャートである。
[Control structure]
The control structure of the cloud server 150 will be described with reference to FIG. FIG. 7 is a flow chart representing part of the processing executed by CPU 1 of cloud server 150 according to an embodiment.

ステップS710にて、CPU1は、ハードディスク5から、画像データを取得する。
ステップS720にて、CPU1は、複数の画像データに基づいて、入居者による一日の複数の行動状態を識別する。例えば、CPU1は、画像データを用いて画像解析を行ない、入居者の状態を分類する。ある局面において、CPU1は、画像解析の結果に基づいて、入居者が座っているか、横になっているか、歩いているかを判断する。この判断は、画像解析の結果から得られる人の頭の場所、向き、移動の有無等に基づいて行なわれる。
At step S710, the CPU 1 acquires image data from the hard disk 5. FIG.
At step S720, CPU 1 identifies a plurality of behavioral states of the resident for a day based on the plurality of image data. For example, the CPU 1 performs image analysis using image data to classify the state of the resident. In one aspect, the CPU 1 determines whether the resident is sitting, lying down, or walking based on the results of the image analysis. This determination is made based on the location and orientation of the person's head, presence/absence of movement, etc. obtained from the result of image analysis.

ステップS730にて、CPU1は、識別された各行動状態の各々の時間を算出する。例えば、CPU1は、各状態が継続している時間を算出し、算出結果を集計し、歩行時間630、座位時間640および横臥時間650を算出する。 At step S730, CPU 1 calculates the time for each identified behavioral state. For example, the CPU 1 calculates the duration of each state, totals the calculation results, and calculates a walking time 630, a sitting time 640, and a lying time 650. FIG.

ステップS740にて、CPU1は、各行動状態の時間と、各行動状態について予め規定された係数とを乗算して積を算出する。なお、この係数は、入居者間で同じ係数でも異なる係数でもよい。また、ある局面において、係数は、入居者の年齢、性別、要介護度の程度等に応じて規定されてもよい。 At step S740, CPU 1 calculates the product by multiplying the time of each action state by a coefficient predetermined for each action state. In addition, this coefficient may be the same coefficient or a different coefficient between tenants. Moreover, in a certain aspect, the coefficient may be defined according to the resident's age, sex, level of care need, and the like.

ステップS750にて、CPU1は、各積を加算することにより、入居者の一日の室内行動量を算出する。なお、室内行動量の算出単位は、一日に限られない。別の局面において、CPU1は、管理者等の設定に応じて、例えば、一週間の室内行動量、一カ月の室内行動量その他の単位の行動量を算出してもよい。 In step S750, the CPU 1 calculates the daily indoor activity amount of the resident by adding each product. Note that the unit for calculating the amount of indoor activity is not limited to one day. In another aspect, the CPU 1 may calculate, for example, the amount of indoor activity for one week, the amount of indoor activity for one month, or other units of activity according to the settings of the administrator or the like.

ステップS760にて、CPU1は、複数の日の各々について算出された各行動量を比較する。例えば、CPU1は、室内行動量を算出するべき日として指定された日、その3カ月前の日およびその6ヵ月前の日について、室内行動量をそれぞれ算出し、推移を比較し得る。 In step S760, CPU 1 compares each activity amount calculated for each of a plurality of days. For example, the CPU 1 can calculate the amount of indoor activity on the day specified as the day on which the amount of indoor activity is to be calculated, the day three months before, and the day six months before, and compare transitions.

ステップS770にて、CPU1は、比較の結果に基づいて、入居者の活動状態の変化を導出する。例えば、CPU1は、入居者毎に、現時点での室内行動量と過去の室内行動量とを比較し、室内行動量の変化の有無を検出する。CPU1は、室内行動量の低下がみられる入居者を検出すると、当該入居者について、歩行時間、座位時間および横臥時間と共に室内行動量を表わす結果をモニター8あるいは帳票に出力し得る。 At step S770, CPU 1 derives a change in the resident's activity state based on the result of the comparison. For example, the CPU 1 compares the current amount of indoor activity with the past amount of indoor activity for each resident, and detects whether or not there is a change in the amount of indoor activity. When the CPU 1 detects a resident whose amount of indoor activity has decreased, the CPU 1 can output to the monitor 8 or a form the results representing the amount of indoor activity of the resident along with the walking time, sitting time, and lying time.

[表示態様]
図8を参照して、入居者の活動状態の変化の表示態様の一例について説明する。図8は、ある実施の形態に従ってモニター8に表示される入居者の活動状態の結果と室内行動量との推移を表わす図である。
[Display mode]
With reference to FIG. 8, an example of a display mode of changes in the state of activity of a resident will be described. FIG. 8 is a diagram showing transitions between the result of the resident's activity state displayed on the monitor 8 and the amount of indoor activity according to an embodiment.

管理サーバー200のユーザーが室内行動量の算出を指示すると、管理サーバー200は、当該指示をクラウドサーバー150に送る。クラウドサーバー150のCPU1は、図7に示される処理を行ない、処理の結果を管理サーバー200に送信する。管理サーバー200のモニター8は、処理の結果を表示する。 When the user of the management server 200 instructs calculation of the amount of indoor activity, the management server 200 sends the instruction to the cloud server 150 . The CPU 1 of the cloud server 150 performs the processing shown in FIG. 7 and transmits the processing result to the management server 200 . The monitor 8 of the management server 200 displays the result of processing.

より具体的には、モニター8は、ある入居者(Aさん)について、今月(例えば、昨日)、その3カ月前の日、およびその6ヵ月前の日における歩行時間を示す棒グラフ810、座位時間を示す棒グラフ820および横臥時間を示す棒グラフ830をそれぞれ表示する。さらに、モニター8は、棒グラフ810に対応する歩行時間と棒グラフ820に対応する座位時間と棒グラフ830に対応する横臥時間とを用いて前述のように算出した室内行動量を示すグラフ840を表示する。このようにすると、当該入居者の介護スタッフ、ケアマネジャーその他のユーザーは、入居者の行動状態の変化を客観的に把握することができるので、要介護度の判定等も客観的に行なうことが可能になり、判定結果の納得性および透明性が高まり得る。 More specifically, the monitor 8 displays a bar graph 810 showing walking time, sitting time, and sitting time for a certain resident (Mr. A) for the current month (for example, yesterday), the day three months ago, and the day six months ago. and a bar graph 830 showing the lying time, respectively. Furthermore, the monitor 8 displays a graph 840 showing the amount of indoor activity calculated as described above using the walking time corresponding to the bar graph 810, the sitting time corresponding to the bar graph 820, and the lying time corresponding to the bar graph 830. In this way, the nursing care staff, care manager, and other users of the resident can objectively grasp changes in the behavioral state of the resident, so it is possible to objectively determine the level of nursing care required. , and the convincingness and transparency of the determination result can be enhanced.

図8の例では、例えば、歩行時間の係数=2.0、座位時間の係数=1.4、横臥時間の係数=1.0として室内行動量は、以下の式で導出される。 In the example of FIG. 8, for example, the walking time coefficient=2.0, the sitting time coefficient=1.4, and the lying time coefficient=1.0, the indoor activity amount is derived by the following formula.

室内行動量=歩行時間×2.0+座位時間×1.4+横臥時間×1.0
別の局面でさらに多くの時間に分類される場合もあり得る。この場合、以下のように室内行動量の係数は設定され得る。
Amount of indoor activity = walking time x 2.0 + sitting time x 1.4 + lying time x 1.0
In another aspect, it may be classified into more times. In this case, the indoor activity coefficient can be set as follows.

室内行動量=横臥時間×0.5+座位時間×0.8+立っている時間(移動なし)×1.0+車椅子で自走している時間×1.3+歩行時間×1.5+運動時間×2.0
なお、比較対象となる過去の日は、3カ月前および6ヵ月前に限られない。1週間前および2週間前のように比較が毎週の実績に基づいて行なわれてもよい。あるいは1カ月前および2カ月前のように比較が毎月の実績に基づいて行なわれてもよい。
Amount of indoor activity = Lying time x 0.5 + sitting time x 0.8 + standing time (not moving) x 1.0 + wheelchair running time x 1.3 + walking time x 1.5 + exercise time x 2 .0
Note that the past days to be compared are not limited to three months ago and six months ago. Comparisons may be made based on weekly performance, such as 1 week ago and 2 weeks ago. Alternatively, the comparison may be based on monthly performance, such as one month ago and two months ago.

また、別の局面において、複数の入居者の各室内行動量が比較されてもよい。比較することにより、各入居者の状態の変化を検出しやすくなる。 Moreover, in another aspect, each indoor activity amount of a plurality of residents may be compared. The comparison makes it easier to detect changes in each resident's condition.

[実施の形態のまとめ]
以上のようにして、本実施の形態によれば、見守り対象者の画像データが逐次取得される。システムは、移動軌跡データと画像データとを用いて見守り対象者の状態を、歩行状態、座位状態、横臥状態、車椅子で移動している状態、立っている状態、運動している状態等に分類する。システムは、分類した状態の時間を集計し、各状態について設定された係数を当該状態の時間に乗じて積を算出し、各積の和を室内行動量として算出する。このようにすると、一人の入居者の様々な行動を室内行動量という一つの値で表現することができるので、各状態の時間が変わった場合でも、当該入居者の全体としての行動量を把握することができる。室内行動量は、センサーボックス119から送られるデータ(例えば、カメラ105からの画像データ、ドップラーセンサー106からの出力データ)を用いて算出されるので、判断者による主観が排除される。これにより、入居者の行動量が客観的に示されるので、例えば、入居者の要介護度の判定も客観的に行なうことが可能となり、判定結果への納得性も高め得る。
[Summary of Embodiment]
As described above, according to the present embodiment, the image data of the person being watched over is acquired sequentially. The system uses movement trajectory data and image data to classify the state of the person being watched over into walking, sitting, lying, moving in a wheelchair, standing, exercising, etc. do. The system aggregates the time in each classified state, multiplies the time in each state by a coefficient set for each state, calculates the product, and calculates the sum of the products as the amount of indoor activity. In this way, various behaviors of one resident can be represented by a single value, the amount of indoor activity. Therefore, even if the time in each state changes, the amount of activity of the resident as a whole can be grasped. can do. Since the amount of indoor activity is calculated using data sent from the sensor box 119 (for example, image data from the camera 105 and output data from the Doppler sensor 106), subjectivity by the judge is eliminated. As a result, since the amount of behavior of the resident is objectively indicated, for example, it is possible to objectively determine the degree of care required of the resident, and the convincingness of the determination result can be enhanced.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 It should be considered that the embodiments disclosed this time are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above description, and is intended to include all changes within the meaning and scope equivalent to the scope of the claims.

本技術は、病院、老人ホーム、養護施設その他の施設で得られるデータの情報処理に適用可能である。 This technology is applicable to information processing of data obtained in hospitals, nursing homes, nursing homes and other facilities.

51 洗面台、52 机、60 テーブル、100 システム、101,221 制御装置、105 カメラ、106 ドップラーセンサー、107 無線通信装置、108,228 記憶装置、110,120 居室、111,121 入居者、112 タンス、113 ベッド、114 トイレ、115 ケアコール子機、116 トイレセンサー、117 センサー、118 ドアセンサー、119 センサーボックス、130 管理センター、140 アクセスポイント、141,142 介護者、143,144 携帯端末、150 クラウドサーバー、180 居室領域、190 ネットワーク、200 管理サーバー。 51 washbasin, 52 desk, 60 table, 100 system, 101,221 control device, 105 camera, 106 Doppler sensor, 107 wireless communication device, 108,228 storage device, 110,120 room, 111,121 resident, 112 chest , 113 bed, 114 toilet, 115 care call handset, 116 toilet sensor, 117 sensor, 118 door sensor, 119 sensor box, 130 control center, 140 access point, 141, 142 caregiver, 143, 144 mobile terminal, 150 cloud server , 180 room area, 190 network, 200 management server.

Claims (15)

コンピューターで実行されるプログラムであって、前記プログラムは前記コンピューターに、
居室に設けられたカメラまたはドップラーセンサーにより入居者の行動に関するデータを取得するステップと、
前記入居者の行動に関するデータに基づいて、前記入居者による前記居室内の生活状況を示す複数の行動状態を識別し、識別された各前記行動状態の各々の時間を算出するステップと、
各前記行動状態の時間と、各前記行動状態に対応して予め規定された係数とを乗算して、積を算出し、各積を加算することにより前記入居者の行動量を算出するステップとを実行させる、プログラム。
A program running on a computer, said program causing said computer to:
a step of acquiring data on the behavior of the resident with a camera or Doppler sensor provided in the living room;
a step of identifying a plurality of behavioral states indicating living conditions of the resident in the living room based on the data on the behavior of the resident, and calculating the time for each of the identified behavioral states;
a step of multiplying the time of each said behavioral state by a coefficient predetermined corresponding to each said behavioral state , calculating the product, and calculating the amount of behavior of the resident by adding each product; The program that causes the to run.
前記プログラムは前記コンピューターに、複数の期間について算出された各前記行動量を比較することにより、前記入居者の活動状態の変化を導出するステップをさらに実行させる、請求項1に記載のプログラム。 2. The program of claim 1, wherein the program further causes the computer to derive a change in the resident's activity status by comparing each of the activity measures calculated for a plurality of time periods. 前記複数の行動状態は、歩行、座位、横臥、車椅子での移動の少なくとも二つ以上を含む、請求項1または2に記載のプログラム。 3. The program according to claim 1, wherein said plurality of behavioral states include at least two of walking, sitting, lying down, and moving in a wheelchair. 前記複数の行動状態は、歩行、座位、横臥を含み、
前記歩行の時間に対する第1係数と、前記座位の時間に対する第2係数と、前記横臥の時間に対する第3係数との大小関係は、前記第1係数>前記第2係数>前記第3係数である、請求項1または2に記載のプログラム。
the plurality of behavioral states includes walking, sitting, and lying;
The first coefficient for the walking time, the second coefficient for the sitting time, and the third coefficient for the lying time are such that the first coefficient > the second coefficient > the third coefficient. 3. The program according to claim 1 or 2.
前記取得するステップは、前記入居者の居室における移動軌跡データを取得することを含む、請求項1~4のいずれかに記載のプログラム。 5. The program according to any one of claims 1 to 4, wherein said obtaining step includes obtaining movement trajectory data in said resident's living room. 居室に設けられたカメラまたはドップラーセンサーと、
前記カメラまたはドップラーセンサーの情報を格納するメモリーと、
前記メモリーに結合されたプロセッサーとを備え、
前記プロセッサーは、入居者の行動に関するデータを取得し、
前記入居者の行動に関するデータに基づいて、前記入居者による前記居室内の生活状況を示す複数の行動状態を識別し、識別された各前記行動状態の各々の時間を算出し、
各前記行動状態の時間と、各前記行動状態に対応して予め規定された係数とを乗算して、積を算出し、各積を加算することにより前記入居者の一日の行動量を算出するように構成されている、情報処理システム。
A camera or Doppler sensor installed in the living room,
a memory that stores information of the camera or Doppler sensor;
a processor coupled to the memory;
the processor obtains data about the behavior of the resident;
identifying a plurality of behavioral states indicating living conditions of the resident in the living room based on the data on the behavior of the resident, and calculating the time for each of the identified behavioral states;
Multiplying the time in each of the behavioral states by a predetermined coefficient corresponding to each of the behavioral states , calculating the product, and adding each product to calculate the daily activity amount of the resident. An information handling system configured to:
前記プロセッサーは、複数の期間について算出された各前記行動量を比較することにより、前記入居者の活動状態の変化を導出するようにさらに構成されている、請求項6に記載の情報処理システム。 7. The information processing system of claim 6, wherein the processor is further configured to derive a change in the resident's activity status by comparing each of the activity measures calculated for multiple time periods. 前記複数の行動状態は、歩行、座位、横臥、車椅子での移動の少なくとも二つ以上を含む、請求項6または7に記載の情報処理システム。 8. The information processing system according to claim 6, wherein said plurality of behavioral states include at least two of walking, sitting, lying down, and moving in a wheelchair. 前記複数の行動状態は、歩行、座位、横臥を含み、
前記歩行の時間に対する第1係数と、前記座位の時間に対する第2係数と、前記横臥の時間に対する第3係数との大小関係は、前記第1係数>前記第2係数>前記第3係数である、請求項6または7に記載の情報処理システム。
the plurality of behavioral states includes walking, sitting, and lying;
The first coefficient for the walking time, the second coefficient for the sitting time, and the third coefficient for the lying time are such that the first coefficient > the second coefficient > the third coefficient. The information processing system according to claim 6 or 7.
前記取得することは、前記入居者の居室における移動軌跡データを取得することを含む、請求項6~9のいずれかに記載の情報処理システム。 10. The information processing system according to any one of claims 6 to 9, wherein said acquiring includes acquiring movement trajectory data in said resident's living room. コンピューターで実行される方法であって、
居室に設けられたカメラまたはドップラーセンサーにより入居者の行動に関するデータを取得するステップと、
前記入居者の行動に関するデータに基づいて、前記入居者による前記居室内の生活状況を示す複数の行動状態を識別し、識別された各前記行動状態の各々の時間を算出するステップと、
各前記行動状態の時間と、各前記行動状態に対応して予め規定された係数とを乗算して、積を算出し、各積を加算することにより前記入居者の一日の行動量を算出するステップとを含む、方法。
A computer implemented method comprising:
a step of acquiring data on the behavior of the resident with a camera or Doppler sensor provided in the living room;
a step of identifying a plurality of behavioral states indicating living conditions of the resident in the living room based on the data on the behavior of the resident, and calculating the time for each of the identified behavioral states;
Multiplying the time in each of the behavioral states by a predetermined coefficient corresponding to each of the behavioral states , calculating the product, and adding each product to calculate the daily activity amount of the resident. and a method.
複数の期間について算出された各前記行動量を比較することにより、前記入居者の活動状態の変化を導出するステップをさらに含む、請求項11に記載の方法。 12. The method of claim 11, further comprising deriving a change in the resident's activity status by comparing each of the activity measures calculated for a plurality of time periods. 前記複数の行動状態は、歩行、座位、横臥、車椅子での移動の少なくとも二つ以上を含む、請求項11または12に記載の方法。 13. The method of claim 11 or 12, wherein the plurality of behavioral states includes at least two or more of walking, sitting, lying, and moving in a wheelchair. 前記複数の行動状態は、歩行、座位、横臥を含み、
前記歩行の時間に対する第1係数と、前記座位の時間に対する第2係数と、前記横臥の時間に対する第3係数との大小関係は、前記第1係数>前記第2係数>前記第3係数である、請求項11または12に記載の方法。
the plurality of behavioral states includes walking, sitting, and lying;
The first coefficient for the walking time, the second coefficient for the sitting time, and the third coefficient for the lying time are such that the first coefficient > the second coefficient > the third coefficient. , a method according to claim 11 or 12.
前記取得するステップは、前記入居者の居室における移動軌跡データを取得することを含む、請求項11~14のいずれかに記載の方法。 The method according to any one of claims 11 to 14, wherein said obtaining step includes obtaining movement trajectory data in said resident's living room.
JP2020527343A 2018-06-26 2019-06-06 Computer-implemented programs, information processing systems, and computer-implemented methods Active JP7327397B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018121239 2018-06-26
JP2018121239 2018-06-26
PCT/JP2019/022468 WO2020003952A1 (en) 2018-06-26 2019-06-06 Computer executable program, information processing device, and computer execution method

Publications (2)

Publication Number Publication Date
JPWO2020003952A1 JPWO2020003952A1 (en) 2021-08-02
JP7327397B2 true JP7327397B2 (en) 2023-08-16

Family

ID=68986507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020527343A Active JP7327397B2 (en) 2018-06-26 2019-06-06 Computer-implemented programs, information processing systems, and computer-implemented methods

Country Status (2)

Country Link
JP (1) JP7327397B2 (en)
WO (1) WO2020003952A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022059438A1 (en) * 2020-09-17 2022-03-24

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288656A (en) 2002-03-28 2003-10-10 Ntt Comware Corp Safety reporting device, safety reporting method, program for safety reporting device, and storage medium for safety reporting device
JP2007093433A (en) 2005-09-29 2007-04-12 Hitachi Ltd Detector for motion of pedestrian
WO2016185738A1 (en) 2015-05-20 2016-11-24 ノ-リツプレシジョン株式会社 Image analysis device, image analysis method, and image analysis program
WO2016190348A1 (en) 2015-05-27 2016-12-01 コニカミノルタ株式会社 Monitoring device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3513632B2 (en) * 1994-09-12 2004-03-31 オムロンヘルスケア株式会社 Momentum measurement device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003288656A (en) 2002-03-28 2003-10-10 Ntt Comware Corp Safety reporting device, safety reporting method, program for safety reporting device, and storage medium for safety reporting device
JP2007093433A (en) 2005-09-29 2007-04-12 Hitachi Ltd Detector for motion of pedestrian
WO2016185738A1 (en) 2015-05-20 2016-11-24 ノ-リツプレシジョン株式会社 Image analysis device, image analysis method, and image analysis program
WO2016190348A1 (en) 2015-05-27 2016-12-01 コニカミノルタ株式会社 Monitoring device

Also Published As

Publication number Publication date
JPWO2020003952A1 (en) 2021-08-02
WO2020003952A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
Pham et al. Delivering home healthcare through a cloud-based smart home environment (CoSHE)
US9940822B2 (en) Systems and methods for analysis of subject activity
Stone et al. Unobtrusive, continuous, in-home gait measurement using the Microsoft Kinect
EP3295871A1 (en) Pressure ulcer detection methods, devices and techniques
CN108882853B (en) Triggering measurement of physiological parameters in time using visual context
JP7316038B2 (en) Event prediction system, sensor signal processing system and program
JP7327397B2 (en) Computer-implemented programs, information processing systems, and computer-implemented methods
Eldib et al. Sleep analysis for elderly care using a low-resolution visual sensor network
JP7435459B2 (en) Condition monitoring device and condition monitoring method
JP7468350B2 (en) Condition monitoring device and control method for condition monitoring device
JP7342863B2 (en) Computer-executed programs, information processing systems, and computer-executed methods
WO2023283834A1 (en) Information detection method and apparatus for indoor object, and storage medium and processor
JP7276336B2 (en) Computer-implemented programs, information processing systems, and computer-implemented methods
JP7205540B2 (en) Computer Executed Programs, Information Processing Devices, and Computer Executed Methods
US11457875B2 (en) Event prediction system, sensor signal processing system, event prediction method, and non-transitory storage medium
JP7215481B2 (en) Computer Executed Programs, Information Processing Devices, and Computer Executed Methods
JP2021174189A (en) Method of assisting in creating menu of service, method of assisting in evaluating user of service, program causing computer to execute the method, and information providing device
JP7371624B2 (en) Programs that run on computers, information processing devices, and methods that run on computers
JP2020194392A (en) Program for notifying of information, information notification device, and method executed by computer for notifying of information
Haramaki et al. A multi-sensor based physical condition estimator for home healthcare
CN113397520B (en) Information detection method and device for indoor object, storage medium and processor
JP7468363B2 (en) Information display method, program, and information display device
WO2022059438A1 (en) Information processing device, information processing system, program, and recording medium
WO2021215207A1 (en) Method performed by computer to provide information about care recipient, program, and information providing device
JP2024065638A (en) Computer-implemented method, program and information processing device for obtaining an index representative of the stability of sleep patterns

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230717

R150 Certificate of patent or registration of utility model

Ref document number: 7327397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150