JP2023003917A - Estimation device, learning device, estimation system, estimation method, and program - Google Patents

Estimation device, learning device, estimation system, estimation method, and program Download PDF

Info

Publication number
JP2023003917A
JP2023003917A JP2021105299A JP2021105299A JP2023003917A JP 2023003917 A JP2023003917 A JP 2023003917A JP 2021105299 A JP2021105299 A JP 2021105299A JP 2021105299 A JP2021105299 A JP 2021105299A JP 2023003917 A JP2023003917 A JP 2023003917A
Authority
JP
Japan
Prior art keywords
state
person
estimation
watched over
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021105299A
Other languages
Japanese (ja)
Inventor
聡 中野
Satoshi Nakano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2021105299A priority Critical patent/JP2023003917A/en
Publication of JP2023003917A publication Critical patent/JP2023003917A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

To accurately estimate a state of a watching object person.SOLUTION: An estimation device 120 includes an image acquisition section 121, an estimation section 122, and an output section 123. The image acquisition section 121 acquires a photographed image from an imaging device 200 for photographing a room of a watching object person. The estimation section 122 estimates a state of the watching object person from the photographed image acquired by the image acquisition section 121 with the use of a learnt model acquired by machine learning to estimate the state of the watching object person from the photographed image. The output section 123 outputs an estimation result by the estimation section 122.SELECTED DRAWING: Figure 4

Description

本開示は、推定装置、学習装置、推定システム、推定方法、及び、プログラムに関する。 The present disclosure relates to an estimation device, a learning device, an estimation system, an estimation method, and a program.

現在、見守り対象者の部屋を撮像することにより得られる撮像画像から、見守り対象者の状態を推定する見守りシステムが知られている。見守り対象者は、介護施設の居住者、病院の入院患者等である。例えば、特許文献1には、赤外線カメラの映像を画像処理して被介護人の異常状態を検出する介護システムが記載されている。 Currently, there is known a watching system that estimates the state of a person being watched over from a captured image obtained by capturing an image of the room of the person being watched over. The person to be watched over is a resident of a care facility, an inpatient of a hospital, or the like. For example, Patent Literature 1 describes a nursing care system that processes an image captured by an infrared camera to detect an abnormal condition of a care recipient.

特許文献1に記載された介護システムは、被介護人が徘徊している状態、被介護人が長時間に亘って静止している状態等を異常状態として検出し、異常状態を検出した場合に異常を報知する検出信号を出力する。特許文献1に記載された介護システムは、赤外線カメラの映像を画像処理して被介護人の動作を特定し、特定した動作が異常状態に対応する動作であるか否かを判別する。 The care system described in Patent Literature 1 detects an abnormal state such as a state in which the care recipient is wandering, a state in which the care recipient is stationary for a long time, and the like, and when the abnormal state is detected, Outputs a detection signal that notifies of an abnormality. The nursing care system described in Patent Literature 1 performs image processing on the image captured by the infrared camera to identify the motion of the person being cared for, and determines whether or not the identified motion corresponds to an abnormal state.

特開2003-260095号公報JP 2003-260095 A

しかしながら、特許文献1に記載された介護システムにおいて、異常状態に対応する動作を適切に定義し、画像処理により特定された動作が異常状態に対応する動作であるか否かを適切に判別することは容易ではないと考えられる。このため、特許文献1に記載された介護システムでは、被介護人が異常状態であるか否かを精度良く判別することは容易ではないと考えられる。そこで、見守り対象者の見守りを適切に支援するため、見守り対象者の状態を精度良く推定する技術が望まれている。 However, in the care system described in Patent Literature 1, it is necessary to appropriately define an action corresponding to an abnormal state and appropriately determine whether or not an action specified by image processing is an action corresponding to an abnormal state. is not likely to be easy. Therefore, in the care system described in Patent Literature 1, it is not easy to accurately determine whether or not the care recipient is in an abnormal state. Therefore, in order to appropriately support the watching over of the person being watched over, a technique for accurately estimating the state of the person being watched over is desired.

本開示は、上記問題に鑑みてなされたものであり、見守り対象者の状態を精度良く推定する推定装置、学習装置、推定システム、推定方法、及び、プログラムを提供することを目的とする。 The present disclosure has been made in view of the above problems, and aims to provide an estimating device, a learning device, an estimating system, an estimating method, and a program for accurately estimating the state of a person being watched over.

上記目的を達成するために、本開示に係る推定装置は、
見守り対象者の部屋を撮像する撮像装置から撮像画像を取得する画像取得手段と、
前記撮像画像から前記見守り対象者の状態を推定するための機械学習により取得された学習済みモデルを用いて、前記画像取得手段が取得した前記撮像画像から前記見守り対象者の状態を推定する推定手段と、
前記推定手段による推定結果を出力する出力手段と、を備える。
In order to achieve the above object, the estimation device according to the present disclosure includes:
an image acquisition means for acquiring a captured image from an imaging device that captures an image of the room of the person being watched over;
Estimation means for estimating the state of the person being watched over from the imaged image acquired by the image acquisition means, using a trained model acquired by machine learning for estimating the state of the person being watched over from the imaged image. When,
and output means for outputting an estimation result by the estimation means.

本開示では、撮像画像から見守り対象者の状態を推定するための機械学習により取得された学習済みモデルを用いて、撮像画像から見守り対象者の状態が推定される。従って、本開示によれば、見守り対象者の状態を精度良く推定することができる。 In the present disclosure, the state of the person being watched over is estimated from the captured image using a trained model acquired by machine learning for estimating the state of the person being watched over from the captured image. Therefore, according to the present disclosure, it is possible to accurately estimate the state of the person being watched over.

実施の形態1に係る見守りシステムの構成図Configuration diagram of a monitoring system according to Embodiment 1 実施の形態1に係る学習装置の構成図Configuration diagram of a learning device according to Embodiment 1 実施の形態1に係る推定装置の構成図Configuration diagram of an estimation device according to Embodiment 1 実施の形態1に係る推定システムの機能構成図Functional configuration diagram of estimation system according to Embodiment 1 実施の形態1に係る居住者状態モデルの説明図Explanatory diagram of resident state model according to Embodiment 1 転倒状態と推定される撮像画像群を示す図A diagram showing a captured image group presumed to be in a state of falling 徘徊状態と推定される撮像画像群を示す図The figure which shows the captured image group estimated to be a wandering state. 発熱状態と推定される撮像画像群を示す図The figure which shows the captured image group estimated to be a fever state. 密集状態と推定される撮像画像を示す図A diagram showing a captured image estimated to be in a dense state 実施の形態1に係る学習装置が実行する学習処理を示すフローチャート4 is a flowchart showing learning processing executed by the learning device according to Embodiment 1; 実施の形態1に係る推定装置が実行する推定処理を示すフローチャート4 is a flowchart showing estimation processing executed by the estimation device according to Embodiment 1; 実施の形態2に係る推定システムの機能構成図Functional configuration diagram of an estimation system according to Embodiment 2 実施の形態2に係る居住者状態モデルの説明図Explanatory diagram of resident state model according to Embodiment 2 実施の形態2に係る学習装置が実行する学習処理を示すフローチャート10 is a flowchart showing learning processing executed by the learning device according to the second embodiment; 実施の形態2に係る推定装置が実行する推定処理を示すフローチャートFlowchart showing estimation processing executed by an estimation device according to Embodiment 2 実施の形態3に係る推定システムの機能構成図Functional configuration diagram of an estimation system according to Embodiment 3 実施の形態3に係る推定装置が実行する推定処理を示すフローチャートFlowchart showing estimation processing executed by an estimation device according to Embodiment 3

以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一又は相当部分には同一符号を付す。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. The same reference numerals are given to the same or corresponding parts in the drawings.

(実施の形態1)
図1は、実施の形態1に係る見守りシステム1000の構成を示す図である。見守りシステム1000は、見守り対象者を見守るためのシステムであり、管理者による見守り対象者の見守りを支援するシステムである。見守り対象者は、見守りの対象となる人であり、管理者により見守られる人である。見守り対象者は、介護施設の居住者、病院の入院患者、在宅の介護対象者等である。管理者は、見守り対象者を見守る人であり、見守り対象者の健康状態、安全状態に気を配る人である。管理者は、介護施設の職員、病院の職員、見守りサービス業者の職員等である。見守りシステム1000は、推定システム100と、撮像装置200と、表示装置300とを備える。
(Embodiment 1)
FIG. 1 is a diagram showing the configuration of a watching system 1000 according to Embodiment 1. As shown in FIG. The watching system 1000 is a system for watching over a person to be watched over, and is a system for assisting the administrator in watching over the person to be watched over. A person to be watched over is a person to be watched over and a person to be watched over by the administrator. The person to be watched over is a resident of a care facility, an inpatient in a hospital, a person to be cared for at home, or the like. The manager is a person who watches over the person being watched over and who cares about the health and safety of the person being watched over. Managers are staff of nursing homes, staff of hospitals, staff of monitoring service providers, and the like. The watching system 1000 includes an estimation system 100 , an imaging device 200 and a display device 300 .

推定システム100は、撮像装置200が撮像した画像である撮像画像に基づいて、見守り対象者の状態を推定する。推定システム100は、学習処理を実行する学習装置110と、推定処理を実行する推定装置120と、学習済みモデルを記憶する記憶装置130とを備える。学習処理は、推定処理で用いる学習済みモデルを生成する処理である。推定処理は、学習済みモデルを用いて撮像画像から見守り対象者の状態を推定する処理である。見守り対象者の状態は、正常状態と異常状態との2つの状態に大別される。本実施の形態では、異常状態は、転倒状態と徘徊状態と発熱状態と密集状態とを含む。 The estimation system 100 estimates the state of the person being watched over based on the captured image, which is the image captured by the imaging device 200 . The estimation system 100 includes a learning device 110 that executes learning processing, an estimating device 120 that executes estimation processing, and a storage device 130 that stores trained models. The learning process is a process of generating a trained model used in the estimation process. The estimation process is a process of estimating the state of the person being watched over from the captured image using the learned model. The state of the person being watched over is roughly divided into two states, a normal state and an abnormal state. In this embodiment, the abnormal state includes a falling state, a wandering state, a fever state, and a crowded state.

転倒状態は、転倒した状態である。徘徊状態は、家の中又は家の外を歩き回る状態である。発熱状態は、発熱している状態であり、発熱量が平常時よりも高い状態である。密集状態は、複数の人が短い距離で集まっている状態である。正常状態は、異常状態以外の状態である。推定システム100は、推定処理により得られた結果である推定結果を表示装置300に出力する。 A tipped state is a tipped state. The loitering state is the state of walking around inside or outside the house. The exothermic state is a state in which heat is generated, and the amount of heat generated is higher than normal. A crowded state is a state in which a plurality of people are gathered in a short distance. A normal state is a state other than an abnormal state. The estimation system 100 outputs an estimation result obtained by the estimation process to the display device 300 .

学習装置110は、学習段階において、正常撮像画像と異常撮像画像と含む学習用データを用いて機械学習を実行し、撮像画像から見守り対象者の状態を推定するための学習済みモデルを生成する。正常撮像画像は、見守り対象者の状態が正常状態であるときに、見守り対象者の部屋を撮像することにより得られる画像である。異常撮像画像は、見守り対象者の状態が異常状態であるときに、見守り対象者の部屋を撮像することにより得られる画像である。本実施の形態では、学習装置110は、1人の見守り対象者に対して1つの学習済みモデルを生成する。図2に示すように、学習装置110は、制御部11と、記憶部12と、表示部13と、操作受付部14と、第1通信部15と、第2通信部16とを備える。 In the learning stage, the learning device 110 performs machine learning using learning data including normal captured images and abnormal captured images, and generates a trained model for estimating the state of the person being watched over from the captured images. A normally captured image is an image obtained by capturing an image of the room of the watching target when the watching target is in a normal state. The abnormal captured image is an image obtained by capturing an image of the room of the watching target when the watching target is in an abnormal state. In the present embodiment, learning device 110 generates one learned model for one person being watched over. As shown in FIG. 2 , learning device 110 includes control unit 11 , storage unit 12 , display unit 13 , operation reception unit 14 , first communication unit 15 , and second communication unit 16 .

制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、RTC(Real Time Clock)等を備える。CPUは、中央処理装置、中央演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)等とも呼び、学習装置110の制御に係る処理及び演算を実行する中央演算処理部として機能する。制御部11において、CPUは、ROMに格納されているプログラム及びデータを読み出し、RAMをワークエリアとして用いて、学習装置110を統括制御する。RTCは、例えば、計時機能を有する集積回路である。なお、CPUは、RTCから読み出される時刻情報から現在日時を特定可能である。 The control unit 11 includes a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), RTC (Real Time Clock), and the like. The CPU is also called a central processing unit, a central processing unit, a processor, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like, and functions as a central processing unit that executes processing and calculations related to control of the learning device 110 . In the control unit 11 , the CPU reads programs and data stored in the ROM, uses the RAM as a work area, and controls the learning device 110 in an integrated manner. The RTC is, for example, an integrated circuit with a timer function. Note that the CPU can specify the current date and time from the time information read from the RTC.

記憶部12は、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)等の不揮発性の半導体メモリを備えており、いわゆる補助記憶装置としての役割を担う。記憶部12は、制御部11が各種処理を実行するために使用するプログラム及びデータを記憶する。また、記憶部12は、制御部11が各種処理を実行することにより生成又は取得するデータを記憶する。 The storage unit 12 includes a non-volatile semiconductor memory such as flash memory, EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), etc., and serves as a so-called auxiliary storage device. The storage unit 12 stores programs and data used by the control unit 11 to execute various processes. The storage unit 12 also stores data generated or acquired by the control unit 11 executing various processes.

表示部13は、制御部11による制御に従って、各種の画像を表示する。例えば、表示部13は、ユーザから各種の操作を受け付けるための画面を表示する。表示部13は、タッチスクリーン、液晶ディスプレイ等を備える。操作受付部14は、ユーザから各種の操作を受け付け、受け付けた操作の内容を示す情報を制御部11に供給する。操作受付部14は、タッチスクリーン、ボタン、レバー等を備える。 The display unit 13 displays various images under the control of the control unit 11 . For example, the display unit 13 displays a screen for accepting various operations from the user. The display unit 13 includes a touch screen, a liquid crystal display, and the like. The operation accepting unit 14 accepts various operations from the user and supplies the control unit 11 with information indicating the contents of the accepted operations. The operation reception unit 14 includes a touch screen, buttons, levers, and the like.

第1通信部15は、制御部11による制御に従って、撮像装置200と通信する。例えば、第1通信部15は、予め定められた周期で、撮像装置200から撮像画像を受信する。第1通信部15は、周知の有線通信規格又は周知の無線通信規格に則って、撮像装置200と通信する。周知の有線通信規格としては、USB(Universal Serial Bus、登録商標)、Thunderbolt(登録商標)等がある。周知の無線通信規格としては、Wi-Fi(登録商標)、Bluetooth(登録商標)、Zigbee(登録商標)等がある。第1通信部15は、各種の通信規格に準拠した通信インターフェースを備える。 The first communication section 15 communicates with the imaging device 200 under the control of the control section 11 . For example, the first communication unit 15 receives captured images from the imaging device 200 at a predetermined cycle. The first communication unit 15 communicates with the imaging device 200 according to a known wired communication standard or a known wireless communication standard. Well-known wired communication standards include USB (Universal Serial Bus, registered trademark), Thunderbolt (registered trademark), and the like. Well-known wireless communication standards include Wi-Fi (registered trademark), Bluetooth (registered trademark), Zigbee (registered trademark), and the like. The first communication unit 15 has a communication interface conforming to various communication standards.

第2通信部16は、制御部11による制御に従って、記憶装置130と通信する。例えば、第2通信部16は、記憶装置130から学習済みモデルを読み込み、更新された学習済みモデルを記憶装置130に書き込む。第2通信部16は、周知の有線通信規格又は周知の無線通信規格に則って、記憶装置130と通信する。第2通信部16は、各種の通信規格に準拠した通信インターフェースを備える。 The second communication section 16 communicates with the storage device 130 under the control of the control section 11 . For example, the second communication unit 16 reads a trained model from the storage device 130 and writes an updated trained model to the storage device 130 . The second communication unit 16 communicates with the storage device 130 according to a known wired communication standard or a known wireless communication standard. The second communication unit 16 has a communication interface conforming to various communication standards.

推定装置120は、推定段階において、学習済みモデルを用いて、推定用データである撮像画像から見守り対象者の状態を推定する。図3に示すように、推定装置120は、制御部21と、記憶部22と、表示部23と、操作受付部24と、第1通信部25と、第2通信部26と、第3通信部27とを備える。 In the estimation stage, the estimation device 120 estimates the state of the person being watched over from the captured image, which is the estimation data, using the trained model. As shown in FIG. 3, the estimation device 120 includes a control unit 21, a storage unit 22, a display unit 23, an operation receiving unit 24, a first communication unit 25, a second communication unit 26, a third communication unit a portion 27;

制御部21は、CPU、ROM、RAM、RTC等を備える。CPUは、中央処理装置、中央演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、DSP等とも呼び、推定装置120の制御に係る処理及び演算を実行する中央演算処理部として機能する。制御部21において、CPUは、ROMに格納されているプログラム及びデータを読み出し、RAMをワークエリアとして用いて、推定装置120を統括制御する。RTCは、例えば、計時機能を有する集積回路である。なお、CPUは、RTCから読み出される時刻情報から現在日時を特定可能である。 The control unit 21 includes a CPU, ROM, RAM, RTC, and the like. The CPU is also called a central processing unit, a central processing unit, a processor, a microprocessor, a microcomputer, a DSP, or the like, and functions as a central processing unit that executes processing and calculations related to control of the estimating device 120 . In the control unit 21 , the CPU reads programs and data stored in the ROM, uses the RAM as a work area, and centrally controls the estimation device 120 . The RTC is, for example, an integrated circuit with a timer function. Note that the CPU can specify the current date and time from the time information read from the RTC.

記憶部22は、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM等の不揮発性の半導体メモリを備えており、いわゆる補助記憶装置としての役割を担う。記憶部22は、制御部21が各種処理を実行するために使用するプログラム及びデータを記憶する。また、記憶部22は、制御部21が各種処理を実行することにより生成又は取得するデータを記憶する。 The storage unit 22 includes a non-volatile semiconductor memory such as flash memory, EPROM (Erasable Programmable ROM), and EEPROM, and serves as a so-called auxiliary storage device. The storage unit 22 stores programs and data used by the control unit 21 to execute various processes. The storage unit 22 also stores data generated or acquired by the control unit 21 executing various processes.

表示部23は、制御部21による制御に従って、各種の画像を表示する。例えば、表示部23は、ユーザから各種の操作を受け付けるための画面を表示する。表示部23は、タッチスクリーン、液晶ディスプレイ等を備える。操作受付部24は、ユーザから各種の操作を受け付け、受け付けた操作の内容を示す情報を制御部21に供給する。操作受付部24は、タッチスクリーン、ボタン、レバー等を備える。 The display unit 23 displays various images under the control of the control unit 21 . For example, the display unit 23 displays a screen for accepting various operations from the user. The display unit 23 includes a touch screen, a liquid crystal display, and the like. The operation accepting unit 24 accepts various operations from the user and supplies information indicating the contents of the accepted operations to the control unit 21 . The operation reception unit 24 includes a touch screen, buttons, levers, and the like.

第1通信部25は、制御部21による制御に従って、撮像装置200と通信する。例えば、第1通信部25は、予め定められた周期で、撮像装置200から撮像画像を受信する。第1通信部25は、周知の有線通信規格又は周知の無線通信規格に則って、撮像装置200と通信する。第1通信部25は、各種の通信規格に準拠した通信インターフェースを備える。 The first communication section 25 communicates with the imaging device 200 under the control of the control section 21 . For example, the first communication unit 25 receives captured images from the imaging device 200 at a predetermined cycle. The first communication unit 25 communicates with the imaging device 200 according to a known wired communication standard or a known wireless communication standard. The first communication unit 25 has a communication interface conforming to various communication standards.

第2通信部26は、制御部21による制御に従って、記憶装置130と通信する。例えば、第2通信部26は、制御部21による制御に従って、記憶装置130から学習済みモデルを読み込む。第2通信部26は、周知の有線通信規格又は周知の無線通信規格に則って、記憶装置130と通信する。第2通信部26は、各種の通信規格に準拠した通信インターフェースを備える。 The second communication section 26 communicates with the storage device 130 under the control of the control section 21 . For example, the second communication unit 26 reads the learned model from the storage device 130 under the control of the control unit 21 . The second communication unit 26 communicates with the storage device 130 according to a known wired communication standard or a known wireless communication standard. The second communication unit 26 has a communication interface conforming to various communication standards.

第3通信部27は、制御部21による制御に従って、表示装置300と通信する。例えば、第3通信部27は、制御部21による制御に従って、制御部21から受信した推定結果を示す情報を表示装置300に送信する。第3通信部27は、周知の有線通信規格又は周知の無線通信規格に則って、表示装置300と通信する。第3通信部27は、各種の通信規格に準拠した通信インターフェースを備える。 The third communication section 27 communicates with the display device 300 under the control of the control section 21 . For example, the third communication unit 27 transmits information indicating the estimation result received from the control unit 21 to the display device 300 under the control of the control unit 21 . The third communication unit 27 communicates with the display device 300 according to a known wired communication standard or a known wireless communication standard. The third communication unit 27 has a communication interface conforming to various communication standards.

記憶装置130は、学習装置110が生成した学習済みモデルを記憶する。記憶装置130が記憶する学習済みモデルは、学習装置110により更新される。また、記憶装置130が記憶する学習済みモデルは、推定装置120により用いられる。記憶装置130は、適宜、撮像装置200が生成した撮像画像を記憶する。記憶装置130は、HHD(Hard Disk Drive)、SSD(Solid State Drive)等を備える。 The storage device 130 stores the trained model generated by the learning device 110 . A trained model stored in the storage device 130 is updated by the learning device 110 . Also, the trained model stored in the storage device 130 is used by the estimation device 120 . The storage device 130 appropriately stores captured images generated by the imaging device 200 . The storage device 130 includes an HHD (Hard Disk Drive), an SSD (Solid State Drive), and the like.

撮像装置200は、見守り対象者の周囲を撮像し、撮像画像を生成する。撮像装置200は、基本的に、見守り対象者である居住者210が居室250にいるときに、居住者210が撮像範囲に収まるように設置される。撮像装置200は、例えば、居住者210が住む居室250の天井に設置される。本実施の形態では、撮像装置200は赤外線カメラである。従って、撮像装置200が生成する撮像画像は、物体から放射される赤外線を2次元で可視化した赤外線画像である。撮像装置200は、赤外線を検出する撮像素子が2次元に配置された赤外線イメージセンサを備える。赤外線画像は、熱画像ともいう。 The imaging device 200 captures an image of the surroundings of the person being watched over and generates a captured image. The imaging device 200 is basically installed so that the resident 210 is within the imaging range when the resident 210 who is the watching target is in the living room 250 . The imaging device 200 is installed, for example, on the ceiling of the living room 250 where the resident 210 lives. In this embodiment, imaging device 200 is an infrared camera. Therefore, the captured image generated by the imaging device 200 is an infrared image obtained by two-dimensionally visualizing the infrared rays emitted from the object. The imaging device 200 includes an infrared image sensor in which imaging elements that detect infrared rays are arranged two-dimensionally. An infrared image is also called a thermal image.

撮像装置200が生成する撮像画像は、静止画像でもよいし動画像でもよい。本実施の形態では、撮像装置200が生成する撮像画像は静止画像であり、撮像装置200は予め定められた周期で居室250を撮像して撮像画像を生成する。撮像装置200は、生成した撮像画像を推定システム100に送信する。撮像画像は、学習装置110が学習処理で用いる学習用データとして用いられる。また、撮像画像は、推定装置120が推定処理で用いる推定用データとしても用いられる。撮像装置200は、周知の通信規格により推定システム100と接続される。 A captured image generated by the imaging device 200 may be a still image or a moving image. In the present embodiment, the captured image generated by the imaging device 200 is a still image, and the imaging device 200 captures the living room 250 at a predetermined cycle to generate the captured image. The imaging device 200 transmits the generated captured image to the estimation system 100 . The captured image is used as learning data used by the learning device 110 in learning processing. The captured image is also used as estimation data used by the estimation device 120 in estimation processing. The imaging device 200 is connected with the estimation system 100 by a well-known communication standard.

表示装置300は、推定システム100による推定結果を表示する。表示装置300は、推定システム100から推定結果を示す情報を受信し、受信した情報が示す推定結果を示す画像を表示する。以下、適宜、推定結果を示す情報を単に推定結果という。推定結果は、居住者210の状態が正常状態であるという推定結果と、居住者210の状態が異常状態であるという推定結果とに大別される。居住者210の状態が異常状態であるという推定結果は、居住者210の状態が転倒状態であるという推定結果と、居住者210の状態が徘徊状態であるという推定結果と、居住者210の状態が発熱状態であるという推定結果と、居住者210の状態が密集状態であるという推定結果とのうち少なくとも1つを含む。 The display device 300 displays the estimation result by the estimation system 100. FIG. The display device 300 receives information indicating an estimation result from the estimation system 100 and displays an image indicating the estimation result indicated by the received information. Hereinafter, information indicating an estimation result is simply referred to as an estimation result as appropriate. The estimation results are roughly divided into an estimation result that the state of resident 210 is normal and an estimation result that the state of resident 210 is abnormal. The estimation result that the state of the resident 210 is abnormal is the estimation result that the state of the resident 210 is the overturned state, the estimation result that the state of the resident 210 is the wandering state, and the state of the resident 210. includes at least one of an estimation result that the resident 210 is in a fever state and an estimation result that the state of the occupants 210 is in a crowded state.

表示装置300は、管理者310が表示装置300の画面を見ることができる場所に配置される。例えば、表示装置300は、管理者310がいる管理室350内に配置される。表示装置300は、推定結果を示す画像に加え、撮像画像を表示してもよい。管理者310は、表示装置300により居住者210の状態が異常状態であることが報知された場合、異常状態に応じた対応を速やかにとることができる。表示装置300は、周知の通信規格により推定システム100と接続される。表示装置300は、例えば、制御部(図示せず)と、記憶部(図示せず)と、表示部(図示せず)と、操作受付部(図示せず)と、通信部(図示せず)とを備えるコンピュータである。 The display device 300 is placed in a location where the administrator 310 can see the screen of the display device 300 . For example, the display device 300 is placed in an administration room 350 where an administrator 310 is present. The display device 300 may display the captured image in addition to the image showing the estimation result. When the display device 300 informs the administrator 310 that the state of the resident 210 is abnormal, the administrator 310 can promptly take measures according to the abnormal state. Display device 300 is connected to estimation system 100 by a well-known communication standard. The display device 300 includes, for example, a control unit (not shown), a storage unit (not shown), a display unit (not shown), an operation reception unit (not shown), and a communication unit (not shown). ).

次に、図4を参照して、推定システム100の機能について説明する。学習装置110は、機能的には、画像取得部111と、モデル生成部112と、ラベル受付部113とを備える。推定装置120は、機能的には、画像取得部121と、推定部122と、出力部123とを備える。これらの各機能は、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現される。ソフトウェア及びファームウェアは、プログラムとして記述され、ROM又は記憶部12,22に格納される。そして、CPUが、ROM又は記憶部12,22に記憶されたプログラムを実行することによって、これらの各機能を実現する。 Next, with reference to FIG. 4, functions of the estimation system 100 will be described. The learning device 110 functionally includes an image acquisition unit 111 , a model generation unit 112 , and a label reception unit 113 . The estimation device 120 functionally includes an image acquisition unit 121 , an estimation unit 122 , and an output unit 123 . Each of these functions is implemented by software, firmware, or a combination of software and firmware. Software and firmware are written as programs and stored in the ROM or storage units 12 and 22 . These functions are realized by the CPU executing programs stored in the ROM or the storage units 12 and 22 .

画像取得部111は、正常撮像画像と異常撮像画像とを撮像装置200又は記憶装置130から取得する。画像取得部111が取得する正常撮像画像と異常撮像画像とは、機械学習の学習用データとして用いられる。一度の学習で用いられる撮像画像は、単一の撮像画像でもよいし、一連の撮像画像群でもよい。一連の撮像画像群は、時系列に並ぶ複数の撮像画像であり、例えば、撮像装置200が予め定められた時間(例えば、数秒から数十分)が経過する毎に撮像した複数の撮像画像である。本実施の形態では、一度の学習で用いられる撮像画像は、一連の撮像画像群である。画像取得部111は、多数の一連の正常撮像画像群と多数の一連の異常撮像画像群とを学習用データとして取得する。 The image acquisition unit 111 acquires the normal captured image and the abnormal captured image from the imaging device 200 or the storage device 130 . The normal captured image and the abnormal captured image acquired by the image acquisition unit 111 are used as learning data for machine learning. A captured image used in one learning may be a single captured image or a group of a series of captured images. A series of captured images is a plurality of captured images arranged in time series. be. In this embodiment, the captured images used in one learning are a series of captured images. The image acquisition unit 111 acquires a large number of a series of normal captured images and a large number of a series of abnormal captured images as learning data.

一連の正常撮像画像群は、見守り対象者の状態が正常状態であるときに、見守り対象者の部屋を一定の時間間隔で撮像することにより得られる撮像画像群である。一連の異常撮像画像群は、見守り対象者の状態が異常状態であるときに、見守り対象者の部屋を一定の時間間隔で撮像することにより得られる撮像画像群である。異常撮像画像群は、転倒撮像画像群と徘徊撮像画像群と発熱撮像画像群と密集撮像画像群とを含む。転倒撮像画像群は、見守り対象者が転倒状態であるときに得られる撮像画像群である。徘徊撮像画像群は、見守り対象者が転倒状態であるときに得られる撮像画像群である。発熱撮像画像群は、見守り対象者が発熱状態であるときに得られる撮像画像群である。密集撮像画像群は、見守り対象者が密集状態であるときに得られる撮像画像群である。 A series of normal captured images is a captured image group obtained by capturing images of the watching target person's room at regular time intervals when the watching target person is in a normal state. A series of abnormal captured image groups are captured image groups obtained by capturing images of the watching target person's room at regular time intervals when the watching target person is in an abnormal state. The abnormal captured image group includes a falling captured image group, a wandering captured image group, a fever captured image group, and a densely captured image group. The fall captured image group is a captured image group obtained when the person being watched over is in a fall state. The wandering captured image group is a captured image group obtained when the person being watched over falls. The fever captured image group is a captured image group obtained when the person being watched over has a fever. A crowd-captured image group is a captured-image group obtained when the persons being watched over are in a crowded state.

画像取得部111として機能する制御部11は、第1通信部15を介して、撮像装置200から一連の撮像画像群を取得する。又は、画像取得部111として機能する制御部11は、第2通信部16を介して、記憶装置130から一連の撮像画像群を取得する。この一連の撮像画像群は、正常撮像画像群と異常撮像画像群との何れかである。画像取得部111は、学習装置が備える画像取得手段、及び、第1画像取得手段の一例である。 The control unit 11 functioning as the image acquisition unit 111 acquires a series of captured images from the imaging device 200 via the first communication unit 15 . Alternatively, the control unit 11 functioning as the image acquisition unit 111 acquires a series of captured images from the storage device 130 via the second communication unit 16 . This series of captured image groups is either a normal captured image group or an abnormal captured image group. The image acquisition unit 111 is an example of an image acquisition unit and a first image acquisition unit included in the learning device.

モデル生成部112は、画像取得部111が取得した正常撮像画像と異常撮像画像とを用いた機械学習により、撮像画像から見守り対象者の状態を推定するための学習済みモデルを生成する。この学習済みモデルは、撮像画像から、見守り対象者が転倒しているか否か、見守り対象者が徘徊しているか否か、見守り対象者が発熱しているか否か、及び、見守り対象者が密集しているか否かを推定するためのモデルである。モデル生成部112が用いる学習アルゴリズムとして、種々のアルゴリズムを採用することができる。 The model generating unit 112 generates a learned model for estimating the state of the person being watched over from the captured images by machine learning using the normal captured images and the abnormal captured images obtained by the image obtaining unit 111 . This trained model determines whether or not the person being watched over has fallen, whether or not the person being watched over is wandering, whether the person being watched over has a fever, and whether the person being watched over is crowded, based on the captured image. This is a model for estimating whether or not Various algorithms can be adopted as the learning algorithm used by the model generation unit 112 .

本実施の形態では、学習アルゴリズムとして、教師なし学習であるk平均法を採用する例について説明する。教師なし学習は、出力すべき結果であるラベルを含まない学習用データを学習装置に与えることで、学習用データに内在する特徴を学習する手法である。k平均法は、非階層型クラスタリングのアルゴリズムであり、クラスタの平均を用いて与えられたクラスタ数をk個に分類する手法である。以下に、k平均法の処理の流れについて説明する。 In this embodiment, an example in which k-means, which is unsupervised learning, is adopted as a learning algorithm will be described. Unsupervised learning is a method of learning the features inherent in the learning data by giving the learning data that does not contain the label, which is the result to be output, to the learning device. The k-means method is a non-hierarchical clustering algorithm, and is a method of classifying a given number of clusters into k clusters using the average of clusters. The flow of processing of the k-means method will be described below.

まず、各データである各xiに対して、ランダムにクラスタを割り振る。次に、割り振ったデータを元に各クラスタの中心である各Vjを計算する。次に、各xiと各Vjとの距離を求め、xiを最も近い中心のクラスタに割り当て直す。そして、上述した処理で全てのxiのクラスタの割り当てが変化しなかった場合、又は、変化量が予め設定された閾値を下回った場合、収束したと判断して処理を終了する。 First, clusters are randomly assigned to each data xi. Next, each Vj that is the center of each cluster is calculated based on the allocated data. Next, find the distance between each xi and each Vj and reassign xi to the closest central cluster. Then, if the allocation of all xi clusters does not change in the above-described process, or if the amount of change falls below a preset threshold, it is determined that convergence has occurred, and the process ends.

本実施の形態では、モデル生成部112は、正常撮像画像群と異常撮像画像群とを多数含む学習用データを用いて、教師なし学習により居住者の状態を学習する。ここで、各クラスタに対するラベル付けは、人間のユーザによりなされる。このラベル付けは、各クラスタに対して、居住者の状態が正常状態であるか否か、及び、居住者の状態が異常状態である場合、居住者がどのような異常状態であるかを割り当てるためのラベル付けである。 In the present embodiment, the model generation unit 112 learns the state of the resident by unsupervised learning using learning data including a large number of normal captured image groups and abnormal captured image groups. Here, labeling for each cluster is done by a human user. This labeling assigns to each cluster whether the resident's status is normal or not, and if the resident's status is abnormal, what abnormal status the resident is. labeling for

モデル生成部112は、クラスタリングにより、画像取得部111が取得した撮像画像群を複数のグループの何れかに分類する。なお、上述したクラスタは、グループに対応する。モデル生成部112は、ユーザによる指示に従って、複数のグループのそれぞれに対してラベル付けを実行する。モデル生成部112は、基本的に、新たに取得された一連の撮像画像群を用いて、既存の学習済みモデルを更新する。つまり、モデル生成部112は、新たに取得された一連の撮像画像群と記憶装置130に記憶されている学習済みモデルとから新たな学習済みモデルを生成する。モデル生成部112は、生成した新たな学習済みモデルを記憶装置130に保存する。モデル生成部112は、モデル生成手段の一例である。 The model generation unit 112 classifies the captured image group acquired by the image acquisition unit 111 into one of a plurality of groups by clustering. Note that the clusters described above correspond to groups. The model generating unit 112 labels each of the plurality of groups according to instructions from the user. The model generation unit 112 basically updates an existing trained model using a series of newly acquired captured images. In other words, the model generation unit 112 generates a new trained model from the series of newly acquired captured images and the trained model stored in the storage device 130 . The model generation unit 112 stores the generated new trained model in the storage device 130 . The model generation unit 112 is an example of model generation means.

ラベル受付部113は、ユーザからラベルを受け付ける。上述したように、本実施の形態では、機械学習は教師なしデータである。従って、ユーザは、分類された複数のグループのそれぞれについて、ラベル付けを実行する。ラベル受付部113は、ラベル付けに伴う操作をユーザから受け付ける。このラベル付けにより、複数のグループのそれぞれが、正常状態を示すグループ、又は、異常状態を示すグループに設定される。異常状態を示すグループは、転倒状態を示すグループ、徘徊状態を示すグループ、発熱状態を示すグループ、密集状態を示すグループの何れかである。ラベル付けにより、学習済みモデルが完成する。 The label accepting unit 113 accepts a label from the user. As described above, in this embodiment machine learning is unsupervised data. Therefore, the user performs labeling for each of the classified groups. The label accepting unit 113 accepts an operation associated with labeling from the user. By this labeling, each of the plurality of groups is set as a group indicating normal state or a group indicating abnormal state. The group indicating the abnormal state is any one of the group indicating the overturned state, the group indicating the wandering state, the group indicating the fever state, and the group indicating the crowded state. Labeling completes the trained model.

画像取得部121は、見守り対象者の部屋を撮像する撮像装置200から撮像画像を取得する。画像取得部121が撮像装置200から取得する撮像画像は、見守り対象者の状態の推定に用いる推定用データである。推定用データは、単一の撮像画像でもよいし、一連の撮像画像群でもよい。本実施の形態では、推定用データは、一連の撮像画像群である。つまり、画像取得部121として機能する制御部21は、第1通信部25を介して、撮像装置200から一連の撮像画像群を取得する。この一連の撮像画像群は、正常撮像画像群と異常撮像画像群との何れかである。画像取得部121は、推定装置が備える画像取得手段、及び、第2画像取得手段の一例である。画像取得部121が取得する撮像画像は、第2撮像画像の一例である。 The image acquisition unit 121 acquires a captured image from the imaging device 200 that captures the room of the person being watched over. The captured image that the image acquisition unit 121 acquires from the imaging device 200 is estimation data used for estimating the state of the person being watched over. The estimation data may be a single captured image or a group of captured images. In this embodiment, the estimation data is a group of captured images. That is, the control unit 21 functioning as the image acquisition unit 121 acquires a series of captured images from the imaging device 200 via the first communication unit 25 . This series of captured image groups is either a normal captured image group or an abnormal captured image group. The image acquisition unit 121 is an example of an image acquisition unit included in the estimation device and a second image acquisition unit. The captured image acquired by the image acquisition unit 121 is an example of a second captured image.

推定部122は、撮像画像から見守り対象者の状態を推定するための機械学習により取得された学習済みモデルを用いて、画像取得部121が取得した撮像画像から見守り対象者の状態を推定する。この学習済みモデルは、モデル生成部112により生成され、記憶装置130に記憶されている。推定部122は、この学習済みモデルと取得された一連の撮像画像群とに基づいて、見守り対象者の状態が、正常状態と異常状態との何れであるか推定する。推定部122は、推定結果を出力部123に供給する。推定部122は、推定手段の一例である。 The estimating unit 122 estimates the state of the person being watched over from the captured image acquired by the image acquiring unit 121 using a learned model acquired by machine learning for estimating the state of the person being watched over from the captured image. This trained model is generated by the model generation unit 112 and stored in the storage device 130 . The estimating unit 122 estimates whether the state of the person being watched over is normal or abnormal, based on the learned model and the acquired series of captured images. The estimation unit 122 supplies the estimation result to the output unit 123 . The estimating unit 122 is an example of estimating means.

出力部123は、推定部122による推定結果を出力する。出力部123の出力先は、適宜、調整することができる。本実施の形態では、出力部123の出力先は、表示装置300である。つまり、出力部123として機能する制御部21は、第3通信部27を介して、推定結果を示す情報を表示装置300に送信する。出力部123は、出力手段の一例である。 The output unit 123 outputs the result of estimation by the estimation unit 122 . The output destination of the output unit 123 can be adjusted as appropriate. In this embodiment, the output destination of the output unit 123 is the display device 300 . That is, the control section 21 functioning as the output section 123 transmits information indicating the estimation result to the display device 300 via the third communication section 27 . The output unit 123 is an example of output means.

次に、図5を参照して、モデル生成部112が生成する学習済みモデルについて説明する。本実施の形態では、学習済みモデルは、一連の撮像画像群から居住者の状態を推定するための居住者状態モデルである。従って、居住者状態モデルの入力は、一連の撮像画像群である。また、居住者状態モデルの出力は、居住者210の状態である。居住者210の状態としては、正常状態、転倒状態、徘徊状態、発熱状態、密集状態等がある。 Next, a trained model generated by the model generation unit 112 will be described with reference to FIG. In this embodiment, the learned model is a resident state model for estimating the state of the resident from a series of captured images. Therefore, the input of the occupant condition model is a series of captured images. Also, the output of the resident state model is the resident 210 state. The state of the resident 210 includes a normal state, a falling state, a wandering state, a fever state, a crowded state, and the like.

次に、図6と図7と図8と図9とを参照して、居住者状態モデルにおいて、居住者210の状態が異常状態であると推定される撮像画像群について説明する。なお、撮像画像において、ハッチングで示す部分は、熱放射する熱源に対応する部分であり、居住者210に対応する部分である。また、撮像画像において、濃いハッチングで示す部分は、強く熱放射する熱源に対応する部分であり、居住者210の体温が高い部分である。なお、居住者210の位置及び動きは、熱源の位置及び動きから特定可能である。 Next, with reference to FIGS. 6, 7, 8, and 9, a captured image group in which the state of the resident 210 is estimated to be abnormal in the resident state model will be described. In the captured image, the hatched portion corresponds to the heat source that radiates heat, and corresponds to the resident 210 . Also, in the captured image, the darkly hatched portion corresponds to the heat source that strongly radiates heat, and is the portion where the body temperature of the resident 210 is high. Note that the position and movement of the resident 210 can be identified from the position and movement of the heat source.

図6は、居住者210の状態が転倒状態であると推定される撮像画像群を示す図である。居住者210が居室250内で転倒した場合、居住者210は、就寝位置とは異なる位置で立ち上がった状態から横たわった状態になると考えられる。特に、居住者210は、卒倒により転倒した場合、長時間に亘って動かずに横たわる可能性が高い。なお、卒倒は、脳貧血、脳出血等のために突然意識を失って倒れることである。そこで、居住者210が就寝位置とは異なる位置で立ち上がった状態から横たわった状態になり長時間に亘って横たわることを示す撮像画像群が転倒状態を表す撮像画像群であると推定されるように、居住者状態モデルが生成される。つまり、ユーザは、教師なし学習において、このような転倒状態を表す撮像画像群が属するグループに対して、転倒状態を表すラベルを付与する。 FIG. 6 is a diagram showing a captured image group in which it is estimated that the resident 210 is in a state of falling. When the resident 210 falls over in the living room 250, the resident 210 is considered to lie down from a standing position in a position different from the sleeping position. In particular, if the resident 210 falls due to a fainting, it is highly likely that the resident 210 will lie motionless for a long period of time. Fainting is a sudden loss of consciousness due to cerebral anemia, cerebral hemorrhage, or the like. Therefore, it is assumed that a group of captured images showing that the resident 210 stands up in a position different from the sleeping position, then lies down, and then lies down for a long period of time is a group of captured images representing the overturned state. , a resident state model is generated. That is, in the unsupervised learning, the user assigns a label representing the falling state to a group to which the captured image group representing such a falling state belongs.

図6に示す撮像画像群は、画像20AA、画像20AB、画像20ACの順で撮像された撮像画像群である。画像20AAは、居住者210が普段の就寝位置とは異なる位置で立っているときに撮像された撮像画像である。画像20ABと画像20ACとは、居住者210が普段の就寝位置とは異なる位置で横たわっているときに撮像された撮像画像である。なお、画像20Aは、居住者210が普段の就寝位置で横たわっているときに撮像された撮像画像である。普段の就寝位置は、例えば、夜の時間帯において大半の時間割合で居住者210が検出される位置である。 The captured image group shown in FIG. 6 is a captured image group captured in the order of the image 20AA, the image 20AB, and the image 20AC. Image 20AA is a captured image captured when resident 210 is standing in a position different from the usual sleeping position. Image 20AB and image 20AC are captured images captured when resident 210 is lying in a position different from the usual sleeping position. Note that the image 20A is a captured image captured when the resident 210 is lying in a normal sleeping position. The usual sleeping position is, for example, the position where the resident 210 is detected most of the time during the night time period.

図7は、居住者210の状態が徘徊状態であると推定される撮像画像群を示す図である。居住者210が徘徊する場合、居住者210は、徘徊を示唆する事前行動の後に、長時間に亘って居室250を不在にすることが多い。徘徊を示唆する事前行動は、徘徊の前に実行される普段と異なる夜間の行動である。徘徊を示唆する事前行動は、例えば、居室250の中を動き回る行動、居室250を出たり入ったりする行動等である。そこで、居住者210が徘徊を示唆する事前行動の後に長時間に亘って居室250を不在にすることを表す撮像画像群が徘徊状態を表す撮像画像群であると推定されるように、居住者状態モデルが生成される。つまり、ユーザは、教師なし学習において、このような徘徊状態を表す撮像画像群が属するグループに対して、徘徊状態を表すラベルを付与する。 FIG. 7 is a diagram showing a captured image group in which the resident 210 is estimated to be in a wandering state. When the resident 210 wanders, the resident 210 is often absent from the living room 250 for an extended period of time after the preliminary behavior suggestive of loitering. Pre-behaviors suggestive of loitering are unusual nocturnal behaviors performed prior to loitering. An antecedent behavior suggesting wandering is, for example, a behavior of moving around in the living room 250, a behavior of going in and out of the living room 250, and the like. Therefore, as it is estimated that the group of captured images showing that the resident 210 is absent from the living room 250 for a long time after the preliminary behavior suggesting wandering is the group of captured images representing the state of wandering, the resident A state model is generated. That is, in the unsupervised learning, the user assigns a label representing the wandering state to a group to which the captured image group representing such a wandering state belongs.

図7に示す撮像画像群は、画像20BA、画像20BB、画像20BC、画像20BD、画像20BEの順で撮像された撮像画像群である。画像20BAと画像20BBと画像20BCとは、居住者210が徘徊を示唆する事前行動をとっているときに撮像された撮像画像であり、居住者210が居室250の中を動き回っているときに撮像された撮像画像である。画像20BDと画像20BEとは、居住者210が居室250を不在にしているときに撮像された撮像画像である。 The captured image group shown in FIG. 7 is a captured image group captured in the order of image 20BA, image 20BB, image 20BC, image 20BD, and image 20BE. The image 20BA, the image 20BB, and the image 20BC are captured images captured when the resident 210 is taking a preliminary action suggesting wandering, and captured when the resident 210 is moving around in the living room 250. It is a captured image. The image 20BD and the image 20BE are captured images captured when the resident 210 is away from the living room 250 .

図8は、居住者210の状態が発熱状態であると推定される撮像画像群を示す図である。居住者210が発熱している場合、撮像画像上において居住者210の発熱量が普段の発熱量よりも多い状態が長時間継続する。そこで、居住者210の発熱量が普段の発熱量よりも多い状態が長時間継続することを示す撮像画像群が発熱状態を表す撮像画像群であると推定されるように、居住者状態モデルが生成される。つまり、ユーザは、教師なし学習において、このような発熱状態を表す撮像画像群が属するグループに対して、発熱状態を表すラベルを付与する。 FIG. 8 is a diagram showing a captured image group in which it is estimated that the resident 210 is in a fever state. When the resident 210 is generating heat, the state in which the amount of heat generated by the resident 210 in the captured image is greater than the usual amount of heat continues for a long period of time. Therefore, the resident state model is designed so that the group of captured images showing that the amount of heat generated by the resident 210 is greater than the usual amount of heat continues for a long period of time is assumed to be the group of captured images representing the heat generation state. generated. In other words, in the unsupervised learning, the user assigns a label representing the heat generation state to the group to which the captured image group representing such a heat generation state belongs.

図8に示す撮像画像群は、画像20CA、画像20CB、画像20CCの順で撮像された撮像画像群である。画像20CAと画像20CBと画像20CCとは、居住者210が普段の熱放射と比較して強い熱放射を継続しているときに撮像された撮像画像である。なお、画像20Cは、居住者210が普段の熱放射をしているときに撮像された撮像画像である。普段の熱放射は、例えば、大半の時間に検出される居住者210の熱放射である。 The captured image group shown in FIG. 8 is a captured image group captured in the order of the image 20CA, the image 20CB, and the image 20CC. An image 20CA, an image 20CB, and an image 20CC are captured images captured when the resident 210 continues to emit strong heat radiation compared to normal heat radiation. Note that the image 20C is a captured image captured when the resident 210 is normally radiating heat. Normal thermal radiation is, for example, the thermal radiation of occupants 210 that is detected most of the time.

図9は、居住者210の状態が密集状態であると推定される撮像画像を示す図である。居住者210を含む複数の人が密集している場合、撮像画像上において複数の熱源が近接する。そこで、複数の熱源が近接していることを示す撮像画像が密集状態を表す撮像画像であると推定されるように、居住者状態モデルが生成される。つまり、ユーザは、教師なし学習において、このような密集状態を表す撮像画像が属するグループに対して、密集状態を表すラベルを付与する。なお、密集状態は、1つの撮像画像から推定可能である。従って、密集状態を推定する場合、居住者状態モデルへの入力は、1つの撮像画像でよい。図9に示す画像20Dは、居住者210を含む複数の人が居室250の中で密集しているときに撮像された撮像画像である。 FIG. 9 is a diagram showing a captured image in which the state of residents 210 is estimated to be in a dense state. When a plurality of people including the resident 210 are concentrated, a plurality of heat sources are close to each other on the captured image. Therefore, a resident state model is generated so that a captured image showing that a plurality of heat sources are close to each other is estimated to be a captured image representing a dense state. That is, in unsupervised learning, the user assigns a label representing the state of congestion to a group to which captured images representing such a state of congestion belong. Note that the congestion state can be estimated from one captured image. Therefore, when estimating the congestion state, the input to the occupant state model may be one captured image. An image 20D shown in FIG. 9 is a captured image captured when a plurality of people including the resident 210 are crowded together in the living room 250 .

次に、図10のフローチャートを参照して、学習装置110が実行する学習処理について説明する。 Next, the learning process executed by the learning device 110 will be described with reference to the flowchart of FIG.

学習装置110が備える制御部11は、学習用データを取得する(ステップS101)。学習用データは、多数の正常撮像画像群と多数の異常撮像画像群とを含む。撮像装置200が取得した一連の撮像画像群は、学習用データとして学習装置110に直接供給されてもよいし、学習用データとして記憶装置130に記憶されて、適宜、学習装置110に供給されてもよい。つまり、制御部11は、撮像装置200又は記憶装置130から学習用データを取得する。 The control unit 11 included in the learning device 110 acquires learning data (step S101). The learning data includes a large number of normal captured image groups and a large number of abnormal captured image groups. A series of captured images acquired by the imaging device 200 may be directly supplied to the learning device 110 as learning data, or may be stored in the storage device 130 as learning data and supplied to the learning device 110 as appropriate. good too. That is, the control unit 11 acquires learning data from the imaging device 200 or the storage device 130 .

制御部11は、ステップS101の処理を完了すると、教師なし学習を実行する(ステップS102)。具体的には、制御部11は、取得した学習用データに含まれる多数の撮像画像群を用いて教師なし学習を実行し、多数の撮像画像群を複数のグループに分類する。制御部11は、ステップS102の処理を完了すると、ラベル付けを実行する(ステップS103)。制御部11は、操作受付部14がユーザから受け付けた操作に従って、複数のグループのそれぞれにラベルを付与する。このラベル付けにより、学習済みモデルが完成する。 After completing the process of step S101, the control unit 11 executes unsupervised learning (step S102). Specifically, the control unit 11 performs unsupervised learning using a large number of captured image groups included in the acquired learning data, and classifies the large number of captured image groups into a plurality of groups. After completing the process of step S102, the control unit 11 performs labeling (step S103). The control unit 11 assigns a label to each of the plurality of groups according to the operation received from the user by the operation receiving unit 14 . This labeling completes the trained model.

制御部11は、ステップS103の処理を完了すると、学習済みモデルを保存する(ステップS104)。制御部11は、ラベル付けにより完成した学習済みモデルを記憶装置130に保存する。制御部11は、ステップS104の処理を完了すると、学習処理を完了する。 After completing the process of step S103, the control unit 11 saves the learned model (step S104). The control unit 11 stores the trained model completed by labeling in the storage device 130 . After completing the process of step S104, the control unit 11 completes the learning process.

次に、図11のフローチャートを参照して、推定装置120が実行する推定処理について説明する。 Next, the estimation processing performed by the estimation device 120 will be described with reference to the flowchart of FIG. 11 .

推定装置120が備える制御部21は、撮像装置200から撮像画像群を取得する(ステップS201)。制御部21は、ステップS201の処理を完了すると、取得した撮像画像群を学習済みモデルに入力する(ステップS202)。学習済みモデルは、入力された撮像画像群から居住者210の状態を推定する。居住者210の状態は、正常状態と異常状態との何れかである。異常状態は、転倒状態と徘徊状態と発熱状態と密集状態との何れかの状態である。 The control unit 21 included in the estimation device 120 acquires a captured image group from the imaging device 200 (step S201). After completing the process of step S201, the control unit 21 inputs the acquired captured image group to the learned model (step S202). The trained model estimates the state of the resident 210 from the input group of captured images. The status of the resident 210 is either normal or abnormal. The abnormal state is any one of a falling state, a wandering state, a heat generating state, and a crowded state.

制御部21は、ステップS202の処理を完了すると、学習済みモデルから推定結果を取得する(ステップS203)。制御部21は、ステップS203の処理を完了すると、推定結果を表示装置300に出力する(ステップS204)。なお、表示装置300は、推定装置120から供給された推定結果を示す画像を表示する。制御部21は、ステップS204の処理を完了すると、推定処理を完了する。 After completing the process of step S202, the control unit 21 acquires an estimation result from the learned model (step S203). After completing the process of step S203, the control unit 21 outputs the estimation result to the display device 300 (step S204). Note that the display device 300 displays an image indicating the estimation result supplied from the estimation device 120 . After completing the process of step S204, the control unit 21 completes the estimation process.

本実施の形態では、正常撮像画像と異常撮像画像とを用いた機械学習により学習済みモデルが生成され、生成された学習済みモデルを用いて撮像画像から見守り対象者の状態が推定される。本実施の形態によれば、見守り対象者に応じた学習済みモデルから見守り対象者の状態が推定されるため、見守り対象者の状態を精度良く推定することができる。 In the present embodiment, a trained model is generated by machine learning using normal captured images and abnormal captured images, and the state of the person being watched over is estimated from the captured images using the generated trained model. According to the present embodiment, since the state of the person being watched over is estimated from the trained model corresponding to the person being watched over, the state of the person being watched over can be accurately estimated.

また、本実施の形態では、転倒状態と徘徊状態と発熱状態と密集状態とを推定可能な学習済みモデルを用いて、見守り対象者が正常状態と転倒状態と徘徊状態と発熱状態と密集状態との何れかの状態であるかが推定される。従って、本実施の形態によれば、見守り対象者の状態が、正常状態と転倒状態と徘徊状態と発熱状態と密集状態との何れかの状態であるかを精度良く推定することができる。 In addition, in the present embodiment, a learned model capable of estimating a falling state, a wandering state, a fever state, and a crowded state is used to determine whether the person being watched over is in a normal state, a falling state, a wandering state, a fever state, and a crowded state. is estimated to be in any of the states of Therefore, according to the present embodiment, it is possible to accurately estimate whether the person being watched over is in any of the normal state, the overturned state, the wandering state, the fever state, and the crowded state.

(実施の形態2)
実施の形態1では、見守り対象者毎に学習済みモデルが用意される例について説明した。実施の形態2では、複数の見守り対象者に共通して1つの学習済みモデルが用意される例について説明する。なお、実施の形態1と同様の構成及び機能については、適宜、説明を省略又は簡略化する。
(Embodiment 2)
Embodiment 1 has described an example in which a trained model is prepared for each watching target person. Embodiment 2 will explain an example in which one trained model is prepared in common for a plurality of persons being watched over. Note that descriptions of configurations and functions similar to those of the first embodiment will be omitted or simplified as appropriate.

図12に、本実施の形態に係る推定システム100の機能的な構成を示す。本実施の形態に係る学習装置110は、機能的には、画像取得部111と、モデル生成部112と、ラベル受付部113と、パラメータ取得部114とを備える。本実施の形態に係る推定装置120は、機能的には、画像取得部121と、推定部122と、出力部123と、パラメータ取得部124とを備える。 FIG. 12 shows a functional configuration of estimation system 100 according to this embodiment. Learning device 110 according to the present embodiment functionally includes image acquisition unit 111 , model generation unit 112 , label reception unit 113 , and parameter acquisition unit 114 . Estimation apparatus 120 according to the present embodiment functionally includes image acquisition section 121 , estimation section 122 , output section 123 , and parameter acquisition section 124 .

画像取得部111は、複数の見守り対象者のそれぞれの部屋を撮像することにより得られる撮像画像を取得する。画像取得部111は、複数の見守り対象者の部屋に設けられた複数の撮像装置200のそれぞれから、一連の撮像画像群を学習データとして取得する。この一連の撮像画像群は、正常撮像画像群と異常撮像画像群との何れかである。 The image acquisition unit 111 acquires a captured image obtained by capturing an image of each room of a plurality of persons being watched over. The image acquisition unit 111 acquires a series of captured images as learning data from each of the plurality of imaging devices 200 provided in the rooms of the plurality of persons being watched over. This series of captured image groups is either a normal captured image group or an abnormal captured image group.

パラメータ取得部114は、複数の見守り対象者のそれぞれに関するパラメータを取得する。パラメータ取得部114は、画像取得部111が一連の撮像画像群を取得するときに、一連の撮像画像群に対応するパラメータを学習データとして取得する。このパラメータは、見守り対象者の属性を示すパラメータである。このパラメータは、例えば、見守り対象者の年齢、性別、身体特性、健康度合い等である。身体特性は、身長、体重、平熱、平均心拍数等である。健康度合いは、要介護、病気の有無等である。 The parameter acquisition unit 114 acquires parameters related to each of a plurality of persons to be watched over. When the image acquisition unit 111 acquires a series of captured images, the parameter acquisition unit 114 acquires parameters corresponding to the series of captured images as learning data. This parameter is a parameter that indicates the attributes of the person being watched over. The parameters are, for example, the age, gender, physical characteristics, and degree of health of the person being watched over. Physical characteristics include height, weight, normal body temperature, average heart rate, and the like. The degree of health is the need for nursing care, the presence or absence of illness, and the like.

パラメータ取得部114は、例えば、第1見守り対象者の部屋を撮像する撮像装置200から一連の撮像画像群を取得するときに、第1見守り対象者のパラメータである第1パラメータを取得する。例えば、見守り対象者の識別情報と撮像装置200の識別情報とパラメータとが対応付けられたパラメータ情報が記憶装置130に記憶されている場合を想定する。この場合、パラメータ取得部114は、一連の撮像画像群の取得元の撮像装置200により撮像される見守り対象者に関するパラメータを、記憶装置130に記憶されたパラメータ情報から特定して取得することができる。 For example, the parameter acquisition unit 114 acquires the first parameter, which is the parameter of the first watching target person, when acquiring a series of captured images from the imaging device 200 that captures images of the first watching target person's room. For example, it is assumed that the storage device 130 stores parameter information in which the identification information of the person being watched over, the identification information of the imaging device 200, and the parameters are associated with each other. In this case, the parameter acquisition unit 114 can specify and acquire parameters related to the person being watched over captured by the imaging device 200 from which the group of captured images is acquired, from the parameter information stored in the storage device 130 . .

モデル生成部112は、画像取得部111が取得した撮像画像とパラメータ取得部114が取得したパラメータとを含む学習用データを用いた機械学習により、撮像画像から見守り対象者の状態を推定するための学習済みモデルを生成する。例えば、モデル生成部112は、一連の撮像画像群とパラメータとの組み合わせを、複数のグループの何れかに分類する。また、モデル生成部112は、ユーザによる指示に従って、複数のグループのそれぞれに対してラベル付けを実行する。 The model generation unit 112 performs machine learning using learning data including the captured image acquired by the image acquisition unit 111 and the parameters acquired by the parameter acquisition unit 114 to estimate the state of the person being watched over from the captured image. Generate a trained model. For example, the model generation unit 112 classifies a combination of a series of captured images and parameters into one of a plurality of groups. In addition, the model generation unit 112 labels each of the plurality of groups according to instructions from the user.

モデル生成部112は、ラベル付けにより完成した学習済みモデルを記憶装置130に保存する。この学習済みモデルは、複数の見守り対象者のそれぞれについて取得された撮像画像と、複数の見守り対象者のそれぞれに関するパラメータとを用いた機械学習により取得されたモデルである。この学習済みモデルは、複数の見守り対象者に対して共通の学習済みモデルである。 The model generation unit 112 stores the trained model completed by labeling in the storage device 130 . This trained model is a model acquired by machine learning using captured images acquired for each of the plurality of watching targets and parameters for each of the plurality of watching targets. This learned model is a common learned model for a plurality of persons being watched over.

ラベル受付部113は、ユーザからラベルを受け付ける。ユーザは、分類された複数のグループのそれぞれについて、ラベル付けを実行する。なお、ユーザは、一連の撮像画像群とパラメータとを考慮して、ラベル付けを実行することができる。例えば、37度の発熱状態を示す一連の撮像画像群と平熱が36度であることを示すパラメータとの組み合わせが属する第1グループと、37度の発熱状態を示す一連の撮像画像群と平熱が36.5度であることを示すパラメータとの組み合わせが属する第2グループとがある場合を想定する。この場合、ユーザは、第1グループに対して発熱状態を示すラベルを付し、第2グループに対して正常状態を示すラベルを付してもよい。 The label accepting unit 113 accepts a label from the user. The user performs labeling for each of the classified groups. It should be noted that the user can perform labeling in consideration of a series of captured images and parameters. For example, a first group to which a combination of a series of captured images showing a fever state of 37 degrees and a parameter indicating that the normal temperature is 36 degrees belongs, and a group of captured images showing a fever state of 37 degrees and the normal temperature. Assume that there is a second group to which the combination with the parameter indicating 36.5 degrees belongs. In this case, the user may label the first group with a label indicating a fever state and label the second group with a label indicating a normal state.

画像取得部121は、複数の見守り対象者のうち第1見守り対象者の部屋を撮像する第1撮像装置から第1撮像画像を取得する。第1撮像装置は、複数の撮像装置200のうち第1見守り対象者の部屋を撮像する撮像装置200である。パラメータ取得部124は、複数の見守り対象者のうち第1見守り対象者に関するパラメータである第1パラメータを取得する。例えば、パラメータ取得部124は、第1撮像装置により撮像される第1見守り対象者に関するパラメータを、記憶装置130に記憶されたパラメータ情報から特定して取得することができる。パラメータ取得部124は、パラメータ取得手段の一例である。 The image acquisition unit 121 acquires a first captured image from a first imaging device that captures an image of the room of a first person being watched over among the plurality of persons being watched over. The first imaging device is the imaging device 200 that captures the room of the first person being watched over among the plurality of imaging devices 200 . The parameter acquisition unit 124 acquires a first parameter that is a parameter related to a first person being watched over among the plurality of persons being watched over. For example, the parameter acquisition unit 124 can specify and acquire parameters related to the first person being watched over captured by the first imaging device from the parameter information stored in the storage device 130 . The parameter acquisition unit 124 is an example of parameter acquisition means.

推定部122は、学習済みモデルを用いて、画像取得部121が取得した第1撮像画像とパラメータ取得部124が取得した第1パラメータとから第1見守り対象者の状態を推定する。出力部123は、推定部122による推定結果を出力する。 The estimation unit 122 estimates the state of the first person being watched over from the first captured image acquired by the image acquisition unit 121 and the first parameters acquired by the parameter acquisition unit 124 using the learned model. The output unit 123 outputs the result of estimation by the estimation unit 122 .

ここで、図13を参照して、モデル生成部112が生成する学習済みモデルについて説明する。本実施の形態では、学習済みモデルは、一連の撮像画像群とパラメータとから居住者の状態を推定するための居住者状態モデルである。従って、居住者状態モデルの入力は、一連の撮像画像群及びパラメータである。また、居住者状態モデルの出力は、居住者210の状態である。居住者210の状態としては、正常状態、転倒状態、徘徊状態、発熱状態、密集状態等がある。 Here, the learned model generated by the model generation unit 112 will be described with reference to FIG. 13 . In the present embodiment, the trained model is a resident state model for estimating the state of the resident from a series of captured images and parameters. Therefore, the input of the occupant condition model is a series of captured images and parameters. Also, the output of the resident state model is the resident 210 state. The state of the resident 210 includes a normal state, a falling state, a wandering state, a fever state, a crowded state, and the like.

次に、図14のフローチャートを参照して、学習装置110が実行する学習処理について説明する。 Next, the learning process executed by the learning device 110 will be described with reference to the flowchart of FIG. 14 .

学習装置110が備える制御部11は、撮像画像群とパラメータとを含む学習用データを取得する(ステップS301)。例えば、制御部11は、各居住者210に対応する一連の撮像画像群を、複数の撮像装置200から取得する。又は、制御部11は、各居住者210に対応する一連の撮像画像群を、複数の撮像装置200が取得した一連の撮像画像群を記憶する記憶装置130から取得してもよい。また、制御部11は、記憶装置130から各居住者210に対応するパラメータを取得する。つまり、制御部11は、複数の撮像装置200と記憶装置130とから学習用データを取得する。 The control unit 11 included in the learning device 110 acquires learning data including a captured image group and parameters (step S301). For example, the control unit 11 acquires a series of captured images corresponding to each resident 210 from the multiple imaging devices 200 . Alternatively, the control unit 11 may acquire a series of captured image groups corresponding to each resident 210 from the storage device 130 that stores a series of captured image groups acquired by the plurality of imaging devices 200 . Also, the control unit 11 acquires parameters corresponding to each resident 210 from the storage device 130 . That is, the control unit 11 acquires learning data from the multiple imaging devices 200 and the storage device 130 .

制御部11は、ステップS301の処理を完了すると、教師なし学習を実行する(ステップS302)。具体的には、制御部11は、取得した学習用データに含まれる多数の組み合わせを用いて教師なし学習を実行し、多数の組み合わせを複数のグループに分類する。この組み合わせは、撮像画像群及びパラメータの組み合わせである。制御部11は、ステップS302の処理を完了すると、ラベル付けを実行する(ステップS303)。制御部11は、操作受付部14がユーザから受け付けた操作に従って、複数のグループのそれぞれにラベルを付与する。このラベル付けにより、学習済みモデルが生成される。 After completing the process of step S301, the control unit 11 executes unsupervised learning (step S302). Specifically, the control unit 11 performs unsupervised learning using a large number of combinations included in the acquired learning data, and classifies the large number of combinations into a plurality of groups. This combination is a combination of captured image groups and parameters. After completing the process of step S302, the control unit 11 performs labeling (step S303). The control unit 11 assigns a label to each of the plurality of groups according to the operation received from the user by the operation receiving unit 14 . This labeling produces a trained model.

制御部11は、ステップS303の処理を完了すると、学習済みモデルを保存する(ステップS304)。制御部11は、ラベル付けにより完成した学習済みモデルを記憶装置130に保存する。制御部11は、ステップS304の処理を完了すると、学習処理を完了する。 After completing the process of step S303, the control unit 11 saves the learned model (step S304). The control unit 11 stores the trained model completed by labeling in the storage device 130 . After completing the process of step S304, the control unit 11 completes the learning process.

次に、図15のフローチャートを参照して、推定装置120が実行する推定処理について説明する。 Next, the estimation processing executed by the estimation device 120 will be described with reference to the flowchart of FIG. 15 .

推定装置120が備える制御部21は、第1撮像装置から第1撮像画像群を取得する(ステップS401)。制御部21は、ステップS401の処理を完了すると、第1パラメータを取得する(ステップS402)。制御部21は、第1撮像装置により撮像される部屋に居住する第1居住者に関するパラメータである第1パラメータを記憶装置130から取得する。制御部21は、ステップS402の処理を完了すると、第1撮像画像群と第1パラメータとを学習済みモデルに入力する(ステップS403)。学習済みモデルは、入力された第1撮像画像群及び第1パラメータから居住者210の状態を推定する。 The control unit 21 included in the estimation device 120 acquires the first captured image group from the first imaging device (step S401). After completing the process of step S401, the control unit 21 acquires the first parameter (step S402). The control unit 21 acquires from the storage device 130 a first parameter, which is a parameter related to the first resident who lives in the room imaged by the first imaging device. After completing the process of step S402, the control unit 21 inputs the first captured image group and the first parameter to the learned model (step S403). The trained model estimates the state of the resident 210 from the input first captured image group and first parameters.

制御部21は、ステップS403の処理を完了すると、学習済みモデルから推定結果を取得する(ステップS404)。制御部21は、ステップS404の処理を完了すると、推定結果を表示装置300に出力する(ステップS405)。制御部21は、ステップS405の処理を完了すると、推定処理を完了する。 After completing the process of step S403, the control unit 21 acquires an estimation result from the learned model (step S404). After completing the process of step S404, the control unit 21 outputs the estimation result to the display device 300 (step S405). After completing the process of step S405, the control unit 21 completes the estimation process.

本実施の形態では、複数の見守り対象者のそれぞれの部屋を撮像することにより得られる撮像画像と複数の見守り対象者のそれぞれに関するパラメータとを用いた機械学習により取得された学習済みモデルを用いて、第1見守り対象者の部屋を撮像する第1撮像装置から取得された第1撮像画像と第1見守り対象者に関する第1パラメータとから第1見守り対象者の状態が推定される。本実施の形態によれば、複数の見守り対象者に共通の学習済みモデルから第1パラメータに応じて第1見守り対象者の状態が適切に推定されるため、見守り対象者の状態を精度良く推定することができる。つまり、本実施の形態によれば、複数の見守り対象者に共通する学習済みモデルを用いる場合においても、見守り対象者の属性が考慮されるため、属性に応じた適切な推定が可能である。 In the present embodiment, a trained model obtained by machine learning using a captured image obtained by capturing an image of each room of a plurality of watching targets and parameters related to each of the plurality of watching targets is used. , the state of the first watching target is estimated from the first captured image obtained from the first imaging device that captures the room of the first watching target and the first parameter related to the first watching target. According to the present embodiment, since the state of the first person being watched over is appropriately estimated according to the first parameter from a trained model common to a plurality of persons being watched over, the state of the person being watched over can be accurately estimated. can do. That is, according to the present embodiment, even when using a trained model common to a plurality of persons being watched over, since the attributes of the persons being watched over are taken into consideration, appropriate estimation according to the attributes is possible.

(実施の形態3)
実施の形態1では、学習済みモデルの出力自体を推定結果として扱う例について説明した。実施の形態3では、学習済みモデルの出力に基づいて推定結果を求める例について説明する。具体的には、実施の形態3では、学習済みモデルを用いて、見守り対象者の状態を推定するための推定材料を取得し、取得した推定材料に基づいて見守り対象者の状態を推定する。なお、実施の形態1,2と同様の構成及び機能については、適宜、説明を省略又は簡略化する。
(Embodiment 3)
Embodiment 1 has described an example in which the output of a trained model itself is treated as an estimation result. Embodiment 3 describes an example in which an estimation result is obtained based on the output of a trained model. Specifically, in the third embodiment, estimation materials for estimating the state of the person being watched over are obtained using the trained model, and the state of the person being watched over is estimated based on the obtained estimation materials. It should be noted that descriptions of configurations and functions similar to those of the first and second embodiments will be omitted or simplified as appropriate.

図16に、本実施の形態に係る推定システム100の機能的な構成を示す。本実施の形態に係る学習装置110は、機能的には、画像取得部111と、モデル生成部112と、ラベル受付部113とを備える。本実施の形態に係る推定装置120は、機能的には、画像取得部121と、状態判別部125と状態推定部126とを備える推定部122と、出力部123とを備える。 FIG. 16 shows a functional configuration of estimation system 100 according to this embodiment. Learning device 110 according to the present embodiment functionally includes image acquisition unit 111 , model generation unit 112 , and label reception unit 113 . Estimating apparatus 120 according to the present embodiment functionally includes image acquiring section 121 , estimating section 122 including state determining section 125 and state estimating section 126 , and output section 123 .

状態判別部125は、学習済みモデルを用いて撮像画像から見守り対象者の状態が疑異常状態であるか否かを判別する。疑異常状態は、異常が疑われる状態であり、異常状態であると見做す余地がある状態である。本実施の形態では、学習済みモデルは、見守り対象者の状態が疑異常状態であるか否かを判別するためのモデルである。疑異常状態であると判別されると、他の条件が考慮されて、異常状態であるか否かが推定される。一方、疑異常状態でないと判別されると、正常状態であると推定される。つまり、疑異常状態は、異常状態であると推定されるための必要条件である。状態判別部125は、状態判別手段の一例である。 The state determination unit 125 determines whether or not the state of the person being watched over is in a suspected abnormal state from the captured image using the learned model. A suspected abnormal state is a state in which an abnormality is suspected, and is a state that can be regarded as an abnormal state. In the present embodiment, the learned model is a model for determining whether or not the state of the person being watched over is in a suspected abnormal state. When a suspected abnormal condition is determined, other conditions are taken into account to estimate whether an abnormal condition exists. On the other hand, if it is determined that it is not in a suspected abnormal state, it is estimated that it is in a normal state. In other words, the suspected abnormal state is a necessary condition for presuming an abnormal state. The state determination unit 125 is an example of state determination means.

状態推定部126は、状態判別部125による判別結果に基づいて、見守り対象者の状態を推定する。例えば、状態推定部126は、状態判別部125が見守り対象者の状態が疑異常状態であると判別した場合において、他の条件が満たされる場合、見守り対象者の状態が異常状態であると推定する。これに対して、状態推定部126は、状態判別部125が見守り対象者の状態が疑異常状態でないと判別した場合、見守り対象者の状態が正常状態であると推定する。なお、出力部123は、状態推定部126による推定結果を出力する。状態推定部126は、状態推定手段の一例である。 The state estimating unit 126 estimates the state of the person being watched over based on the determination result of the state determining unit 125 . For example, when the state determination unit 125 determines that the state of the person being watched over is in a suspected abnormal state, the state estimation unit 126 estimates that the state of the person being watched over is in an abnormal state if another condition is satisfied. do. On the other hand, when the state determination unit 125 determines that the state of the person being watched over is not the suspected abnormal state, the state estimation unit 126 estimates that the state of the person being watched over is the normal state. Note that the output unit 123 outputs the result of estimation by the state estimation unit 126 . The state estimation unit 126 is an example of state estimation means.

疑異常状態と他の条件とは、適宜、調整することができる。例えば、状態推定部126は、状態判別部125が単位時間内に閾値以上の割合で見守り対象者の状態が疑異常状態であると判別した場合、見守り対象者の状態が異常状態であると推定することができる。この場合、疑異常状態はどのような状態でもよい。また、この場合、他の条件は、単位時間内に閾値以上の割合で見守り対象者の状態が疑異常状態であるという条件である。 Suspicious abnormal conditions and other conditions can be adjusted accordingly. For example, when the state determination unit 125 determines that the state of the person being watched over is in the suspected abnormal state at a rate equal to or greater than the threshold within the unit time, the state estimation unit 126 estimates that the state of the person being watched over is in the abnormal state. can do. In this case, the suspected abnormal state may be any state. In this case, another condition is that the state of the person being watched over is in the suspected abnormal state at a rate equal to or greater than the threshold within the unit time.

例えば、10分間に8割以上の割合で37度以上の熱源が検出されたときに見守り対象者が発熱状態であると見做す場合を想定する。この場合、疑異常状態は、37度以上の体温を有する状態である。また、この場合、他の条件は、見守り対象者の状態が10分間に8割以上の割合で疑異常状態であることである。この場合、学習済みモデルは、撮像画像から見守り対象者が37度以上の体温を有するか否かを判別可能なモデルであればよい。つまり、この場合、学習済みモデルは、見守り対象者の状態が疑異常状態である時間の割合については判別可能でなくてもよい。 For example, assume a case where the person being watched over is considered to have a fever when a heat source of 37° C. or higher is detected at a rate of 80% or more in 10 minutes. In this case, the suspected abnormal state is a state of having a body temperature of 37 degrees or higher. In this case, another condition is that the state of the person being watched over is in the suspected abnormal state at a rate of 80% or more in 10 minutes. In this case, the trained model may be a model that can determine whether or not the person being watched over has a body temperature of 37 degrees or higher from the captured image. That is, in this case, the trained model does not have to be able to determine the percentage of time when the watching target person is in the suspected abnormal state.

他の例として、見守り対象者の周囲が密集状態であると見做す場合を想定すると、疑異常状態は、見守り対象者を含む複数の人が密集している状態である。この状態は、見守り対象者が医療従事者によって、診療、医療行為、介護サービスを受けている状態、又は、見守り対象者同士が通行時にすれ違った状態を含む。また、この場合、他の条件は、見守り対象者の状態が一定時間(例えば、15分間)以上、疑異常状態として継続していることである。この場合、学習済みモデルは、撮像画像から見守り対象者が密集状態にあるか否かを判別可能なモデルであればよい。 As another example, assuming that the surroundings of the person being watched over are in a crowded state, the suspected abnormal state is a state in which a plurality of people including the person being watched over are gathered. This state includes a state in which the watching target is receiving medical treatment, medical treatment, or nursing care service from a medical worker, or a state in which the watching targets pass each other while passing each other. In this case, another condition is that the state of the person being watched over continues as a suspected abnormal state for a certain period of time (for example, 15 minutes) or more. In this case, the trained model may be a model that can determine whether or not the people being watched over are in a crowded state from the captured image.

別の例として、就寝位置とは別の位置で5分間横たわった姿勢で静止した状態が検出されたときに、見守り対象者が卒倒状態であると見做す場合を想定する。この場合、疑異常状態は、就寝位置とは別の位置で横たわる状態である。また、この場合、他の条件は、見守り対象者の状態が5分間継続して疑異常状態であることである。この場合、学習済みモデルは、撮像画像から見守り対象者が就寝位置とは別の位置で横たわる状態であるか否かを判別可能なモデルであればよい。つまり、この場合、学習済みモデルは、見守り対象者の状態が疑異常状態である時間の長さについては判別可能でなくてもよい。 As another example, it is assumed that the person being watched over is in a fainted state when it is detected that the person is lying still for five minutes in a position other than the sleeping position. In this case, the suspected abnormal condition is lying in a position different from the sleeping position. In this case, another condition is that the state of the person being watched over continues for five minutes and is in the suspected abnormal state. In this case, the learned model may be a model that can determine from the captured image whether or not the person being watched over is lying in a position different from the sleeping position. That is, in this case, the trained model does not have to be able to determine the length of time the watching target person is in the suspected abnormal state.

また、疑異常状態は、第1疑異常状態と第2疑異常状態とを含み、状態推定部126は、状態判別部125が見守り対象者の状態が第1疑異常状態であると判別する期間が継続した後、状態判別部125が見守り対象者の状態が第2疑異常状態であると判別する期間が継続した場合、見守り対象者の状態が異常状態であると推定してもよい。 In addition, the suspected abnormal state includes the first suspected abnormal state and the second suspected abnormal state, and the state estimation unit 126 determines that the state of the person being watched over is the first suspected abnormal state. continues, if the state determination unit 125 continues to determine that the state of the person being watched over is in the second suspected abnormal state, it may be estimated that the state of the person being watched over is in the abnormal state.

例えば、徘徊を示唆する事前行動が10分間以上継続した後、見守り対象者が不在の状態が10分間以上継続したときに、見守り対象者が徘徊状態であると見做す場合を想定する。この場合、疑異常状態は、徘徊を示唆する事前行動をする状態という第1疑異常状態と、居室250を不在にする状態という第2疑異常状態とを含む。また、この場合、他の条件は、第1疑異常状態が10分間以上継続した後、第2疑異常状態が10分間以上継続することである。この場合、学習済みモデルは、撮像画像から徘徊を示唆する事前行動があるか否かと、撮像画像から見守り対象者が不在であるか否かを判別可能なモデルであればよい。つまり、この場合、学習済みモデルは、第1疑異常状態及び第2疑異常状態が継続する時間、第1疑異常状態と第2疑異常状態との順序等については判別可能でなくてもよい。 For example, assume a case where the watching target person is assumed to be in a wandering state when the watching target person's absence continues for 10 minutes or more after the preliminary behavior suggesting wandering continues for 10 minutes or more. In this case, the suspected abnormal state includes a first suspected abnormal state in which the subject performs an advance action suggesting loitering, and a second suspected abnormal state in which the user is absent from the living room 250 . In this case, another condition is that the second suspected abnormal state continues for 10 minutes or longer after the first suspected abnormal state continues for 10 minutes or longer. In this case, the trained model may be a model that can determine from the captured image whether or not there is a prior behavior suggesting wandering, and from the captured image whether or not the person to be watched over is absent. In other words, in this case, the trained model may not be able to distinguish the duration of the first suspected abnormal state and the second suspected abnormal state, the order of the first suspected abnormal state and the second suspected abnormal state, etc. .

他の例として、微熱の状態が20分以上継続した後、見守り対象者が動かない状態が5分以上継続したときに、見守り対象者が体調不良で倒れた状態であると見做す場合を想定する。この場合、疑異常状態は、体調不良による微熱状態を示唆する第1疑異常状態と、体調が悪化し居室250で動かなくなり救護が必要であることを示唆する第2疑異常状態とを含む。また、この場合、他の条件は、第1疑異常状態が20分間以上継続した後、第2疑異常状態が5分間以上継続することである。この場合、学習済みモデルは、撮像画像から微熱を示唆する第1疑異常状態があるか否かと、撮像画像から見守り対象者が倒れて動かない第2疑異常状態があるか否かを判別可能なモデルであればよい。つまり、この場合、学習済みモデルは、第1疑異常状態及び第2疑異常状態が継続する時間、第1疑異常状態と第2疑異常状態との順序等については判別可能でなくてもよい。 As another example, after the state of low-grade fever continues for 20 minutes or more, when the person being watched over remains motionless for 5 minutes or more, it is assumed that the person being watched over has fallen down due to poor physical condition. Suppose. In this case, the suspected abnormal state includes a first suspected abnormal state suggesting a low-grade fever due to poor physical condition and a second suspected abnormal state suggesting that the patient's physical condition deteriorates and cannot move in the living room 250 and aid is required. In this case, another condition is that the second suspected abnormal state continues for 5 minutes or longer after the first suspected abnormal state continues for 20 minutes or longer. In this case, the trained model can determine whether there is a first suspected abnormal state suggesting a slight fever from the captured image, and whether there is a second suspected abnormal state from the captured image where the person being watched over falls and does not move. model. In other words, in this case, the trained model may not be able to distinguish the duration of the first suspected abnormal state and the second suspected abnormal state, the order of the first suspected abnormal state and the second suspected abnormal state, etc. .

また、見守り対象者が立位した状態を第1疑異常状態とし、就寝位置とは別の位置で横たわった状態を第2疑異常状態として、例えば第1疑異常状態が20分間以上継続した後、第2疑異常状態が2分間以上継続したときに、見守り対象者が卒倒状態であると見做す場合を想定する。この場合、疑異常状態は、立位状態を示唆する第1疑異常状態と、通常の就寝位置とは別の位置で動かない状態を示唆する第2疑異常状態とを含む。また、この場合、他の条件は、第1疑異常状態が20分間以上継続した後、第2疑異常状態が2分間以上継続することである。この場合、学習済みモデルは、撮像画像から立位を示唆する第1疑異常状態があるか否かと、撮像画像から見守り対象者が就寝位置とは別の位置で横たわり動かない第2疑異常状態があるか否かを判別可能なモデルであればよい。つまり、この場合、学習済みモデルは、第1疑異常状態及び第2疑異常状態が継続する時間、第1疑異常状態と第2疑異常状態との順序等については判別可能でなくてもよい。 The first suspected abnormal state is the state in which the person being watched over is standing, and the second suspected abnormal state is the state in which the person being watched over is lying in a position different from the sleeping position. For example, after the first suspected abnormal state continues for 20 minutes or longer , when the second suspected abnormal state continues for two minutes or longer, the person being watched over is assumed to be in a state of collapse. In this case, the suspected abnormal state includes a first suspected abnormal state suggesting a standing state and a second suspected abnormal state suggesting a state of not moving in a position different from the normal sleeping position. In this case, another condition is that the second suspected abnormal state continues for 2 minutes or longer after the first suspected abnormal state continues for 20 minutes or longer. In this case, the trained model determines whether or not there is a first quasi-abnormal state suggesting a standing position from the captured image, and a second quasi-abnormal state in which the person being watched over lies in a position different from the sleeping position and does not move, based on the captured image. Any model can be used as long as it can determine whether or not there is In other words, in this case, the trained model may not be able to distinguish the duration of the first suspected abnormal state and the second suspected abnormal state, the order of the first suspected abnormal state and the second suspected abnormal state, etc. .

また、状態推定部126は、状態判別部125が第1時間帯に見守り対象者の状態が疑異常状態であると判別した場合、見守り対象者の状態が異常状態であると推定し、状態判別部125が第1時間帯とは異なる第2時間帯に見守り対象者の状態が疑異常状態であると判別した場合、見守り対象者の状態が正常状態であると推定してもよい。 Further, when the state determination unit 125 determines that the state of the person being watched over is in the suspected abnormal state in the first time period, the state estimation unit 126 estimates that the state of the person being watched over is in the abnormal state, and determines the state of the person being watched over. When the unit 125 determines that the state of the person being watched over is in the suspected abnormal state in the second time period different from the first time period, it may be estimated that the state of the person being watched over is in the normal state.

例えば、夜の時間帯に見守り対象者が居室250の中を動き回った後に居室250からいなくなったときに見守り対象者が徘徊状態であると見做す場合を想定する。この場合、疑異常状態は、居室250の中を動き回った後に居室250からいなくなった状態である。また、この場合、他の条件は、夜の時間帯であるという条件である。この場合、学習済みモデルは、撮像画像から見守り対象者が居室250の中を動き回った後に居室250からいなくなったことを判別可能なモデルであればよい。つまり、この場合、学習済みモデルは、見守り対象者が疑異常状態である時間帯を判別可能でなくてもよい。 For example, it is assumed that the person being watched over is in a wandering state when the person being watched over has left the living room 250 after moving around in the living room 250 at night. In this case, the suspected abnormal state is a state in which the person has left the living room 250 after moving around in the living room 250 . In this case, the other condition is that it is nighttime. In this case, the learned model may be any model that can determine from the captured image that the person being watched over has left the living room 250 after moving around in the living room 250 . That is, in this case, the trained model does not have to be able to determine the time period during which the person being watched over is in the suspected abnormal state.

また、食事の時間帯以外の時間帯に見守り対象者が発熱状態であれば、見守り対象者が発熱状態であると見做してもよい。この場合、疑異常状態は、見守り対象者が発熱しているという状態である。食事中は、見守り対象者が高温の食事を取ることで発熱状態にあるのか判断が難しいため、他の条件を食事の時間帯以外の時間帯であるとする。この場合、学習済みモデルは、撮像画像から見守り対象者が発熱状態にあるか否かを判別可能なモデルであればよい。つまり、この場合、学習済みモデルは、見守り対象者が疑異常状態である時間帯を判別可能でなくてもよい。 Also, if the person being watched over is in a fever condition during a time slot other than the meal time slot, it may be assumed that the person being watched over is in a fever condition. In this case, the suspected abnormal state is a state in which the person being watched over has a fever. During a meal, it is difficult to determine whether the person being watched over has a fever due to eating a hot meal. In this case, the trained model may be a model that can determine whether or not the person being watched over is in a fevered state from the captured image. That is, in this case, the trained model does not have to be able to determine the time period during which the person being watched over is in the suspected abnormal state.

別の例として、就寝時間帯以外の時間帯において、見守り対象者が立位状態の後、横たわって動かない状態であれば、見守り対象者が卒倒状態であると見做してもよい。この場合、疑異常状態は、見守り対象者が立位状態から横たわって静止する状態である。この場合、他の条件は、昼の時間帯であるという条件である。この場合、学習済みモデルは、撮像画像から見守り対象者が立位状態後に座位状態を経ずに横たわって静止した状態となることを判別可能なモデルであればよい。つまり、この場合、学習済みモデルは、見守り対象者が疑異常状態である時間帯を判別可能でなくてもよい。 As another example, if the person being watched over is lying down and does not move after standing in a time period other than the sleeping time period, it may be assumed that the person being watched over is in a fainted state. In this case, the suspected abnormal state is a state in which the person being watched over lies down from the standing state and stands still. In this case, another condition is the condition that it is daytime. In this case, the trained model may be a model that can determine from the captured image that the person being watched over will be in a lying down state without going through a sitting state after being in a standing state. That is, in this case, the trained model does not have to be able to determine the time period during which the person being watched over is in the suspected abnormal state.

次に、図17のフローチャートを参照して、推定装置120が実行する推定処理について説明する。 Next, the estimation processing executed by the estimation device 120 will be described with reference to the flowchart of FIG. 17 .

推定装置120が備える制御部21は、撮像装置200から撮像画像群を取得する(ステップS501)。制御部21は、ステップS501の処理を完了すると、撮像画像群を学習済みモデルに入力する(ステップS502)。学習済みモデルは、入力された撮像画像群から居住者210の状態を判別する。 The control unit 21 included in the estimation device 120 acquires a captured image group from the imaging device 200 (step S501). After completing the process of step S501, the control unit 21 inputs the captured image group to the trained model (step S502). The learned model determines the state of the resident 210 from the input captured image group.

制御部21は、ステップS502の処理を完了すると、学習済みモデルから判別結果を取得する(ステップS503)。この判別結果は、居住者210の状態が疑異常状態であるか否かの判別結果である。制御部21は、ステップS503の処理を完了すると、居住者210の状態が疑異常状態であるか否かを判別する(ステップS504)。制御部21は、居住者210の状態が疑異常状態でないと判別すると(ステップS504:NO)、居住者210の状態が正常状態であると推定する(ステップS505)。制御部21は、居住者210の状態が疑異常状態であると判別すると(ステップS504:YES)、他の条件に基づいて居住者210の状態を推定する(ステップS506)。 After completing the process of step S502, the control unit 21 acquires the discrimination result from the learned model (step S503). This determination result is a determination result as to whether or not the state of the resident 210 is a suspected abnormal state. After completing the process of step S503, the control unit 21 determines whether or not the state of the resident 210 is a suspected abnormal state (step S504). When the control unit 21 determines that the state of the resident 210 is not the suspected abnormal state (step S504: NO), the control unit 21 estimates that the state of the resident 210 is normal (step S505). When the control unit 21 determines that the state of the resident 210 is the suspected abnormal state (step S504: YES), the control unit 21 estimates the state of the resident 210 based on other conditions (step S506).

例えば、疑異常状態が閾値以上の体温を有する状態である場合、制御部21は、単位時間内に閾値以上の割合で居住者210が閾値以上の体温であるか否かを判別する。制御部21は、現時点で居住者210の体温が37度以上である場合において、過去10分間に8割以上の割合で居住者210の体温が37度以上であった場合、居住者210が発熱状態であると推定する。制御部21は、現時点で居住者210の体温が37度以上である場合において、過去10分間に8割以上の割合で居住者210の体温が37度以上でなかった場合、居住者210が正常状態であると推定する。 For example, when the suspected abnormal state is a state of having a body temperature equal to or higher than the threshold, the control unit 21 determines whether the body temperature of the resident 210 is equal to or higher than the threshold at a rate equal to or higher than the threshold within a unit time. In the case where the body temperature of the resident 210 is 37 degrees or higher at the present time, the control unit 21 determines whether the resident 210 has a fever when the body temperature of the resident 210 has been 37 degrees or higher at a rate of 80% or more in the past 10 minutes. state. When the body temperature of the resident 210 is 37 degrees or more at the present time, the control unit 21 determines that the resident 210 is normal when the body temperature of the resident 210 is not 37 degrees or more at a rate of 80% or more in the past 10 minutes. state.

制御部21は、ステップS505又はステップS506の処理を完了すると、推定結果を表示装置300に出力する(ステップS507)。制御部21は、ステップS507の処理を完了すると、推定処理を完了する。 After completing the process of step S505 or step S506, the control unit 21 outputs the estimation result to the display device 300 (step S507). After completing the process of step S507, the control unit 21 completes the estimation process.

本実施の形態では、学習済みモデルを用いて撮像画像から見守り対象者の状態が疑異常状態であるか否かが判別され、この判別結果に基づいて、見守り対象者の状態が推定される。本実施の形態では、例えば、見守り対象者の状態が異常状態であるか否かの判別よりも容易な判別である、見守り対象者の状態が疑異常状態であるか否かの判別が、学習済みモデルを用いて実行される。このように、本実施の形態では、学習済みモデルを用いて判別する内容を簡略化することができる。その結果、本実施の形態によれば、見守り対象者の状態を更に精度良く推定することができる。 In the present embodiment, it is determined whether or not the state of the person being watched over is in a suspected abnormal state from the captured image using a learned model, and the state of the person being watched over is estimated based on the result of this determination. In the present embodiment, for example, determination of whether the state of the person being watched over is in a suspected abnormal state, which is easier determination than determination of whether the state of the person being watched over is in an abnormal state, is performed by learning. This is done using the pre-defined model. As described above, in the present embodiment, it is possible to simplify the content to be determined using the trained model. As a result, according to the present embodiment, it is possible to estimate the state of the person being watched over more accurately.

本実施の形態によれば、例えば、見守り対象者の一時的な状態の判別のみが学習済みモデルで実行され、複数の判別結果の組み合わせ、複数の判別結果の順序、同一の判別結果の継続時間、時間帯、見守り対象者の属性等については、学習済みモデルを用いずに判別することができる。かかる構成によれば、学習済みモデルを用いた判別の精度を高めることができ、学習済みモデルを変更せずに見守り対象者の状態の推定方法を柔軟に調整することができる。 According to the present embodiment, for example, only the determination of the temporary state of the person being watched over is performed by the trained model, and the combination of the multiple determination results, the order of the multiple determination results, the duration of the same determination result, and the , time zone, attributes of the person being watched over, etc. can be determined without using a trained model. According to this configuration, it is possible to improve the accuracy of determination using the learned model, and flexibly adjust the estimation method of the state of the person being watched over without changing the learned model.

(変形例)
以上、実施の形態を説明したが、種々の形態による変形及び応用が可能である。上記実施の形態において説明した構成、機能、動作のどの部分を採用するのかは任意である。また、上述した構成、機能、動作のほか、更なる構成、機能、動作が採用されてもよい。また、上記実施の形態において説明した構成、機能、動作は、自由に組み合わせることができる。
(Modification)
Although the embodiment has been described above, various modifications and applications are possible. It is arbitrary to adopt which part of the configuration, function, and operation described in the above embodiment. Also, in addition to the configurations, functions, and operations described above, additional configurations, functions, and operations may be employed. Also, the configurations, functions, and operations described in the above embodiments can be freely combined.

実施の形態1では、推定システム100が学習装置110と推定装置120と記憶装置130との3つの装置を備える例について説明した。推定システム100の構成は、この構成に限定されない。例えば、1つの装置が学習装置110の機能と推定装置120の機能と記憶装置130の機能とを有する場合、推定システム100はこの1つの装置を備えていればよい。また、学習装置110と推定装置120と記憶装置130とが設けられる場所は、どこであってもよい。例えば、学習装置110と推定装置120と記憶装置130とが1つの施設内に設けられていてもよいし、学習装置110と推定装置120と記憶装置130とのうち少なくとも1つの装置がクラウド上に設けられていてもよい。 In Embodiment 1, an example was described in which estimation system 100 includes three devices: learning device 110 , estimation device 120 , and storage device 130 . The configuration of estimation system 100 is not limited to this configuration. For example, if one device has the function of the learning device 110, the function of the estimating device 120, and the function of the storage device 130, the estimating system 100 may include this one device. Moreover, the place where the learning device 110, the estimation device 120, and the storage device 130 are provided may be anywhere. For example, the learning device 110, the estimation device 120, and the storage device 130 may be provided in one facility, or at least one of the learning device 110, the estimation device 120, and the storage device 130 may be installed on the cloud. may be provided.

実施の形態1では、表示装置300が学習装置110及び推定装置120と別に設けられる例について説明した。例えば、学習装置110又は推定装置120が表示装置300の機能を有する場合、表示装置300が設けられなくてもよい。実施の形態1では、出力部123は、表示装置300に推定結果を出力する例について説明した。出力部123は、音声出力装置に推定結果を出力してもよい。この場合、音声出力装置は、音声により推定結果を管理者310に報知する。 Embodiment 1 has described an example in which display device 300 is provided separately from learning device 110 and estimation device 120 . For example, if the learning device 110 or the estimation device 120 has the function of the display device 300, the display device 300 may not be provided. In Embodiment 1, an example in which the output unit 123 outputs the estimation result to the display device 300 has been described. The output unit 123 may output the estimation result to an audio output device. In this case, the voice output device notifies the administrator 310 of the estimation result by voice.

実施の形態1では、異常状態が転倒状態と徘徊状態と発熱状態と密集状態との4つの状態である例について説明した。異常状態をどのような状態にするのかは適宜調整することができる。例えば、異常状態は、上記4つの状態のうち少なくとも1つの状態であってもよいし、上記4つの状態のうち少なくとも1つの状態に加えて他の状態を含んでいてもよいし、上記4つの状態を含まず他の状態を含んでいてもよい。 In the first embodiment, an example has been described in which there are four abnormal states, namely, the overturned state, the wandering state, the heat generating state, and the crowded state. It is possible to appropriately adjust what kind of state the abnormal state should be. For example, the abnormal condition may be at least one of the above four conditions, may include at least one of the above four conditions and another condition, or may be one of the above four conditions. It may not contain any state and may contain other states.

また、上記4つの状態を推定する方法も適宜調整することができる。例えば、実施の形態1では、撮像画像において複数の熱源が近接している場合に、見守り対象者の状態が密集状態であると推定される例について説明した。撮像画像において複数の熱源が近接している場合において、少なくとも1つの熱源が閾値以上の発熱量を有する場合に、居住者210の状態がリスクのある密集状態であると推定されてもよい。 Also, the method of estimating the above four states can be adjusted as appropriate. For example, in Embodiment 1, an example has been described in which it is estimated that the state of the person being watched over is in a crowded state when a plurality of heat sources are close to each other in the captured image. In the case where multiple heat sources are close to each other in the captured image, if at least one heat source has a calorific value equal to or greater than the threshold, the state of the occupants 210 may be estimated to be in a risky crowded state.

実施の形態2では、学習に用いるパラメータが見守り対象者の属性である例について説明した。学習に用いるパラメータをどのようなパラメータにするのかは適宜調整することができる。例えば、学習に用いるパラメータは、時間帯、季節、天候等であってもよい。 Embodiment 2 has described an example in which the parameter used for learning is the attribute of the person being watched over. The parameters to be used for learning can be adjusted as appropriate. For example, parameters used for learning may be time of day, season, weather, and the like.

実施の形態1では、1人の見守り対象者に対して1つの学習済みモデルを用意し、実施の形態2では、複数の見守り対象者に対して1つの学習済みモデルを用意する例について説明した。見守り対象者と学習済みモデルとの対応関係は適宜調整することができる。例えば、複数の見守り対象者が種々の観点から複数のグループに分類され、グループ毎に1つの学習済みモデルが用意されてもよい。この場合、例えば、複数の見守り対象者が、年齢、性別、身体特性、健康度合い、居住場所等に応じた複数のグループに分類されてもよい。かかる構成によれば、見守り対象者の属性に応じて適切に学習済みモデルが生成されるため、見守り対象者の状態が精度良く推定されることが期待できる。 In the first embodiment, one trained model is prepared for one person being watched over, and in the second embodiment, one trained model is prepared for a plurality of persons being watched over. . The correspondence relationship between the person being watched over and the learned model can be adjusted as appropriate. For example, multiple watching targets may be classified into multiple groups from various points of view, and one trained model may be prepared for each group. In this case, for example, a plurality of persons to be watched over may be classified into a plurality of groups according to age, sex, physical characteristics, degree of health, place of residence, and the like. With such a configuration, a trained model is appropriately generated according to the attributes of the person being watched over, so it can be expected that the state of the person being watched over can be estimated with high accuracy.

なお、ある見守り対象者の撮像画像を用いて生成された学習済みモデルは、他の見守り対象者の状態の推定に用いられてもよいし、他の見守り対象者の撮像画像を用いて更新されてもよい。同様に、あるグループに属する見守り対象者の撮像画像を用いて生成された学習済みモデルは、他のグループに属する見守り対象者の状態の推定に用いられてもよいし、他のグループに属する見守り対象者の撮像画像を用いて更新されてもよい。 Note that a trained model generated using a certain watching target person's captured image may be used to estimate the state of another watching target person, or may be updated using another watching target person's captured image. may Similarly, a trained model generated using captured images of a watching target person belonging to a certain group may be used to estimate the state of a watching target person belonging to another group, or may be used to estimate the state of a watching target person belonging to another group. You may update using a subject's captured image.

また、学習装置110が採用する学習アルゴリズムは、実施の形態1に示した例に限定されない。例えば、特徴量そのものを抽出する深層学習が採用されてもよいし、他の公知の学習アルゴリズムが採用されてもよい。また、教師なし学習を実現する場合、k平均法による非階層型クラスタリング以外の方法により、クラスタリングされてもよい。例えば、最短距離法による階層型クラスタリングが採用されてもよいし、他の公知の方法によるクラスタリングが採用されてもよい。また、学習アルゴリズムとして、教師なし学習ではなく、教師あり学習、半教師あり学習、強化学習等を採用することができる。 Also, the learning algorithm adopted by learning device 110 is not limited to the example shown in the first embodiment. For example, deep learning that extracts the feature amount itself may be employed, or other known learning algorithms may be employed. Moreover, when realizing unsupervised learning, clustering may be performed by a method other than non-hierarchical clustering by the k-means method. For example, hierarchical clustering by the shortest distance method may be employed, or clustering by other known methods may be employed. Also, as a learning algorithm, supervised learning, semi-supervised learning, reinforcement learning, etc. can be adopted instead of unsupervised learning.

上記実施の形態では、制御部11,21において、CPUがROM又は記憶部12,22に記憶されたプログラムを実行することによって、図4,12,16に示した各部として機能した。しかしながら、本開示において、制御部11,21は、専用のハードウェアであってもよい。専用のハードウェアとは、例えば単一回路、複合回路、プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、これらの組み合わせ等である。制御部11,21が専用のハードウェアである場合、各部の機能それぞれを個別のハードウェアで実現してもよいし、各部の機能をまとめて単一のハードウェアで実現してもよい。また、各部の機能のうち、一部を専用のハードウェアによって実現し、他の一部をソフトウェア又はファームウェアによって実現してもよい。このように、制御部11は、ハードウェア、ソフトウェア、ファームウェア、又は、これらの組み合わせによって、上述の各機能を実現することができる。 In the above embodiments, the CPUs of the control units 11 and 21 function as the units shown in FIGS. However, in the present disclosure, the control units 11 and 21 may be dedicated hardware. Dedicated hardware is, for example, a single circuit, a composite circuit, a programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a combination thereof. When the control units 11 and 21 are dedicated hardware, each function of each unit may be realized by separate hardware, or the functions of each unit may be collectively realized by single hardware. Also, some of the functions of each unit may be realized by dedicated hardware, and other parts may be realized by software or firmware. In this way, the control unit 11 can implement each of the functions described above using hardware, software, firmware, or a combination thereof.

本開示に係る学習装置110、推定装置120の動作を規定する動作プログラムを既存のパーソナルコンピュータ又は情報端末装置等のコンピュータに適用することで、当該コンピュータを、本開示に係る学習装置110、推定装置120として機能させることも可能である。また、このようなプログラムの配布方法は任意であり、例えば、CD-ROM(Compact Disk ROM)、DVD(Digital Versatile Disk)、MO(Magneto Optical Disk)、又は、メモリカード等のコンピュータ読み取り可能な記録媒体に格納して配布してもよいし、インターネット等の通信ネットワークを介して配布してもよい。 By applying an operation program that defines the operation of the learning device 110 and the estimating device 120 according to the present disclosure to a computer such as an existing personal computer or an information terminal device, the computer can be used as the learning device 110 and the estimating device according to the present disclosure. It is also possible to function as 120. Any method of distributing such programs may be used. For example, a CD-ROM (Compact Disk ROM), a DVD (Digital Versatile Disk), an MO (Magneto Optical Disk), or a computer-readable recording medium such as a memory card may be used. It may be stored in a medium and distributed, or may be distributed via a communication network such as the Internet.

本開示は、本開示の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、本開示を説明するためのものであり、本開示の範囲を限定するものではない。すなわち、本開示の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして特許請求の範囲内及びそれと同等の開示の意義の範囲内で施される様々な変形が、本開示の範囲内とみなされる。 This disclosure is capable of various embodiments and modifications without departing from the broader spirit and scope of this disclosure. In addition, the embodiments described above are for explaining the present disclosure, and do not limit the scope of the present disclosure. That is, the scope of the present disclosure is indicated by the claims rather than the embodiments. Various modifications made within the scope of the claims and within the scope of equivalent disclosure are considered to be within the scope of the present disclosure.

本開示は、見守りシステムに適用可能である。 The present disclosure is applicable to watching systems.

11,21 制御部、12,22 記憶部、13,23 表示部、14,24 操作受付部、15,25 第1通信部、16,26 第2通信部、20A,20AA,20AB,20AC,20BA,20BB,20BC,20BD,20BE,20C,20CA,20CB,20CC,20D 画像、27 第3通信部、100 推定システム、110 学習装置、111,121 画像取得部、112 モデル生成部、113 ラベル受付部、114,124 パラメータ取得部、120 推定装置、122 推定部、123 出力部、125 状態判別部、126 状態推定部、200 撮像装置、210 居住者、250 居室、300 表示装置、310 管理者、350 集中管理室、1000 見守りシステム 11, 21 control unit 12, 22 storage unit 13, 23 display unit 14, 24 operation reception unit 15, 25 first communication unit 16, 26 second communication unit 20A, 20AA, 20AB, 20AC, 20BA , 20BB, 20BC, 20BD, 20BE, 20C, 20CA, 20CB, 20CC, 20D image, 27 third communication unit, 100 estimation system, 110 learning device, 111, 121 image acquisition unit, 112 model generation unit, 113 label reception unit , 114, 124 parameter acquisition unit, 120 estimation device, 122 estimation unit, 123 output unit, 125 state determination unit, 126 state estimation unit, 200 imaging device, 210 resident, 250 living room, 300 display device, 310 administrator, 350 Central control room, 1000 monitoring system

Claims (14)

見守り対象者の部屋を撮像する撮像装置から撮像画像を取得する画像取得手段と、
前記撮像画像から前記見守り対象者の状態を推定するための機械学習により取得された学習済みモデルを用いて、前記画像取得手段が取得した前記撮像画像から前記見守り対象者の状態を推定する推定手段と、
前記推定手段による推定結果を出力する出力手段と、を備える、
推定装置。
an image acquisition means for acquiring a captured image from an imaging device that captures an image of the room of the person being watched over;
Estimation means for estimating the state of the person being watched over from the imaged image acquired by the image acquisition means, using a trained model acquired by machine learning for estimating the state of the person being watched over from the imaged image. When,
and an output means for outputting an estimation result by the estimation means,
estimation device.
前記学習済みモデルは、前記撮像画像から前記見守り対象者が転倒しているか否かを推定するためのモデルであり、
前記推定手段は、前記学習済みモデルを用いて、前記画像取得手段が取得した前記撮像画像から前記見守り対象者が転倒しているか否かを推定する、
請求項1に記載の推定装置。
The learned model is a model for estimating whether or not the person being watched over has fallen from the captured image,
The estimation means uses the learned model to estimate whether or not the person being watched over has fallen from the captured image acquired by the image acquisition means.
The estimating device according to claim 1.
前記学習済みモデルは、前記撮像画像から前記見守り対象者が徘徊しているか否かを推定するためのモデルであり、
前記推定手段は、前記学習済みモデルを用いて、前記画像取得手段が取得した前記撮像画像から前記見守り対象者が徘徊しているか否かを推定する、
請求項1又は2に記載の推定装置。
The trained model is a model for estimating whether or not the person being watched over is wandering from the captured image,
The estimation means uses the learned model to estimate whether the person being watched over is wandering from the captured image acquired by the image acquisition means.
The estimation device according to claim 1 or 2.
前記学習済みモデルは、前記撮像画像から前記見守り対象者が発熱しているか否かを推定するためのモデルであり、
前記推定手段は、前記学習済みモデルを用いて、前記画像取得手段が取得した前記撮像画像から前記見守り対象者が発熱しているか否かを推定する、
請求項1から3の何れか1項に記載の推定装置。
The learned model is a model for estimating whether or not the person being watched over has a fever from the captured image,
The estimating means estimates whether the person being watched over has a fever from the captured image acquired by the image acquiring means, using the learned model.
The estimation device according to any one of claims 1 to 3.
前記学習済みモデルは、前記撮像画像から前記見守り対象者を含む複数の人が密集しているか否かを推定するためのモデルであり、
前記推定手段は、前記学習済みモデルを用いて、前記画像取得手段が取得した前記撮像画像から前記複数の人が密集しているか否かを推定する、
請求項1から4の何れか1項に記載の推定装置。
The learned model is a model for estimating from the captured image whether or not a plurality of people including the person to be watched over is crowded,
The estimating means uses the learned model to estimate whether the plurality of people are concentrated from the captured image acquired by the image acquiring means.
The estimation device according to any one of claims 1 to 4.
前記学習済みモデルは、複数の見守り対象者のそれぞれの部屋を撮像することにより得られる撮像画像と、前記複数の見守り対象者のそれぞれに関するパラメータとを用いた機械学習により取得されるモデルであり、
前記複数の見守り対象者のうち第1見守り対象者に関するパラメータである第1パラメータを取得するパラメータ取得手段を更に備え、
前記画像取得手段は、前記第1見守り対象者の部屋を撮像する第1撮像装置から第1撮像画像を取得し、
前記推定手段は、前記学習済みモデルを用いて、前記画像取得手段が取得した前記第1撮像画像と前記パラメータ取得手段が取得した前記第1パラメータとから前記第1見守り対象者の状態を推定する、
請求項1から5の何れか1項に記載の推定装置。
The trained model is a model acquired by machine learning using captured images obtained by capturing images of the rooms of each of the plurality of watching targets and parameters related to each of the plurality of watching targets,
further comprising parameter acquisition means for acquiring a first parameter that is a parameter related to a first person being watched over among the plurality of persons being watched over;
The image acquisition means acquires a first captured image from a first imaging device that captures an image of the room of the first person being watched over,
The estimation means estimates the state of the first watching target person from the first captured image acquired by the image acquisition means and the first parameter acquired by the parameter acquisition means, using the learned model. ,
The estimation device according to any one of claims 1 to 5.
前記推定手段は、
前記学習済みモデルを用いて前記画像取得手段が取得した前記撮像画像から前記見守り対象者の状態が疑異常状態であるか否かを判別する状態判別手段と、
前記状態判別手段による判別結果に基づいて、前記見守り対象者の状態を推定する状態推定手段と、を備える、
請求項1から6の何れか1項に記載の推定装置。
The estimation means is
state determination means for determining whether or not the state of the person being watched over is in a suspected abnormal state from the captured image obtained by the image obtaining means using the learned model;
state estimation means for estimating the state of the person being watched over based on the determination result of the state determination means;
The estimation device according to any one of claims 1 to 6.
前記状態推定手段は、前記状態判別手段が単位時間内に閾値以上の割合で前記見守り対象者の状態が前記疑異常状態であると判別した場合、前記見守り対象者の状態が異常状態であると推定する、
請求項7に記載の推定装置。
The state estimation means determines that the state of the person being watched over is the abnormal state when the state determination means determines that the state of the person being watched over is the suspected abnormal state at a rate equal to or greater than a threshold within a unit time. presume,
The estimation device according to claim 7.
前記疑異常状態は、第1疑異常状態と第2疑異常状態とを含み、
前記状態推定手段は、前記状態判別手段が前記見守り対象者の状態が前記第1疑異常状態であると判別する期間が継続した後、前記状態判別手段が前記見守り対象者の状態が前記第2疑異常状態であると判別する期間が継続した場合、前記見守り対象者の状態が異常状態であると推定する、
請求項7又は8に記載の推定装置。
The suspected abnormal state includes a first suspected abnormal state and a second suspected abnormal state,
The state estimating means determines that the state of the person being watched over is the second suspected abnormal state after a period during which the state determination means determines that the state of the person being watched over continues to be the first suspected abnormal state. estimating that the state of the person being watched over is in an abnormal state when the period during which it is determined to be in a suspected abnormal state continues;
The estimation device according to claim 7 or 8.
前記状態推定手段は、前記状態判別手段が第1時間帯に前記見守り対象者の状態が前記疑異常状態であると判別した場合、前記見守り対象者の状態が異常状態であると推定する、
請求項7から9の何れか1項に記載の推定装置。
The state estimation means estimates that the state of the person being watched over is in an abnormal state when the state determination means determines that the state of the person being watched over is the suspected abnormal state in a first time period.
The estimation device according to any one of claims 7 to 9.
見守り対象者の状態が正常状態であるときに前記見守り対象者の部屋を撮像することにより得られる正常撮像画像と、前記見守り対象者の状態が異常状態であるときに前記見守り対象者の部屋を撮像することにより得られる異常撮像画像とを取得する画像取得手段と、
前記画像取得手段が取得した前記正常撮像画像と前記異常撮像画像とを用いた機械学習により、前記見守り対象者の部屋を撮像することにより得られる撮像画像から前記見守り対象者の状態を推定するための学習済みモデルを生成するモデル生成手段と、を備える、
学習装置。
A normal captured image obtained by imaging the room of the watching target when the condition of the watching target is normal, and the room of the watching target when the condition of the watching target is abnormal. an image acquisition means for acquiring an abnormal captured image obtained by imaging;
To estimate the state of the person being watched over from the captured image obtained by capturing the room of the person being watched over by machine learning using the normal captured image and the abnormal captured image obtained by the image obtaining means. a model generating means for generating a trained model of
learning device.
学習装置と推定装置とを備える推定システムであって、
前記学習装置は、
見守り対象者の状態が正常状態であるときに前記見守り対象者の部屋を撮像することにより得られる正常撮像画像と、前記見守り対象者の状態が異常状態であるときに前記見守り対象者の部屋を撮像することにより得られる異常撮像画像とを取得する第1画像取得手段と、
前記第1画像取得手段が取得した前記正常撮像画像と前記異常撮像画像とを用いた機械学習により、前記見守り対象者の部屋を撮像することにより得られる撮像画像から前記見守り対象者の状態を推定するための学習済みモデルを生成するモデル生成手段と、を備え、
前記推定装置は、
前記見守り対象者の部屋を撮像する撮像装置から前記撮像画像を取得する第2画像取得手段と、
前記モデル生成手段が生成した前記学習済みモデルを用いて、前記第2画像取得手段が取得した前記撮像画像から前記見守り対象者の状態を推定する推定手段と、
前記推定手段による推定結果を出力する出力手段と、を備える、
推定システム。
An estimation system comprising a learning device and an estimation device,
The learning device
A normal captured image obtained by imaging the room of the watching target when the condition of the watching target is normal, and the room of the watching target when the condition of the watching target is abnormal. a first image acquisition means for acquiring an abnormal captured image obtained by imaging;
By machine learning using the normal captured image and the abnormal captured image obtained by the first image obtaining means, the state of the watching target is estimated from the captured image obtained by capturing the room of the watching target. a model generating means for generating a trained model for
The estimation device is
a second image acquiring means for acquiring the captured image from an imaging device that captures an image of the room of the person being watched over;
estimating means for estimating the state of the person being watched over from the captured image acquired by the second image acquiring means, using the learned model generated by the model generating means;
and an output means for outputting an estimation result by the estimation means,
estimation system.
見守り対象者の部屋を撮像する撮像装置から撮像画像を取得し、
前記撮像画像から前記見守り対象者の状態を推定するための機械学習により取得された学習済みモデルを用いて、前記撮像画像から前記見守り対象者の状態を推定する、
推定方法。
Acquiring a captured image from an imaging device that captures the room of the person being watched over,
estimating the state of the person being watched over from the captured image using a trained model acquired by machine learning for estimating the state of the person being watched over from the captured image;
estimation method.
コンピュータを、
見守り対象者の部屋を撮像する撮像装置から撮像画像を取得する画像取得手段、
前記撮像画像から前記見守り対象者の状態を推定するための機械学習により取得された学習済みモデルを用いて、前記画像取得手段が取得した前記撮像画像から前記見守り対象者の状態を推定する推定手段、
前記推定手段による推定結果を出力する出力手段、として機能させる、
プログラム。
the computer,
Image acquisition means for acquiring a captured image from an imaging device that captures an image of the room of the person being watched over;
Estimation means for estimating the state of the person being watched over from the imaged image acquired by the image acquisition means, using a trained model acquired by machine learning for estimating the state of the person being watched over from the imaged image. ,
function as an output means for outputting the estimation result by the estimation means;
program.
JP2021105299A 2021-06-25 2021-06-25 Estimation device, learning device, estimation system, estimation method, and program Pending JP2023003917A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021105299A JP2023003917A (en) 2021-06-25 2021-06-25 Estimation device, learning device, estimation system, estimation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021105299A JP2023003917A (en) 2021-06-25 2021-06-25 Estimation device, learning device, estimation system, estimation method, and program

Publications (1)

Publication Number Publication Date
JP2023003917A true JP2023003917A (en) 2023-01-17

Family

ID=85101107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021105299A Pending JP2023003917A (en) 2021-06-25 2021-06-25 Estimation device, learning device, estimation system, estimation method, and program

Country Status (1)

Country Link
JP (1) JP2023003917A (en)

Similar Documents

Publication Publication Date Title
JP6924817B2 (en) Hospital video surveillance system, camera, data transmission system controller, hospital video surveillance method and hospital video surveillance computer program
CN109843173B (en) System and method for monitoring activities of daily living of a person
US10446007B2 (en) Watching system and management server
JPWO2017061371A1 (en) Action detection system, action detection device, action detection method, and action detection program
JP6915421B2 (en) Watching support system and its control method
WO2019130674A1 (en) Abnormal behavior detection device, method, and system for nursing facility
US20180374570A1 (en) Central processing device and central processing method for subject observation system and subject observation system
JP6048630B1 (en) Behavior detection device, behavior detection method, and monitored person monitoring device
US11800993B2 (en) Exit monitoring system for patient support apparatus
US10736541B2 (en) Monitoring liquid and/or food consumption of a person
WO2017081995A1 (en) Person monitoring device and method, and person monitoring system
JP2023003917A (en) Estimation device, learning device, estimation system, estimation method, and program
JP6908028B2 (en) Observer monitoring device, method, system and program
JP6874685B2 (en) Care plan adjustment system and program
EP3357420A1 (en) Monitoring activity of a person
JP7342863B2 (en) Computer-executed programs, information processing systems, and computer-executed methods
JPWO2019021743A1 (en) Notification control system, detection unit, care support system and notification control method
JP2020194392A (en) Program for notifying of information, information notification device, and method executed by computer for notifying of information
US11272863B2 (en) Monitoring activity of a subject
JPWO2019021742A1 (en) Care support system and information notification control method
WO2020009107A1 (en) Information processing device, sensor box, and program
JP7413669B2 (en) Care management methods, programs, care management devices, and care management systems
JP7354538B2 (en) Terminal devices, monitoring systems and programs
WO2020003953A1 (en) Program executed by computer, information processing device, and method executed by computer
JPWO2016199740A1 (en) Monitored person monitoring central processing unit, monitored person monitoring central processing method, monitored person monitoring central processing program, and monitored person monitoring system