JP6611871B1 - Monitoring device - Google Patents

Monitoring device Download PDF

Info

Publication number
JP6611871B1
JP6611871B1 JP2018132581A JP2018132581A JP6611871B1 JP 6611871 B1 JP6611871 B1 JP 6611871B1 JP 2018132581 A JP2018132581 A JP 2018132581A JP 2018132581 A JP2018132581 A JP 2018132581A JP 6611871 B1 JP6611871 B1 JP 6611871B1
Authority
JP
Japan
Prior art keywords
subject
unit
posture
learning
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018132581A
Other languages
Japanese (ja)
Other versions
JP2020009378A (en
Inventor
和泉 小山
和泉 小山
Original Assignee
医療法人社団皓有会
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 医療法人社団皓有会 filed Critical 医療法人社団皓有会
Priority to JP2018132581A priority Critical patent/JP6611871B1/en
Application granted granted Critical
Publication of JP6611871B1 publication Critical patent/JP6611871B1/en
Publication of JP2020009378A publication Critical patent/JP2020009378A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】監視対象者ごとに動作を検出する監視装置を提供する。【解決手段】特定の対象者を監視する監視装置1は、対象者の動作の画像データに基づいて対象者の動作の特徴量を抽出し、対象者の動作の学習モデルを生成する動作学習部411と、動作学習部411により生成された動作の学習モデルを記憶する動作モデル記憶部221と、動作モデル記憶部221により記憶された動作の学習モデルに基づいて、対象者の動作を判定する動作判定部211とを備える。【選択図】図4A monitoring device for detecting an operation for each person to be monitored is provided. A monitoring device for monitoring a specific subject extracts a feature amount of the subject's motion based on image data of the subject's motion and generates a learning model of the subject's motion. 411, an operation model storage unit 221 that stores a learning model of the operation generated by the operation learning unit 411, and an operation for determining the operation of the subject based on the operation learning model stored by the operation model storage unit 221 And a determination unit 211. [Selection] Figure 4

Description

本発明は、居宅や施設等において特定の対象者を監視する監視装置に関する。   The present invention relates to a monitoring device that monitors a specific target person in a home or facility.

従来、監視カメラにより撮像された画像データに基づいて、対象者の動作が異常であるか否かを判定し、異常を報知するようにした装置が知られている(例えば特許文献1参照)。特許文献1の装置では、自動取引装置を使用するときの一連の標準的な動作を学習し、対象者の動作が標準的な動作から外れている場合に異常と判定する。   2. Description of the Related Art Conventionally, there has been known an apparatus that determines whether or not a subject's operation is abnormal based on image data captured by a monitoring camera and reports the abnormality (see, for example, Patent Document 1). The apparatus of Patent Document 1 learns a series of standard operations when using an automatic transaction apparatus, and determines that an abnormality occurs when the subject's movement deviates from the standard movement.

特開2018−10332号公報JP 2018-10332 A

上記特許文献1記載の装置では、対象者の動作を標準的な動作と比較して異常であるか否かを判定するため、対象者の身体の状態などに応じた特徴的な動作については、正確に判定することができない。しかしながら、特に介護の目的で24時間体勢の監視を行う場合などには、身体の状態などが異なる対象者ごとに異常な動作(異変)を判定することが望まれる。   In the device described in Patent Document 1, in order to determine whether or not the subject's motion is abnormal by comparing it with the standard motion, the characteristic motion corresponding to the subject's body condition, etc. It cannot be determined accurately. However, it is desirable to determine an abnormal action (abnormality) for each subject who has a different body condition or the like, especially when performing 24-hour posture monitoring for the purpose of nursing care.

本発明の一態様は、特定の対象者を監視する監視装置であって、対象者の動作の画像データに基づいて対象者動作の特徴量を抽出し、対象者の動作の学習モデルを生成する学習モデル生成部と、学習モデル生成部により生成された動作の学習モデルを記憶する学習モデル記憶部と、学習モデル記憶部により記憶された学習モデルに基づいて、対象者の動作を判定する動作判定部と、対象者の生体情報を取得する生体情報取得部と、生体情報取得部により取得された生体情報に基づいて、対象者に異変が生じたか否かを判定する異変判定部と、を備える。学習モデル生成部は、異変判定部により対象者に異変が生じたと判定されたときの対象者の動作の画像データに基づいて対象者の動作の特徴量を抽出し、対象者の異常動作の学習モデルを生成する。
One aspect of the present invention, generates a particular a monitoring device for monitoring a subject, extracting a feature amount of operation of the subject based on the image data of the operation subject, learning model of the operation of the subject a learning model generating unit to a learning model storage unit for storing a learning model of the operation generated by the learning model generating unit, based on the stored learned model by learning model storage unit, the operation of the subject An operation determining unit for determining , a biological information acquiring unit for acquiring the biological information of the subject, and an abnormality determining unit for determining whether or not an abnormality has occurred in the subject based on the biological information acquired by the biological information acquiring unit And comprising. The learning model generation unit extracts the feature amount of the target person's movement based on the image data of the target person's movement when the change determination unit determines that the target person has changed, and learns the target person's abnormal movement Generate a model.

本発明によれば、監視対象者ごとに動作を検出することができる。   According to the present invention, an operation can be detected for each person to be monitored.

本発明の実施形態に係る監視装置の設置の一例を概略的に示す図。The figure which shows roughly an example of installation of the monitoring apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る監視装置の斜視図。The perspective view of the monitoring apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る監視装置の断面図。Sectional drawing of the monitoring apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る監視装置の構成を概略的に示すブロック図。The block diagram which shows roughly the structure of the monitoring apparatus which concerns on embodiment of this invention. 図4のコントローラ群で実行される、画像データに基づく動作判定処理の一例を示すフローチャート。5 is a flowchart illustrating an example of an operation determination process based on image data, which is executed by the controller group in FIG. 4. 図4のコントローラ群で実行される、画像データに基づく姿勢判定処理の一例を示すフローチャート。5 is a flowchart illustrating an example of posture determination processing based on image data, which is executed by the controller group in FIG. 4. 図4のコントローラ群で実行される、姿勢データに基づく異変判定処理の一例を示すフローチャート。The flowchart which shows an example of the abnormality determination process based on attitude | position data performed with the controller group of FIG. 図4のコントローラ群で実行される、測定値に基づく異変判定処理の一例を示すフローチャート。The flowchart which shows an example of the abnormality determination process based on the measured value performed with the controller group of FIG. 図4のコントローラ群で実行される動作の学習処理の一例を示すフローチャート。The flowchart which shows an example of the learning process of the operation | movement performed with the controller group of FIG. 本発明の実施形態に係る監視装置の動作を説明するための図。The figure for demonstrating operation | movement of the monitoring apparatus which concerns on embodiment of this invention.

以下、図1〜図8を参照して本発明の実施形態について説明する。本発明の実施形態に係る監視装置は、特定の対象者を常時見守るために、例えば介護施設の居室などに設置され、腰が曲がっているなどの身体の状態によって通常の動作が標準的な動作とは異なる対象者につき、報知すべき異常な動作を含む種々の動作を学習して判定するものである。   Hereinafter, embodiments of the present invention will be described with reference to FIGS. The monitoring apparatus according to the embodiment of the present invention is installed in a room of a nursing facility, for example, in order to constantly monitor a specific target person, and a normal operation is a standard operation depending on a physical state such as a bent waist. It learns and determines various actions including an abnormal action to be notified for a different subject.

図1は、本発明の実施形態に係る監視装置1A,1B(以下、1と総称する)の設置の一例を概略的に示す図である。監視装置1は、監視カメラなどにより構成され、介護施設の居室や独居の高齢者の自宅など見守り対象者が一人で過ごす場所に設置されて対象者の見守り監視を行う。監視装置1により出力される画像データなどは、介護施設のナースステーションに設置された端末や、見守り対象者の家族の携帯端末などに送信される。図1は、監視装置1を介護施設の居室に設置する場合の一例である。居室は、例えば、図1に左側から示すように、居室の出入口、間仕切られたエリアAR1(トイレなど)、対象者が歩いて移動するエリアAR2(洗面エリアなど)、対象者が主に臥位で過ごすエリアAR3(ベッドなどが置かれたエリア)により構成される。   FIG. 1 is a diagram schematically illustrating an example of installation of monitoring apparatuses 1A and 1B (hereinafter collectively referred to as 1) according to an embodiment of the present invention. The monitoring device 1 is configured by a monitoring camera or the like, and is installed in a place where a monitoring target person spends alone, such as a living room of a nursing facility or the home of an elderly person living alone, and monitors the monitoring of the target person. The image data output by the monitoring device 1 is transmitted to a terminal installed in a nurse station of a care facility, a portable terminal of a family of a person to be watched over, or the like. FIG. 1 is an example when the monitoring device 1 is installed in a living room of a care facility. For example, as shown from the left side in FIG. 1, the living room has an entrance / exit of the living room, a partitioned area AR1 (toilet, etc.), an area AR2 (washing area, etc.) in which the subject walks, and the subject is mainly lying Area AR3 (area where beds are placed).

図1に示すように、監視装置1Aは、出入口とは反対側の壁等に設置される。監視装置1Aは、対象者の居室への入室や居室からの退出を監視し、エリアAR2における対象者の歩行等の動作を監視し、エリアAR3における対象者の就寝中の様子を上方から監視する。監視装置1Bは、間仕切られたエリアAR1の天井等、対象者が気にならないような位置に設置される。図1では、監視装置1A,1Bを設置する例を示すが、監視装置1の設置台数は、居室の広さやレイアウトによって1台または3台以上としてもよい。   As shown in FIG. 1, the monitoring device 1 </ b> A is installed on a wall or the like opposite to the entrance / exit. The monitoring device 1A monitors the entry of the subject into or out of the room, monitors the movement of the subject in the area AR2, and monitors the state of the subject sleeping in the area AR3 from above. . The monitoring device 1B is installed at a position where the subject is not concerned, such as the ceiling of the partitioned area AR1. Although FIG. 1 shows an example in which the monitoring devices 1A and 1B are installed, the number of monitoring devices 1 may be one or three or more depending on the size and layout of the living room.

図2は、監視装置1の斜視図である。監視装置1は、略電球形状の筐体11を備える。筐体11は、一端部において、ねじ部12aが形成された導電性の口金部12を有する。ねじ部12aは、例えば壁面に取り付け可能なスタンドの先端部のソケットに螺合され、口金部12を介して本体に電力が供給される。壁面に取り付けられたダクトレールのソケットに螺号されるようにしてもよい。筐体11の他端部には、透光性を有する樹脂材により構成されるカバー13が取り付けられる。このような電球形状とすることにより、監視装置1は、市販の電球のように簡易に設置できるとともに、一般的な監視カメラが対象者に与える「見張られている」という意識を低減することができる。   FIG. 2 is a perspective view of the monitoring device 1. The monitoring device 1 includes a substantially bulb-shaped housing 11. The housing 11 has a conductive base portion 12 in which a screw portion 12a is formed at one end portion. The screw portion 12a is screwed into a socket at the tip of a stand that can be attached to a wall surface, for example, and power is supplied to the main body via the base portion 12. You may make it screw on the socket of the duct rail attached to the wall surface. A cover 13 made of a translucent resin material is attached to the other end of the housing 11. By adopting such a light bulb shape, the monitoring device 1 can be easily installed like a commercially available light bulb, and can reduce the consciousness that a general surveillance camera gives to the subject. it can.

図3は、監視装置1の断面図である。図示のように、筐体11内には、見守り対象者を撮像するカメラ14と、カメラ14の周囲に周方向等間隔に配置された複数(例えば8個)のLED15と、カメラ14の周囲に周方向等間隔に配置された3個のコントローラ20,30,40(コントローラ群50)とが配置され、口金部12および図示しないケーブルなどを介してこれらに外部から電力が供給される。カメラ14は、図示しないケーブルなどを介してコントローラ20,30,40のそれぞれに接続される。筐体11には排熱用のスリット11sが設けられる(図1)。コントローラ群50は、ナースステーションに設置されたナースコール親機(ナースコールボード)などの報知部や、介護記録の作成、管理を行うための管理用端末(例えば、介護スタッフ用のノートパソコンなど)に、有線または無線で電気的に接続される。なお、図示は省略するが、各コントローラ20,30,40には、USB(Universal Serial Bus)などの外部入力ポートが設けられる。   FIG. 3 is a cross-sectional view of the monitoring device 1. As shown in the figure, in the housing 11, a camera 14 that captures the person being watched over, a plurality of (for example, eight) LEDs 15 that are arranged around the camera 14 at equal intervals in the circumferential direction, and around the camera 14. Three controllers 20, 30, and 40 (controller group 50) arranged at equal intervals in the circumferential direction are arranged, and electric power is supplied to them from the outside through the base 12 and a cable (not shown). The camera 14 is connected to each of the controllers 20, 30, and 40 via a cable (not shown). The casing 11 is provided with a slit 11s for exhaust heat (FIG. 1). The controller group 50 includes a notification unit such as a nurse call parent device (nurse call board) installed in a nurse station, and a management terminal for creating and managing care records (for example, a laptop computer for a care staff). Are electrically connected by wire or wirelessly. Although not shown, each controller 20, 30, 40 is provided with an external input port such as a USB (Universal Serial Bus).

カメラ14は、見守り対象者を常時撮像し、その画像データをコントローラ群50に送信する。カメラ14としては、例えば5〜10倍程度の光学ズーム機能を有する通常のRGBカメラを使用する。図3に示すように、カメラ14は、レンズ部がカバー13の表面と平行となるように、筐体11内の中央に配置される。カメラ14は、レンズ部がカバー13に固定され、本体部が筐体11に設けられたレール11rに沿って矢印で示す筐体11の長さ方向に移動可能であり、これにより倍率を適宜調整することができる。   The camera 14 always images the person being watched over and transmits the image data to the controller group 50. As the camera 14, for example, a normal RGB camera having an optical zoom function of about 5 to 10 times is used. As shown in FIG. 3, the camera 14 is arranged at the center in the housing 11 so that the lens portion is parallel to the surface of the cover 13. The camera 14 has a lens unit fixed to the cover 13, and a main body unit is movable in the length direction of the housing 11 indicated by an arrow along a rail 11 r provided on the housing 11, thereby adjusting the magnification appropriately. can do.

LED15は、例えば、高輝度白色LEDにより構成される。LED15は、照射面がカバー13の表面と平行となるように配置される。なお、対象者の就寝中など居室が暗い状態で見守り監視を行う場合には、カメラ14として通常のRGBカメラに代えて赤外線カメラを使用し、LED15として高輝度白色LEDに代えて赤外線LEDを使用してもよい。カメラ14として赤外線カットフィルタを除去したRGBカメラを使用するとともに、LED15として高輝度白色LEDと赤外線LEDとを交互にカメラ14の周囲に周方向等間隔に配置して使用してもよい。   LED15 is comprised by high-intensity white LED, for example. The LED 15 is arranged so that the irradiation surface is parallel to the surface of the cover 13. When monitoring is performed in a dark room such as when the subject is sleeping, an infrared camera is used as the camera 14 instead of a normal RGB camera, and an infrared LED is used as the LED 15 instead of a high-intensity white LED. May be. While the RGB camera from which the infrared cut filter has been removed is used as the camera 14, a high-brightness white LED and an infrared LED may be alternately arranged around the camera 14 at equal intervals in the circumferential direction.

ここで、ナースコールや監視カメラなどの従来の見守りシステムの課題について説明する。従来のナースコールによる見守りシステムでは、対象者本人が異変を感じたときに、対象者自身が居室のナースコール子機を操作することで介護スタッフなどへの報知が行われる。このため、対象者本人が意識を失った場合や動けなくなった場合には報知を行うことができない。また、従来の監視カメラによる見守りシステムでは、監視カメラの映像を介護スタッフなどが見て対象者に異変があるか否かを判断する。このため、一人の介護スタッフが複数の対象者の見守りを行う場合や、独居の対象者を一人の家族が常時監視する場合などには、見落としや見過ごしによって対象者の異変に気付くのが遅れることがある。例えば、対象者が転倒やむせ込みにより意識を失ったり動けなくなったりした場合には、介護スタッフなどが気付くまでの間、対象者は放置されることになる。   Here, the problems of conventional watching systems such as nurse calls and surveillance cameras will be described. In the conventional nurse call monitoring system, when the subject himself feels anomaly, the subject himself / herself operates the nurse call cordless handset in the room to notify the nursing staff. For this reason, when the subject person loses consciousness or cannot move, the notification cannot be performed. Further, in a conventional monitoring system using a monitoring camera, a nursing staff or the like looks at the video of the monitoring camera to determine whether there is any change in the subject. For this reason, when one nursing staff oversees multiple subjects, or when a single family member constantly monitors the subjects who are living alone, it may be delayed to notice any changes in the subjects due to oversight or oversight. There is. For example, if the subject loses consciousness or becomes unable to move due to a fall or stagnation, the subject is left until the care staff or the like notices.

そこで、本発明の実施形態では、異変があったときの異常な動作(異常動作)を含む見守り対象者の種々の動作を動作モデルとして学習し、監視カメラ(カメラ14)により撮像された見守り対象者の動作が異常動作であるか否かを判定することで、対象者の異変を自動的に検出するように構成する。   Therefore, in the embodiment of the present invention, various actions of the watching target person including an abnormal action (abnormal action) when there is an abnormality are learned as an action model, and the watching target imaged by the surveillance camera (camera 14) is acquired. By determining whether or not the person's action is an abnormal action, it is configured to automatically detect an abnormality of the subject person.

高齢者など介護を必要とする見守り対象者の動作は、腰が曲がっているなどの身体の状態に応じて、標準的な成人の標準的な動作とは異なることがある。このような場合には、標準的な動作を事前に学習し、監視カメラにより撮像された見守り対象者の動作と比較して異変を検出することは難しい。例えば、腰が曲がったまま移動する動作のように、その対象者にとっては問題のない動作を異常動作と判定してしまう可能性がある。   The motion of a watched person who needs care, such as an elderly person, may differ from the standard motion of a standard adult, depending on the physical condition such as bending of the waist. In such a case, it is difficult to learn a standard operation in advance and detect an anomaly as compared with the operation of the person being watched imaged by the surveillance camera. For example, there is a possibility that an operation that does not cause a problem for the target person, such as an operation that moves while the waist is bent, may be determined as an abnormal operation.

このような誤検出を防ぐため、監視装置1では、見守り対象者ごとに動作モデルを学習し、対象者ごとに動作を判定して異変を検出する。具体的には、見守り対象者の介護記録などに基づいて、その対象者ごとに想定される報知すべき異常動作を含む種々の動作を事前に介護スタッフなどが実演し、動作モデルとして学習する。例えば、腰が曲がっている対象者を見守る監視装置1であれば、腰が曲がった状態で移動する動作や転倒する動作などを動作モデルとして学習する。また、対象者の見守り監視中に実際の対象者の動作を動作モデルとしてさらに学習することで、動作モデルをその対象者の実情により見合ったものに更新する。   In order to prevent such erroneous detection, the monitoring device 1 learns an operation model for each watching target person, determines an action for each target person, and detects an anomaly. Specifically, based on the care record of the person being watched over, various actions including an abnormal action to be notified for each target person are demonstrated in advance by a care staff and learned as an action model. For example, in the case of the monitoring device 1 that watches an object person whose waist is bent, an action model that learns an action that moves while the waist is bent, an action that falls, and the like is learned as an action model. Further, by further learning the actual motion of the target person as a motion model during watching and monitoring of the target person, the motion model is updated to match the actual situation of the target person.

上記したような動作モデルの学習と、動作および異変の判定とを実現可能な監視装置1の構成について説明する。   A configuration of the monitoring apparatus 1 that can realize the learning of the behavior model as described above and the determination of the behavior and the abnormality will be described.

図4は、監視装置1の構成を概略的に示すブロック図である。監視装置1は、カメラ14と、カメラ14に電気的に接続されるコントローラ群50と、コントローラ群50に有線または無線で電気的に接続される報知部16と、管理用端末17とを有する。コントローラ群50は、相互に通信可能に構成されたコントローラ20,30,40を含んで構成される。   FIG. 4 is a block diagram schematically showing the configuration of the monitoring device 1. The monitoring device 1 includes a camera 14, a controller group 50 that is electrically connected to the camera 14, a notification unit 16 that is electrically connected to the controller group 50 in a wired or wireless manner, and a management terminal 17. The controller group 50 includes controllers 20, 30, and 40 that are configured to be able to communicate with each other.

報知部16は、例えば介護施設のナースステーションに設置されたナースコール親機であり、コントローラ群50からの指令に応じて、介護スタッフなどへの報知を行う。報知部16は、監視装置1と同じ構内に設置されるものに限らず、見守り対象者の家族が所持するスマートフォンなどの携帯端末としてもよい。監視装置1が独居の対象者の居宅に設置される場合には、報知部16を医療機関の端末などとしてもよい。また、上記の端末を組み合わせて報知部16としてもよい。   The notification unit 16 is, for example, a nurse call parent device installed in a nurse station of a care facility, and notifies a care staff or the like according to a command from the controller group 50. The alerting | reporting part 16 is good also as portable terminals, such as a smart phone not only in what is installed in the same premise as the monitoring apparatus 1, but the watching target person's family. When the monitoring device 1 is installed in the home of a person who is living alone, the notification unit 16 may be a terminal of a medical institution or the like. Moreover, it is good also as the alerting | reporting part 16 combining said terminal.

管理用端末17は、例えば介護施設の介護スタッフが介護記録の作成、管理に使用するノートパソコンであり、介護記録に含まれる対象者の行動予定や、対象者の動作の判定結果等のテキストデータをコントローラ群50との間で送受信する。管理用端末17は、監視装置1と同じ構内に設置されるものに限らず、見守り対象者の家族が所持するスマートフォンなどの携帯端末としてもよい。監視装置1が医療施設に入院中の対象者の見守りに適用される場合には、管理用端末17を医療機関の端末などとして、介護記録を作成するようにしてもよい。また、複数の端末を組み合わせて管理用端末17としてもよい。   The management terminal 17 is, for example, a notebook computer used by a nursing staff at a nursing facility to create and manage nursing care records. Text data such as a target person's action schedule included in the nursing care record and a judgment result of the behavior of the subject person Are transmitted to and received from the controller group 50. The management terminal 17 is not limited to being installed on the same premises as the monitoring device 1 and may be a mobile terminal such as a smartphone possessed by the family of the person being watched over. When the monitoring device 1 is applied to watch over a subject who is hospitalized in a medical facility, the care record may be created using the management terminal 17 as a terminal of a medical institution or the like. Also, the management terminal 17 may be a combination of a plurality of terminals.

コントローラ20は、GPU(Graphics Processing Unit:画像処理装置)21、ROM,RAMなどのメモリ22、その他の周辺回路を有するコンピュータを含んで構成される。   The controller 20 includes a computer having a GPU (Graphics Processing Unit) 21, a memory 22 such as a ROM and a RAM, and other peripheral circuits.

GPU21は、機能的構成として、見守り対象者の動作モデルに基づいて現在の動作を判定する動作判定部211と、対象者の姿勢モデルに基づいて現在の姿勢を判定する姿勢判定部212と、姿勢判定部212により判定された姿勢をコントローラ30に出力する出力部213とを有する。動作判定部211と姿勢判定部212とをそれぞれ別のGPUにより構成してもよい。   As a functional configuration, the GPU 21 includes a motion determination unit 211 that determines the current motion based on the motion model of the watching target person, a posture determination unit 212 that determines the current posture based on the posture model of the target person, And an output unit 213 that outputs the posture determined by the determination unit 212 to the controller 30. The motion determination unit 211 and the posture determination unit 212 may be configured by different GPUs.

メモリ22は、機能的構成として、移動、食事、睡眠などの通常の動作と、転倒や誤嚥などの異常動作とを含む対象者の動作のモデルを記憶する動作モデル記憶部221と、立位、座位、臥位などの対象者の姿勢のモデルを記憶する姿勢モデル記憶部222とを有する。   The memory 22 has, as a functional configuration, an operation model storage unit 221 that stores a model of an operation of a subject including normal operations such as movement, meal, and sleep and abnormal operations such as falls and aspiration, A posture model storage unit 222 that stores a model of the posture of the subject such as a sitting position and a supine position.

コントローラ30は、CPU(Central Processing Unit:中央演算処理装置)31、ROM,RAMなどのメモリ32、その他の周辺回路を有するコンピュータを含んで構成される。   The controller 30 includes a CPU (Central Processing Unit) 31, a memory 32 such as ROM and RAM, and a computer having other peripheral circuits.

CPU31は、機能的構成として、異常な姿勢変化の判定条件に基づいて出力部213により出力された対象者の姿勢の変化が異常であるか否かを判定するとともに異変の種類を特定する異常姿勢変化判定部311と、カメラ14からの画像データに基づいて対象者の心拍数、血圧、呼吸数、血中酸素飽和度(SPO2)、体温などのバイタルサインを測定するバイタル測定部312と、バイタル測定部312による現在の測定値などに基づいて対象者に異変が生じたか否かを判定するとともに異変の種類を特定する異変判定部313と、異常姿勢変化判定部311および異変判定部313の判定結果に応じて報知部16および管理用端末17に異変の情報を出力する異変情報出力部314と、異常姿勢変化判定部311および異変判定部313により特定された異変の種類に応じてカメラ14からの画像データのうち対象者の異常動作として学習すべき時刻tps〜tpe,tvs〜tveを決定する学習時刻決定部315と、学習時刻決定部315により決定された時刻tps〜tpe,tvs〜tveの画像データを抽出し、異常姿勢変化判定部311および異変判定部313により特定された異変の種類とともに対象者の動作(異常動作)の学習データとしてコントローラ40に出力する学習データ出力部316とを有する。   As a functional configuration, the CPU 31 determines whether or not the change in the posture of the target person output by the output unit 213 is abnormal based on the abnormal posture change determination condition and identifies the type of the abnormal posture. A change determination unit 311; a vital measurement unit 312 that measures vital signs such as heart rate, blood pressure, respiration rate, blood oxygen saturation (SPO2), body temperature, etc. of the subject based on image data from the camera 14; Determination of whether or not an abnormality has occurred in the subject based on a current measurement value or the like by the measurement unit 312, and determination of an abnormality determination unit 313 that identifies the type of the abnormality, determination of the abnormal posture change determination unit 311 and the abnormality determination unit 313 An anomaly information output unit 314 that outputs anomaly information to the notification unit 16 and the management terminal 17 according to the result, an abnormal posture change determination unit 311, and an anomaly determination unit 3 A learning time determination unit 315 that determines times tps to tpe and tvs to tve to be learned as an abnormal operation of the subject in the image data from the camera 14 according to the type of anomaly specified by 3, and a learning time determination unit Image data at times tps to tpe and tvs to tve determined by 315 is extracted, and learning data for the motion (abnormal motion) of the subject along with the type of anomaly identified by the abnormal posture change determination unit 311 and the anomaly determination unit 313 As a learning data output unit 316 that outputs to the controller 40.

バイタル測定部312は、カメラ14からの画像データに基づいて対象者の各種バイタルサインを測定する。例えば、心拍数は、カメラ14によって受光される光の受光強度の変動に基づいて測定することができる。RGBカメラにより受光される3成分の光のうち、波長の短い青(B)成分の光は対象者の皮膚表面で反射し、それより波長の長い緑(G)成分の光は毛細血管の存在する真皮層にまで浸透し、血液中の赤血球に含まれるヘモグロビンにより吸収される。すなわち、青(B)成分の受光強度は居室の明るさ(環境光)に応じて変動し、緑(G)成分の受光強度は対象者の脈動に応じて変動する。したがって、これらの受光強度の変動に基づいて、環境光の影響を受けずに脈動周期(心拍数)を測定することができる。   The vital measurement unit 312 measures various vital signs of the subject based on the image data from the camera 14. For example, the heart rate can be measured based on fluctuations in the intensity of light received by the camera 14. Of the three component light received by the RGB camera, the blue (B) component light with a short wavelength is reflected by the subject's skin surface, and the green (G) component light with a longer wavelength is present in the presence of capillaries. It penetrates into the dermis layer and is absorbed by hemoglobin contained in red blood cells in the blood. That is, the light reception intensity of the blue (B) component varies according to the brightness of the room (environment light), and the light reception intensity of the green (G) component varies according to the pulsation of the subject. Therefore, it is possible to measure the pulsation cycle (heart rate) without being affected by the ambient light based on the fluctuation of the received light intensity.

メモリ32は、機能的構成として、対象者の介護記録などに基づいて予め入力される食事や入退室などの対象者の行動予定を記憶する行動予定記憶部321と、対象者に異変があるときの異常な姿勢の変化(姿勢変化)の判定条件を異変の種類ごとに記憶する異常姿勢変化判定条件記憶部322と、対象者のバイタルサインの測定値などに基づく異変の判定条件を異変の種類ごとに記憶する異変判定条件記憶部323と、バイタル測定部312により測定された対象者のバイタルサインの測定値を記憶するバイタル測定値記憶部324とを有する。異常な姿勢変化の判定条件の一例として、例えば、転倒を判定する場合には、対象者の姿勢が一定の時間以内(例えば3秒以内)に立位から臥位に変化することなどを条件とする。また、誤嚥を判定する場合には、行動予定に基づいて食事中であると推定され、かつ、心拍数が所定値(例えば100回/分)を超えることなどを条件とする。   The memory 32 has, as a functional configuration, an action schedule storage unit 321 that stores an action schedule of the target person such as a meal or entrance / exit that is input in advance based on a care record of the target person, and when the target person has an abnormality. Abnormal posture change determination condition storage unit 322 for storing the abnormal posture change (posture change) determination condition for each type of anomaly, and the abnormal change determination condition based on the measured value of the vital sign of the subject. Each of which has an abnormality determination condition storage unit 323 and a vital measurement value storage unit 324 that stores a measured value of the vital sign of the subject measured by the vital measurement unit 312. As an example of a condition for determining an abnormal posture change, for example, in the case of determining a fall, the condition is that the posture of the subject changes from standing to lying within a certain time (for example, within 3 seconds). To do. Moreover, when determining aspiration, it is presumed that it is estimated that it is during a meal based on an action plan, and that a heart rate exceeds a predetermined value (for example, 100 times / minute).

コントローラ40は、GPU(Graphics Processing Unit:画像処理装置)41、ROM,RAMなどのメモリ42、その他の周辺回路を有するコンピュータを含んで構成される。   The controller 40 includes a computer having a GPU (Graphics Processing Unit) 41, a memory 42 such as a ROM and a RAM, and other peripheral circuits.

GPU41は、機能的構成として、対象者の動作の学習データに基づいて動作の特徴に相当する特徴量を抽出して学習し、対象者の動作の学習モデルを生成する動作学習部411と、対象者の姿勢の学習データに基づいて姿勢の特徴量を抽出して学習し、対象者の姿勢の学習モデルを生成する姿勢学習部412と、対象者の動作および姿勢の学習モデルをコントローラ20の動作モデル記憶部221および姿勢モデル記憶部222に出力する出力部413とを有する。   The GPU 41 has, as a functional configuration, an action learning unit 411 that extracts and learns a feature amount corresponding to a feature of an action based on learning data of the action of the subject, and generates a learning model of the action of the subject, A posture learning unit 412 that extracts and learns a posture feature amount based on learning data of the posture of the person, and generates a learning model of the posture of the subject, and the behavior of the subject and the posture learning model of the controller 20 An output unit 413 that outputs to the model storage unit 221 and the posture model storage unit 222.

メモリ42は、機能的構成として、学習データ出力部316により出力された対象者の動作の学習データを動作の種類ごとに記憶する動作学習データ記憶部421と、予めカメラ14により撮像された対象者の姿勢の学習データ(画像データ)を姿勢の種類ごとに記憶する姿勢学習データ記憶部422とを有する。動作学習データ記憶部421には、学習データ出力部316により出力された学習データに加え、予めカメラ14により撮像された対象者の動作の学習データを動作の種類ごとに記憶するように構成してもよい。   The memory 42 has, as a functional configuration, a motion learning data storage unit 421 that stores, for each type of motion, motion learning data of the subject output by the learning data output unit 316, and a subject captured in advance by the camera 14. A posture learning data storage unit 422 that stores learning data (image data) of each posture for each type of posture. The motion learning data storage unit 421 is configured to store, in addition to the learning data output from the learning data output unit 316, learning data of the motion of the subject previously captured by the camera 14 for each type of motion. Also good.

動作学習部411および姿勢学習部412は、画像データの学習に適した既知の機械学習プログラム、例えば多層のニューラルネットワークによる機械学習手法である深層学習(Deep Learning)により画像データの教師あり学習を行う。すなわち、動作学習部411は、動作学習データ記憶部421により動作の種類ごとに記憶、蓄積された画像データ(時刻tps〜tpe,tvs〜tveの画像データなど)を学習し、動作の種類ごとの動作モデルを生成する。また、姿勢学習部412は、姿勢学習データ記憶部422により姿勢の種類ごとに記憶、蓄積された画像データを学習し、姿勢の種類ごとの姿勢モデルを生成する。学習後の動作モデルおよび姿勢モデルは、出力部413によりコントローラ20に出力され、動作モデル記憶部221および姿勢モデル記憶部222にそれぞれ記憶され、更新される。   The motion learning unit 411 and the posture learning unit 412 perform supervised learning of image data by a known machine learning program suitable for learning of image data, for example, deep learning which is a machine learning method using a multilayer neural network. . In other words, the motion learning unit 411 learns image data (image data at times tps to tpe, tvs to tve, etc.) stored and accumulated by the motion learning data storage unit 421 for each type of motion, and for each type of motion. Generate a behavior model. In addition, the posture learning unit 412 learns the image data stored and accumulated for each posture type by the posture learning data storage unit 422, and generates a posture model for each posture type. The learned behavior model and posture model are output to the controller 20 by the output unit 413, stored in the behavior model storage unit 221 and the posture model storage unit 222, respectively, and updated.

コントローラ20の動作判定部211は、動作モデル記憶部221に記憶された対象者の最新の動作モデルに基づいて、対象者の現在の動作を判定するとともに、それが異常動作であるか否かを判定する。また、姿勢判定部212は、姿勢モデル記憶部222に記憶された対象者の最新の姿勢モデルに基づいて、対象者の現在の姿勢を判定する。   The motion determination unit 211 of the controller 20 determines the current motion of the subject based on the latest motion model of the subject stored in the motion model storage unit 221, and determines whether or not it is an abnormal motion. judge. In addition, the posture determination unit 212 determines the current posture of the subject based on the latest posture model of the subject stored in the posture model storage unit 222.

より具体的には、動作判定部211は、カメラ14からの画像データにおける対象者の現在の動作の特徴量を抽出し、対象者の動作モデルと比較して、対象者の現在の動作を判定するとともに、それが異常動作であるか否かを判定する。また、姿勢判定部212は、画像データにおける対象者の現在の姿勢の特徴量を抽出し、姿勢モデル記憶部222に記憶された対象者の姿勢モデルの特徴量と比較して、対象者の現在の姿勢を判定する。学習モデル(異常動作モデル、姿勢モデル)との相関度合が最も高い動作または姿勢が、現在の動作または姿勢として判定される。なお、動作判定部211は、画像データにおける対象者の現在の動作に基づいて、動作の絶対量(活動量)を算出することもできる。バイタルサインとともに活動量の変化を記録しておくことで、事故や疾病だけでなく認知症の初期症状を判定することができる。   More specifically, the motion determination unit 211 extracts the feature amount of the current motion of the subject in the image data from the camera 14 and compares the target motion model with the motion model of the target to determine the current motion of the subject. At the same time, it is determined whether or not this is an abnormal operation. In addition, the posture determination unit 212 extracts a feature amount of the current posture of the subject in the image data, and compares the feature amount with the feature amount of the posture model of the subject stored in the posture model storage unit 222. Determine the posture. The motion or posture having the highest degree of correlation with the learning model (abnormal motion model, posture model) is determined as the current motion or posture. Note that the motion determination unit 211 can also calculate an absolute amount of motion (activity amount) based on the current motion of the subject in the image data. By recording changes in the amount of activity along with vital signs, it is possible to determine not only accidents and illnesses but also early symptoms of dementia.

図5Aは、予めコントローラ群50のメモリ22,32,42に記憶されたプログラムに従いコントローラ群50のGPU21,41およびCPU31で実行される、画像データに基づく動作判定処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えば監視装置1の電源オン時に開始され、所定周期で繰り返される。まず、ステップS1で、動作判定部211での処理により、カメラ14により撮像された現在の画像データを読み込む。次いで、ステップS2で、動作モデル記憶部221に記憶された動作モデルに基づいて現在の画像データにおける対象者の動作を判定し、ステップS3で、その動作が異常動作であるか否か判定する。ステップS3で肯定されるとステップS4に進み、否定されると処理を終了する。ステップS4では、異変情報出力部314での処理により、報知部16および管理用端末17に異変の情報を出力する。   FIG. 5A is a flowchart illustrating an example of an operation determination process based on image data that is executed by the GPUs 21 and 41 and the CPU 31 of the controller group 50 in accordance with a program stored in the memories 22, 32, and 42 of the controller group 50 in advance. The process shown in this flowchart is started, for example, when the monitoring apparatus 1 is turned on, and is repeated at a predetermined cycle. First, in step S <b> 1, current image data captured by the camera 14 is read by the processing in the operation determination unit 211. Next, in step S2, the motion of the subject in the current image data is determined based on the motion model stored in the motion model storage unit 221, and in step S3, it is determined whether the motion is an abnormal motion. If the result is affirmative in step S3, the process proceeds to step S4. If the result is negative, the process is terminated. In step S <b> 4, the abnormality information output unit 314 outputs the abnormality information to the notification unit 16 and the management terminal 17.

図5Bは、コントローラ群50で実行される、画像データに基づく姿勢判定処理の一例を示すフローチャートである。まず、ステップS10で、姿勢判定部212での処理により、カメラ14により撮像された現在の画像データを読み込む。次いで、ステップS11で、姿勢モデル記憶部222に記憶された姿勢モデルに基づいて現在の画像データにおける対象者の姿勢を判定する。次いで、ステップS12で、出力部213での処理により、姿勢判定部212により判定された対象者の現在の姿勢のデータを異常姿勢変化判定部311に出力する。   FIG. 5B is a flowchart illustrating an example of posture determination processing based on image data executed by the controller group 50. First, in step S <b> 10, current image data captured by the camera 14 is read by processing in the posture determination unit 212. Next, in step S <b> 11, the posture of the subject in the current image data is determined based on the posture model stored in the posture model storage unit 222. Next, in step S <b> 12, data on the current posture of the subject determined by the posture determination unit 212 is output to the abnormal posture change determination unit 311 by the processing in the output unit 213.

図6Aは、コントローラ群50で実行される、姿勢データに基づく異変判定処理の一例を示すフローチャートである。まず、ステップS20で、異常姿勢変化判定部311での処理により、出力部213により出力された対象者の現在の姿勢のデータを読み込む。次いで、ステップS21で、異常姿勢変化判定条件記憶部322に記憶された異常な姿勢変化の判定条件に基づいて、前回以前に読み込んだ姿勢と今回読み込んだ姿勢との間の姿勢変化が異常であるか否かを判定するとともに、異変の種類を特定する。ステップS21で肯定されるとステップS22に進み、否定されると処理を終了する。ステップS22では、異変情報出力部314での処理により、報知部16および管理用端末17に異変の情報を出力する。   FIG. 6A is a flowchart illustrating an example of an anomaly determination process based on posture data, which is executed by the controller group 50. First, in step S <b> 20, the current posture data of the target person output by the output unit 213 is read by the processing in the abnormal posture change determination unit 311. Next, in step S21, based on the abnormal posture change determination condition stored in the abnormal posture change determination condition storage unit 322, the posture change between the posture read before and the posture read this time is abnormal. And determine the type of anomaly. If the result is affirmative in step S21, the process proceeds to step S22. If the result is negative, the process is terminated. In step S <b> 22, the abnormality information output unit 314 outputs the abnormality information to the notification unit 16 and the management terminal 17.

次いで、ステップS23では、学習時刻決定部315での処理により、異常姿勢変化判定部311により特定された異変の種類に基づいて対象者の異常動作として学習すべき時刻tps〜tpeを決定する。次いで、ステップS24で、学習データ出力部316での処理により、カメラ14からの画像データのうち学習時刻決定部315により決定された時刻tps〜tpeの画像データを抽出して対象者の動作の学習データとして出力する。   Next, in step S <b> 23, times tps to tpe to be learned as the abnormal motion of the subject are determined based on the type of anomaly identified by the abnormal posture change determination unit 311 by the processing in the learning time determination unit 315. Next, in step S24, the learning data output unit 316 extracts the image data from the time tps to tpe determined by the learning time determination unit 315 from the image data from the camera 14, and learns the motion of the subject person. Output as data.

図6Bは、コントローラ群50で実行される、測定値に基づく異変判定処理の一例を示すフローチャートである。まず、ステップS30で、バイタル測定部312での処理により、カメラ14により撮像された現在の画像データを読み込む。次いで、ステップS31で、画像データに基づいて対象者の現在のバイタルサインを測定する。次いで、ステップS32で、異変判定部313での処理により、バイタル測定部312による測定値と、行動予定記憶部321により記憶された対象者の行動予定と、異変判定条件記憶部323により記憶された異変の判定条件とに基づいて、対象者に異変が生じたか否かを判定するとともに、異変の種類を特定する。ステップS32で肯定されるとステップS33に進み、否定されると処理を終了する。ステップS33では、異変情報出力部314での処理により、報知部16および管理用端末17に異変の情報を出力する。   FIG. 6B is a flowchart illustrating an example of an anomaly determination process based on measurement values, which is executed by the controller group 50. First, in step S <b> 30, current image data captured by the camera 14 is read by processing in the vital measurement unit 312. Next, in step S31, the current vital sign of the subject is measured based on the image data. Next, in step S <b> 32, the measurement value by the vital measurement unit 312, the target person's action schedule stored in the action schedule storage unit 321, and the abnormality determination condition storage unit 323 are stored by the process in the abnormality determination unit 313. Based on the change determination condition, it is determined whether or not a change has occurred in the subject, and the type of change is specified. If the determination in step S32 is affirmative, the process proceeds to step S33, and if the determination is negative, the process is terminated. In step S33, the abnormal information output unit 314 outputs the abnormal information to the notification unit 16 and the management terminal 17.

次いで、ステップS34では、学習時刻決定部315での処理により、異変判定部313により特定された異変の種類に基づいて対象者の異常動作として学習すべき時刻tvs〜tveを決定する。次いで、ステップS35で、学習データ出力部316での処理により、カメラ14からの画像データのうち学習時刻決定部315により決定された時刻tvs〜tveの画像データを抽出して対象者の動作の学習データとして出力する。   Next, in step S34, the process at the learning time determination unit 315 determines times tvs to tve to be learned as the abnormal motion of the subject based on the type of change specified by the change determination unit 313. Next, in step S35, the learning data output unit 316 extracts the image data of times tvs to tve determined by the learning time determination unit 315 from the image data from the camera 14, and learns the motion of the subject person. Output as data.

図7は、コントローラ群50で実行される、動作の学習処理の一例を示すフローチャートである。このフローチャートに示す処理は、図5A〜図6Bのフローチャートの処理とは異なり、監視装置1を管理するユーザが適宜なスイッチなどを介して入力する指示に応じて随時開始される。まず、ステップS40で、動作学習部411での処理により、学習データ出力部316により出力され、動作学習データ記憶部421に記憶された対象者の動作の学習データを読込む。次いで、ステップS41で、対象者の動作を学習し、ステップS42で、動作モデルを生成する。次いで、ステップS43で、出力部413での処理により、動作学習部411により生成された動作モデルをコントローラ20の動作モデル記憶部221に出力する。   FIG. 7 is a flowchart illustrating an example of an operation learning process executed by the controller group 50. Unlike the processes of the flowcharts of FIGS. 5A to 6B, the process illustrated in this flowchart is started at any time in response to an instruction input by a user who manages the monitoring device 1 via an appropriate switch or the like. First, in step S <b> 40, the learning data of the subject's motion output by the learning data output unit 316 and stored in the motion learning data storage unit 421 is read by the processing in the motion learning unit 411. Next, in step S41, the motion of the subject is learned, and in step S42, a motion model is generated. Next, in step S <b> 43, the behavior model generated by the behavior learning unit 411 is output to the behavior model storage unit 221 of the controller 20 by the processing in the output unit 413.

姿勢の学習処理も動作の学習処理と同様に実行される。すなわち、姿勢学習部412での処理により姿勢学習データ記憶部422に記憶された対象者の姿勢の学習データを読込み(S40)、対象者の姿勢を学習し(S41)、姿勢モデルを生成し(S42)、出力部413での処理により姿勢モデルをコントローラ20の姿勢モデル記憶部222に出力する(S43)。   The posture learning process is executed in the same manner as the action learning process. That is, the learning data of the subject's posture stored in the posture learning data storage unit 422 by the processing in the posture learning unit 412 is read (S40), the posture of the subject is learned (S41), and a posture model is generated ( (S42) The posture model is output to the posture model storage unit 222 of the controller 20 by the processing in the output unit 413 (S43).

本実施形態に係る監視装置1の主要な動作についてより具体的に説明する。図8は、監視装置1の動作を説明するための図である。図8には、図の上から、姿勢判定部212により判定された対象者の姿勢、行動予定記憶部321により記憶された対象者の行動予定、異常姿勢変化判定部311による異常な姿勢変化の判定結果、バイタル測定部312により測定されたバイタルサインの一例として心拍数、および異変判定部313による異変の判定結果が、それぞれ時系列で示される。   The main operation of the monitoring device 1 according to the present embodiment will be described more specifically. FIG. 8 is a diagram for explaining the operation of the monitoring device 1. In FIG. 8, from the top of the figure, the posture of the subject determined by the posture determination unit 212, the behavior plan of the subject stored by the behavior plan storage unit 321, and the abnormal posture change by the abnormal posture change determination unit 311. The determination result, the heart rate as an example of the vital sign measured by the vital measurement unit 312, and the abnormal determination result by the abnormal determination unit 313 are respectively shown in time series.

監視装置1により、例えば介護施設に入居する腰が曲がった高齢の対象者の見守りを行うと仮定する。介護施設の居室に一人でいる対象者が時刻tps〜tpeにおいて転倒すると、居室に設置された監視装置1により姿勢変化が異常であると判定されるとともに、転倒が発生したことが特定される(S10〜S12,S20〜S21)。対象者の異変は、ナースステーションに設置されたナースコールボード(報知部16)を介して介護スタッフに報知される(S22)。このため、対象者が転倒によって動けなくなるなどして自身でナースコールを使用できない場合でも、介護スタッフに異変を報知することができる。また、介護スタッフが監視カメラ14の映像から目を離しているときであっても、監視装置1による報知によって対象者の異変に気付くことができる。また、対象者の異変の情報は、介護スタッフのノートパソコン(管理用端末17)にも送信される(S22)。これにより、対象者に発生した異変の種類や発生時刻などの情報が介護記録のフォーマットなどに自動的に記録され、介護スタッフの事務負担を軽減することができる。   It is assumed that the monitoring device 1 monitors, for example, an elderly subject who is bent in a nursing facility. When the subject person alone in the living room of the care facility falls from time tps to tpe, the monitoring device 1 installed in the living room determines that the posture change is abnormal and specifies that the fall has occurred ( S10 to S12, S20 to S21). The change of the subject is notified to the care staff via the nurse call board (notification unit 16) installed in the nurse station (S22). For this reason, even when the subject person cannot use the nurse call by himself because he or she cannot move due to falling, the care staff can be notified of the change. Even when the care staff is keeping an eye on the video of the monitoring camera 14, it is possible to notice the change in the subject by the notification by the monitoring device 1. Moreover, the information on the change of the target person is also transmitted to the notebook personal computer (management terminal 17) of the care staff (S22). As a result, information such as the type and time of occurrence of the anomaly that has occurred in the subject is automatically recorded in the format of the nursing care record and the burden on the nursing staff can be reduced.

対象者に転倒が発生したと推定される時刻tps〜tpeの画像データが、転倒の動作の学習データとして抽出され、蓄積される(S23,S24)。監視装置1のユーザは、ソケットから取り外してカバー13を外した監視装置1を、USBケーブル等を介してパソコン等のユーザ端末に接続し、コントローラ40のメモリ42に記憶、蓄積された動作の学習データの蓄積状態等を確認することができる。ユーザが、転倒の動作の学習に必要な量の学習データの蓄積を確認し、転倒の動作の学習開始を指示すると、コントローラ40による学習が開始され、学習モデルが生成されて、コントローラ20の学習モデルが更新される(S40〜S43)。動作の判定に用いられる学習モデルが、介護スタッフなどの実演をもとに生成された動作モデルから、実際の対象者による動作の学習モデルへと更新されることで、対象者の動作を判定する精度が向上する。   Image data of times tps to tpe estimated that the subject has fallen is extracted and accumulated as learning data of the fall motion (S23, S24). The user of the monitoring device 1 connects the monitoring device 1 with the cover 13 removed from the socket to a user terminal such as a personal computer via a USB cable or the like, and learns the operations stored and accumulated in the memory 42 of the controller 40 It is possible to check the data accumulation status. When the user confirms the accumulation of learning data of an amount necessary for learning of the overturning operation and instructs the start of learning of the overturning operation, learning by the controller 40 is started, a learning model is generated, and the learning of the controller 20 is performed. The model is updated (S40 to S43). The learning model used to determine the movement is updated from the movement model generated based on the demonstrations of nursing staff, etc., to the learning model of the movement by the actual target person, thereby determining the movement of the target person. Accuracy is improved.

対象者が食事中に誤嚥が発生し、むせ込みにより、時刻taにおいて対象者の心拍数が所定値(例えば100回/分)を超えて上昇すると、監視装置1により誤嚥(異変)が発生したと判定される(S31〜S33)。誤嚥および誤嚥のきっかけがあったと推定される時刻tvs〜tveの画像データが、誤嚥の動作の学習データとして抽出、蓄積され、ユーザの指示に応じて学習される(S34,S35,S40〜S43)。動作の学習データとして抽出される時刻は、異変の種類に応じて決定されるため、異変が発生する前の動作を含めて学習することができる。例えば、誤嚥が発生する前の動作である飲食時の不適切な姿勢を含めて学習することができる。   If the subject's aspiration occurs during the meal and the heart rate of the subject rises above a predetermined value (for example, 100 times / minute) at the time ta due to the concealment, the monitoring device 1 causes aspiration (abnormality). It is determined that it has occurred (S31 to S33). Image data at times tvs to tve, which are estimated to have caused aspiration and aspiration, are extracted and accumulated as learning data for aspiration operations, and learned according to user instructions (S34, S35, S40). To S43). Since the time extracted as action learning data is determined according to the type of anomaly, it is possible to learn including the action before the anomaly occurs. For example, it is possible to learn including an inappropriate posture at the time of eating and drinking, which is an operation before aspiration occurs.

誤嚥の動作モデルが更新された後、飲食時の対象者が誤嚥につながる不適切な姿勢をとると、監視装置1により誤嚥の動作(誤嚥につながる動作)であると判定され、対象者の異変が報知される(S1〜S3)。報知を受けた介護スタッフが、対象者の居室へ駆けつけ、あるいはナースコールなどにより、対象者の飲食時の姿勢を注意することができる。対象者が一人で飲食する場合であっても、誤嚥の発生を未然に防ぐことができる。また、誤嚥につながる姿勢を対象者ごとに学習するため、背骨の曲がりや片麻痺等により飲食時の適切な姿勢が標準的な成人の姿勢とは異なる対象者にも適用することができる。なお、介護スタッフなどが飲食時の対象者を介助するときに、その対象者の状態に応じて、様子を見ながら、誤嚥につながる姿勢を判断し、そのときの姿勢を誤嚥の動作として学習させることもできる。すなわち、見守り対象者ごとに異常な動作を検出することができる。   After the aspiration behavior model is updated, if the subject at the time of eating or drinking takes an inappropriate posture that leads to aspiration, the monitoring device 1 determines that the behavior is aspiration (operation that leads to aspiration), A change in the subject is notified (S1 to S3). The care staff who received the notification can be careful of the posture of the subject when eating or drinking by rushing to the subject's room or by a nurse call. Even if the subject eats and drinks alone, the occurrence of aspiration can be prevented in advance. Moreover, since the posture that leads to aspiration is learned for each subject, it can be applied to a subject whose proper posture during eating and drinking is different from the standard adult posture due to bending of the spine or hemiplegia. In addition, when nursing staff assist the target person at the time of eating and drinking, according to the state of the target person, judging the posture that leads to aspiration while looking at the state, the posture at that time as the action of aspiration You can also learn. That is, an abnormal operation can be detected for each watching target person.

監視装置1には、コントローラ30のメモリ32に、対象者の行動予定およびバイタルサインの測定値が時系列で記憶される。見守り対象者が医療機関を受診するとき、これらのデータを医師に提示することもできる。食事や起床などの行動予定とバイタルサインの変動とを対比して確認することで、対象者の診療、診断に役立てることができる。   In the monitoring device 1, the action schedule of the subject person and the measured value of the vital sign are stored in time series in the memory 32 of the controller 30. When the person being watched over visits a medical institution, these data can be presented to the doctor. By comparing the schedule of actions such as meals and waking up with changes in vital signs, it can be used for medical treatment and diagnosis of the subject.

本実施形態によれば以下のような作用効果を奏することができる。
(1)特定の見守り対象者を監視する監視装置1は、見守り対象者の動作の画像データに基づいて見守り対象者の動作の特徴量を抽出し、見守り対象者の動作の学習モデルを生成する動作学習部411と、動作学習部411により生成された動作の学習モデルを記憶する動作モデル記憶部221と、動作モデル記憶部221により記憶された動作の学習モデルに基づいて、見守り対象者の動作を判定する動作判定部211とを備える(図4)。対象者ごとに動作を学習することにより、身体の状態などが異なる対象者ごとに異常な動作(異変)を含む動作を判定することができる。
According to this embodiment, the following effects can be obtained.
(1) The monitoring device 1 that monitors a specific watching target person extracts a feature amount of the watching target person's movement based on the image data of the watching target person's action, and generates a learning model of the watching target person's action. Based on the behavior learning unit 411, the behavior model storage unit 221 that stores the behavior learning model generated by the behavior learning unit 411, and the behavior learning model stored in the behavior model storage unit 221, And an operation determination unit 211 that determines whether or not (FIG. 4). By learning the action for each subject, it is possible to determine an action including an abnormal action (abnormal change) for each subject who has a different body state or the like.

(2)監視装置1は、見守り対象者のバイタルサインを測定するバイタル測定部312と、バイタル測定部312により測定されたバイタルサインに基づいて、見守り対象者に異変が生じたか否かを判定する異変判定部313とをさらに備える(図4)。動作学習部411は、異変判定部313により見守り対象者に異変が生じたと判定されたときの見守り対象者の動作の画像データに基づいて見守り対象者の動作の特徴量を抽出し、見守り対象者の異常動作の学習モデルを生成する。これにより、バイタルサインの変化に基づいて、自動的に、異変が生じたときの動作や異変が生じる前後の動作の学習データを抽出することができる。 (2) The monitoring apparatus 1 determines whether or not an abnormality has occurred in the watching target based on the vital measurement unit 312 that measures the vital sign of the watching target and the vital sign measured by the vital measuring unit 312. An anomaly determination unit 313 is further provided (FIG. 4). The motion learning unit 411 extracts the feature amount of the watching target person based on the image data of the watching target person's motion when it is determined by the change determination part 313 that the watching target person has changed, and the watching target person A learning model of abnormal behavior is generated. Thereby, based on the change of the vital sign, it is possible to automatically extract the learning data of the operation when the abnormality occurs and the operation before and after the occurrence of the abnormality.

(3)監視装置1は、見守り対象者の行動予定を取得する管理用端末17をさらに備える(図4)。異変判定部313は、さらに管理用端末17により取得された行動予定に基づいて、見守り対象者に異変が生じたかを判定する。対象者の行動予定とバイタルサインの変動とを対比して確認することで、対象者の診療、診断に役立てることができる。 (3) The monitoring device 1 further includes a management terminal 17 that acquires an action schedule of the watching target person (FIG. 4). The anomaly determination unit 313 further determines whether an anomaly has occurred in the person being watched based on the action schedule acquired by the management terminal 17. By comparing the action schedule of the subject and the change in vital signs, it can be used for medical treatment and diagnosis of the subject.

なお、上記実施形態は種々の形態に変形することができる。以下、変形例について説明する。上記実施形態では、監視装置1が特定の対象者の動作を学習し、学習された動作に基づいてその対象者の動作を判定するようにしたが、特定の対象者を監視する監視装置はこのようなものに限らない。例えば、特定の身体状態の対象者に監視装置を適用して、その身体状態に応じた動作モデルを学習し、学習された動作モデルを用いて同様の身体状態の別の対象者の動作を判定してもよい。   In addition, the said embodiment can be deform | transformed into various forms. Hereinafter, modified examples will be described. In the above-described embodiment, the monitoring device 1 learns the operation of a specific target person and determines the operation of the target person based on the learned operation. It is not limited to such a thing. For example, apply a monitoring device to a subject with a specific physical condition, learn a motion model according to that physical condition, and use the learned motion model to determine the motion of another subject with a similar physical condition May be.

上記実施形態では、バイタル測定部312がカメラ14からの画像データに基づいて対象者のバイタルサインを測定するようにしたが、対象者の生体情報を取得する生体情報取得部の構成はこのようなものに限らない。対象者が装着するタイプのバイタルセンサの測定値を有線または無線で取得してもよい。   In the above embodiment, the vital measurement unit 312 measures the vital sign of the subject based on the image data from the camera 14, but the configuration of the biological information acquisition unit that obtains the subject's biological information is as described above. Not limited to things. You may acquire the measured value of the vital sensor of the type with which a subject wears by a cable or radio | wireless.

上記実施形態では、管理用端末17により作成された介護記録に含まれる対象者の行動予定のテキストデータをコントローラ群50に送信するようにしたが、対象者の行動予定を取得する行動予定取得部の構成はこのようなものに限らない。例えば、コントローラ群50側で行われる動作の判定として、カメラ14からの画像データに基づいて食事や睡眠などの対象者の行動を自動的に判定し、判定された行動を介護記録用のテキストデータとして管理用端末17に出力してもよい。   In the above embodiment, the text data of the action schedule of the target person included in the care record created by the management terminal 17 is transmitted to the controller group 50, but the action schedule acquisition unit for acquiring the action schedule of the target person The configuration is not limited to this. For example, as the determination of the operation performed on the controller group 50 side, the behavior of the subject person such as a meal or sleep is automatically determined based on the image data from the camera 14, and the determined behavior is text data for nursing records. May be output to the management terminal 17.

上記実施形態では、監視装置1が本体内にカメラ14を含むように構成したが、特定の対象者を監視する監視装置はこのようなものに限らない。例えば、監視装置とは別の監視カメラなどから有線または無線で対象者の画像データを取得し、取得した画像データに基づいて動作の学習および判定を行うようにしてもよい。この場合、例えばONVIF(Open Network Video Interface Forum)等のネットワークカメラの標準化規格に対応することで、異なるメーカーの監視カメラの画像データを学習用データとして利用することができる。   In the above embodiment, the monitoring device 1 is configured to include the camera 14 in the main body, but the monitoring device that monitors a specific target person is not limited to this. For example, the image data of the subject person may be acquired from a monitoring camera or the like different from the monitoring device by wire or wireless, and the learning and determination of the operation may be performed based on the acquired image data. In this case, for example, image data of surveillance cameras from different manufacturers can be used as learning data by supporting network camera standardization standards such as ONVIF (Open Network Video Interface Forum).

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。   The above description is merely an example, and the present invention is not limited to the above-described embodiments and modifications unless the features of the present invention are impaired. It is also possible to arbitrarily combine one or more of the above-described embodiments and modifications, and it is also possible to combine modifications.

1(1A,1B) 監視装置、11 筐体、11r レール、11s スリット、12 口金部、13 カバー、14 カメラ、15 LED、16 報知部、17 管理用端末、20,30,40 コントローラ、21,41 GPU、22,32,42 メモリ、31 CPU、50 コントローラ群、211 動作判定部、212 姿勢判定部、213 出力部、221 動作モデル記憶部、222 姿勢モデル記憶部、311 異常姿勢変化判定部、312 バイタル測定部、313 異変判定部、314 異変情報出力部、315 学習時刻決定部、316 学習データ出力部、321 行動予定記憶部、322 異常姿勢変化判定条件記憶部、323 異変判定条件記憶部、324 バイタル測定値記憶部、411 動作学習部、412 姿勢学習部、413 出力部、421 動作学習データ記憶部、422 姿勢学習データ記憶部 1 (1A, 1B) monitoring device, 11 housing, 11r rail, 11s slit, 12 base part, 13 cover, 14 camera, 15 LED, 16 notification part, 17 management terminal, 20, 30, 40 controller, 21, 41 GPU, 22, 32, 42 memory, 31 CPU, 50 controller group, 211 motion determination unit, 212 posture determination unit, 213 output unit, 221 motion model storage unit, 222 posture model storage unit, 311 abnormal posture change determination unit, 312 Vital measurement unit, 313 Change determination unit, 314 Change information output unit, 315 Learning time determination unit, 316 Learning data output unit, 321 Action schedule storage unit, 322 Abnormal posture change determination condition storage unit, 323 Change determination condition storage unit, 324 vital measurement value storage unit, 411 motion learning unit, 412 posture learning unit, 413 Output unit, 421 Motion learning data storage unit, 422 Posture learning data storage unit

Claims (2)

特定の対象者を監視する監視装置であって、
前記対象者の動作の画像データに基づいて前記対象者動作の特徴量を抽出し、前記対象者の動作の学習モデルを生成する学習モデル生成部と、
前記学習モデル生成部により生成された動作の学習モデルを記憶する学習モデル記憶部と、
前記学習モデル記憶部により記憶された学習モデルに基づいて、前記対象者の動作を判定する動作判定部と、
前記対象者の生体情報を取得する生体情報取得部と、
前記生体情報取得部により取得された生体情報に基づいて、前記対象者に異変が生じたか否かを判定する異変判定部と、を備え
前記学習モデル生成部は、前記異変判定部により前記対象者に異変が生じたと判定されたときの前記対象者の動作の画像データに基づいて前記対象者の動作の特徴量を抽出し、前記対象者の異常動作の学習モデルを生成することを特徴とする監視装置。
A monitoring device for monitoring a specific target person,
A learning model generating unit on the basis of the image data of the subject's operation to extract the feature amount of operation of the subject, to generate a learning model of the operation of the subject,
A learning model storage unit for storing a learning model of the operation generated by the learning model generating unit,
Based on the stored learned model by the learning model storage unit, and the operation determination unit determines the operation of the subject,
A biological information acquisition unit that acquires biological information of the subject;
An abnormality determination unit that determines whether or not an abnormality has occurred in the subject based on the biological information acquired by the biological information acquisition unit ;
The learning model generation unit extracts a feature amount of the subject's motion based on image data of the subject's motion when the anomaly determination unit determines that an abnormality has occurred in the subject, and the target the supervision device and generating to said Rukoto learning model of abnormal operation.
請求項1に記載の監視装置において、  The monitoring device according to claim 1,
前記対象者の行動予定を取得する行動予定取得部をさらに備え、  An action plan acquisition unit for acquiring the target person's action plan;
前記異変判定部は、さらに前記行動予定取得部により取得された行動予定に基づいて、前記対象者に異変が生じたか否かを判定することを特徴とする監視装置。  The monitoring apparatus according to claim 1, wherein the abnormality determination unit further determines whether or not an abnormality has occurred in the target person based on the action schedule acquired by the action schedule acquisition unit.
JP2018132581A 2018-07-12 2018-07-12 Monitoring device Active JP6611871B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018132581A JP6611871B1 (en) 2018-07-12 2018-07-12 Monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018132581A JP6611871B1 (en) 2018-07-12 2018-07-12 Monitoring device

Publications (2)

Publication Number Publication Date
JP6611871B1 true JP6611871B1 (en) 2019-11-27
JP2020009378A JP2020009378A (en) 2020-01-16

Family

ID=68692068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018132581A Active JP6611871B1 (en) 2018-07-12 2018-07-12 Monitoring device

Country Status (1)

Country Link
JP (1) JP6611871B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6721221B1 (en) * 2019-05-27 2020-07-08 株式会社Lightblue Technology Teacher data creation system, learned model creation system, and teacher data creation method
JP2020142890A (en) * 2019-03-06 2020-09-10 東芝エレベータ株式会社 Maintenance/inspection work supporting system of passenger conveyor

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230555A (en) * 2001-02-01 2002-08-16 Noa Syst:Kk Detection device and method for detecting movement
JP2008252852A (en) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd Image recorder
JP2008289676A (en) * 2007-05-24 2008-12-04 Sysmex Corp Patient abnormality notification system
JP5867847B2 (en) * 2011-08-19 2016-02-24 富山県 Patient behavior identification method and patient behavior detection system
JP6413310B2 (en) * 2014-04-10 2018-10-31 富士通株式会社 Monitoring device, display method and program
JP2015219868A (en) * 2014-05-21 2015-12-07 キヤノン株式会社 Information processor, information processing method and program
WO2016199749A1 (en) * 2015-06-10 2016-12-15 コニカミノルタ株式会社 Image processing system, image processing device, image processing method, and image processing program
EP3553739B1 (en) * 2016-12-06 2023-12-06 Konica Minolta, Inc. Image recognition system and image recognition method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020142890A (en) * 2019-03-06 2020-09-10 東芝エレベータ株式会社 Maintenance/inspection work supporting system of passenger conveyor
JP6721221B1 (en) * 2019-05-27 2020-07-08 株式会社Lightblue Technology Teacher data creation system, learned model creation system, and teacher data creation method
JP2020194270A (en) * 2019-05-27 2020-12-03 株式会社Lightblue Technology Teacher data creation system, trained model generating system and teacher data creation method

Also Published As

Publication number Publication date
JP2020009378A (en) 2020-01-16

Similar Documents

Publication Publication Date Title
US20160345832A1 (en) System and method for monitoring biological status through contactless sensing
JP6520831B2 (en) Display control apparatus, display control system, display control method, display control program, recording medium
JP6915421B2 (en) Watching support system and its control method
CN108882853B (en) Triggering measurement of physiological parameters in time using visual context
US10987008B2 (en) Device, method and computer program product for continuous monitoring of vital signs
KR101712191B1 (en) Patient Fall Prevention Monitoring Device
WO2017183602A1 (en) Monitoring-subject monitoring system and method for monitoring subject
JP6611871B1 (en) Monitoring device
EP3504649A1 (en) Device, system and method for patient monitoring to predict and prevent bed falls
WO2017010956A1 (en) A monitoring system
CA3019931A1 (en) Pressure ulcer detection methods, devices and techniques
WO2020003715A1 (en) Report output program, report output method, and report output device
JP5517285B2 (en) Wake-up monitoring device
JP3236269U (en) Biometric information monitoring equipment and systems
WO2017183528A1 (en) Device, method, and system for monitoring of monitor subject
JP7409305B2 (en) Report output program, report output method, and report output device
JP7447599B2 (en) Support systems, support methods and programs
JP7268387B2 (en) Monitoring device and program for monitoring device
JP7251546B2 (en) Report output program, report output method, and report output device
JP2023108725A (en) Display device, system, display method, and program
JP2020135063A (en) Surveillance device and program for surveillance device
JPWO2019216066A1 (en) System and system control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180712

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180712

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191029

R150 Certificate of patent or registration of utility model

Ref document number: 6611871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250