JP2020009378A - Monitoring device - Google Patents

Monitoring device Download PDF

Info

Publication number
JP2020009378A
JP2020009378A JP2018132581A JP2018132581A JP2020009378A JP 2020009378 A JP2020009378 A JP 2020009378A JP 2018132581 A JP2018132581 A JP 2018132581A JP 2018132581 A JP2018132581 A JP 2018132581A JP 2020009378 A JP2020009378 A JP 2020009378A
Authority
JP
Japan
Prior art keywords
unit
subject
motion
learning
target person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018132581A
Other languages
Japanese (ja)
Other versions
JP6611871B1 (en
Inventor
和泉 小山
Izumi Koyama
和泉 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koyu Kai
Original Assignee
Koyu Kai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koyu Kai filed Critical Koyu Kai
Priority to JP2018132581A priority Critical patent/JP6611871B1/en
Application granted granted Critical
Publication of JP6611871B1 publication Critical patent/JP6611871B1/en
Publication of JP2020009378A publication Critical patent/JP2020009378A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a monitoring device that detects an operation for each of monitored persons.SOLUTION: A monitoring device 1 that monitors a specific object person comprises: an operation learning unit 411 that extracts a feature value of an operation of an object person on the basis of image data for the operation of the object person, and generates a learning model for the operation of the object person; an operation model storage unit 221 that stores the learning model for the operation generated by the operation leaning unit 411; and an operation determination unit 221 that determines the operation of the object person on the basis of the leaning model for the operation stored by the operation determination unit 211.SELECTED DRAWING: Figure 4

Description

本発明は、居宅や施設等において特定の対象者を監視する監視装置に関する。   The present invention relates to a monitoring device that monitors a specific target person in a home, a facility, or the like.

従来、監視カメラにより撮像された画像データに基づいて、対象者の動作が異常であるか否かを判定し、異常を報知するようにした装置が知られている(例えば特許文献1参照)。特許文献1の装置では、自動取引装置を使用するときの一連の標準的な動作を学習し、対象者の動作が標準的な動作から外れている場合に異常と判定する。   2. Description of the Related Art Conventionally, there has been known an apparatus that determines whether or not an operation of a target person is abnormal based on image data captured by a surveillance camera and reports the abnormality (for example, see Patent Document 1). In the device of Patent Literature 1, a series of standard operations when using the automatic transaction device is learned, and when the target person's operation deviates from the standard operation, it is determined to be abnormal.

特開2018−10332号公報JP 2018-10332 A

上記特許文献1記載の装置では、対象者の動作を標準的な動作と比較して異常であるか否かを判定するため、対象者の身体の状態などに応じた特徴的な動作については、正確に判定することができない。しかしながら、特に介護の目的で24時間体勢の監視を行う場合などには、身体の状態などが異なる対象者ごとに異常な動作(異変)を判定することが望まれる。   In the device described in Patent Document 1, in order to determine whether or not the motion of the subject is abnormal by comparing the motion of the subject with a standard motion, for the characteristic motion corresponding to the physical condition of the subject, It cannot be determined accurately. However, particularly when monitoring the posture for 24 hours for the purpose of nursing care, it is desired to determine an abnormal operation (unusual) for each subject having a different physical condition or the like.

本発明の一態様は、特定の対象者を監視する監視装置であって、対象者の動作を学習する動作学習部と、動作学習部により学習された動作を記憶する動作記憶部と、動作記憶部により記憶された動作に基づいて、対象者の動作を判定する動作判定部と、を備える。   One embodiment of the present invention is a monitoring device that monitors a specific target person, an operation learning unit that learns the operation of the target person, an operation storage unit that stores the operation learned by the operation learning unit, and an operation storage An operation determining unit that determines an operation of the subject person based on the operation stored by the unit.

本発明によれば、監視対象者ごとに動作を検出することができる。   According to the present invention, an operation can be detected for each monitoring target person.

本発明の実施形態に係る監視装置の設置の一例を概略的に示す図。The figure which shows schematically an example of installation of the monitoring apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る監視装置の斜視図。FIG. 1 is a perspective view of a monitoring device according to an embodiment of the present invention. 本発明の実施形態に係る監視装置の断面図。FIG. 2 is a cross-sectional view of the monitoring device according to the embodiment of the present invention. 本発明の実施形態に係る監視装置の構成を概略的に示すブロック図。FIG. 1 is a block diagram schematically showing a configuration of a monitoring device according to an embodiment of the present invention. 図4のコントローラ群で実行される、画像データに基づく動作判定処理の一例を示すフローチャート。5 is a flowchart illustrating an example of an operation determination process based on image data, which is executed by the controller group in FIG. 4. 図4のコントローラ群で実行される、画像データに基づく姿勢判定処理の一例を示すフローチャート。5 is a flowchart illustrating an example of a posture determination process based on image data, which is executed by the controller group in FIG. 4. 図4のコントローラ群で実行される、姿勢データに基づく異変判定処理の一例を示すフローチャート。5 is a flowchart illustrating an example of an abnormality determination process based on posture data, which is executed by the controller group in FIG. 4. 図4のコントローラ群で実行される、測定値に基づく異変判定処理の一例を示すフローチャート。5 is a flowchart illustrating an example of an abnormality determination process based on measured values, which is executed by the controller group in FIG. 4. 図4のコントローラ群で実行される動作の学習処理の一例を示すフローチャート。5 is a flowchart illustrating an example of a learning process of an operation performed by the controller group in FIG. 4. 本発明の実施形態に係る監視装置の動作を説明するための図。The figure for explaining operation of the monitoring device concerning the embodiment of the present invention.

以下、図1〜図8を参照して本発明の実施形態について説明する。本発明の実施形態に係る監視装置は、特定の対象者を常時見守るために、例えば介護施設の居室などに設置され、腰が曲がっているなどの身体の状態によって通常の動作が標準的な動作とは異なる対象者につき、報知すべき異常な動作を含む種々の動作を学習して判定するものである。   Hereinafter, an embodiment of the present invention will be described with reference to FIGS. The monitoring device according to the embodiment of the present invention is installed in a living room of a nursing care facility, for example, to constantly monitor a specific target person, and a normal operation is performed according to a physical condition such as a bent back. The determination is made by learning various operations including an abnormal operation to be reported for a different target person.

図1は、本発明の実施形態に係る監視装置1A,1B(以下、1と総称する)の設置の一例を概略的に示す図である。監視装置1は、監視カメラなどにより構成され、介護施設の居室や独居の高齢者の自宅など見守り対象者が一人で過ごす場所に設置されて対象者の見守り監視を行う。監視装置1により出力される画像データなどは、介護施設のナースステーションに設置された端末や、見守り対象者の家族の携帯端末などに送信される。図1は、監視装置1を介護施設の居室に設置する場合の一例である。居室は、例えば、図1に左側から示すように、居室の出入口、間仕切られたエリアAR1(トイレなど)、対象者が歩いて移動するエリアAR2(洗面エリアなど)、対象者が主に臥位で過ごすエリアAR3(ベッドなどが置かれたエリア)により構成される。   FIG. 1 is a diagram schematically illustrating an example of installation of monitoring devices 1A and 1B (hereinafter, collectively referred to as 1) according to an embodiment of the present invention. The monitoring device 1 is configured by a monitoring camera or the like, and is installed in a place where the watching target person spends alone, such as a living room of a nursing care facility or a single elderly person's home, and monitors the watching of the target person. The image data and the like output by the monitoring device 1 are transmitted to a terminal installed at a nurse station of a nursing facility, a mobile terminal of a family member of the watching target, and the like. FIG. 1 is an example of a case where the monitoring device 1 is installed in a living room of a care facility. The living room is, for example, as shown from the left side in FIG. 1, the entrance of the living room, a partitioned area AR1 (such as a toilet), an area AR2 where the subject walks and moves (such as a wash area), and the subject is mainly in a prone position. Is constituted by an area AR3 (an area where a bed or the like is placed).

図1に示すように、監視装置1Aは、出入口とは反対側の壁等に設置される。監視装置1Aは、対象者の居室への入室や居室からの退出を監視し、エリアAR2における対象者の歩行等の動作を監視し、エリアAR3における対象者の就寝中の様子を上方から監視する。監視装置1Bは、間仕切られたエリアAR1の天井等、対象者が気にならないような位置に設置される。図1では、監視装置1A,1Bを設置する例を示すが、監視装置1の設置台数は、居室の広さやレイアウトによって1台または3台以上としてもよい。   As shown in FIG. 1, the monitoring device 1A is installed on a wall or the like opposite to the entrance. The monitoring device 1A monitors the subject's entry into and exit from the room, monitors the operation of the subject in the area AR2 such as walking, and monitors the state of the subject in bed in the area AR3 from above. . The monitoring device 1B is installed at a position where the target person does not care, such as the ceiling of the partitioned area AR1. Although FIG. 1 shows an example in which the monitoring devices 1A and 1B are installed, the number of monitoring devices 1 may be one or three or more depending on the size and layout of the living room.

図2は、監視装置1の斜視図である。監視装置1は、略電球形状の筐体11を備える。筐体11は、一端部において、ねじ部12aが形成された導電性の口金部12を有する。ねじ部12aは、例えば壁面に取り付け可能なスタンドの先端部のソケットに螺合され、口金部12を介して本体に電力が供給される。壁面に取り付けられたダクトレールのソケットに螺号されるようにしてもよい。筐体11の他端部には、透光性を有する樹脂材により構成されるカバー13が取り付けられる。このような電球形状とすることにより、監視装置1は、市販の電球のように簡易に設置できるとともに、一般的な監視カメラが対象者に与える「見張られている」という意識を低減することができる。   FIG. 2 is a perspective view of the monitoring device 1. The monitoring device 1 includes a housing 11 having a substantially light bulb shape. The housing 11 has, at one end, a conductive base 12 in which a screw portion 12a is formed. The screw portion 12 a is screwed into a socket at the tip of a stand that can be attached to a wall surface, for example, and power is supplied to the main body via the base 12. You may make it screw into the socket of the duct rail attached to the wall surface. A cover 13 made of a light-transmitting resin material is attached to the other end of the housing 11. By adopting such a light bulb shape, the monitoring device 1 can be easily installed like a commercially available light bulb, and can reduce the consciousness that a general surveillance camera gives to a target person that the watch is being watched. it can.

図3は、監視装置1の断面図である。図示のように、筐体11内には、見守り対象者を撮像するカメラ14と、カメラ14の周囲に周方向等間隔に配置された複数(例えば8個)のLED15と、カメラ14の周囲に周方向等間隔に配置された3個のコントローラ20,30,40(コントローラ群50)とが配置され、口金部12および図示しないケーブルなどを介してこれらに外部から電力が供給される。カメラ14は、図示しないケーブルなどを介してコントローラ20,30,40のそれぞれに接続される。筐体11には排熱用のスリット11sが設けられる(図1)。コントローラ群50は、ナースステーションに設置されたナースコール親機(ナースコールボード)などの報知部や、介護記録の作成、管理を行うための管理用端末(例えば、介護スタッフ用のノートパソコンなど)に、有線または無線で電気的に接続される。なお、図示は省略するが、各コントローラ20,30,40には、USB(Universal Serial Bus)などの外部入力ポートが設けられる。   FIG. 3 is a sectional view of the monitoring device 1. As shown in the drawing, a camera 14 for capturing an image of a watching target, a plurality of (for example, eight) LEDs 15 arranged at equal circumferential intervals around the camera 14, Three controllers 20, 30, 40 (controller group 50) arranged at equal intervals in the circumferential direction are arranged, and electric power is supplied to these from outside via the base 12 and a cable (not shown). The camera 14 is connected to each of the controllers 20, 30, and 40 via a cable (not shown) or the like. The housing 11 is provided with a slit 11s for discharging heat (FIG. 1). The controller group 50 includes a notification unit such as a nurse call base unit (nurse call board) installed in a nurse station, and a management terminal for creating and managing a care record (for example, a notebook computer for a care staff). Are electrically connected by wire or wirelessly. Although not shown, each of the controllers 20, 30, and 40 is provided with an external input port such as a USB (Universal Serial Bus).

カメラ14は、見守り対象者を常時撮像し、その画像データをコントローラ群50に送信する。カメラ14としては、例えば5〜10倍程度の光学ズーム機能を有する通常のRGBカメラを使用する。図3に示すように、カメラ14は、レンズ部がカバー13の表面と平行となるように、筐体11内の中央に配置される。カメラ14は、レンズ部がカバー13に固定され、本体部が筐体11に設けられたレール11rに沿って矢印で示す筐体11の長さ方向に移動可能であり、これにより倍率を適宜調整することができる。   The camera 14 constantly captures an image of the watching target, and transmits the image data to the controller group 50. As the camera 14, for example, a normal RGB camera having an optical zoom function of about 5 to 10 times is used. As shown in FIG. 3, the camera 14 is disposed at the center in the housing 11 so that the lens unit is parallel to the surface of the cover 13. The camera 14 has a lens portion fixed to the cover 13 and a main body portion movable in the length direction of the housing 11 indicated by an arrow along a rail 11r provided on the housing 11, thereby appropriately adjusting the magnification. can do.

LED15は、例えば、高輝度白色LEDにより構成される。LED15は、照射面がカバー13の表面と平行となるように配置される。なお、対象者の就寝中など居室が暗い状態で見守り監視を行う場合には、カメラ14として通常のRGBカメラに代えて赤外線カメラを使用し、LED15として高輝度白色LEDに代えて赤外線LEDを使用してもよい。カメラ14として赤外線カットフィルタを除去したRGBカメラを使用するとともに、LED15として高輝度白色LEDと赤外線LEDとを交互にカメラ14の周囲に周方向等間隔に配置して使用してもよい。   The LED 15 is configured by, for example, a high-brightness white LED. The LED 15 is arranged so that the irradiation surface is parallel to the surface of the cover 13. In the case of monitoring while the living room is dark, such as when the subject is sleeping, an infrared camera is used as the camera 14 instead of a normal RGB camera, and an infrared LED is used as the LED 15 instead of a high-brightness white LED. May be. An RGB camera from which an infrared cut filter has been removed may be used as the camera 14, and a high-brightness white LED and an infrared LED may be alternately arranged around the camera 14 at equal intervals in the circumferential direction.

ここで、ナースコールや監視カメラなどの従来の見守りシステムの課題について説明する。従来のナースコールによる見守りシステムでは、対象者本人が異変を感じたときに、対象者自身が居室のナースコール子機を操作することで介護スタッフなどへの報知が行われる。このため、対象者本人が意識を失った場合や動けなくなった場合には報知を行うことができない。また、従来の監視カメラによる見守りシステムでは、監視カメラの映像を介護スタッフなどが見て対象者に異変があるか否かを判断する。このため、一人の介護スタッフが複数の対象者の見守りを行う場合や、独居の対象者を一人の家族が常時監視する場合などには、見落としや見過ごしによって対象者の異変に気付くのが遅れることがある。例えば、対象者が転倒やむせ込みにより意識を失ったり動けなくなったりした場合には、介護スタッフなどが気付くまでの間、対象者は放置されることになる。   Here, problems of a conventional watching system such as a nurse call or a surveillance camera will be described. In the conventional nurse call monitoring system, when the target person feels something unusual, the target person himself / herself operates the nurse call slave unit in the living room to notify the care staff and the like. For this reason, when the target person loses consciousness or cannot move, the notification cannot be performed. In a conventional monitoring system using a surveillance camera, a care staff or the like looks at an image of the surveillance camera and determines whether or not there is any abnormality in the target person. For this reason, when one care staff watches over multiple subjects, or when a single family member constantly monitors a single person, delay in noticing the target person's abnormality due to oversight or oversight is delayed. There is. For example, if the subject loses consciousness or becomes unable to move due to a fall or depression, the subject is left unattended until the care staff or the like notices.

そこで、本発明の実施形態では、異変があったときの異常な動作(異常動作)を含む見守り対象者の種々の動作を動作モデルとして学習し、監視カメラ(カメラ14)により撮像された見守り対象者の動作が異常動作であるか否かを判定することで、対象者の異変を自動的に検出するように構成する。   Therefore, in the embodiment of the present invention, various operations of the watching target person including an abnormal operation (abnormal operation) when an abnormality occurs are learned as an operation model, and the watching target captured by the monitoring camera (camera 14) is learned. By determining whether or not the user's operation is an abnormal operation, an abnormality of the target person is automatically detected.

高齢者など介護を必要とする見守り対象者の動作は、腰が曲がっているなどの身体の状態に応じて、標準的な成人の標準的な動作とは異なることがある。このような場合には、標準的な動作を事前に学習し、監視カメラにより撮像された見守り対象者の動作と比較して異変を検出することは難しい。例えば、腰が曲がったまま移動する動作のように、その対象者にとっては問題のない動作を異常動作と判定してしまう可能性がある。   The operation of the watching target who needs care, such as the elderly, may be different from the standard operation of a standard adult depending on the state of the body such as bending. In such a case, it is difficult to learn the standard operation in advance, and to detect an abnormality as compared with the operation of the watching target imaged by the monitoring camera. For example, there is a possibility that an operation that has no problem for the subject, such as an operation of moving while the hip is bent, may be determined as an abnormal operation.

このような誤検出を防ぐため、監視装置1では、見守り対象者ごとに動作モデルを学習し、対象者ごとに動作を判定して異変を検出する。具体的には、見守り対象者の介護記録などに基づいて、その対象者ごとに想定される報知すべき異常動作を含む種々の動作を事前に介護スタッフなどが実演し、動作モデルとして学習する。例えば、腰が曲がっている対象者を見守る監視装置1であれば、腰が曲がった状態で移動する動作や転倒する動作などを動作モデルとして学習する。また、対象者の見守り監視中に実際の対象者の動作を動作モデルとしてさらに学習することで、動作モデルをその対象者の実情により見合ったものに更新する。   In order to prevent such erroneous detection, the monitoring device 1 learns an operation model for each watching target person, determines an operation for each target person, and detects an abnormality. Specifically, based on the nursing record of the watching target and the like, various operations including an abnormal operation to be notified assumed for each target person are performed by the care staff in advance and learned as an operation model. For example, in the case of the monitoring device 1 that monitors a target person whose waist is bent, an operation of moving while the waist is bent or an operation of falling over are learned as an operation model. In addition, by further learning the actual motion of the target person as a motion model during the monitoring of the target person, the motion model is updated to a more appropriate one according to the actual condition of the target person.

上記したような動作モデルの学習と、動作および異変の判定とを実現可能な監視装置1の構成について説明する。   The configuration of the monitoring device 1 capable of realizing the above-described learning of the operation model and the determination of the operation and the abnormality will be described.

図4は、監視装置1の構成を概略的に示すブロック図である。監視装置1は、カメラ14と、カメラ14に電気的に接続されるコントローラ群50と、コントローラ群50に有線または無線で電気的に接続される報知部16と、管理用端末17とを有する。コントローラ群50は、相互に通信可能に構成されたコントローラ20,30,40を含んで構成される。   FIG. 4 is a block diagram schematically illustrating a configuration of the monitoring device 1. The monitoring device 1 includes a camera 14, a controller group 50 electrically connected to the camera 14, a notification unit 16 electrically connected to the controller group 50 by wire or wirelessly, and a management terminal 17. The controller group 50 includes the controllers 20, 30, and 40 that are configured to be able to communicate with each other.

報知部16は、例えば介護施設のナースステーションに設置されたナースコール親機であり、コントローラ群50からの指令に応じて、介護スタッフなどへの報知を行う。報知部16は、監視装置1と同じ構内に設置されるものに限らず、見守り対象者の家族が所持するスマートフォンなどの携帯端末としてもよい。監視装置1が独居の対象者の居宅に設置される場合には、報知部16を医療機関の端末などとしてもよい。また、上記の端末を組み合わせて報知部16としてもよい。   The notification unit 16 is, for example, a nurse call master device installed at a nurse station of a nursing facility, and notifies a nursing staff or the like according to a command from the controller group 50. The notification unit 16 is not limited to the one installed in the same premises as the monitoring device 1 and may be a mobile terminal such as a smartphone owned by the family of the watching target. When the monitoring device 1 is installed in the residence of the subject of solitary living, the notification unit 16 may be a terminal of a medical institution or the like. The notification unit 16 may be formed by combining the above terminals.

管理用端末17は、例えば介護施設の介護スタッフが介護記録の作成、管理に使用するノートパソコンであり、介護記録に含まれる対象者の行動予定や、対象者の動作の判定結果等のテキストデータをコントローラ群50との間で送受信する。管理用端末17は、監視装置1と同じ構内に設置されるものに限らず、見守り対象者の家族が所持するスマートフォンなどの携帯端末としてもよい。監視装置1が医療施設に入院中の対象者の見守りに適用される場合には、管理用端末17を医療機関の端末などとして、介護記録を作成するようにしてもよい。また、複数の端末を組み合わせて管理用端末17としてもよい。   The management terminal 17 is, for example, a notebook computer used by a care staff at a nursing facility for creating and managing a care record. The management terminal 17 includes text data such as an action schedule of the subject included in the care record and a determination result of the action of the subject. Is transmitted to and received from the controller group 50. The management terminal 17 is not limited to the one installed in the same premises as the monitoring device 1 and may be a mobile terminal such as a smartphone owned by the family of the watching target. When the monitoring device 1 is applied for watching a target person who is hospitalized in a medical facility, the management terminal 17 may be used as a terminal of a medical institution to create a care record. Further, the management terminal 17 may be a combination of a plurality of terminals.

コントローラ20は、GPU(Graphics Processing Unit:画像処理装置)21、ROM,RAMなどのメモリ22、その他の周辺回路を有するコンピュータを含んで構成される。   The controller 20 includes a computer having a GPU (Graphics Processing Unit: image processing device) 21, a memory 22 such as a ROM and a RAM, and other peripheral circuits.

GPU21は、機能的構成として、見守り対象者の動作モデルに基づいて現在の動作を判定する動作判定部211と、対象者の姿勢モデルに基づいて現在の姿勢を判定する姿勢判定部212と、姿勢判定部212により判定された姿勢をコントローラ30に出力する出力部213とを有する。動作判定部211と姿勢判定部212とをそれぞれ別のGPUにより構成してもよい。   The GPU 21 has, as a functional configuration, an operation determination unit 211 that determines a current operation based on the movement model of the watching target person, a posture determination unit 212 that determines the current posture based on the posture model of the target person, An output unit 213 that outputs the posture determined by the determination unit 212 to the controller 30. The motion determining unit 211 and the posture determining unit 212 may be configured by different GPUs.

メモリ22は、機能的構成として、移動、食事、睡眠などの通常の動作と、転倒や誤嚥などの異常動作とを含む対象者の動作のモデルを記憶する動作モデル記憶部221と、立位、座位、臥位などの対象者の姿勢のモデルを記憶する姿勢モデル記憶部222とを有する。   The memory 22 includes, as functional components, an operation model storage unit 221 that stores a model of a target person's operation including normal operations such as movement, eating, and sleep, and abnormal operations such as falling and aspiration, And a posture model storage unit 222 for storing a model of the posture of the subject such as a sitting position or a lying position.

コントローラ30は、CPU(Central Processing Unit:中央演算処理装置)31、ROM,RAMなどのメモリ32、その他の周辺回路を有するコンピュータを含んで構成される。   The controller 30 includes a computer having a CPU (Central Processing Unit) 31, a memory 32 such as a ROM and a RAM, and other peripheral circuits.

CPU31は、機能的構成として、異常な姿勢変化の判定条件に基づいて出力部213により出力された対象者の姿勢の変化が異常であるか否かを判定するとともに異変の種類を特定する異常姿勢変化判定部311と、カメラ14からの画像データに基づいて対象者の心拍数、血圧、呼吸数、血中酸素飽和度(SPO2)、体温などのバイタルサインを測定するバイタル測定部312と、バイタル測定部312による現在の測定値などに基づいて対象者に異変が生じたか否かを判定するとともに異変の種類を特定する異変判定部313と、異常姿勢変化判定部311および異変判定部313の判定結果に応じて報知部16および管理用端末17に異変の情報を出力する異変情報出力部314と、異常姿勢変化判定部311および異変判定部313により特定された異変の種類に応じてカメラ14からの画像データのうち対象者の異常動作として学習すべき時刻tps〜tpe,tvs〜tveを決定する学習時刻決定部315と、学習時刻決定部315により決定された時刻tps〜tpe,tvs〜tveの画像データを抽出し、異常姿勢変化判定部311および異変判定部313により特定された異変の種類とともに対象者の動作(異常動作)の学習データとしてコントローラ40に出力する学習データ出力部316とを有する。   The CPU 31 has, as a functional configuration, an abnormal posture that determines whether or not the change in the posture of the subject output by the output unit 213 is abnormal based on the determination condition of the abnormal posture change and specifies the type of the abnormal change. A change determination unit 311, a vital measurement unit 312 that measures vital signs such as a heart rate, a blood pressure, a respiratory rate, a blood oxygen saturation (SPO2), and a body temperature of the subject based on image data from the camera 14, and a vital An abnormality determination unit 313 that determines whether an abnormality has occurred in the subject based on a current measurement value or the like by the measurement unit 312 and specifies a type of the abnormality, and determinations by the abnormal posture change determination unit 311 and the abnormality determination unit 313. An abnormal information output unit 314 that outputs abnormal information to the notification unit 16 and the management terminal 17 according to the result, an abnormal posture change determination unit 311 and an abnormality determination unit 3 A learning time determining unit 315 for determining times tps to tpe and tvs to tve to be learned as abnormal motions of the subject person in the image data from the camera 14 in accordance with the type of the abnormality specified by 3; The image data at the times tps to tpe and tvs to tve determined by 315 is extracted, and the learning data of the subject's motion (abnormal motion) is displayed together with the type of change specified by the abnormal posture change determination unit 311 and the change determination unit 313. And a learning data output unit 316 for outputting to the controller 40.

バイタル測定部312は、カメラ14からの画像データに基づいて対象者の各種バイタルサインを測定する。例えば、心拍数は、カメラ14によって受光される光の受光強度の変動に基づいて測定することができる。RGBカメラにより受光される3成分の光のうち、波長の短い青(B)成分の光は対象者の皮膚表面で反射し、それより波長の長い緑(G)成分の光は毛細血管の存在する真皮層にまで浸透し、血液中の赤血球に含まれるヘモグロビンにより吸収される。すなわち、青(B)成分の受光強度は居室の明るさ(環境光)に応じて変動し、緑(G)成分の受光強度は対象者の脈動に応じて変動する。したがって、これらの受光強度の変動に基づいて、環境光の影響を受けずに脈動周期(心拍数)を測定することができる。   The vital measurement unit 312 measures various vital signs of the subject based on image data from the camera 14. For example, the heart rate can be measured based on a change in the intensity of the light received by the camera 14. Of the three component lights received by the RGB camera, the blue (B) component light having a short wavelength is reflected on the skin surface of the subject, and the green (G) component light having a longer wavelength is the presence of capillaries. Penetrates into the dermis layer, and is absorbed by hemoglobin contained in red blood cells in the blood. That is, the received light intensity of the blue (B) component varies according to the brightness (environmental light) of the living room, and the received light intensity of the green (G) component varies according to the pulsation of the subject. Therefore, the pulsation cycle (heart rate) can be measured based on the fluctuation of the received light intensity without being affected by the ambient light.

メモリ32は、機能的構成として、対象者の介護記録などに基づいて予め入力される食事や入退室などの対象者の行動予定を記憶する行動予定記憶部321と、対象者に異変があるときの異常な姿勢の変化(姿勢変化)の判定条件を異変の種類ごとに記憶する異常姿勢変化判定条件記憶部322と、対象者のバイタルサインの測定値などに基づく異変の判定条件を異変の種類ごとに記憶する異変判定条件記憶部323と、バイタル測定部312により測定された対象者のバイタルサインの測定値を記憶するバイタル測定値記憶部324とを有する。異常な姿勢変化の判定条件の一例として、例えば、転倒を判定する場合には、対象者の姿勢が一定の時間以内(例えば3秒以内)に立位から臥位に変化することなどを条件とする。また、誤嚥を判定する場合には、行動予定に基づいて食事中であると推定され、かつ、心拍数が所定値(例えば100回/分)を超えることなどを条件とする。   The memory 32 has, as a functional configuration, an action schedule storage unit 321 that stores an action schedule of the target person such as a meal or entrance / exit that is input in advance based on the nursing record of the target person, and when the target person has an abnormality. An abnormal posture change determination condition storage unit 322 that stores the determination condition of an abnormal posture change (posture change) for each type of abnormality, and an abnormality determination condition based on a measured value of a subject's vital sign and the like. It has an abnormal change determination condition storage unit 323 that stores the measured values of vital signs of the subject measured by the vital measurement unit 312, and a vital measurement value storage unit 324 that stores the vital sign measurement values measured by the vital measurement unit 312. As an example of a determination condition of an abnormal posture change, for example, when determining a fall, a condition that the posture of the subject changes from a standing position to a lying position within a predetermined time (for example, within 3 seconds) is set as a condition. I do. In addition, when aspiration is determined, it is assumed that it is estimated that the user is eating based on the action schedule, and that the heart rate exceeds a predetermined value (for example, 100 times / minute).

コントローラ40は、GPU(Graphics Processing Unit:画像処理装置)41、ROM,RAMなどのメモリ42、その他の周辺回路を有するコンピュータを含んで構成される。   The controller 40 includes a GPU (Graphics Processing Unit: image processing device) 41, a memory 42 such as a ROM and a RAM, and a computer having other peripheral circuits.

GPU41は、機能的構成として、対象者の動作の学習データに基づいて動作の特徴に相当する特徴量を抽出して学習し、対象者の動作の学習モデルを生成する動作学習部411と、対象者の姿勢の学習データに基づいて姿勢の特徴量を抽出して学習し、対象者の姿勢の学習モデルを生成する姿勢学習部412と、対象者の動作および姿勢の学習モデルをコントローラ20の動作モデル記憶部221および姿勢モデル記憶部222に出力する出力部413とを有する。   The GPU 41 has, as a functional configuration, an operation learning unit 411 that extracts and learns a feature amount corresponding to a feature of an operation based on learning data of the operation of the object person and generates a learning model of the operation of the object person. A posture learning unit 412 that extracts and learns a feature amount of the posture based on the learning data of the posture of the subject and generates a learning model of the posture of the subject, An output unit 413 for outputting to the model storage unit 221 and the posture model storage unit 222;

メモリ42は、機能的構成として、学習データ出力部316により出力された対象者の動作の学習データを動作の種類ごとに記憶する動作学習データ記憶部421と、予めカメラ14により撮像された対象者の姿勢の学習データ(画像データ)を姿勢の種類ごとに記憶する姿勢学習データ記憶部422とを有する。動作学習データ記憶部421には、学習データ出力部316により出力された学習データに加え、予めカメラ14により撮像された対象者の動作の学習データを動作の種類ごとに記憶するように構成してもよい。   The memory 42 has, as a functional configuration, an operation learning data storage unit 421 that stores learning data of the motion of the subject output by the learning data output unit 316 for each type of motion, and a subject that has been captured by the camera 14 in advance. And a posture learning data storage unit 422 for storing the posture learning data (image data) for each posture type. The motion learning data storage unit 421 is configured to store, in addition to the learning data output from the learning data output unit 316, learning data of the motion of the subject captured in advance by the camera 14 for each type of motion. Is also good.

動作学習部411および姿勢学習部412は、画像データの学習に適した既知の機械学習プログラム、例えば多層のニューラルネットワークによる機械学習手法である深層学習(Deep Learning)により画像データの教師あり学習を行う。すなわち、動作学習部411は、動作学習データ記憶部421により動作の種類ごとに記憶、蓄積された画像データ(時刻tps〜tpe,tvs〜tveの画像データなど)を学習し、動作の種類ごとの動作モデルを生成する。また、姿勢学習部412は、姿勢学習データ記憶部422により姿勢の種類ごとに記憶、蓄積された画像データを学習し、姿勢の種類ごとの姿勢モデルを生成する。学習後の動作モデルおよび姿勢モデルは、出力部413によりコントローラ20に出力され、動作モデル記憶部221および姿勢モデル記憶部222にそれぞれ記憶され、更新される。   The motion learning unit 411 and the posture learning unit 412 perform supervised learning of image data by a known machine learning program suitable for learning image data, for example, Deep Learning, which is a machine learning method using a multilayer neural network. . That is, the operation learning unit 411 learns image data (image data at times tps to tpe, tvs to tve, etc.) stored and accumulated for each type of operation by the operation learning data storage unit 421, and Generate an operation model. The posture learning unit 412 also learns image data stored and accumulated for each posture type by the posture learning data storage unit 422, and generates a posture model for each posture type. The motion model and the posture model after learning are output to the controller 20 by the output unit 413, and are stored and updated in the motion model storage unit 221 and the posture model storage unit 222, respectively.

コントローラ20の動作判定部211は、動作モデル記憶部221に記憶された対象者の最新の動作モデルに基づいて、対象者の現在の動作を判定するとともに、それが異常動作であるか否かを判定する。また、姿勢判定部212は、姿勢モデル記憶部222に記憶された対象者の最新の姿勢モデルに基づいて、対象者の現在の姿勢を判定する。   The operation determination unit 211 of the controller 20 determines the current operation of the target person based on the latest operation model of the target person stored in the operation model storage unit 221 and determines whether the current operation is an abnormal operation. judge. Further, the posture determination unit 212 determines the current posture of the subject based on the latest posture model of the subject stored in the posture model storage unit 222.

より具体的には、動作判定部211は、カメラ14からの画像データにおける対象者の現在の動作の特徴量を抽出し、対象者の動作モデルと比較して、対象者の現在の動作を判定するとともに、それが異常動作であるか否かを判定する。また、姿勢判定部212は、画像データにおける対象者の現在の姿勢の特徴量を抽出し、姿勢モデル記憶部222に記憶された対象者の姿勢モデルの特徴量と比較して、対象者の現在の姿勢を判定する。学習モデル(異常動作モデル、姿勢モデル)との相関度合が最も高い動作または姿勢が、現在の動作または姿勢として判定される。なお、動作判定部211は、画像データにおける対象者の現在の動作に基づいて、動作の絶対量(活動量)を算出することもできる。バイタルサインとともに活動量の変化を記録しておくことで、事故や疾病だけでなく認知症の初期症状を判定することができる。   More specifically, the motion determining unit 211 extracts the feature amount of the current motion of the subject in the image data from the camera 14 and compares the feature amount with the motion model of the subject to determine the current motion of the subject. And determine whether or not the operation is abnormal. In addition, the posture determination unit 212 extracts the feature amount of the current posture of the target person in the image data, compares the feature amount of the target posture model stored in the posture model storage unit 222 with the characteristic amount of the target person, and Is determined. The motion or posture having the highest degree of correlation with the learning model (abnormal motion model or posture model) is determined as the current motion or posture. The motion determining unit 211 can also calculate the absolute amount of the motion (the amount of activity) based on the current motion of the subject in the image data. By recording the change in the activity amount together with the vital signs, it is possible to determine not only accidents and diseases but also initial symptoms of dementia.

図5Aは、予めコントローラ群50のメモリ22,32,42に記憶されたプログラムに従いコントローラ群50のGPU21,41およびCPU31で実行される、画像データに基づく動作判定処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えば監視装置1の電源オン時に開始され、所定周期で繰り返される。まず、ステップS1で、動作判定部211での処理により、カメラ14により撮像された現在の画像データを読み込む。次いで、ステップS2で、動作モデル記憶部221に記憶された動作モデルに基づいて現在の画像データにおける対象者の動作を判定し、ステップS3で、その動作が異常動作であるか否か判定する。ステップS3で肯定されるとステップS4に進み、否定されると処理を終了する。ステップS4では、異変情報出力部314での処理により、報知部16および管理用端末17に異変の情報を出力する。   FIG. 5A is a flowchart illustrating an example of an operation determination process based on image data, which is executed by the GPUs 21 and 41 and the CPU 31 of the controller group 50 in accordance with programs stored in the memories 22, 32 and 42 of the controller group 50 in advance. The processing shown in this flowchart is started, for example, when the power of the monitoring apparatus 1 is turned on, and is repeated at a predetermined cycle. First, in step S1, the current image data captured by the camera 14 is read by the processing of the operation determining unit 211. Next, in step S2, the motion of the subject in the current image data is determined based on the motion model stored in the motion model storage unit 221, and in step S3, it is determined whether the motion is an abnormal motion. If affirmative in step S3, the process proceeds to step S4, and if negative, the process ends. In step S <b> 4, by the processing in the incident information output unit 314, the incident information is output to the notification unit 16 and the management terminal 17.

図5Bは、コントローラ群50で実行される、画像データに基づく姿勢判定処理の一例を示すフローチャートである。まず、ステップS10で、姿勢判定部212での処理により、カメラ14により撮像された現在の画像データを読み込む。次いで、ステップS11で、姿勢モデル記憶部222に記憶された姿勢モデルに基づいて現在の画像データにおける対象者の姿勢を判定する。次いで、ステップS12で、出力部213での処理により、姿勢判定部212により判定された対象者の現在の姿勢のデータを異常姿勢変化判定部311に出力する。   FIG. 5B is a flowchart illustrating an example of a posture determination process performed by the controller group 50 based on image data. First, in step S10, the current image data captured by the camera 14 is read by the processing of the posture determination unit 212. Next, in step S11, the posture of the subject in the current image data is determined based on the posture model stored in the posture model storage unit 222. Next, in step S <b> 12, data of the current posture of the subject determined by the posture determination unit 212 is output to the abnormal posture change determination unit 311 by the processing of the output unit 213.

図6Aは、コントローラ群50で実行される、姿勢データに基づく異変判定処理の一例を示すフローチャートである。まず、ステップS20で、異常姿勢変化判定部311での処理により、出力部213により出力された対象者の現在の姿勢のデータを読み込む。次いで、ステップS21で、異常姿勢変化判定条件記憶部322に記憶された異常な姿勢変化の判定条件に基づいて、前回以前に読み込んだ姿勢と今回読み込んだ姿勢との間の姿勢変化が異常であるか否かを判定するとともに、異変の種類を特定する。ステップS21で肯定されるとステップS22に進み、否定されると処理を終了する。ステップS22では、異変情報出力部314での処理により、報知部16および管理用端末17に異変の情報を出力する。   FIG. 6A is a flowchart illustrating an example of an anomaly determination process performed by the controller group 50 based on the posture data. First, in step S20, the data of the current posture of the subject output by the output unit 213 is read by the processing of the abnormal posture change determination unit 311. Next, in step S21, the posture change between the posture read before the previous time and the posture read this time is abnormal based on the abnormal posture change determination condition stored in the abnormal posture change determination condition storage unit 322. Is determined, and the type of the incident is specified. If affirmative in step S21, the process proceeds to step S22, and if negative, the process ends. In step S22, the abnormal information output unit 314 outputs the abnormal information to the notification unit 16 and the management terminal 17 by the processing.

次いで、ステップS23では、学習時刻決定部315での処理により、異常姿勢変化判定部311により特定された異変の種類に基づいて対象者の異常動作として学習すべき時刻tps〜tpeを決定する。次いで、ステップS24で、学習データ出力部316での処理により、カメラ14からの画像データのうち学習時刻決定部315により決定された時刻tps〜tpeの画像データを抽出して対象者の動作の学習データとして出力する。   Next, in step S23, the learning time determination unit 315 determines the times tps to tpe to be learned as the abnormal motion of the subject based on the type of the abnormalities specified by the abnormal posture change determination unit 311. Next, in step S24, the learning data output unit 316 performs processing to extract the image data from the time tps to tpe determined by the learning time determination unit 315 from the image data from the camera 14 and learn the operation of the subject. Output as data.

図6Bは、コントローラ群50で実行される、測定値に基づく異変判定処理の一例を示すフローチャートである。まず、ステップS30で、バイタル測定部312での処理により、カメラ14により撮像された現在の画像データを読み込む。次いで、ステップS31で、画像データに基づいて対象者の現在のバイタルサインを測定する。次いで、ステップS32で、異変判定部313での処理により、バイタル測定部312による測定値と、行動予定記憶部321により記憶された対象者の行動予定と、異変判定条件記憶部323により記憶された異変の判定条件とに基づいて、対象者に異変が生じたか否かを判定するとともに、異変の種類を特定する。ステップS32で肯定されるとステップS33に進み、否定されると処理を終了する。ステップS33では、異変情報出力部314での処理により、報知部16および管理用端末17に異変の情報を出力する。   FIG. 6B is a flowchart illustrating an example of the abnormal change determination process based on the measurement value, which is executed by the controller group 50. First, in step S30, the current image data captured by the camera 14 is read by the processing in the vital measurement unit 312. Next, in step S31, the current vital sign of the subject is measured based on the image data. Next, in step S32, the values measured by the vital measurement unit 312, the target person's action schedule stored in the action schedule storage unit 321 and the change determination condition storage unit 323 are stored by the processing in the anomaly determination unit 313. Based on the determination condition of the abnormality, whether or not the target person has an abnormality is determined, and the type of the abnormality is specified. If affirmative in step S32, the process proceeds to step S33, and if negative, the process ends. In step S33, the abnormal information output unit 314 outputs abnormal information to the notification unit 16 and the management terminal 17 by the processing.

次いで、ステップS34では、学習時刻決定部315での処理により、異変判定部313により特定された異変の種類に基づいて対象者の異常動作として学習すべき時刻tvs〜tveを決定する。次いで、ステップS35で、学習データ出力部316での処理により、カメラ14からの画像データのうち学習時刻決定部315により決定された時刻tvs〜tveの画像データを抽出して対象者の動作の学習データとして出力する。   Next, in step S34, the time tvs to tve to be learned as the abnormal motion of the subject is determined by the process of the learning time determination unit 315 based on the type of the abnormality identified by the abnormality determination unit 313. Next, in step S35, the learning data output unit 316 extracts the image data from the time tvs to tve determined by the learning time determination unit 315 from the image data from the camera 14 to learn the operation of the subject. Output as data.

図7は、コントローラ群50で実行される、動作の学習処理の一例を示すフローチャートである。このフローチャートに示す処理は、図5A〜図6Bのフローチャートの処理とは異なり、監視装置1を管理するユーザが適宜なスイッチなどを介して入力する指示に応じて随時開始される。まず、ステップS40で、動作学習部411での処理により、学習データ出力部316により出力され、動作学習データ記憶部421に記憶された対象者の動作の学習データを読込む。次いで、ステップS41で、対象者の動作を学習し、ステップS42で、動作モデルを生成する。次いで、ステップS43で、出力部413での処理により、動作学習部411により生成された動作モデルをコントローラ20の動作モデル記憶部221に出力する。   FIG. 7 is a flowchart illustrating an example of an operation learning process performed by the controller group 50. The processing shown in the flowchart is different from the processing in the flowcharts of FIGS. 5A to 6B and is started at any time in response to an instruction input by a user managing the monitoring device 1 through an appropriate switch or the like. First, in step S40, the learning data of the subject's motion output from the learning data output unit 316 and stored in the motion learning data storage unit 421 is read by the processing of the motion learning unit 411. Next, in step S41, the motion of the subject is learned, and in step S42, a motion model is generated. Next, in step S43, the operation model generated by the operation learning unit 411 is output to the operation model storage unit 221 of the controller 20 by the processing in the output unit 413.

姿勢の学習処理も動作の学習処理と同様に実行される。すなわち、姿勢学習部412での処理により姿勢学習データ記憶部422に記憶された対象者の姿勢の学習データを読込み(S40)、対象者の姿勢を学習し(S41)、姿勢モデルを生成し(S42)、出力部413での処理により姿勢モデルをコントローラ20の姿勢モデル記憶部222に出力する(S43)。   The posture learning process is executed in the same manner as the operation learning process. That is, the learning data of the posture of the subject stored in the posture learning data storage unit 422 by the processing of the posture learning unit 412 is read (S40), the posture of the subject is learned (S41), and a posture model is generated (S41). (S42), the posture model is output to the posture model storage unit 222 of the controller 20 by the processing in the output unit 413 (S43).

本実施形態に係る監視装置1の主要な動作についてより具体的に説明する。図8は、監視装置1の動作を説明するための図である。図8には、図の上から、姿勢判定部212により判定された対象者の姿勢、行動予定記憶部321により記憶された対象者の行動予定、異常姿勢変化判定部311による異常な姿勢変化の判定結果、バイタル測定部312により測定されたバイタルサインの一例として心拍数、および異変判定部313による異変の判定結果が、それぞれ時系列で示される。   The main operation of the monitoring device 1 according to the present embodiment will be described more specifically. FIG. 8 is a diagram for explaining the operation of the monitoring device 1. In FIG. 8, from the top of the figure, the posture of the subject determined by the posture determination unit 212, the behavior plan of the subject stored in the behavior plan storage unit 321, and the abnormal posture change by the abnormal posture change determination unit 311. The determination result, the heart rate as an example of the vital signs measured by the vital measurement unit 312, and the determination result of the abnormal change by the abnormal change determination unit 313 are shown in time series.

監視装置1により、例えば介護施設に入居する腰が曲がった高齢の対象者の見守りを行うと仮定する。介護施設の居室に一人でいる対象者が時刻tps〜tpeにおいて転倒すると、居室に設置された監視装置1により姿勢変化が異常であると判定されるとともに、転倒が発生したことが特定される(S10〜S12,S20〜S21)。対象者の異変は、ナースステーションに設置されたナースコールボード(報知部16)を介して介護スタッフに報知される(S22)。このため、対象者が転倒によって動けなくなるなどして自身でナースコールを使用できない場合でも、介護スタッフに異変を報知することができる。また、介護スタッフが監視カメラ14の映像から目を離しているときであっても、監視装置1による報知によって対象者の異変に気付くことができる。また、対象者の異変の情報は、介護スタッフのノートパソコン(管理用端末17)にも送信される(S22)。これにより、対象者に発生した異変の種類や発生時刻などの情報が介護記録のフォーマットなどに自動的に記録され、介護スタッフの事務負担を軽減することができる。   For example, it is assumed that the monitoring apparatus 1 monitors an elderly subject with a bent waist entering a care facility. When the subject alone in the living room of the nursing facility falls from time tp to tpe, the monitoring device 1 installed in the living room determines that the posture change is abnormal and specifies that the fall has occurred ( S10 to S12, S20 to S21). The change in the subject is notified to the care staff via a nurse call board (notification unit 16) installed at the nurse station (S22). For this reason, even when the target person cannot use the nurse call by himself because he / she cannot move due to the fall, the care staff can be notified of the abnormal situation. In addition, even when the care staff is looking away from the image of the monitoring camera 14, the monitoring device 1 can notify the target person of anomaly by the notification. Further, the information on the change of the subject is also transmitted to the notebook computer (management terminal 17) of the care staff (S22). As a result, information such as the type and time of occurrence of the abnormality that has occurred in the subject is automatically recorded in the format of the nursing care record and the like, and the administrative burden on the nursing care staff can be reduced.

対象者に転倒が発生したと推定される時刻tps〜tpeの画像データが、転倒の動作の学習データとして抽出され、蓄積される(S23,S24)。監視装置1のユーザは、ソケットから取り外してカバー13を外した監視装置1を、USBケーブル等を介してパソコン等のユーザ端末に接続し、コントローラ40のメモリ42に記憶、蓄積された動作の学習データの蓄積状態等を確認することができる。ユーザが、転倒の動作の学習に必要な量の学習データの蓄積を確認し、転倒の動作の学習開始を指示すると、コントローラ40による学習が開始され、学習モデルが生成されて、コントローラ20の学習モデルが更新される(S40〜S43)。動作の判定に用いられる学習モデルが、介護スタッフなどの実演をもとに生成された動作モデルから、実際の対象者による動作の学習モデルへと更新されることで、対象者の動作を判定する精度が向上する。   Image data at times tps to tpe at which it is estimated that the subject has fallen is extracted and accumulated as learning data of the fall operation (S23, S24). The user of the monitoring device 1 connects the monitoring device 1 with the cover 13 removed from the socket to a user terminal such as a personal computer via a USB cable or the like, and learns the operation stored and accumulated in the memory 42 of the controller 40. It is possible to check the data storage state and the like. When the user confirms the accumulation of the amount of learning data necessary for learning the falling motion and instructs to start learning the falling motion, learning by the controller 40 is started, a learning model is generated, and the learning of the controller 20 is performed. The model is updated (S40 to S43). The learning model used to determine the motion is updated from the motion model generated based on the demonstration of the care staff to the learning model of the motion of the actual subject, and the motion of the subject is determined. The accuracy is improved.

対象者が食事中に誤嚥が発生し、むせ込みにより、時刻taにおいて対象者の心拍数が所定値(例えば100回/分)を超えて上昇すると、監視装置1により誤嚥(異変)が発生したと判定される(S31〜S33)。誤嚥および誤嚥のきっかけがあったと推定される時刻tvs〜tveの画像データが、誤嚥の動作の学習データとして抽出、蓄積され、ユーザの指示に応じて学習される(S34,S35,S40〜S43)。動作の学習データとして抽出される時刻は、異変の種類に応じて決定されるため、異変が発生する前の動作を含めて学習することができる。例えば、誤嚥が発生する前の動作である飲食時の不適切な姿勢を含めて学習することができる。   If the subject's aspiration occurs during a meal and the subject's heart rate rises above a predetermined value (for example, 100 times / minute) at time ta due to choking, the monitoring device 1 causes aspiration (abnormality). It is determined that this has occurred (S31 to S33). Image data at times tvs to tve, which is estimated to have caused aspiration and aspiration, are extracted and accumulated as learning data of the aspiration operation, and are learned in accordance with the user's instruction (S34, S35, S40). To S43). The time extracted as the learning data of the operation is determined according to the type of the incident, so that it is possible to learn including the operation before the occurrence of the incident. For example, learning can be performed including an inappropriate posture at the time of eating and drinking, which is an operation before aspiration occurs.

誤嚥の動作モデルが更新された後、飲食時の対象者が誤嚥につながる不適切な姿勢をとると、監視装置1により誤嚥の動作(誤嚥につながる動作)であると判定され、対象者の異変が報知される(S1〜S3)。報知を受けた介護スタッフが、対象者の居室へ駆けつけ、あるいはナースコールなどにより、対象者の飲食時の姿勢を注意することができる。対象者が一人で飲食する場合であっても、誤嚥の発生を未然に防ぐことができる。また、誤嚥につながる姿勢を対象者ごとに学習するため、背骨の曲がりや片麻痺等により飲食時の適切な姿勢が標準的な成人の姿勢とは異なる対象者にも適用することができる。なお、介護スタッフなどが飲食時の対象者を介助するときに、その対象者の状態に応じて、様子を見ながら、誤嚥につながる姿勢を判断し、そのときの姿勢を誤嚥の動作として学習させることもできる。すなわち、見守り対象者ごとに異常な動作を検出することができる。   If the subject at the time of eating or drinking takes an inappropriate posture that leads to aspiration after the aspiration operation model is updated, the monitoring device 1 determines that the aspiration is an aspiration operation (operation that leads to aspiration), An abnormality of the subject is notified (S1 to S3). The nursing staff who receives the notification can rush to the living room of the target person, or pay attention to the posture of the target person at the time of eating and drinking by nurse call or the like. Even when the target person eats and drinks alone, aspiration can be prevented from occurring. In addition, since a posture leading to aspiration is learned for each subject, the present invention can be applied to a subject whose proper posture at the time of eating and drinking is different from a standard adult posture due to bending of the spine or hemiplegia. In addition, when the care staff assists the target person at the time of eating and drinking, according to the state of the target person, while watching the situation, determine the posture leading to aspiration, and the posture at that time as the operation of aspiration You can also learn. That is, an abnormal operation can be detected for each watching target person.

監視装置1には、コントローラ30のメモリ32に、対象者の行動予定およびバイタルサインの測定値が時系列で記憶される。見守り対象者が医療機関を受診するとき、これらのデータを医師に提示することもできる。食事や起床などの行動予定とバイタルサインの変動とを対比して確認することで、対象者の診療、診断に役立てることができる。   In the monitoring device 1, the action schedule of the target person and the measured values of the vital signs are stored in the memory 32 of the controller 30 in time series. When the monitoring target visits a medical institution, these data can be presented to a doctor. By confirming the action schedule such as a meal or waking up and the change in vital signs, it can be used for medical treatment and diagnosis of the target person.

本実施形態によれば以下のような作用効果を奏することができる。
(1)特定の見守り対象者を監視する監視装置1は、見守り対象者の動作の画像データに基づいて見守り対象者の動作の特徴量を抽出し、見守り対象者の動作の学習モデルを生成する動作学習部411と、動作学習部411により生成された動作の学習モデルを記憶する動作モデル記憶部221と、動作モデル記憶部221により記憶された動作の学習モデルに基づいて、見守り対象者の動作を判定する動作判定部211とを備える(図4)。対象者ごとに動作を学習することにより、身体の状態などが異なる対象者ごとに異常な動作(異変)を含む動作を判定することができる。
According to the present embodiment, the following effects can be obtained.
(1) The monitoring device 1 that monitors a specific watching target person extracts a feature amount of the watching target person's motion based on the image data of the watching target person's motion, and generates a learning model of the watching target person's motion. Based on the action learning unit 411, the action model storage unit 221 that stores the action learning model generated by the action learning unit 411, and the action learning model stored by the action model storage unit 221, the motion of the watching target person is performed. (See FIG. 4). By learning the motion for each subject, it is possible to determine a motion including an abnormal motion (unusual) for each subject having a different physical condition or the like.

(2)監視装置1は、見守り対象者のバイタルサインを測定するバイタル測定部312と、バイタル測定部312により測定されたバイタルサインに基づいて、見守り対象者に異変が生じたか否かを判定する異変判定部313とをさらに備える(図4)。動作学習部411は、異変判定部313により見守り対象者に異変が生じたと判定されたときの見守り対象者の動作の画像データに基づいて見守り対象者の動作の特徴量を抽出し、見守り対象者の異常動作の学習モデルを生成する。これにより、バイタルサインの変化に基づいて、自動的に、異変が生じたときの動作や異変が生じる前後の動作の学習データを抽出することができる。 (2) The monitoring device 1 determines whether or not an abnormality has occurred in the watching target based on the vital measurement unit 312 that measures the vital sign of the watching target and the vital sign measured by the vital measuring unit 312. It further includes an abnormality determination unit 313 (FIG. 4). The motion learning unit 411 extracts a feature amount of the motion of the watching target person based on the image data of the motion of the watching target person when the abnormality determination unit 313 determines that the watching target has an abnormality, and extracts the characteristic amount of the watching target person's motion. Generate a learning model for the abnormal behavior of. Thereby, based on the change in vital signs, it is possible to automatically extract the learning data of the operation when the abnormality occurs and the operation before and after the occurrence of the abnormality.

(3)監視装置1は、見守り対象者の行動予定を取得する管理用端末17をさらに備える(図4)。異変判定部313は、さらに管理用端末17により取得された行動予定に基づいて、見守り対象者に異変が生じたかを判定する。対象者の行動予定とバイタルサインの変動とを対比して確認することで、対象者の診療、診断に役立てることができる。 (3) The monitoring device 1 further includes a management terminal 17 that acquires the action schedule of the watching target (FIG. 4). The abnormality determination unit 313 further determines whether an abnormality has occurred in the watching target person based on the action schedule acquired by the management terminal 17. By confirming the behavior schedule of the target person and the change of the vital sign in comparison, it can be used for the medical treatment and diagnosis of the target person.

なお、上記実施形態は種々の形態に変形することができる。以下、変形例について説明する。上記実施形態では、監視装置1が特定の対象者の動作を学習し、学習された動作に基づいてその対象者の動作を判定するようにしたが、特定の対象者を監視する監視装置はこのようなものに限らない。例えば、特定の身体状態の対象者に監視装置を適用して、その身体状態に応じた動作モデルを学習し、学習された動作モデルを用いて同様の身体状態の別の対象者の動作を判定してもよい。   The above embodiment can be modified into various forms. Hereinafter, modified examples will be described. In the above embodiment, the monitoring device 1 learns the operation of a specific target person, and determines the operation of the target person based on the learned operation. It is not limited to such. For example, a monitoring device is applied to a subject having a specific physical condition, a motion model corresponding to the physical condition is learned, and the motion of another subject having a similar physical condition is determined using the learned motion model. May be.

上記実施形態では、バイタル測定部312がカメラ14からの画像データに基づいて対象者のバイタルサインを測定するようにしたが、対象者の生体情報を取得する生体情報取得部の構成はこのようなものに限らない。対象者が装着するタイプのバイタルセンサの測定値を有線または無線で取得してもよい。   In the above-described embodiment, the vital measurement unit 312 measures the vital sign of the subject based on the image data from the camera 14. However, the configuration of the vital information acquiring unit that acquires the vital information of the subject is such a configuration. Not limited to things. The measurement value of the vital sensor of the type worn by the subject may be acquired in a wired or wireless manner.

上記実施形態では、管理用端末17により作成された介護記録に含まれる対象者の行動予定のテキストデータをコントローラ群50に送信するようにしたが、対象者の行動予定を取得する行動予定取得部の構成はこのようなものに限らない。例えば、コントローラ群50側で行われる動作の判定として、カメラ14からの画像データに基づいて食事や睡眠などの対象者の行動を自動的に判定し、判定された行動を介護記録用のテキストデータとして管理用端末17に出力してもよい。   In the above embodiment, the text data of the subject's behavior included in the nursing care record created by the management terminal 17 is transmitted to the controller group 50. However, the behavior plan acquisition unit that acquires the subject's behavior plan Is not limited to this. For example, as the determination of the operation performed on the controller group 50 side, the behavior of the target person such as eating and sleeping is automatically determined based on the image data from the camera 14, and the determined behavior is described as text data for nursing record. May be output to the management terminal 17.

上記実施形態では、監視装置1が本体内にカメラ14を含むように構成したが、特定の対象者を監視する監視装置はこのようなものに限らない。例えば、監視装置とは別の監視カメラなどから有線または無線で対象者の画像データを取得し、取得した画像データに基づいて動作の学習および判定を行うようにしてもよい。この場合、例えばONVIF(Open Network Video Interface Forum)等のネットワークカメラの標準化規格に対応することで、異なるメーカーの監視カメラの画像データを学習用データとして利用することができる。   In the above embodiment, the monitoring device 1 is configured to include the camera 14 in the main body, but the monitoring device that monitors a specific target person is not limited to this. For example, the image data of the subject may be acquired from a surveillance camera separate from the monitoring device by wire or wirelessly, and the learning and determination of the operation may be performed based on the acquired image data. In this case, for example, image data of surveillance cameras of different manufacturers can be used as learning data by complying with network camera standardization standards such as ONVIF (Open Network Video Interface Forum).

以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。   The above description is merely an example, and the present invention is not limited by the above-described embodiments and modifications as long as the features of the present invention are not impaired. It is also possible to arbitrarily combine one or more of the above-described embodiment and the modifications, and it is also possible to combine the modifications.

1(1A,1B) 監視装置、11 筐体、11r レール、11s スリット、12 口金部、13 カバー、14 カメラ、15 LED、16 報知部、17 管理用端末、20,30,40 コントローラ、21,41 GPU、22,32,42 メモリ、31 CPU、50 コントローラ群、211 動作判定部、212 姿勢判定部、213 出力部、221 動作モデル記憶部、222 姿勢モデル記憶部、311 異常姿勢変化判定部、312 バイタル測定部、313 異変判定部、314 異変情報出力部、315 学習時刻決定部、316 学習データ出力部、321 行動予定記憶部、322 異常姿勢変化判定条件記憶部、323 異変判定条件記憶部、324 バイタル測定値記憶部、411 動作学習部、412 姿勢学習部、413 出力部、421 動作学習データ記憶部、422 姿勢学習データ記憶部 1 (1A, 1B) monitoring device, 11 case, 11r rail, 11s slit, 12 base, 13 cover, 14 camera, 15 LED, 16 notification unit, 17 management terminal, 20, 30, 40 controller, 21, 41 GPU, 22, 32, 42 memory, 31 CPU, 50 controller group, 211 operation determination unit, 212 posture determination unit, 213 output unit, 221 operation model storage unit, 222 posture model storage unit, 311 abnormal posture change determination unit, 312 vital measurement section, 313 abnormal change determination section, 314 abnormal change information output section, 315 learning time determination section, 316 learning data output section, 321 action schedule storage section, 322 abnormal posture change determination condition storage section, 323 abnormal change determination condition storage section, 324 vital measurement storage unit, 411 operation learning unit, 412 posture learning unit, 413 output unit, 421 motion learning data storage unit, 422 posture learning data storage unit

本発明の一態様は、特定の対象者を監視する監視装置であって、対象者の動作の画像データに基づいて対象者の姿勢変化を含む動作の特徴量を抽出し、対象者の動作の学習モデルを生成する学習モデル生成部と、学習モデル生成部により生成された動作の学習モデルを記憶する学習モデル記憶部と、学習モデル記憶部により記憶された学習モデルに基づいて、対象者の動作を判定する動作判定部と、を備える。
One embodiment of the present invention is a monitoring device that monitors a specific subject, extracts a feature amount of a motion including a posture change of the subject based on image data of the motion of the subject, and A learning model generation unit that generates a learning model; a learning model storage unit that stores a learning model of the operation generated by the learning model generation unit; and a motion of the subject based on the learning model stored by the learning model storage unit. And an operation determination unit that determines

本発明の一態様は、特定の対象者を監視する監視装置であって、対象者に固有の動作の画像データに基づいて対象者に固有の姿勢変化を含む動作の特徴量を抽出し、対象者に固有の動作の学習モデルを生成する学習モデル生成部と、学習モデル生成部により生成された対象者に固有の動作の学習モデルを記憶する学習モデル記憶部と、学習モデル記憶部により記憶された対象者に固有の動作の学習モデルと対象者に固有の動作の画像データとに基づいて、対象者の動作を判定する動作判定部と、を備える。
One embodiment of the present invention is a monitoring device that monitors a specific target person , and extracts a feature amount of an operation including a posture change unique to the target person based on image data of an operation unique to the target person. a learning model storage unit for storing a learning model of the specific behavior and learning model generating unit for generating a learning model of the specific behavior, the subject generated by the learning model generating unit to user, stored by the learning model storage unit And a motion determining unit that determines the motion of the target person based on the learning model of the motion specific to the target person and the image data of the motion specific to the target person.

本発明の一態様は、特定の対象者を監視する監視装置であって、対象者の動作の画像データに基づいて対象者動作の特徴量を抽出し、対象者の動作の学習モデルを生成する学習モデル生成部と、学習モデル生成部により生成された動作の学習モデルを記憶する学習モデル記憶部と、学習モデル記憶部により記憶された学習モデルに基づいて、対象者の動作を判定する動作判定部と、対象者の生体情報を取得する生体情報取得部と、生体情報取得部により取得された生体情報に基づいて、対象者に異変が生じたか否かを判定する異変判定部と、を備える。学習モデル生成部は、異変判定部により対象者に異変が生じたと判定されたときの対象者の動作の画像データに基づいて対象者の動作の特徴量を抽出し、対象者の異常動作の学習モデルを生成する。
One aspect of the present invention, generates a particular a monitoring device for monitoring a subject, extracting a feature amount of operation of the subject based on the image data of the operation subject, learning model of the operation of the subject a learning model generating unit to a learning model storage unit for storing a learning model of the operation generated by the learning model generating unit, based on the stored learned model by learning model storage unit, the operation of the subject An operation determining unit for determining , a biological information acquiring unit for acquiring biological information of the subject, and an abnormality determining unit for determining whether an abnormality has occurred in the subject based on the biological information acquired by the biological information acquiring unit. And . The learning model generation unit extracts a feature amount of the target person's movement based on the image data of the target person's movement when the change determination unit determines that the target person has an abnormality, and learns the abnormal movement of the target person. Generate a model.

Claims (3)

特定の対象者を監視する監視装置であって、
前記対象者の動作の画像データに基づいて前記対象者の動作の特徴量を抽出し、前記対象者の動作の学習モデルを生成する学習モデル生成部と、
前記学習モデル生成部により生成された動作の学習モデルを記憶する学習モデル記憶部と、
前記学習モデル記憶部により記憶された学習モデルに基づいて、前記対象者の動作を判定する動作判定部と、を備えることを特徴とする監視装置。
A monitoring device for monitoring a specific target person,
A learning model generation unit that extracts a feature amount of the motion of the target person based on the image data of the motion of the target person, and generates a learning model of the motion of the target person;
A learning model storage unit that stores a learning model of the operation generated by the learning model generation unit,
A monitoring device comprising: an operation determining unit that determines an operation of the subject based on a learning model stored in the learning model storage unit.
請求項1に記載の監視装置において、
前記対象者の生体情報を取得する生体情報取得部と、
前記生体情報取得部により取得された生体情報に基づいて、前記対象者に異変が生じたか否かを判定する異変判定部と、をさらに備え、
前記学習モデル生成部は、前記異変判定部により前記対象者に異変が生じたと判定されたときの前記対象者の動作の画像データに基づいて前記対象者の動作の特徴量を抽出し、前記対象者の異常動作の学習モデルを生成することを特徴とする監視装置。
The monitoring device according to claim 1,
A biological information acquisition unit that acquires the biological information of the subject;
An abnormality determination unit configured to determine whether an abnormality has occurred in the subject based on the biological information acquired by the biological information acquisition unit,
The learning model generating unit extracts a feature amount of the motion of the subject based on image data of the motion of the subject when it is determined that the abnormal has occurred in the subject by the abnormal determination unit, and A monitoring device for generating a learning model of abnormal behavior of a user.
請求項2に記載の監視装置において、
前記対象者の行動予定を取得する行動予定取得部をさらに備え、
前記異変判定部は、さらに前記行動予定取得部により取得された行動予定に基づいて、前記対象者に異変が生じたか否かを判定することを特徴とする監視装置。
The monitoring device according to claim 2,
Further comprising an activity schedule acquisition unit for acquiring the activity schedule of the target person,
The monitoring device, wherein the abnormality determination unit further determines whether or not an abnormality has occurred in the subject based on the action schedule acquired by the action schedule acquisition unit.
JP2018132581A 2018-07-12 2018-07-12 Monitoring device Active JP6611871B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018132581A JP6611871B1 (en) 2018-07-12 2018-07-12 Monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018132581A JP6611871B1 (en) 2018-07-12 2018-07-12 Monitoring device

Publications (2)

Publication Number Publication Date
JP6611871B1 JP6611871B1 (en) 2019-11-27
JP2020009378A true JP2020009378A (en) 2020-01-16

Family

ID=68692068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018132581A Active JP6611871B1 (en) 2018-07-12 2018-07-12 Monitoring device

Country Status (1)

Country Link
JP (1) JP6611871B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6759397B2 (en) * 2019-03-06 2020-09-23 東芝エレベータ株式会社 Passenger conveyor maintenance and inspection work support system
JP6721221B1 (en) * 2019-05-27 2020-07-08 株式会社Lightblue Technology Teacher data creation system, learned model creation system, and teacher data creation method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230555A (en) * 2001-02-01 2002-08-16 Noa Syst:Kk Detection device and method for detecting movement
JP2008252852A (en) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd Image recorder
JP2008289676A (en) * 2007-05-24 2008-12-04 Sysmex Corp Patient abnormality notification system
JP2013039300A (en) * 2011-08-19 2013-02-28 Toyama Prefecture Patient behavior identification method and patient behavior detection system
JP2015203881A (en) * 2014-04-10 2015-11-16 富士通株式会社 Observation device, display method and program
JP2015219868A (en) * 2014-05-21 2015-12-07 キヤノン株式会社 Information processor, information processing method and program
JPWO2016199749A1 (en) * 2015-06-10 2017-06-22 コニカミノルタ株式会社 Image processing system, image processing apparatus, image processing method, and image processing program
WO2018105171A1 (en) * 2016-12-06 2018-06-14 コニカミノルタ株式会社 Image recognition system and image recognition method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230555A (en) * 2001-02-01 2002-08-16 Noa Syst:Kk Detection device and method for detecting movement
JP2008252852A (en) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd Image recorder
JP2008289676A (en) * 2007-05-24 2008-12-04 Sysmex Corp Patient abnormality notification system
JP2013039300A (en) * 2011-08-19 2013-02-28 Toyama Prefecture Patient behavior identification method and patient behavior detection system
JP2015203881A (en) * 2014-04-10 2015-11-16 富士通株式会社 Observation device, display method and program
JP2015219868A (en) * 2014-05-21 2015-12-07 キヤノン株式会社 Information processor, information processing method and program
JPWO2016199749A1 (en) * 2015-06-10 2017-06-22 コニカミノルタ株式会社 Image processing system, image processing apparatus, image processing method, and image processing program
WO2018105171A1 (en) * 2016-12-06 2018-06-14 コニカミノルタ株式会社 Image recognition system and image recognition method

Also Published As

Publication number Publication date
JP6611871B1 (en) 2019-11-27

Similar Documents

Publication Publication Date Title
US20160345832A1 (en) System and method for monitoring biological status through contactless sensing
JP6915421B2 (en) Watching support system and its control method
JP6520831B2 (en) Display control apparatus, display control system, display control method, display control program, recording medium
CA2926709C (en) Pressure ulcer detection methods, devices and techniques
WO2016108582A1 (en) Smart bed system and control method
CN105007808B (en) Access duration control system and method
EP3432772B1 (en) Using visual context to timely trigger measuring physiological parameters
KR101712191B1 (en) Patient Fall Prevention Monitoring Device
JP6852733B2 (en) Living body monitoring device and living body monitoring method
JP6806145B2 (en) Monitored person monitoring system and monitored person monitoring method
CN108430322B (en) Device, method and computer program product for continuous monitoring of vital signs
WO2018037073A1 (en) Device, system and method for patient monitoring to predict and prevent bed falls
JP6611871B1 (en) Monitoring device
WO2020003715A1 (en) Report output program, report output method, and report output device
JP2020077388A (en) Motion analyzer
JPWO2020071374A1 (en) Status monitoring device and status monitoring method
JP6908028B2 (en) Observer monitoring device, method, system and program
WO2019021743A1 (en) Alarm control system, detection unit, care support system, and alarm control method
JP3236269U (en) Biometric information monitoring equipment and systems
WO2020137061A1 (en) Information display method, program, and information display device
WO2020003953A1 (en) Program executed by computer, information processing device, and method executed by computer
WO2020003714A1 (en) Report output program, report output method, and report output device
WO2020008995A1 (en) Image recognition program, image recognition device, learning program, and learning device
JPWO2019239716A1 (en) Report output program, report output method, and report output device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180712

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180712

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191029

R150 Certificate of patent or registration of utility model

Ref document number: 6611871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250