JP2020014738A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2020014738A
JP2020014738A JP2018140724A JP2018140724A JP2020014738A JP 2020014738 A JP2020014738 A JP 2020014738A JP 2018140724 A JP2018140724 A JP 2018140724A JP 2018140724 A JP2018140724 A JP 2018140724A JP 2020014738 A JP2020014738 A JP 2020014738A
Authority
JP
Japan
Prior art keywords
state
person
detection
information processing
distance image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018140724A
Other languages
Japanese (ja)
Other versions
JP2020014738A5 (en
Inventor
安川 徹
Toru Yasukawa
徹 安川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AI Viewlife Co Ltd
Original Assignee
AI Viewlife Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AI Viewlife Co Ltd filed Critical AI Viewlife Co Ltd
Priority to JP2018140724A priority Critical patent/JP2020014738A/en
Priority to PCT/JP2019/023349 priority patent/WO2020021897A1/en
Publication of JP2020014738A publication Critical patent/JP2020014738A/en
Publication of JP2020014738A5 publication Critical patent/JP2020014738A5/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop

Abstract

To solve the problem that a care-giver cannot recognize various states of a care-receiver, and cope quickly and appropriately.SOLUTION: An information processing device includes: detection means for detecting a state of a person in a distance image on the basis of the distance image capturing a predetermined region for each of a plurality of predetermined regions; specification means for specifying that a detection state is any one of a plurality of predetermined detection states in the predetermined regions on the basis of a result of the detection of the state of the person for each of the predetermined regions; and display output means for outputting and displaying region information corresponding to the specified detection state in a display device for each of the predetermined regions, and outputting and displaying the region information corresponding to each of the plurality of predetermined regions collectively.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置及び情報処理方法に関する。   The present invention relates to an information processing device and an information processing method.

近年、高齢者の人口が増加し、介護の需要が高まっている。一方で、介護には、多くの介護者が必要となり、介護者の作業負担や人件費の増加という問題が生じる。そこで、特許文献1に記載のような、距離画像センサで撮影した画像を用いて、被介護者といった人物を監視する監視システムが多く開発されている。   In recent years, the population of elderly people has increased, and the demand for nursing care has increased. On the other hand, caregiving requires a large number of caregivers, and raises the problem of increased workload and labor costs for the caregivers. Therefore, many monitoring systems for monitoring a person such as a cared person using an image captured by a distance image sensor as described in Patent Document 1 have been developed.

特許文献1に開示の監視システムでは、距離画像からベッドの位置を抽出し、また、人の領域を検出し、人の動作を判別している。具体的に、ベッドの位置は、ベッドの長手方向及び短手方向における高さの度数分布から求めている。また、人の動作は、所定の高さ位置に対する物体の位置を検出することで、臥床の状態、上半身を起こした状態、起立の状態、といった人の動作を判別している。そして、この監視システムでは、判別した動作が被介護者毎に予め設定された特定の状態である場合に、介護者の待機所に対して報知することとしている。   In the monitoring system disclosed in Patent Literature 1, the position of the bed is extracted from the distance image, the area of the person is detected, and the motion of the person is determined. Specifically, the position of the bed is obtained from the frequency distribution of the height in the longitudinal direction and the lateral direction of the bed. In addition, the movement of the person is determined by detecting the position of the object with respect to a predetermined height position, such as a lying state, an upper body state, and a standing state. In this monitoring system, when the determined operation is in a specific state set in advance for each care receiver, the monitoring system notifies the caregiver of the waiting place.

特開2012−030042号公報JP 2012-030042 A

しかしながら、上述した特許文献1の技術では、被介護者の特定の動作の場合に介護者に報知するだけであるため、介護者は被介護者の種々の状態を把握することができない、という問題が生じる。また、介護者の待機所では多くの被介護者に対する報知がなされる可能性があるが、上述した技術では、介護者は迅速かつ的確に被介護者に関する報知を認識して対応することができない、という問題も生じる。   However, in the technology of Patent Literature 1 described above, since a caregiver is only notified when a specific operation of the care receiver is performed, the caregiver cannot grasp various states of the care receiver. Occurs. In addition, there is a possibility that notification to many cared persons may be made at the caregiver's waiting place, but with the above-described technology, the caregiver cannot quickly and accurately recognize and respond to the information about the cared person. , Also arises.

このため、本発明の目的は、上述した課題である、介護者が被介護者の種々の状態を迅速かつ的確に認識して対応することができない、ということを解決することができる情報処理装置を提供することにある。   Therefore, an object of the present invention is to provide an information processing apparatus capable of solving the above-mentioned problem, that a caregiver cannot quickly and accurately recognize and cope with various states of a cared person. Is to provide.

本発明の一形態である情報処理装置は、
複数の所定領域毎に、当該所定領域を撮影した距離画像に基づいて当該距離画像内の人物の状態を検出する検出手段と、
前記所定領域毎に、前記人物の状態の検出結果に基づいて前記所定領域の予め設定された複数の検出状態のうちのいずれかの検出状態であることを特定する特定手段と、
前記所定領域毎に、特定した前記検出状態に対応した領域情報を表示装置に表示出力すると共に、複数の前記所定領域にそれぞれ対応する前記領域情報をまとめて表示出力する表示出力手段と、
を備えた、
という構成をとる。
An information processing device according to one embodiment of the present invention includes:
For each of the plurality of predetermined regions, a detection unit that detects a state of a person in the distance image based on a distance image obtained by capturing the predetermined region,
For each of the predetermined regions, a specifying unit that specifies that any one of a plurality of predetermined detection states of the predetermined region is a detection state based on a detection result of the state of the person,
For each of the predetermined areas, display output means for displaying and outputting area information corresponding to the specified detection state to a display device, and collectively displaying and outputting the area information corresponding to each of the plurality of predetermined areas,
With
Take the configuration.

また、上記情報処理装置では、
前記検出手段は、前記距離画像に基づいて当該距離画像内の前記人物の予め設定された複数の状態を検出し、
前記特定手段は、前記人物の状態に応じた複数の前記検出状態のうちのいずれかの前記検出状態であることを特定する、
という構成をとる。
In the information processing device,
The detecting means detects a plurality of preset states of the person in the distance image based on the distance image,
The specifying means specifies that the detection state is any one of the plurality of detection states according to the state of the person,
Take the configuration.

また、上記情報処理装置では、
前記特定手段は、前記人物の状態に応じた複数の前記検出状態と、前記人物の状態を検出するための機器の状態に応じた複数の前記検出状態と、のうちのいずれかの前記検出状態であることを特定する、
という構成をとる。
In the information processing device,
The identification means may be any one of the plurality of detection states according to the state of the person, and the plurality of detection states according to the state of a device for detecting the state of the person. To identify that
Take the configuration.

また、上記情報処理装置では、
前記検出手段は、前記機器からの信号に基づいて当該機器の状態を検出し、
前記特定手段は、前記機器の状態が予め設定された特定の状態である場合に、当該特定の状態に対応する前記検出状態であることを特定する、
という構成をとる。
In the information processing device,
The detecting means detects a state of the device based on a signal from the device,
The specifying unit, when the state of the device is a specific state set in advance, specifies that the detection state corresponding to the specific state,
Take the configuration.

また、上記情報処理装置では、
前記検出手段は、前記距離画像に基づいて当該距離画像内の前記人物の状態として当該人物の姿勢を検出し、
前記特定手段は、前記人物の姿勢が予め設定された特定の姿勢である場合に、当該特定の姿勢に対応する前記検出状態であることを特定する、
という構成をとる。
In the information processing device,
The detection unit detects the posture of the person as the state of the person in the distance image based on the distance image,
The specifying means, when the posture of the person is a specific posture set in advance, specifies that the detection state corresponding to the specific posture,
Take the configuration.

また、上記情報処理装置では、
前記検出手段は、前記距離画像に基づいて当該距離画像内の前記人物の状態として当該人物の位置を検出し、
前記特定手段は、前記人物の位置が予め設定された特定の位置である場合に、当該特定の位置に対応する前記検出状態であることを特定する、
という構成をとる。
In the information processing device,
The detecting means detects the position of the person as the state of the person in the distance image based on the distance image,
The specifying means, when the position of the person is a specific position set in advance, specifies that the detection state corresponding to the specific position,
Take the configuration.

また、上記情報処理装置では、
前記表示出力手段は、異なる前記領域情報を異なる色で表示出力する、
という構成をとる。
In the information processing device,
The display output unit displays and outputs the different area information in different colors.
Take the configuration.

また、本発明の他の形態である情報処理方法は、
複数の所定領域毎に、当該所定領域を撮影した距離画像に基づいて当該距離画像内の人物の状態を検出し、
前記所定領域毎に、前記人物の状態の検出結果に基づいて前記所定領域の予め設定された複数の検出状態のうちのいずれかの検出状態であることを特定し、
前記所定領域毎に、特定した前記検出状態に対応した領域情報を表示装置に表示出力すると共に、複数の前記所定領域にそれぞれ対応する前記領域情報をまとめて表示出力する、
という構成をとる。
An information processing method according to another aspect of the present invention includes:
For each of a plurality of predetermined regions, a state of a person in the distance image is detected based on a distance image obtained by photographing the predetermined region,
For each of the predetermined areas, specifying that the detection state of any of a plurality of preset detection states of the predetermined area based on the detection result of the state of the person,
For each of the predetermined regions, the region information corresponding to the specified detection state is displayed and output on a display device, and the region information respectively corresponding to a plurality of the predetermined regions is collectively displayed and output.
Take the configuration.

また、本発明の他の形態であるプログラムは、
情報処理装置に、
複数の所定領域毎に、当該所定領域を撮影した距離画像に基づいて当該距離画像内の人物の状態を検出する検出手段と、
前記所定領域毎に、前記人物の状態の検出結果に基づいて前記所定領域の予め設定された複数の検出状態のうちのいずれかの検出状態であることを特定する特定手段と、
前記所定領域毎に、特定した前記検出状態に対応した領域情報を表示装置に表示出力すると共に、複数の前記所定領域にそれぞれ対応する前記領域情報をまとめて表示出力する表示出力手段と、
を実現させる、
という構成をとる。
A program according to another embodiment of the present invention includes:
For information processing equipment,
For each of the plurality of predetermined regions, a detection unit that detects a state of a person in the distance image based on a distance image obtained by capturing the predetermined region,
For each of the predetermined regions, a specifying unit that specifies that any one of a plurality of predetermined detection states of the predetermined region is a detection state based on a detection result of the state of the person,
For each of the predetermined areas, display output means for displaying and outputting area information corresponding to the specified detection state to a display device, and collectively displaying and outputting the area information corresponding to each of the plurality of predetermined areas,
To realize,
Take the configuration.

本発明は、以上のように構成されることにより、介護者が被介護者の種々の状態を迅速かつ的確に認識して対応することができる。   ADVANTAGE OF THE INVENTION By comprising as mentioned above, this invention enables a care giver to recognize and respond to various states of a care receiver quickly and accurately.

本発明の実施形態1における情報処理システムの構成を示す概略図である。1 is a schematic diagram illustrating a configuration of an information processing system according to a first embodiment of the present invention. 図1に開示した監視サーバの構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of a monitoring server disclosed in FIG. 1. 図1に開示した監視サーバによる画像処理の様子を示す図である。FIG. 2 is a diagram illustrating a state of image processing by the monitoring server disclosed in FIG. 1. 図1に開示した監視サーバによる部屋情報表示の様子を示す図である。FIG. 2 is a diagram illustrating a state of room information display by the monitoring server disclosed in FIG. 1. 図1に開示した監視サーバの処理動作を示すフローチャートである。3 is a flowchart illustrating a processing operation of the monitoring server disclosed in FIG. 1.

<実施形態1>
本発明の第1の実施形態を、図1乃至図5を参照して説明する。図1乃至図2は、情報処理システムの構成を示す図である。図3乃至図5は、情報処理システムの処理動作を説明するための図である。以下、各図を参照して、情報処理システムの構成及び動作を説明する。
<First embodiment>
A first embodiment of the present invention will be described with reference to FIGS. 1 and 2 are diagrams illustrating a configuration of the information processing system. 3 to 5 are diagrams for explaining the processing operation of the information processing system. Hereinafter, the configuration and operation of the information processing system will be described with reference to the drawings.

本発明における情報処理システムは、被介護者や被監視者といった監視対象となる人物Pの行動を監視するための情報処理システムである。そして、情報処理システムは、監視サーバ10と、距離画像カメラCと、監視端末30と、を備えて構成されている。   The information processing system according to the present invention is an information processing system for monitoring the behavior of a monitoring target person P such as a cared person or a monitored person. The information processing system includes a monitoring server 10, a range image camera C, and a monitoring terminal 30.

上記距離画像カメラC(撮影装置)は、監視対象となる人物Pが横たわるベッドBが配置された領域である部屋R内の距離画像を撮影可能な位置に配置されている。例えば、距離画像カメラCは、医療施設や介護施設、宅内の部屋Rの天井に設けられ、部屋Rの大部分が画像内に収まる位置に配置されている。なお、距離画像カメラCは、必ずしも天井に設置されていることに限定されず、壁やスタンドなど、いかなる場所に設置されていてもよい。また、部屋Rに設置されるベッドBは、布団などのいかなる寝床であってもよい。   The distance image camera C (photographing device) is arranged at a position where a distance image in the room R, which is an area where the bed B on which the person P to be monitored lies, is located. For example, the distance image camera C is provided on a ceiling of a room R in a medical facility, a nursing facility, or a house, and is arranged at a position where most of the room R fits in the image. Note that the range image camera C is not necessarily installed on the ceiling, but may be installed on any location such as a wall or a stand. Bed B installed in room R may be any bed such as a futon.

距離画像カメラCは、画素値を距離値とした距離画像を撮影するものである。例えば、距離画像カメラCは、赤外線レーザをターゲットに投射した際の往復の時間から距離を計測する形式のものであってもよく、いかなる方式の撮影装置であってもよい。そして、距離画像カメラCは、一定の時間間隔で、あるいは、撮影指示を受けたタイミングで、距離画像を撮影し、かかる距離画像を後述する監視サーバ10に送信する機能を有する。なお、上記監視サーバ10の機能については、上記距離画像カメラCに搭載することもできる。つまり、距離画像カメラCに搭載された情報処理装置にて監視サーバ10の機能を実現してもよい。   The distance image camera C captures a distance image using a pixel value as a distance value. For example, the range image camera C may be of a type that measures a distance from a round trip time when an infrared laser is projected onto a target, and may be any type of imaging device. The range image camera C has a function of shooting a range image at a fixed time interval or at a timing when a shooting instruction is received, and transmitting the range image to the monitoring server 10 described later. Note that the function of the monitoring server 10 can be mounted on the range image camera C. That is, the function of the monitoring server 10 may be realized by an information processing device mounted on the range image camera C.

ここで、本実施形態では、監視対象となる人物Pがそれぞれ利用する部屋Rが複数あり、各部屋Rにそれぞれ距離画像カメラCが設置されている。そして、各距離画像カメラCは、撮影した距離画像の情報をはじめとする監視サーバ10に送信する情報に、設置されている部屋Rに対応する識別情報を付して監視サーバ10に送信する。   Here, in the present embodiment, there are a plurality of rooms R each of which is used by a person P to be monitored, and a distance image camera C is installed in each of the rooms R. Then, each distance image camera C transmits identification information corresponding to the installed room R to information to be transmitted to the monitoring server 10, including information on the captured distance image, and transmits the information to the monitoring server 10.

上記監視端末30は、被介護者である人物の介護を行ったり監視する監視者であるユーザUが操作する情報処理端末である。監視端末30は、監視者などのユーザUが在籍する監視ルームなどの場所に設置されており、複数のユーザUによって操作可能である。そして、監視端末30は、後述する図4に示すように、監視サーバ10から送信される各部屋Rの状況を表す部屋情報の一覧を表示装置に表示する。このとき、部屋情報には、人物の状態を通知する情報や、機器の状態を通知する情報が含まれており、かかる内容をユーザUに報知することとなる。なお、監視端末30は、表示装置に距離画像カメラCで撮影された距離画像を表示することもできる。   The monitoring terminal 30 is an information processing terminal operated by a user U who is a monitor who performs care and monitors a person who is a care receiver. The monitoring terminal 30 is installed in a place such as a monitoring room where a user U such as a supervisor is enrolled, and can be operated by a plurality of users U. Then, the monitoring terminal 30 displays a list of room information indicating the status of each room R transmitted from the monitoring server 10 on the display device, as shown in FIG. At this time, the room information includes information for notifying the state of the person and information for notifying the state of the device, and the content is notified to the user U. Note that the monitoring terminal 30 can also display the distance image captured by the distance image camera C on the display device.

上記監視サーバ10は、演算装置及び記憶装置を有するサーバ装置(情報処理装置)である。そして、監視サーバ10は、図2に示すように、演算装置がプログラムを実行することで構築された、機器検出部11、距離画像取得部12、検出部13、特定部14、出力部15、を備えている。また、監視サーバ10は、記憶装置に形成された、基準情報記憶部16を備えている。以下、各構成について詳述するが、併せて監視サーバ10の動作も、図5のフローチャートを参照して併せて説明する。   The monitoring server 10 is a server device (information processing device) having an arithmetic device and a storage device. Then, as shown in FIG. 2, the monitoring server 10 includes a device detection unit 11, a distance image acquisition unit 12, a detection unit 13, a specification unit 14, an output unit 15, It has. Further, the monitoring server 10 includes a reference information storage unit 16 formed in a storage device. Hereinafter, each component will be described in detail, and the operation of the monitoring server 10 will also be described with reference to the flowchart of FIG.

上記機器検出部11(検出手段)は、人物Pの状態を検出するために利用される機器である、距離画像カメラC、監視サーバ10自体、さらには監視サーバ10に接続された他の機器、の状態を検出する(図5のステップS1)。例えば、機器検出部11は、距離画像カメラCや監視サーバ10自体から正常に作動していないことを表す故障信号を受信する状態(あるいは正常信号を受信しない状態)、距離画像カメラCと接続しているにも関わらず距離画像を正常に取得できない状態、距離画像カメラCと接続しておらず信号を受信していない状態、などの状態を検出する。このとき、機器検出部11は、距離画像カメラCからの信号に含まれる識別情報を検知することで、かかる信号を受信した距離画像カメラCが設置されている部屋Rを判別することができる。なお、機器検出部11は、ベッドBに設置された人物Pの心拍や呼吸などの生体情報を検出する生体センサ(図示せず)といった人物Pの状態を検出するための他の機器の状態を検出してもよい。そして、機器検出部11は、検出した機器の状態を、人物Pの状態の検出結果として特定部14に通知する。   The device detection unit 11 (detection means) is a device used for detecting the state of the person P, such as the distance image camera C, the monitoring server 10 itself, and other devices connected to the monitoring server 10. Is detected (step S1 in FIG. 5). For example, the device detection unit 11 is in a state of receiving a failure signal indicating that it is not operating normally from the distance image camera C or the monitoring server 10 itself (or a state of not receiving a normal signal), or is connected to the distance image camera C. In this state, a state in which a distance image cannot be normally acquired despite the presence of a signal, a state in which a signal is not received because the distance image camera C is not connected, and the like are detected. At this time, by detecting the identification information included in the signal from the range image camera C, the device detection unit 11 can determine the room R in which the range image camera C that has received the signal is installed. The device detection unit 11 detects the state of another device for detecting the state of the person P such as a biological sensor (not shown) that detects biological information such as the heartbeat and breathing of the person P installed on the bed B. It may be detected. Then, the device detection unit 11 notifies the identification unit 14 of the detected device state as a detection result of the state of the person P.

上記距離画像取得部12は、上述したように各距離画像カメラCにて各部屋R内を撮影した距離画像を、定期的に距離画像カメラCから取得する(図5のステップS3)。そして、取得した距離画像を検出部13に渡すことで、当該距離画像は後述する検出処理に用いられる。   The distance image acquisition unit 12 periodically acquires the distance image obtained by photographing the inside of each room R with each distance image camera C as described above from the distance image camera C (step S3 in FIG. 5). Then, by passing the acquired distance image to the detection unit 13, the distance image is used for detection processing described later.

上記検出部13(検出手段)は、距離画像を用いて、当該距離画像内の人物Pを検出して、当該人物Pの状態を検出する(図5のステップS4)。このとき、検出部13は、距離画像に含まれる距離画像カメラCの識別情報から、いずれの部屋Rの距離画像であるかを判別して、かかる距離画像を処理する。   The detection unit 13 (detection means) detects the person P in the distance image using the distance image, and detects the state of the person P (Step S4 in FIG. 5). At this time, the detection unit 13 determines which room R the distance image is based on the identification information of the distance image camera C included in the distance image, and processes the distance image.

具体的に、検出部13は、まず、距離画像内における人物Pを検出する処理を行う。このとき、検出部13は、距離画像内に存在する物体を検出し、かかる物体から人物の最頂点と重心位置を検出する。そして、検出部13は、例えば、距離画像内における個々の塊からなる物体を検出し、検出した物体の質量や、物体間の位置関係や体積比(面積比)などから、人物Pを検出する。   Specifically, the detection unit 13 first performs a process of detecting the person P in the distance image. At this time, the detection unit 13 detects an object existing in the distance image, and detects the highest vertex and the position of the center of gravity of the person from the object. Then, the detection unit 13 detects, for example, an object composed of individual blocks in the distance image, and detects the person P from the mass of the detected object, a positional relationship between the objects, a volume ratio (area ratio), and the like. .

続いて、検出部13は、検出された人物の最頂点と重心位置の追従を行い、距離画像内における人物Pの位置や姿勢を検出して、人物Pの状態を検出する(図5のステップS4)。例えば、検出部13は、部屋R内における人物Pの位置を検出する。ここで、図3上図に、部屋Rの距離画像の一例を示す。この例では、部屋R内に、ベッドBとトイレTとドアDが設置されており、これら設置物と人物Pとの位置関係に応じて当該人物Pの位置を検出する。例えば、予め距離画像上におけるベッドBやトイレTの位置を設定して基準情報記憶部16に登録しておき、これらの位置と検出した人物Pの位置とに応じて、人物Pが「在室してベッド上に位置する」、「在室してトイレに位置する(トイレに入った)」、「在室して居室にいる(ベッドとトイレ以外の位置にいる)」、といった状態を検出する。そして、検出部13は、かかる検出結果を特定部14に通知する。   Subsequently, the detection unit 13 performs tracking of the detected vertex of the person and the position of the center of gravity, detects the position and orientation of the person P in the distance image, and detects the state of the person P (step in FIG. 5). S4). For example, the detection unit 13 detects the position of the person P in the room R. Here, an example of the distance image of the room R is shown in the upper diagram of FIG. In this example, a bed B, a toilet T, and a door D are installed in a room R, and the position of the person P is detected according to the positional relationship between the installed object and the person P. For example, the positions of the bed B and the toilet T on the distance image are set in advance and registered in the reference information storage unit 16, and according to the positions and the detected position of the person P, the person P And on the bed "," occupied and located on the toilet (entered the toilet) ", and" occupied and in the living room (located outside the bed and toilet) " I do. Then, the detecting unit 13 notifies the specifying unit 14 of the detection result.

また、検出部13は、人物Pの姿勢も検出する。特に、検出部13は、人物Pの姿勢が検知対象状態として設定された姿勢であることを検出する。検知対象状態とは、例えば、人物PがベッドBに立つ状態、人物PがベッドBから離れてうずくまっている状態、人物PがベッドBから離れて横たわっている状態、などであるが、いかなる人物Pの姿勢を検知対象状態として検出してもよい。なお、検出部13は、上記のような人物Pの姿勢を、例えば図3下図に示すように、ベッドBの高さ位置に対する人物Pの最頂点や重心位置に基づいて検出する。そして、検出部13は、検知対象状態を検出すると、特定部14に通知する。   The detection unit 13 also detects the posture of the person P. In particular, the detection unit 13 detects that the posture of the person P is the posture set as the detection target state. The detection target state is, for example, a state where the person P is standing on the bed B, a state where the person P is crouching away from the bed B, a state where the person P is lying away from the bed B, and the like. The posture of P may be detected as the detection target state. The detecting unit 13 detects the posture of the person P as described above, for example, based on the highest point and the center of gravity of the person P with respect to the height position of the bed B as shown in the lower diagram of FIG. When detecting the detection target state, the detection unit 13 notifies the identification unit 14.

なお、検出部13は、上述した人物Pの状態の検出を部屋Rごとに行う。このため、検出部13は、各部屋Rの識別情報に、検出した人物Pの状態を関連付けて特定部14に通知する。   The detection unit 13 performs the detection of the state of the person P described above for each room R. Therefore, the detection unit 13 notifies the identification unit 14 of the identification information of each room R in association with the state of the detected person P.

上記特定部14(特定手段)は、上述したように部屋Rごとにおける人物Pの状態の検出結果、つまり、機器の状態と人物Pの状態の通知を受けると、かかる通知に基づいて部屋Rごとの検出状態を特定する。このとき、特定する部屋Rの検出状態としては、予め複数の検出状態が設定されており、このうちのいずれかの検出状態であるかを特定部14が特定する。例えば、予め設定された検出状態は、以下のように、人物Pの状態に応じた検出状態と、機器の状態に応じた検出状態と、がある。
「人物の状態に応じた検出状態」
・アラート状態(検知)
・在室(ベッド)
・在室(居室)
・在室(トイレ)
・不在
「機器の状態に応じた検出状態」
・機器故障(エラー)
・機器が接続されていない(未接続(正常系))
・機器と接続されているが信号異常(未接続(異常系))
Upon receiving the detection result of the state of the person P in each room R, that is, the notification of the state of the device and the state of the person P as described above, the specifying unit 14 (specification unit) Specify the detection status of At this time, as the detection state of the room R to be specified, a plurality of detection states are set in advance, and the specifying unit 14 specifies which of the detection states is the detection state. For example, the detection states set in advance include a detection state according to the state of the person P and a detection state according to the state of the device as described below.
"Detection state according to the state of the person"
・ Alert status (detection)
・ Occupancy (bed)
・ Room (living room)
・ Room occupancy (toilet)
・ Absent “Detection status according to device status”
・ Device failure (error)
-The device is not connected (not connected (normal system))
-Connected to device but signal is abnormal (not connected (abnormal))

具体的に、特定部14は、機器検出部11と検出部13から通知された機器の状態と人物Pの状態に応じて、各部屋Rの検出状態を特定する。例えば、特定部14は、部屋R内の人物PがベッドBに立っているといった「検知対象状態」の通知を受けた場合には、かかる部屋Rの状態を上記「アラート状態(検知)」として特定する。また、特定部14は、部屋R内の人物PがベッドBに横たわっているといった状態の通知を受けた場合には、かかる部屋Rの状態を上記「在室(ベッド)」として特定する。また、特定部14は、部屋R内の人物PがベッドBとトイレT以外にいるといった状態の通知を受けた場合には、かかる部屋Rの状態を上記「在室(居室)」として特定する。また、特定部14は、部屋R内の人物PがトイレTに入っているといった状態の通知を受けた場合には、かかる部屋Rの状態を上記「在室(トイレ)」として特定する。また、特定部14は、部屋R内の人物Pの状態の通知を受けとっていない場合には、かかる部屋Rの状態を上記「不在」として特定する。   Specifically, the specifying unit 14 specifies the detection state of each room R according to the state of the device and the state of the person P notified from the device detection unit 11 and the detection unit 13. For example, when the identification unit 14 receives the notification of the “detection target state” such that the person P in the room R is standing on the bed B, the state of the room R is set as the “alert state (detection)”. Identify. When the specifying unit 14 receives a notification that the person P in the room R is lying on the bed B, the specifying unit 14 specifies the state of the room R as the “occupied (bed)”. Further, when receiving the notification that the person P in the room R is in a place other than the bed B and the toilet T, the specifying unit 14 specifies the state of the room R as the “occupied (living room)”. . Further, when receiving the notification that the person P in the room R is in the toilet T, the specifying unit 14 specifies the state of the room R as the “occupied (toilet)”. When the notification of the state of the person P in the room R is not received, the specifying unit 14 specifies the state of the room R as “absent”.

また、特定部14は、機器の故障信号を受信したといった機器の状態の通知を受けた場合には、かかる部屋Rの状態を上記「機器故障(エラー)」として特定する。また、特定部14は、距離画像カメラCと接続しているにも関わらず距離画像を正常に取得できなかったといった機器の状態の通知を受けた場合には、かかる部屋Rの状態を上記「機器と接続されているが信号異常(未接続(異常系))」として特定する。また、特定部14は、距離画像カメラCと接続しておらず信号を受信していないといった機器の状態の通知を受けた場合には、かかる部屋Rの状態を上記「機器が接続されていない(未接続(正常系))」として特定する。   When the specifying unit 14 receives the notification of the state of the device such as the reception of the device failure signal, the specifying unit 14 specifies the state of the room R as the “device failure (error)”. In addition, when the specifying unit 14 receives the notification of the state of the device that the distance image could not be normally acquired despite being connected to the distance image camera C, the specifying unit 14 changes the state of the room R to the above-described “ Specified as "Signal error (not connected (abnormal system)) connected to device". In addition, when the specifying unit 14 receives the notification of the state of the device that is not connected to the range image camera C and does not receive a signal, the specifying unit 14 changes the state of the room R to “the device is not connected”. (Not connected (normal system)). "

そして、特定部14は、上述したように特定した各部屋Rの検出状態を、出力部15に通知する。例えば、特定部14は、部屋Rの識別情報に関連付けて、特定した検出状態の情報を出力部に通知する。なお、上述した特定部14による部屋Rの検出状態の特定処理は一例であって、上述した検出状態を特定することに限定されない。また、特定部14は、他の方法で部屋Rの検出状態を特定してもよい。   Then, the specifying unit 14 notifies the output unit 15 of the detection state of each room R specified as described above. For example, the identification unit 14 notifies the output unit of information on the identified detection state in association with the identification information of the room R. Note that the process of specifying the detection state of the room R by the specifying unit 14 described above is an example, and is not limited to specifying the detection state described above. Further, the specifying unit 14 may specify the detection state of the room R by another method.

上記出力部15(表示出力手段)は、特定部14から通知された各部屋Rの検出状態に対応した部屋情報(領域情報)を、監視端末30の表示装置に表示するよう出力する。このとき、出力部15は、図4に示すような表示画面を監視端末30に表示し、かかる表示画面に複数の部屋Rの部屋情報をまとめて表示する。具体的に、出力部15は、部屋情報として、部屋Rの識別情報に対応する部屋番号の表示と共に、当該部屋番号の周囲を、部屋Rの検出状態に対応して予め設定された色で表示する。本実施形態では、上述した各検出状態である「エラー」、「検知」、「在室(ベッド)」、「在室(居室)」、「在室(トイレ)」、「不在」、「未接続(正常系)」、「未接続(異常系)」にそれぞれ対応する異なる色で、部屋情報を表示する。   The output unit 15 (display output unit) outputs room information (region information) corresponding to the detection state of each room R notified from the specifying unit 14 to be displayed on the display device of the monitoring terminal 30. At this time, the output unit 15 displays a display screen as shown in FIG. 4 on the monitoring terminal 30 and collectively displays room information of a plurality of rooms R on the display screen. Specifically, the output unit 15 displays, as the room information, the room number corresponding to the identification information of the room R, and displays the surroundings of the room number in a color set in advance according to the detection state of the room R. I do. In the present embodiment, each of the above-described detection states “error”, “detection”, “occupied (bed)”, “occupied (room)”, “occupied (toilet)”, “absent”, “not present” Room information is displayed in different colors corresponding to “connected (normal system)” and “not connected (abnormal system)”, respectively.

図5の例では、部屋番号「101」の部屋Pは、検出状態が「在室(居室)」であるため、かかる検出状態に対応する色で部屋情報を表示している。また、部屋番号「106」の部屋Pは、検出状態が「在室(ベッド)」であるため、かかる検出状態に対応する色で部屋情報を表示している(図5のステップS5でNo,ステップS6)。また、部屋番号「203」は、部屋Pの検出状態が「検知」であるため、かかる検出状態に対応する色で部屋情報を表示している(図5のステップS5でYes,ステップS7)。また、部屋番号「301」は、部屋Pの検出状態が「エラー」であるため、かかる検出状態に対応する色で部屋情報を表示している(図5のステップS2でYes,ステップS8)。なお、図5では、図示する都合上、各部屋Pの部屋情報を塗りつぶしパターンで表示しているが、異なる色の塗りつぶしで表示してもよく、それぞれが異なる他の表示形態で表示してもよい。   In the example of FIG. 5, since the detection state of the room P with the room number “101” is “occupied (living room)”, the room information is displayed in a color corresponding to the detection state. In addition, since the detection state of the room P with the room number “106” is “occupied (bed)”, the room information is displayed in a color corresponding to the detection state (No in step S5 in FIG. 5, No. Step S6). Further, since the detection state of the room P is “detection”, the room number “203” displays the room information in a color corresponding to the detection state (Yes in step S5 in FIG. 5, step S7). Further, for the room number "301", since the detection state of the room P is "error", the room information is displayed in a color corresponding to the detection state (Yes in step S2 in FIG. 5, step S8). In FIG. 5, for convenience of illustration, the room information of each room P is displayed in a filled pattern. However, the room information may be displayed in a different color, or may be displayed in a different display form. Good.

以上のように、本発明によると、監視端末30の表示画面には、複数の部屋Pの状態がまとめて表示されることとなる。つまり、部屋Pごとに、監視に用いる機器の状態(エラー、未接続(正常系)、未接続(異常系))や、人物Pの状態(検知、在室(ベッド)、在室(居室)、在室(トイレ)、不在)が、各状態に応じて区別されて表示される。このため、監視者や介護者は、複数の部屋における複数の状況を、一目で把握することができる。例えば、部屋Rの人物PがベッドBに立つなどの検知対象状態が検出された場合には、かかる状態に対応する「検知」の色で部屋情報が表示されるため、監視者や介護者は迅速にかかる状況を把握して、かかる部屋Rに介護に向かうなど迅速かつ適切な対応を取ることができる。また、部屋Rに設置された機器が故障している状態が検出された場合には、かかる状態に対応する「エラー」の色で部屋情報が表示されるため、監視者や介護者は迅速にかかる状況を把握して、修理を依頼するなど迅速かつ適切な対応を取ることができる。   As described above, according to the present invention, the states of the plurality of rooms P are collectively displayed on the display screen of the monitoring terminal 30. That is, for each room P, the state of the device used for monitoring (error, not connected (normal system), not connected (abnormal system)) and the state of person P (detection, occupancy (bed), occupancy (occupancy)) , Occupancy (toilet), and absence) are displayed according to each state. For this reason, a supervisor or a caregiver can grasp a plurality of situations in a plurality of rooms at a glance. For example, when a detection target state such as the person P in the room R standing on the bed B is detected, the room information is displayed in the color of “detection” corresponding to the state, so that the monitor or the caregiver can The situation can be quickly grasped, and prompt and appropriate measures can be taken, such as going to the room R for nursing care. Further, when a state in which the equipment installed in the room R is out of order is detected, the room information is displayed in the color of “error” corresponding to the state, so that the monitor or the caregiver can promptly. By grasping such a situation, prompt and appropriate measures such as requesting repair can be taken.

なお、上述したプログラムは、記憶装置に記憶されていたり、コンピュータが読み取り可能な記録媒体に記録されている。例えば、記録媒体は、フレキシブルディスク、光ディスク、光磁気ディスク、及び、半導体メモリ等の可搬性を有する媒体である。   Note that the above-described program is stored in a storage device or recorded on a computer-readable recording medium. For example, the recording medium is a portable medium such as a flexible disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。   As described above, the present invention has been described with reference to the above embodiments and the like, but the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

10 監視サーバ
11 機器検出部
12 距離画像取得部
13 検出部
14 特定部
15 出力部
16 基準情報記憶部
30 監視端末
B ベッド
C 距離画像カメラ
P 人物
U ユーザ
Reference Signs List 10 monitoring server 11 device detection unit 12 distance image acquisition unit 13 detection unit 14 specifying unit 15 output unit 16 reference information storage unit 30 monitoring terminal B bed C distance image camera P person U user

Claims (8)

複数の所定領域毎に、当該所定領域を撮影した距離画像に基づいて当該距離画像内の人物の状態を検出する検出手段と、
前記所定領域毎に、前記人物の状態の検出結果に基づいて前記所定領域の予め設定された複数の検出状態のうちのいずれかの検出状態であることを特定する特定手段と、
前記所定領域毎に、特定した前記検出状態に対応した領域情報を表示装置に表示出力すると共に、複数の前記所定領域にそれぞれ対応する前記領域情報をまとめて表示出力する表示出力手段と、
を備えた情報処理装置。
For each of the plurality of predetermined regions, a detection unit that detects a state of a person in the distance image based on a distance image obtained by capturing the predetermined region,
For each of the predetermined regions, a specifying unit that specifies that any one of a plurality of predetermined detection states of the predetermined region is a detection state based on a detection result of the state of the person,
For each of the predetermined areas, display output means for displaying and outputting area information corresponding to the specified detection state to a display device, and collectively displaying and outputting the area information corresponding to each of the plurality of predetermined areas,
Information processing device provided with.
請求項1に記載の情報処理装置であって、
前記検出手段は、前記距離画像に基づいて当該距離画像内の前記人物の予め設定された複数の状態を検出し、
前記特定手段は、前記人物の状態に応じた複数の前記検出状態のうちのいずれかの前記検出状態であることを特定する、
情報処理装置。
The information processing device according to claim 1,
The detecting means detects a plurality of preset states of the person in the distance image based on the distance image,
The specifying means specifies that the detection state is any one of the plurality of detection states according to the state of the person,
Information processing device.
請求項2に記載の情報処理装置であって、
前記特定手段は、前記人物の状態に応じた複数の前記検出状態と、前記人物の状態を検出するための機器の状態に応じた複数の前記検出状態と、のうちのいずれかの前記検出状態であることを特定する、
情報処理装置。
The information processing apparatus according to claim 2, wherein
The identification means may be any one of the plurality of detection states according to the state of the person, and the plurality of detection states according to the state of a device for detecting the state of the person. To identify that
Information processing device.
請求項3に記載の情報処理装置であって、
前記検出手段は、前記機器からの信号に基づいて当該機器の状態を検出し、
前記特定手段は、前記機器の状態が予め設定された特定の状態である場合に、当該特定の状態に対応する前記検出状態であることを特定する、
情報処理装置。
The information processing apparatus according to claim 3, wherein
The detecting means detects a state of the device based on a signal from the device,
The specifying unit, when the state of the device is a specific state set in advance, specifies that the detection state corresponding to the specific state,
Information processing device.
請求項2乃至4のいずれかに記載の情報処理装置であって、
前記検出手段は、前記距離画像に基づいて当該距離画像内の前記人物の状態として当該人物の姿勢を検出し、
前記特定手段は、前記人物の姿勢が予め設定された特定の姿勢である場合に、当該特定の姿勢に対応する前記検出状態であることを特定する、
情報処理装置。
The information processing apparatus according to claim 2, wherein
The detection unit detects the posture of the person as the state of the person in the distance image based on the distance image,
The specifying means, when the posture of the person is a specific posture set in advance, specifies that the detection state corresponding to the specific posture,
Information processing device.
請求項2乃至5のいずれかに記載の情報処理装置であって、
前記検出手段は、前記距離画像に基づいて当該距離画像内の前記人物の状態として当該人物の位置を検出し、
前記特定手段は、前記人物の位置が予め設定された特定の位置である場合に、当該特定の位置に対応する前記検出状態であることを特定する、
情報処理装置。
The information processing device according to claim 2, wherein:
The detecting means detects the position of the person as the state of the person in the distance image based on the distance image,
The specifying means, when the position of the person is a specific position set in advance, specifies that the detection state corresponding to the specific position,
Information processing device.
請求項1乃至6のいずれかに記載の情報処理装置であって、
前記表示出力手段は、異なる前記領域情報を異なる色で表示出力する、
情報処理装置。
The information processing apparatus according to claim 1, wherein:
The display output unit displays and outputs the different area information in different colors.
Information processing device.
複数の所定領域毎に、当該所定領域を撮影した距離画像に基づいて当該距離画像内の人物の状態を検出し、
前記所定領域毎に、前記人物の状態の検出結果に基づいて前記所定領域の予め設定された複数の検出状態のうちのいずれかの検出状態であることを特定し、
前記所定領域毎に、特定した前記検出状態に対応した領域情報を表示装置に表示出力すると共に、複数の前記所定領域にそれぞれ対応する前記領域情報をまとめて表示出力する、
情報処理方法。
For each of a plurality of predetermined regions, a state of a person in the distance image is detected based on a distance image obtained by photographing the predetermined region,
For each of the predetermined areas, specifying that the detection state of any of a plurality of preset detection states of the predetermined area based on the detection result of the state of the person,
For each of the predetermined regions, the region information corresponding to the specified detection state is displayed and output on a display device, and the region information respectively corresponding to a plurality of the predetermined regions is collectively displayed and output.
Information processing method.
JP2018140724A 2018-07-26 2018-07-26 Information processing device Pending JP2020014738A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018140724A JP2020014738A (en) 2018-07-26 2018-07-26 Information processing device
PCT/JP2019/023349 WO2020021897A1 (en) 2018-07-26 2019-06-12 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018140724A JP2020014738A (en) 2018-07-26 2018-07-26 Information processing device

Publications (2)

Publication Number Publication Date
JP2020014738A true JP2020014738A (en) 2020-01-30
JP2020014738A5 JP2020014738A5 (en) 2021-07-26

Family

ID=69181037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018140724A Pending JP2020014738A (en) 2018-07-26 2018-07-26 Information processing device

Country Status (2)

Country Link
JP (1) JP2020014738A (en)
WO (1) WO2020021897A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004049309A (en) * 2002-07-16 2004-02-19 National Trust:Kk Monitoring system for person to be nursed or cared
JP2012030042A (en) * 2010-06-30 2012-02-16 Panasonic Electric Works Co Ltd Monitoring device, and program
JP2012519547A (en) * 2009-03-04 2012-08-30 マシモ・コーポレイション Medical monitoring system
JP2013066704A (en) * 2011-09-21 2013-04-18 General Electric Co <Ge> System and method of monitoring physiological condition of group of infants
US20150302539A1 (en) * 2014-04-16 2015-10-22 Vios Medical Singapore PTE LTD Patient care and health information management systems and methods

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004049309A (en) * 2002-07-16 2004-02-19 National Trust:Kk Monitoring system for person to be nursed or cared
JP2012519547A (en) * 2009-03-04 2012-08-30 マシモ・コーポレイション Medical monitoring system
JP2012030042A (en) * 2010-06-30 2012-02-16 Panasonic Electric Works Co Ltd Monitoring device, and program
JP2013066704A (en) * 2011-09-21 2013-04-18 General Electric Co <Ge> System and method of monitoring physiological condition of group of infants
US20150302539A1 (en) * 2014-04-16 2015-10-22 Vios Medical Singapore PTE LTD Patient care and health information management systems and methods

Also Published As

Publication number Publication date
WO2020021897A1 (en) 2020-01-30

Similar Documents

Publication Publication Date Title
JP5995243B2 (en) Watch system
EP3468180A1 (en) Display control device, display control system, display control method, display control program, and recording medium
JP5858940B2 (en) Bed leaving monitoring system
JP6852733B2 (en) Living body monitoring device and living body monitoring method
US20190046080A1 (en) Monitoring target person monitoring device, method, and system
JP6086468B2 (en) Subject monitoring system
JP2009077908A (en) Care receiver movement detector and care receiver movement detecting method
JP2020194493A (en) Monitoring system for nursing-care apparatus or hospital and monitoring method
WO2019240196A1 (en) Information processing device
US20180322334A1 (en) Person Monitoring Device And Method, And Person Monitoring System
US20200103286A1 (en) Notification control device, notification control system, and notification control method
WO2020021897A1 (en) Information processing device
JP7095870B2 (en) Information processing equipment
JP2021005207A (en) Information processing device, information processing method, and program
TWM625774U (en) Care-giving detection system based on deep image-based behavior analysis of care recipients
JP7232497B2 (en) Information processing equipment
WO2019163561A1 (en) Information processing apparatus
JP7338268B2 (en) Monitoring system and monitoring method
WO2019240197A1 (en) Information processing device
JP3215201U (en) Monitoring device
JP6737089B2 (en) Monitored person monitoring system and monitored person monitoring method
JP7268387B2 (en) Monitoring device and program for monitoring device
WO2020149126A1 (en) Information processing device
JP6807247B2 (en) Monitoring system and monitoring method
JP2022126071A (en) Image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210602

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230307