JP7183788B2 - Behavior determination device and behavior determination method - Google Patents

Behavior determination device and behavior determination method Download PDF

Info

Publication number
JP7183788B2
JP7183788B2 JP2018527582A JP2018527582A JP7183788B2 JP 7183788 B2 JP7183788 B2 JP 7183788B2 JP 2018527582 A JP2018527582 A JP 2018527582A JP 2018527582 A JP2018527582 A JP 2018527582A JP 7183788 B2 JP7183788 B2 JP 7183788B2
Authority
JP
Japan
Prior art keywords
monitored person
action
area
image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018527582A
Other languages
Japanese (ja)
Other versions
JPWO2018012432A1 (en
Inventor
大作 保理江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2018012432A1 publication Critical patent/JPWO2018012432A1/en
Application granted granted Critical
Publication of JP7183788B2 publication Critical patent/JP7183788B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Description

本発明は、例えば、看護を必要とする者や介護を必要とする者(以下、要看護者等)の行動を判定する技術に関する。 The present invention relates to, for example, a technique for determining the behavior of a person who needs nursing care or care (hereinafter referred to as a person requiring nursing care, etc.).

近年の我が国(日本)のような高齢化社会では、病気や怪我や高齢等による要看護者等の数の増加が、今後さらに見込まれる。 In an aging society like our country (Japan) in recent years, it is expected that the number of people who need nursing care due to illness, injury, old age, etc. will further increase in the future.

このような要看護者等は、病院や、老人福祉施設等の施設に入所し、その看護や介護を受ける。このような病院や老人福祉施設等の施設では、要看護者等の看護や介護をする者(以下、看護師等)が、定期的に巡視することによってその安否を確認している。しかしながら、日勤の時間帯に較べ、準夜勤や夜勤の時間帯では、看護師等の人数が減り、一人当たりの業務負荷が増大するので、業務負荷の軽減が要請される。このため、近年では、要看護者等を、被監視者として監視(モニタ)する被監視者監視装置が研究、開発されている。 Such persons requiring nursing care enter facilities such as hospitals and welfare facilities for the elderly, and receive nursing care. In such facilities such as hospitals and welfare facilities for the elderly, persons who provide nursing care to those requiring nursing care (hereinafter referred to as nurses, etc.) regularly make patrols to confirm their safety. However, compared to the day shift, the number of nurses and the like decreases during the semi-night shift and the night shift, and the work load per person increases. For this reason, in recent years, researches and developments have been made on monitored person monitoring devices that monitor a person requiring nursing care as a person to be monitored.

被監視者監視に関する技術の1つとして、被監視者の行動を判定する技術がある。例えば、特許文献1は、ベッド領域、床面領域、及び、これらの領域の境界辺を、画像に設定し、境界辺を通過して、床面領域からベッド領域へ人体の移動を検知したとき、入床事象と判断し、境界辺を通過して、ベッド領域から床面領域へ人体の移動を検知したとき、離床事象と判断する装置を開示している。 One of the techniques for monitoring a monitored person is a technique for determining the behavior of the monitored person. For example, in Patent Document 1, a bed area, a floor area, and a boundary side between these areas are set in an image, and when a human body is detected to move from the floor area to the bed area by passing through the boundary side, , a bed-entering event is determined, and a bed-leaving event is determined when a human body moves from a bed area to a floor surface area through a boundary side.

この技術によれば、被監視者の行動のうち、入床と離床とを判定することができる。 According to this technology, among the behaviors of the monitored person, it is possible to determine bed entry and bed exit.

被監視者が離床する動作には、ベッドの側部に座って床に足をつき、立ち上がる動作が含まれる。被監視者の中には、ベッドからの離床に長い時間をかける者もおり、このような者による一連の離床動作の最中に、ベッドに手をついたり、体を捻ったりする動作によって、ベッドから出たり入ったりを何度が繰り返すように見える場合がある。被監視者がこのような動作をした場合、上記特許文献1の技術によれば、入床と離床の判定を繰り返す可能性がある(すなわち、誤判定が発生する可能性がある)。 The movement of the monitored person to leave the bed includes the movement of sitting on the side of the bed, putting his feet on the floor, and standing up. Some monitored persons take a long time to get out of bed. May appear to be in and out of bed repeatedly. When the monitored person makes such an action, according to the technique of Patent Document 1, there is a possibility that determinations of entering and leaving the bed are repeated (that is, an erroneous determination may occur).

特開2002-230533号公報JP-A-2002-230533

本発明の目的は、誤判定を少なくすることができる行動判定装置及び行動判定方法を提供することである。 An object of the present invention is to provide a behavior determination device and a behavior determination method that can reduce erroneous determinations.

本発明の第1の局面に係る行動判定装置は、取得部と、抽出部と、判定部と、を備える。取得部は、監視対象となる被監視者を含む所定の範囲の第1の画像及び第2の画像を取得する。抽出部は、前記第1の画像及び前記第2の画像から人体領域を抽出する。判定部は、予め定められた第1の行動をしたか否かの判定に用いられる複数の第1の注目領域を、距離間隔をあけて前記第1の画像に設定する第1の設定をし、複数の前記第1の注目領域及び前記人体領域を基にして、前記被監視者が前記第1の行動をしたか否かを判定し、予め定められた第2の行動をしたか否かの判定に用いられる第2の注目領域を、前記第2の画像に設定する第2の設定をし、前記第2の注目領域及び前記人体領域を基にして、前記被監視者が前記第2の行動をしたか否かを判定する。 A behavior determination device according to a first aspect of the present invention includes an acquisition unit, an extraction unit, and a determination unit. The acquisition unit acquires a first image and a second image of a predetermined range including a monitored person to be monitored. The extraction unit extracts a human body region from the first image and the second image. The determining unit performs a first setting of setting, in the first image, a plurality of first regions of interest used for determining whether or not a predetermined first action has been performed, spaced apart by a distance. determining whether or not the monitored person has performed the first action based on the plurality of first attention areas and the human body area, and whether or not the monitored person has performed a predetermined second action; A second setting is performed in which a second region of interest used for determination of is set in the second image, and based on the second region of interest and the human body region, the monitored person determines the second region of interest. It is determined whether or not the action of

上記並びにその他の本発明の目的、特徴及び利点は、以下の詳細な記載と添付図面から明らかになるであろう。 The above and other objects, features and advantages of the present invention will become apparent from the following detailed description and accompanying drawings.

実施形態に係る被監視者監視システムの構成を説明する説明図である。1 is an explanatory diagram illustrating the configuration of a monitored person monitoring system according to an embodiment; FIG. センサ装置が配置された居室を示す模式図である。FIG. 2 is a schematic diagram showing a living room in which a sensor device is arranged; センサ装置の構成を示すブロック図である。It is a block diagram which shows the structure of a sensor apparatus. 被監視者が部屋にいない状態で、撮像部が撮像した画像を説明する説明図である。FIG. 10 is an explanatory diagram for explaining an image captured by the imaging unit when the person to be monitored is not in the room; 注目領域が設定された画像を説明する説明図である。FIG. 10 is an explanatory diagram for explaining an image in which an attention area is set; 第1の行動をしたか否かの判定に用いられる注目領域の平面図である。FIG. 4 is a plan view of an attention area used for determining whether or not a first action has been taken; 第2の行動をしたか否かの判定に用いられる注目領域の平面図である。FIG. 11 is a plan view of an attention area used for determining whether or not a second action has been taken; 被監視者が第1の行動をしている状態の画像を説明する説明図である。FIG. 10 is an explanatory diagram for explaining an image in which the monitored person is performing the first action; 被監視者が第2の行動をしている状態の画像を説明する説明図である。FIG. 11 is an explanatory diagram for explaining an image of a state in which the monitored person is performing the second action; 第1の行動の判定に用いる3つの注目領域が設定された態様を説明する説明図である。FIG. 10 is an explanatory diagram illustrating a mode in which three attention areas used for determination of a first action are set; センサ装置が行動判定装置として動作するとき、この動作を説明するフローチャートである。When the sensor device operates as an action determination device, it is a flow chart explaining this operation. 寝床の斜め上側に配置された撮像部によって撮像された画像を説明する説明図である。It is explanatory drawing explaining the image imaged by the imaging part arrange|positioned diagonally above a bed. 注目領域が設定された画像を説明する説明図である。FIG. 10 is an explanatory diagram for explaining an image in which an attention area is set; 被監視者が寝床の手前に立っているときに、撮像部によって撮像されたフレーム(画像)を説明する説明図である。FIG. 4 is an explanatory diagram for explaining frames (images) captured by an imaging unit when a person to be monitored is standing in front of a bed; 被監視者が寝床の側部に座ったときに、撮像部によって撮像されたフレーム(画像)を説明する説明図である。FIG. 4 is an explanatory diagram for explaining frames (images) captured by an imaging unit when a monitored person sits on the side of a bed; 被監視者が寝床に脚部を入れたときに、撮像部によって撮像されたフレーム(画像)を説明する説明図である。FIG. 5 is an explanatory diagram for explaining a frame (image) captured by an imaging unit when a monitored person puts his/her legs in the bed; 被監視者が離床したと推定される動作をしているときに、撮像部によって撮像されたフレーム(画像)を説明する説明図である。FIG. 10 is an explanatory diagram illustrating frames (images) captured by the imaging unit when the monitored person is performing an action that is assumed to have left the bed;

以下、図面に基づいて本発明の実施形態を詳細に説明する。各図において、同一符号を付した構成は、同一の構成であることを示し、その構成について、既に説明している内容については、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail based on the drawings. In each figure, the configurations denoted by the same reference numerals indicate the same configuration, and the description of the content of the configuration that has already been described will be omitted. In the present specification, reference numerals with suffixes omitted are used when referring to generically, and reference numerals with suffixes are used when referring to individual configurations.

実施形態に係る被監視者監視システムは、監視すべき監視対象である被監視者(言い換えれば、見守るべき見守り対象である見守り対象者)を複数の装置を用いて監視するシステムであり、端末装置と、前記端末装置と通信可能に接続され、被監視者に関わる所定のイベント(事象)を検知して前記イベントを前記端末装置へ通知する被監視者監視装置と、を備える。前記被監視者監視装置は、1個の装置で一体に構成されて良いが、本明細書では、被監視者監視装置は、センサ装置と、前記センサ装置及び前記端末装置それぞれと通信可能に接続される管理サーバ装置とを備えることで、2種類の各装置で別体に構成される。前記センサ装置は、被監視者に関わる前記所定のイベントを検知して前記管理サーバ装置へ通知(報知、送信)する。前記管理サーバ装置は、前記センサ装置から前記通知を受けると、前記通知を受けた前記イベントを管理するとともに前記イベントを前記センサ装置に対応付けられた所定の端末装置へ再通知(再報知、再送信)する。前記端末装置は、1種類の装置であって良いが、本明細書では、前記端末装置は、固定端末装置と携帯端末装置との2種類の装置である。これら固定端末装置と携帯端末装置との主な相違は、固定端末装置が固定的に運用され、携帯端末装置が例えば看護師や介護士等の監視者(ユーザ)に携行されて運用される点である。これら固定端末装置と携帯端末装置とは、略同様であるので、以下では、携帯端末装置を主に説明する。 A monitored person monitoring system according to an embodiment is a system for monitoring a monitored person who is a monitoring target to be monitored (in other words, a watching target person who is a watching target to be watched over) using a plurality of devices, and includes terminal devices. and a monitored person monitoring device that is communicably connected to the terminal device, detects a predetermined event related to the monitored person, and notifies the terminal device of the event. The monitored person monitoring device may be integrally configured as a single device. Each of the two types of devices is configured separately by providing a management server device that is configured as a separate device. The sensor device detects the predetermined event related to the monitored person and notifies (reports, transmits) the management server device. When the management server device receives the notification from the sensor device, the management server device manages the event for which the notification has been received and re-notifies (re-notifies, re-notifies) the event to a predetermined terminal device associated with the sensor device. Send. The terminal device may be one type of device, but in this specification, the terminal device is two types of devices, a fixed terminal device and a mobile terminal device. The main difference between these fixed terminal devices and mobile terminal devices is that the fixed terminal device is operated in a fixed manner, and the mobile terminal device is carried and operated by a supervisor (user) such as a nurse or a caregiver. is. Since the fixed terminal device and the mobile terminal device are substantially the same, the mobile terminal device will be mainly described below.

図1は、実施形態に係る被監視者監視システムMSの構成を説明する説明図である。被監視者監視システムMSは、より具体的には、例えば、1または複数のセンサ装置SU(SU-1~SU-4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA-1、TA-2)と、構内交換機(PBX、Private Branch eXchange)CXとを備え、これらは、有線や無線で、LAN(Local Area Network)等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWには、通信信号を中継する例えばリピーター、ブリッジ及びルーター等の中継機が備えられても良い。図1に示す例では、これら複数のセンサ装置SU-1~SU-4、管理サーバ装置SV、固定端末装置SP、複数の携帯端末装置TA-1、TA-2及び構内交換機CXは、L2スイッチの集線装置(ハブ、HUB)LS及びアクセスポイントAPを含む有線及び無線の混在したLAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。より詳しくは、複数のセンサ装置SU-1~SU-4、管理サーバ装置SV、固定端末装置SP及び構内交換機CXは、集線装置LSに接続され、複数の携帯端末装置TA-1、TA-2は、アクセスポイントAPを介して集線装置LSに接続されている。そして、ネットワークNWは、TCP(Transimission Control Protocol)及びIP(Internet Protocol)等のインターネットプロトコル群が用いられることによっていわゆるイントラネットを構成する。構内交換機CXは、公衆電話網PNによって電話TLと接続されている。 FIG. 1 is an explanatory diagram illustrating the configuration of a monitored person monitoring system MS according to an embodiment. More specifically, the monitored person monitoring system MS includes, for example, one or more sensor devices SU (SU-1 to SU-4), a management server device SV, a fixed terminal device SP, and one or more A mobile terminal device TA (TA-1, TA-2) and a private branch exchange (PBX, Private Branch Exchange) CX are provided. line) are communicably connected via NW. The network NW may be provided with repeaters such as repeaters, bridges and routers for relaying communication signals. In the example shown in FIG. 1, the plurality of sensor devices SU-1 to SU-4, the management server device SV, the fixed terminal device SP, the plurality of mobile terminal devices TA-1 and TA-2, and the private branch exchange CX are L2 switches. are communicably connected to each other by a wired and wireless mixed LAN (for example, a LAN conforming to the IEEE802.11 standard) NW including a line concentrator (hub, HUB) LS and an access point AP. More specifically, a plurality of sensor devices SU-1 to SU-4, a management server device SV, a fixed terminal device SP and a private branch exchange CX are connected to a line concentrator LS, and connected to a plurality of mobile terminal devices TA-1 and TA-2. is connected to the concentrator LS via an access point AP. The network NW constitutes a so-called intranet by using Internet protocols such as TCP (Transmission Control Protocol) and IP (Internet Protocol). The private branch exchange CX is connected to the telephone TL by the public telephone network PN.

被監視者監視システムMSは、被監視者Obに応じて適宜な場所に配設される。被監視者Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合なイベントがその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視システムMSは、被監視者Obの種類に応じて、病院、老人福祉施設及び住戸等の建物に好適に配設される。図1に示す例では、被監視者監視システムMSは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の部屋を備える介護施設の建物に配設されている。 The monitored person monitoring system MS is arranged at an appropriate place according to the monitored person Ob. The monitored person Ob is, for example, a person who needs nursing care due to illness or injury, a person who needs nursing care due to a decline in physical ability, a solitary person living alone, or the like. In particular, from the viewpoint of enabling early detection and early countermeasures, the monitored person Ob should be a person who needs to be found when a predetermined inconvenient event, such as an abnormal condition, occurs to him or her. preferable. Therefore, the monitored person monitoring system MS is preferably installed in buildings such as hospitals, welfare facilities for the elderly, and dwelling units according to the type of the monitored person Ob. In the example shown in FIG. 1, the monitored person monitoring system MS is installed in a building of a nursing care facility having a plurality of rooms RM where a plurality of monitored persons Ob reside and a plurality of rooms such as a nurse station.

センサ装置SUは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能等を備え、被監視者Obに関わる所定のイベントを検知してこの検知した前記イベントを管理サーバ装置SVへ通知し、端末装置SP、TAとの間で音声通話を行い、そして、動画を含む画像を生成して端末装置SP、TAへ動画を配信する装置である。前記所定のイベントは、好ましくは、対処が必要なイベントを含む。 The sensor device SU has a communication function or the like to communicate with other devices SV, SP, and TA via the network NW, detects a predetermined event related to the person to be monitored Ob, and reports the detected event to the management server device SV. , performs voice communication with the terminal devices SP and TA, generates images including moving images, and distributes the moving images to the terminal devices SP and TA. The predetermined events preferably include events requiring action.

図1には、一例として、4個の第1ないし第4センサ装置SU-1~SU-4が示されており、第1センサ装置SU-1は、被監視者Obの一人であるAさんOb-1の居室RM-1(不図示)に配設され、第2センサ装置SU-2は、被監視者Obの一人であるBさんOb-2の居室RM-2(不図示)に配設され、第3センサ装置SU-3は、被監視者Obの一人であるCさんOb-3の居室RM-3(不図示)に配設され、そして、第4センサ装置SU-4は、被監視者Obの一人であるDさんOb-4の居室RM-4(不図示)に配設されている。 As an example, FIG. 1 shows four first to fourth sensor units SU-1 to SU-4. The second sensor unit SU-2 is arranged in the room RM-1 (not shown) of Ob-1, and the second sensor unit SU-2 is arranged in the room RM-2 (not shown) of Mr. B Ob-2, who is one of the monitored persons Ob. The third sensor unit SU-3 is installed in the living room RM-3 (not shown) of Mr. C Ob-3 who is one of the monitored persons Ob, and the fourth sensor unit SU-4 is It is installed in the living room RM-4 (not shown) of Mr. D Ob-4 who is one of the monitored persons Ob.

管理サーバ装置SVは、ネットワークNWを介して他の装置SU、SP、TAと通信する通信機能等を備え、センサ装置SUから、被監視者Obに関わる所定のイベントの通知を受信すると被監視者Obに対する監視に関する情報(監視情報)を管理する装置である。管理サーバ装置SVは、センサ装置SUから前記イベントの通知として第1イベント通知通信信号を受信すると、前記第1イベント通知通信信号に収容された各情報に基づいて、被監視者Obに対する監視に関する前記監視情報を記憶(記録)し、そして、被監視者Obに対する監視に関する前記監視情報を収容した通信信号(第2イベント通知通信信号)を、前記センサ装置SUに予め対応付けられた所定の端末装置SP、TAに送信する。このために、管理サーバ装置SVは、センサ装置SUから送信された第1イベント通知通信信号等の通知先(再通知先、再報知先、送信先)を示す、送信元であるセンサIDと通知先(再通知先)である端末IDとの対応関係(通知先対応関係)、及び、その通信アドレスを記憶する。端末ID(端末装置識別子)は、端末装置SP、TAを特定し識別するための識別子である。そして、管理サーバ装置SVは、クライアント(本実施形態では固定端末装置SP及び携帯端末装置TA等)の要求に応じたデータを前記クライアントに提供する。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。 The management server device SV has a communication function or the like to communicate with other devices SU, SP, and TA via the network NW. It is a device that manages information (monitoring information) regarding monitoring of Ob. When the management server device SV receives the first event notification communication signal as notification of the event from the sensor device SU, the management server device SV, based on each piece of information contained in the first event notification communication signal, determines the above information about the monitoring of the monitored person Ob. A predetermined terminal device that stores (records) monitoring information and transmits a communication signal (second event notification communication signal) containing the monitoring information relating to the monitoring of the monitored person Ob to the sensor device SU in advance. Send to SP, TA. For this reason, the management server device SV uses the sensor ID that is the transmission source and the notification A correspondence relationship (notification destination correspondence relationship) with a terminal ID that is a destination (re-notification destination) and its communication address are stored. A terminal ID (terminal device identifier) is an identifier for specifying and identifying the terminal devices SP and TA. The management server device SV then provides the clients (in this embodiment, the fixed terminal device SP, the portable terminal device TA, etc.) with data according to the request from the client. Such a management server device SV can be configured by, for example, a computer with a communication function.

固定端末装置SPは、被監視者監視システムMSのユーザインターフェース(UI)として機能する装置である。この機能を達成するために、固定端末装置SPは、ネットワークNWを介して他の装置SU、SV、TAと通信する通信機能、所定の情報を表示する表示機能、及び、所定の指示及びデータを入力する入力機能等を備え、管理サーバ装置SV及び携帯端末装置TAに与える所定の指示及びデータが入力されたり、センサ装置SUで得られた監視情報を表示したりする。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。 The fixed terminal device SP is a device that functions as a user interface (UI) of the monitored person monitoring system MS. In order to achieve this function, the fixed terminal device SP has a communication function to communicate with other devices SU, SV, TA via the network NW, a display function to display predetermined information, and predetermined instructions and data. It has an input function, etc., for inputting predetermined instructions and data to be given to the management server device SV and the portable terminal device TA, and displaying monitoring information obtained by the sensor device SU. Such a fixed terminal device SP can be composed of, for example, a computer with a communication function.

携帯端末装置TAは、監視者NSが携帯している。携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、及び、音声通話を行う通話機能等を備え、管理サーバ装置SV及びセンサ装置SUに与える所定の指示及びデータを入力したり、管理サーバ装置SVからの通知によってセンサ装置SUで得られた監視情報(動画を含む)を表示したり、センサ装置SUとの間で音声通話によってナースコールの応答や声かけしたり等をするための機器である。 The mobile terminal device TA is carried by the supervisor NS. The mobile terminal device TA has a communication function of communicating with other devices SV, SP, and SU via the network NW, a display function of displaying predetermined information, an input function of inputting predetermined instructions and data, and a voice call. It is equipped with a call function, etc., to input predetermined instructions and data given to the management server device SV and the sensor device SU, and to receive monitoring information (including moving images) obtained by the sensor device SU in response to a notification from the management server device SV. It is a device for displaying, responding to a nurse call, speaking to a nurse call, etc. by voice communication with the sensor unit SU.

センサ装置SUは、上述した機能(例えば、被監視者Obの動画を撮像する機能、端末装置SP、TAとの間で音声通話をする機能)に加えて、被監視者Obの行動を判定する装置(行動判定装置)の機能を有する。この機能の観点からセンサ装置SUについて詳しく説明する。図2は、センサ装置SUが配置された居室RMを示す模式図である。居室RMには、被監視者Obの寝床1が設けられている。寝床1は、ベッド3に敷かれた布団5である。寝床1は、これに限らず、例えば、畳みに敷かれた布団5でもよいし、床に敷かれた布団5でもよい。図2は、被監視者Obが、寝床1で寝ている状態を示しており、被監視者Obの身体のうち、被監視者Obの頭部のみが表れている。居室RMの天井7には、センサ装置SUが取り付けられている。 In addition to the functions described above (for example, the function of capturing moving images of the monitored person Ob and the function of making voice calls with the terminal devices SP and TA), the sensor unit SU determines the behavior of the monitored person Ob. It has the function of a device (behavior determination device). From the point of view of this function, the sensor unit SU will be described in detail. FIG. 2 is a schematic diagram showing a living room RM in which the sensor device SU is arranged. A living room RM is provided with a bed 1 for a monitored person Ob. A bed 1 is a futon 5 spread on a bed 3. The bed 1 is not limited to this, and may be, for example, a futon 5 laid on tatami mats or a futon 5 laid on the floor. FIG. 2 shows a state in which the monitored person Ob is sleeping on the bed 1, and only the head of the monitored person Ob is shown in the body of the monitored person Ob. A sensor unit SU is attached to the ceiling 7 of the living room RM.

図3は、センサ装置SU(行動判定装置)の構成を示すブロック図である。センサ装置SUは、撮像部10、抽出部11、判定部12、センサ側制御処理部(SU制御処理部)13、及び、センサ側通信インターフェース部(SU通信IF部)14を備える。図2では、センサ装置SUを構成するブロックのうち、撮像部10が示され、他のブロックは省略されている。 FIG. 3 is a block diagram showing the configuration of the sensor device SU (behavior determination device). The sensor device SU includes an imaging unit 10 , an extraction unit 11 , a determination unit 12 , a sensor-side control processing unit (SU control processing unit) 13 , and a sensor-side communication interface unit (SU communication IF unit) 14 . In FIG. 2, among the blocks constituting the sensor device SU, the imaging unit 10 is shown, and the other blocks are omitted.

図2及び図3を参照して、撮像部10は、撮像対象を撮像し、撮像対象の画像を生成する装置である。画像には、静止画及び動画が含まれる。撮像部10は、被監視者Obが所在を予定している空間(所在空間、図1に示す例では配設場所の居室RM)を監視可能に配置され、所在空間を撮像対象としてその上方から撮像し、撮像対象を俯瞰した画像を生成する。好ましくは、被監視者Ob全体を撮像できる蓋然性が高いことから、撮像部10は、被監視者Obが横臥する寝具(例えばベッド等)における、被監視者Obの頭部が位置すると予定されている予め設定された頭部予定位置(通常、枕の配設位置)の直上から撮像対象を撮像できるように配設される。センサ装置SUは、この撮像部10によって、被監視者Obを、被監視者Obの上方から撮像した画像、好ましくは前記頭部予定位置の直上から撮像した画像を取得する。 2 and 3, imaging unit 10 is a device that captures an image of an object to be imaged and generates an image of the object to be imaged. Images include still images and moving images. The imaging unit 10 is arranged so as to be able to monitor the space in which the person to be monitored Ob is supposed to be located (located space, in the example shown in FIG. 1, the living room RM of the installation location). An image is captured to generate a bird's-eye view image of the imaging target. Preferably, since there is a high probability that the entire monitored person Ob can be imaged, the imaging unit 10 should be arranged so that the monitored person Ob's head is positioned on the bedding (for example, a bed) on which the monitored person Ob lies. It is arranged so that an image of the object to be imaged can be imaged from directly above a predetermined head position (usually, the position where a pillow is arranged). The sensor unit SU obtains an image of the monitored person Ob from above the monitored person Ob, preferably from right above the expected head position, using the imaging unit 10 .

このような撮像部10は、可視光の画像を生成する装置であって良いが、比較的暗がりでも被監視者Obを監視できるように、実施形態では、赤外線の画像を生成する装置である。このような撮像部10は、例えば、実施形態では、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するイメージセンサ、及び、イメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えるデジタル赤外線カメラである。撮像部10の前記結像光学系は、実施形態では、その配設された居室RM全体を撮像できる画角を持つ広角な光学系(いわゆる広角レンズ(魚眼レンズを含む))であることが好ましい。 Such imaging unit 10 may be a device that generates a visible light image, but in the embodiment, it is a device that generates an infrared image so that the monitored person Ob can be monitored even in relatively dark conditions. For example, in the embodiment, such an imaging unit 10 is an imaging optical system that forms an infrared optical image of an object to be imaged on a predetermined imaging plane, and is arranged with a light receiving surface aligned with the imaging plane. an image sensor that converts an infrared optical image of the object to be imaged into an electrical signal; and image data representing an infrared image of the object to be imaged by image processing the output of the image sensor. It is a digital infrared camera equipped with an image processing unit and the like for generating. In the embodiment, the imaging optical system of the imaging unit 10 is preferably a wide-angle optical system (a so-called wide-angle lens (including a fisheye lens)) capable of imaging the entire living room RM in which it is installed.

撮像部10は、赤外線カメラのようなカメラに限定されず、例えば、サーモグラフィ、3次元センサでもよい。 The imaging unit 10 is not limited to a camera such as an infrared camera, and may be, for example, a thermography or a three-dimensional sensor.

撮像部10は、被監視者Obを含む所定の範囲の第1の画像及び第2の画像を取得する取得部として機能する。撮像部10で撮像された画像が動画MIを例にして、実施形態を説明するが、動画MIに限らず、時系列に並べられた複数の画像でもよい。 The imaging unit 10 functions as an acquisition unit that acquires a first image and a second image within a predetermined range including the monitored person Ob. The embodiment will be described using a moving image MI as an example of an image captured by the imaging unit 10, but the image is not limited to a moving image MI and may be a plurality of images arranged in time series.

抽出部11は、撮像部10で撮像された動画MIを構成する各フレーム(画像)に対して、動体領域を抽出し、抽出した動体領域を人体領域とする。動体領域は、例えば、背景差分、オプティカルフロー等の手法によって、フレームから抽出される。 The extraction unit 11 extracts a moving object region from each frame (image) forming the moving image MI captured by the imaging unit 10, and defines the extracted moving object region as a human body region. A moving object region is extracted from a frame by, for example, a technique such as background subtraction or optical flow.

抽出部11は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、及び、HDD(Hard Disk Drive)等のハードウェア、並びに、抽出部11の機能を実行するためのプログラムおよびデータ等によって実現される。抽出部11の機能について、各機能の一部又は全部は、CPUによる処理に替えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、抽出部11の機能の一部又は全部は、ソフトウェアによる処理に替えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。以上説明したことは、後述する判定部12及びSU制御処理部13についても同様である。 The extraction unit 11 executes the functions of hardware such as a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and a HDD (Hard Disk Drive), and the extraction unit 11. It is realized by a program and data etc. for Some or all of the functions of the extraction unit 11 may be realized by processing by a DSP (Digital Signal Processor) in place of or together with the processing by the CPU. Also, similarly, some or all of the functions of the extraction unit 11 may be realized by processing by a dedicated hardware circuit in place of or together with processing by software. The above explanation also applies to the determination unit 12 and the SU control processing unit 13, which will be described later.

判定部12は、被監視者Obが第1の行動をしたか否かを判定する機能、及び、被監視者Obが第2の行動をしたか否かを判定する機能を有する。判定部12の詳細は、後で説明する。 The determination unit 12 has a function of determining whether the monitored person Ob has taken the first action and a function of determining whether the monitored person Ob has taken the second action. Details of the determination unit 12 will be described later.

SU通信IF部14は、SU制御処理部13に接続され、SU制御処理部13の制御に従って通信を行うための通信回路である。SU通信IF部14は、SU制御処理部13から入力された転送すべきデータを収容した通信信号を、この被監視者監視システムMSのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号を、ネットワークNWを介して他の装置SV、SP、TAへ送信する。SU通信IF部14は、ネットワークNWを介して他の装置SV、SP、TAから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータをSU制御処理部13が処理可能な形式のデータに変換してSU制御処理部13へ出力する。SU通信IF部14は、例えば、IEEE802.11規格等に従った通信インターフェース回路を備えて構成される。 The SU communication IF unit 14 is a communication circuit that is connected to the SU control processing unit 13 and performs communication under the control of the SU control processing unit 13 . SU communication IF unit 14 generates a communication signal containing data to be transferred input from SU control processing unit 13 according to a communication protocol used in network NW of monitored person monitoring system MS, and transmits the generated communication signal. Signals are sent to other devices SV, SP, TA via the network NW. The SU communication IF unit 14 receives communication signals from other devices SV, SP, and TA via the network NW, extracts data from the received communication signals, and the SU control processing unit 13 can process the extracted data. format data and output to the SU control processing unit 13 . The SU communication IF unit 14 includes, for example, a communication interface circuit conforming to the IEEE802.11 standard or the like.

SU制御処理部13は、センサ装置SUの各部(撮像部10、抽出部11、判定部12、SU通信IF部14)を当該各部の機能に応じてそれぞれ制御し、被監視者Obに関わる所定のイベントを検知してこの検知した前記イベントを管理サーバ装置SVへ通知し、端末装置SP、TAとの間で音声通話を行い、そして、動画を含む画像を端末装置SP、TAへ動画を配信するための装置である。 The SU control processing unit 13 controls each unit (the imaging unit 10, the extraction unit 11, the determination unit 12, and the SU communication IF unit 14) of the sensor unit SU according to the functions of the respective units, and controls a predetermined number related to the monitored person Ob. is detected, the detected event is notified to the management server device SV, voice communication is performed between the terminal devices SP and TA, and images including moving images are distributed to the terminal devices SP and TA. It is a device for

図4は、図2に示す被監視者Obが部屋RMにいない状態で、撮像部10が撮像した画像30-1を説明する説明図である。撮像部10は、寝床1(図2)の真上に位置している。撮像部10は、部屋RMの全体を写している。画像30-1は、寝床1を示す領域(以下、寝床領域22)を含む。寝床領域22は、矩形形状を有する。 FIG. 4 is an explanatory diagram for explaining an image 30-1 captured by the imaging unit 10 when the person to be monitored Ob shown in FIG. 2 is not in the room RM. The imaging unit 10 is positioned directly above the bed 1 (FIG. 2). The imaging unit 10 captures the entire room RM. Image 30-1 includes an area representing bed 1 (below, bed area 22). The bedding area 22 has a rectangular shape.

画像30-1に注目領域が設定される。図5は、注目領域24が設定された画像30-1を説明する説明図である。判定部12は、寝床領域22上での注目領域24(注目領域24-1~24-3)の位置情報を予め記憶している。設定者(被監視者監視装置MSのユーザ、販売者等)は、寝床領域22(ベッドの像)を含む居室RMの画像30-1を見て、寝床領域22の位置を指定する。これにより、判定部12は、画像30-1上での注目領域24の位置を自動的に設定し、その位置情報を記憶する。判定部12は、その位置情報を利用して、撮像部10が撮像した動画を構成する各フレーム(画像)に注目領域24を自動的に設定する。なお、設定者が画像30-1を見て、注目領域24の位置を指定することにより、画像30-1上での注目領域24の位置を設定してもよいし、設定者が画像30-1を見て、判定部12が自動的に設定した注目領域24の位置を修正することにより、画像30-1上での注目領域24の位置を修正する設定をしてもよい。判定部12は、その位置情報を記憶する。判定部12は、その位置情報を利用して、撮像部10が撮像した動画を構成する各フレーム(画像)に注目領域24を自動的に設定する。 A region of interest is set in the image 30-1. FIG. 5 is an explanatory diagram for explaining the image 30-1 in which the attention area 24 is set. The determination unit 12 stores position information of the attention areas 24 (attention areas 24-1 to 24-3) on the bed area 22 in advance. The setter (user of monitored person monitoring device MS, seller, etc.) views image 30-1 of living room RM including bed area 22 (bed image) and designates the position of bed area 22. FIG. Thereby, the determination unit 12 automatically sets the position of the attention area 24 on the image 30-1 and stores the position information. Using the position information, the determination unit 12 automatically sets a region of interest 24 in each frame (image) forming the moving image captured by the imaging unit 10 . Note that the configurator may set the position of the attention area 24 on the image 30-1 by viewing the image 30-1 and specifying the position of the attention area 24. 1, and correcting the position of the attention area 24 automatically set by the determination unit 12, setting may be made to correct the position of the attention area 24 on the image 30-1. The determination unit 12 stores the position information. Using the position information, the determination unit 12 automatically sets a region of interest 24 in each frame (image) forming the moving image captured by the imaging unit 10 .

2つの注目領域24(注目領域24-1,24-2)が、画像30-1に設定されている。図6は、注目領域24-1,24-2の平面図である。図5及び図6を参照して、注目領域24-1,24-2は、複数の第1の注目領域の一例であり、第1の行動をしたか否かの判定に用いられる。第1の行動として、被監視者Obが寝床1で寝ている姿勢をとることを例に説明するが、第1の行動は、これに限定されない。被監視者Obが寝床1で寝ているとは、被監視者Obが睡眠の状態でもよいし、覚醒の状態でもよい。 Two attention areas 24 (attention areas 24-1 and 24-2) are set in the image 30-1. FIG. 6 is a plan view of the attention areas 24-1 and 24-2. Referring to FIGS. 5 and 6, attention areas 24-1 and 24-2 are examples of a plurality of first attention areas, and are used to determine whether or not the first action has been taken. As the first action, the monitored person Ob assumes a sleeping posture on the bed 1, but the first action is not limited to this. The monitored person Ob sleeping on the bed 1 may be in a sleep state or an awake state.

注目領域24-1,24-2は、矩形形状を有しており、寝床領域22の長手方向に沿って距離間隔をあけて設定される。注目領域24-1,24-2の長辺は、寝床領域22の短辺と平行である。注目領域24-1,24-2の短辺は、寝床領域22の長辺と平行であり、寝床領域22の長辺上に位置する。注目領域24-1は、被監視者Obの頭部(言い換えれば、枕)が位置する部分を含む領域である。注目領域24-2は、布団5(図2)のうち、被監視者Obの脚部を覆う部分を含む領域である。 The attention areas 24-1 and 24-2 have a rectangular shape and are set along the longitudinal direction of the bed area 22 with a distance therebetween. The long sides of the attention areas 24 - 1 and 24 - 2 are parallel to the short sides of the bed area 22 . The short sides of the attention areas 24 - 1 and 24 - 2 are parallel to the long sides of the bed area 22 and are located on the long sides of the bed area 22 . The attention area 24-1 is an area including a portion where the monitored person Ob's head (in other words, pillow) is located. The region of interest 24-2 is a region including a portion of the futon 5 (FIG. 2) that covers the legs of the monitored person Ob.

注目領域24-3が、画像30-1に設定されている。図7は、注目領域24-3の平面図である。図5及び図7を参照して、注目領域24-3は、第2の注目領域の一例であり、第2の行動をしたか否かの判定に用いられる。第2の行動として、被監視者Obが寝床1から体の一部分(脚部)を出したことを例にして説明するが、第2の行動は、これに限定されない。 A region of interest 24-3 is set in the image 30-1. FIG. 7 is a plan view of the attention area 24-3. 5 and 7, attention area 24-3 is an example of a second attention area, and is used to determine whether or not the second action has been taken. As the second action, an example in which the monitored person Ob puts a part of the body (legs) out of the bed 1 will be described, but the second action is not limited to this.

注目領域24-3は、矩形形状を有しており、寝床領域22と重なる。図5では、寝床領域22を規定する線上に、注目領域24-3を規定する線が位置している。しかしながら、これに限定されず、寝床領域22を規定する線に対して、注目領域24-3を規定する線が多少ずれていてもよい。例えば、寝床領域22の多少内側に注目領域24-3が位置してもよいし、寝床領域22の多少外側に注目領域24-3が位置してもよい。 The attention area 24 - 3 has a rectangular shape and overlaps the bed area 22 . In FIG. 5, the line defining the attention area 24-3 is positioned on the line defining the bed area 22. In FIG. However, the invention is not limited to this, and the line defining the attention area 24-3 may be slightly deviated from the line defining the bed area 22. FIG. For example, the attention area 24-3 may be positioned slightly inside the bed area 22, or the attention area 24-3 may be positioned slightly outside the bed area 22. FIG.

複数の第1の注目領域(注目領域24-1,24-2)と、第2の注目領域(注目領域24-3)とが、同じ画像30-1に設定されている例を説明したが、異なる画像に設定してもよい。 An example in which a plurality of first attention areas (attention areas 24-1, 24-2) and a second attention area (attention area 24-3) are set in the same image 30-1 has been described. , may be set to different images.

図3及び図5を参照して、判定部12は、画像30-1上において、注目領域24-1,24-2,24-3のそれぞれの位置を示す位置情報を予め記憶している。撮像部10で撮像された動画MIを構成する各フレームの寝床領域22の位置は、画像30-1の寝床領域22の位置と同じである。従って、判定部12が、各フレームに対して、注目領域24-1,24-2,24-3を設定したとき、図5に示す設定と同様となる。 3 and 5, determination unit 12 stores in advance position information indicating respective positions of attention areas 24-1, 24-2 and 24-3 on image 30-1. The position of the bed area 22 of each frame forming the moving image MI captured by the imaging unit 10 is the same as the position of the bed area 22 of the image 30-1. Therefore, when the determination unit 12 sets the attention areas 24-1, 24-2, and 24-3 for each frame, the settings are the same as those shown in FIG.

判定部12は、撮像部10が撮像した動画MIの各フレームに対して、注目領域24-1,24-2,24-3を設定し、これらの注目領域24、及び、抽出部11によって抽出された人体領域を用いて、被監視者Obが第1の行動(被監視者Obが寝床1で寝ている姿勢をとる)をしたか否かを判定し、被監視者Obが第2の行動(被監視者Obが寝床1から体の一部分を出す)をしたか否かを判定する。図8は、被監視者Obが第1の行動をしている状態の画像30-2を説明する説明図である。図9は、被監視者Obが第2の行動をしている状態の画像30-3を説明する説明図である。図8及び図9において、被監視者Obを示す領域を被監視者領域26とする。図8に示す被監視者領域26-1は、被監視者Obの頭部の像に対応する。図9に示す被監視者領域26-2は、被監視者Obがベッド3(図2)の側部に座り、片脚がベッド3から出ている像に対応する。被監視者領域26-2は、注目領域24-3内に位置する被監視者領域26-21と、注目領域24-3外に位置する被監視者領域26-22とにより構成される。 The determination unit 12 sets regions of interest 24-1, 24-2, and 24-3 for each frame of the moving image MI captured by the imaging unit 10, and extracts these regions of interest 24 and the extraction unit 11. Using the human body region thus obtained, it is determined whether or not the monitored person Ob has taken the first action (the monitored person Ob takes the posture of sleeping on the bed 1). It is determined whether or not the monitored person Ob has taken an action (a part of the body of the person to be monitored Ob has moved out of the bed 1). FIG. 8 is an explanatory diagram for explaining an image 30-2 in which the monitored person Ob is performing the first action. FIG. 9 is an explanatory diagram for explaining an image 30-3 in which the monitored person Ob is performing the second action. 8 and 9, the monitored person area 26 indicates the monitored person Ob. The monitored person area 26-1 shown in FIG. 8 corresponds to the head image of the monitored person Ob. The monitored person area 26-2 shown in FIG. 9 corresponds to an image in which the monitored person Ob sits on the side of the bed 3 (FIG. 2) with one leg out of the bed 3. FIG. The monitored person area 26-2 is composed of a monitored person area 26-21 located within the attention area 24-3 and a monitored person area 26-22 located outside the attention area 24-3.

第1の行動の判定アルゴリズムについて説明する。図3及び図8を参照して、注目領域24-1に、被監視者Obの頭部(すなわち、被監視者領域26-1)が位置した状態で、被監視者Obの頭部が動いたとき、抽出部11は、これにより動いた領域を人体領域として抽出する。この場合、被監視者領域26-1が人体領域として抽出される。 A first action determination algorithm will be described. 3 and 8, the head of the monitored person Ob moves while the head of the monitored person Ob (that is, the monitored person area 26-1) is positioned in the attention area 24-1. Then, the extracting unit 11 extracts the region that has moved accordingly as the human body region. In this case, the monitored person area 26-1 is extracted as the human body area.

注目領域24-2に、被監視者Obの脚が位置した状態で(脚は、図2に示す布団5の下にある)、被監視者Obの脚が動いたとき、抽出部11は、これにより動いた領域を人体領域として抽出する。この場合、脚部を示す領域でなく、布団5のうち、被監視者Obの脚部が動くことにより動いた部分が、人体領域として抽出される。 When the legs of the monitored person Ob are positioned in the region of interest 24-2 (the legs are under the futon 5 shown in FIG. 2) and the legs of the monitored person Ob move, the extraction unit 11 As a result, the moving area is extracted as the human body area. In this case, the portion of the futon 5 moved by the movement of the monitored person Ob's leg is extracted as the human body region, not the region indicating the leg.

なお、人体領域の面積が小さければ、ノイズの可能性がある。そこで、判定部12は、以下の手法を用いて、人体領域を確定してもよい。判定部12は、抽出部11によって抽出された人体領域を人体領域候補とする。判定部12は、注目領域24-1に位置する人体領域候補について、注目領域24-1の面積に対する人体領域候補の面積の割合(人体領域候補の画素数÷注目領域24-1の画素数)が、所定の第1の閾値を超えているか否かを判定する。判定部12は、この割合が第1の閾値を超えているとき、人体領域候補を人体領域と確定する。注目領域24-2に位置する人体領域候補についても同様の処理をする。なお、注目領域24-1に対して適用される第1の閾値と注目領域24-2に対して適用される第1の閾値とは、同じでもよし、異なっていてもよい。最適な第1の閾値が、注目領域24-1の場合と注目領域24-2の場合とで同じであれば、前者となり、異なれば、後者となる。 Note that if the area of the human body region is small, there is a possibility of noise. Therefore, the determination unit 12 may determine the human body region using the following method. The determination unit 12 sets the human body region extracted by the extraction unit 11 as a human body region candidate. The determining unit 12 calculates the ratio of the area of the human body region candidate to the area of the attention region 24-1 (the number of pixels of the human body region candidate/the number of pixels of the attention region 24-1) for the human body region candidate located in the attention region 24-1. exceeds a predetermined first threshold. When this ratio exceeds the first threshold, the determination unit 12 determines the human body region candidate as the human body region. A similar process is performed for the human body area candidate located in the attention area 24-2. Note that the first threshold applied to the attention area 24-1 and the first threshold applied to the attention area 24-2 may be the same or different. If the optimum first threshold is the same for the attention area 24-1 and the attention area 24-2, it is the former, and if different, it is the latter.

人が寝床1で寝る姿勢をとるとき、注目領域24-1,24-2のそれぞれに(すなわち、注目領域24-1,24-2の全てに)人体領域が存在する。そこで、判定部12は、注目領域24-1,24-2のそれぞれに人体領域が存在するとき、被監視者Obが第1の行動をしたと判定する。 When a person takes a sleeping posture on the bed 1, a human body area exists in each of the attention areas 24-1 and 24-2 (that is, in all of the attention areas 24-1 and 24-2). Therefore, the determination unit 12 determines that the monitored person Ob has taken the first action when the human body region exists in each of the attention regions 24-1 and 24-2.

なお、通常、人が寝床1に入り、寝床1で寝ている姿勢をとるとき、頭及び脚部を同時に寝床1につけるのではなく、先に、脚部を寝床1につけ、後で、頭部を寝床1につける。よって、判定部12は、脚部に対応する注目領域24-2に人体領域(脚部)が存在する判定をした後、頭部に対応する注目領域24-1に人体領域(頭部)が存在すると判定する。以上を考慮すると、判定部12は、所定期間(例えば、10秒)内に、注目領域24-1,24-2のそれぞれに人体領域が存在する判定をしたとき、被監視者Obが第1の行動をしたと判定する。言い換えれば、判定部12は、注目領域24-1,24-2の一方に人体領域があると判定し、このときから所定の期間(例えば、10秒)内に、注目領域24-1,24-2の他方に人体領域があると判定したとき、注目領域24-1,24-2のそれぞれに人体領域が存在するとし、被監視者Obが第1の行動をしたと判定する。 In general, when a person enters the bed 1 and takes a sleeping position on the bed 1, the head and legs are not placed on the bed 1 at the same time, but the legs are first placed on the bed 1, and the head is placed on the bed 1 later. Put the part on bed 1. Therefore, after determining that the human body region (legs) exists in the attention region 24-2 corresponding to the legs, the determination unit 12 determines that the human body region (head) is present in the attention region 24-1 corresponding to the head. Determine that it exists. Considering the above, when the determination unit 12 determines that a human body region exists in each of the attention regions 24-1 and 24-2 within a predetermined period (for example, 10 seconds), the monitored person Ob is the first human body region. It is determined that the action of In other words, the determination unit 12 determines that one of the attention areas 24-1 and 24-2 has a human body area, and the attention areas 24-1 and 24 within a predetermined period (for example, 10 seconds) from this time. When it is determined that there is a human body area in the other of -2, it is determined that there is a human body area in each of the attention areas 24-1 and 24-2, and that the monitored person Ob has taken the first action.

注目領域24-1が被監視者Obの頭部を含む領域に位置し、注目領域24-2が被監視者Obの脚部を含む領域に位置する例で説明しているが、被監視者Obが寝ている姿勢をとっていることを判定できれば、これらの位置に限定されない。例えば、注目領域24-1が被監視者Obの頭部を含む領域に位置し、注目領域24-2が被監視者Obの腹部を含む領域に位置する態様でもよいし、注目領域24-1が被監視者Obの複部を含む領域に位置し、注目領域24-2が被監視者Obの脚部を含む領域に位置する態様でもよい。 An example has been described in which the attention area 24-1 is located in the area including the head of the monitored person Ob, and the attention area 24-2 is located in the area including the legs of the monitored person Ob. As long as it can be determined that Ob is in a sleeping posture, the position is not limited to these positions. For example, the attention area 24-1 may be located in an area including the head of the monitored person Ob, and the attention area 24-2 may be located in an area including the abdomen of the monitored person Ob. may be located in an area including the legs of the monitored person Ob, and the attention area 24-2 may be located in an area including the legs of the monitored person Ob.

注目領域24-1,24-2の形状が矩形を例にしているが、被監視者Obが寝ている姿勢をとっていることを判定できれば、矩形に限定されない。例えば、注目領域24-1,24-2の形状が正方形でもよい。 Although the shapes of the attention areas 24-1 and 24-2 are rectangular, they are not limited to rectangles as long as it can be determined that the monitored person Ob is lying down. For example, the regions of interest 24-1 and 24-2 may have a square shape.

注目領域24-1,24-2の面積が同じ場合を例にしているが、被監視者Obが寝ている姿勢をとっていることを判定できれば、これに限定されない。 Although the attention areas 24-1 and 24-2 have the same area as an example, it is not limited to this as long as it can be determined that the monitored person Ob is in a sleeping posture.

第1の行動の判定に用いる注目領域24が、2つの場合(注目領域24-1,24-2)を例にしているが、複数であればよい。被監視者Obが寝ている姿勢をとっていることを判定できれば、2つに限定されない。注目領域24が3つの態様を例にして説明する。図10は、第1の行動の判定に用いる3つの注目領域24が設定された態様を説明する説明図である。寝床領域22の長手方向に沿って、距離間隔をあけて、注目領域24-1、注目領域24-4、注目領域24-2が設定されている。注目領域24-4は、被監視者Obの腹部を含む領域である。注目領域24-4に、被監視者Obの腹部が位置した状態で(腹部は、図2に示す布団5の下にある)、被監視者Obの腹部が動いたとき、抽出部11(図3)は、これにより動いた領域を人体領域として抽出する。 Although two attention areas 24 (attention areas 24-1 and 24-2) are used for determining the first action, a plurality of attention areas may be used. The number is not limited to two, as long as it can be determined that the monitored person Ob is in a sleeping posture. A mode in which there are three attention areas 24 will be described as an example. FIG. 10 is an explanatory diagram illustrating a mode in which three attention areas 24 used for determination of the first action are set. Along the longitudinal direction of the bed area 22, an attention area 24-1, an attention area 24-4, and an attention area 24-2 are set at intervals. The attention area 24-4 is an area including the abdomen of the monitored person Ob. With the abdomen of the monitored person Ob positioned in the region of interest 24-4 (the abdomen is located under the futon 5 shown in FIG. 2), when the abdomen of the monitored person Ob moves, the extraction unit 11 (FIG. 3) extracts the moving region as the human body region.

判定部12は、注目領域24-1,24-2,24-4のいずれか1つに人体領域があると判定し、このときから所定の期間(例えば、10秒)内に、残りの注目領域24に人体領域があると判定したとき、被監視者Obが第1の行動をしたと判定する。 The determination unit 12 determines that any one of the attention areas 24-1, 24-2, and 24-4 has a human body area, and determines that the remaining attention area is within a predetermined period (for example, 10 seconds) from this time. When it is determined that there is a human body area in the area 24, it is determined that the monitored person Ob has performed the first action.

第2の行動の判定アルゴリズムを説明する。図3及び図9を参照して、判定部12は、注目領域24-3内に人体領域があり、かつ、この人体領域と連続する人体領域が注目領域24-3外にあるか否かを判定する。被監視者領域26-21は、注目領域24-3内に位置する人体領域であり、被監視者領域26-22は、注目領域24-3外に位置する人体領域である。 A second action determination algorithm will be described. Referring to FIGS. 3 and 9, determination unit 12 determines whether or not there is a human body region within region of interest 24-3 and a human region continuous with this human body region is outside region of interest 24-3. judge. The monitored person area 26-21 is a human body area located within the attention area 24-3, and the monitored person area 26-22 is a human body area located outside the attention area 24-3.

判定部12は、例えば、被監視者領域26-22の画素数÷(被監視者領域26-21の画素数+被監視者領域26-22の画素数)が、所定の第2の閾値を超えたとき、第2の行動をしたと判定する。第2の行動をしたか否かの判定の手法は、これに限定されず、例えば、被監視者領域26-22の画素数が所定の第3の閾値を超えたとき、第2の行動をしたと判定してもよい。 For example, the determination unit 12 determines that the number of pixels of the monitored person area 26-22÷(the number of pixels of the monitored person area 26-21+the number of pixels of the monitored person area 26-22) exceeds the predetermined second threshold. When it exceeds, it is determined that the second action has been taken. The method of determining whether or not the second action has been taken is not limited to this. It may be determined that

センサ装置SUは、行動判定装置として機能する。このときのセンサ装置SUの動作を説明する。図11は、この動作を説明するフローチャートである。図3及び図11を参照して、判定部12は、「i」を「1」に設定する(ステップS1)。「i」は、撮像部10によって撮像されている動画MIを構成するフレームの順番を示す。「1」は、1番目のフレームを意味する。 The sensor device SU functions as an action determination device. The operation of the sensor device SU at this time will be described. FIG. 11 is a flow chart explaining this operation. 3 and 11, determination unit 12 sets "i" to "1" (step S1). “i” indicates the order of the frames forming the moving image MI captured by the imaging unit 10 . "1" means the first frame.

判定部12は、1番目のフレームに対して第1の行動判定アルゴリズムの処理をする。これにより、判定部12は、1番目のフレームが撮像された時点で、被監視者Obが第1の行動をしたか否かを判定する(ステップS2)。被監視者Obが寝床1(図2)に入り、寝床1に寝ている姿勢をとったとき、判定部12は、被監視者Obが第1の行動をしたと判定する。 The determination unit 12 processes the first action determination algorithm for the first frame. Accordingly, the determination unit 12 determines whether or not the monitored person Ob has taken the first action when the first frame is captured (step S2). When the monitored person Ob enters the bed 1 (FIG. 2) and assumes the posture of lying on the bed 1, the determination unit 12 determines that the monitored person Ob has taken the first action.

判定部12が、1番目のフレームが撮像された時点で、被監視者Obが第1の行動をしていないと判定したとき(ステップS2でNo)、判定部12は、「i+1」を「i」に設定する(ステップS3)。ここでは、「i」が「2」に設定される。 When the determination unit 12 determines that the person to be monitored Ob is not taking the first action when the first frame is captured (No in step S2), the determination unit 12 replaces "i+1" with " i” (step S3). Here, "i" is set to "2".

判定部12は、2番目のフレームに対して第1の行動判定アルゴリズムの処理をする。これにより、判定部12は、2番目のフレームが撮像された時点で、被監視者Obが第1の行動をしたか否かを判定する(ステップS2)。 The determination unit 12 processes the first action determination algorithm for the second frame. Accordingly, the determination unit 12 determines whether or not the monitored person Ob has taken the first action when the second frame is captured (step S2).

判定部12が、2番目のフレームが撮像された時点で、被監視者Obが第1の行動をしていないと判定したとき(ステップS2でNo)、判定部12は、「i+1」を「i」に設定する(ステップS3)。ここでは、「i」が「3」に設定される。以下、被監視者Obが第1の行動をするまで、判定部12は、ステップS2及びステップS3の処理を繰り返す。 When the determination unit 12 determines that the monitored person Ob is not taking the first action at the time when the second frame is captured (No in step S2), the determination unit 12 replaces "i+1" with " i” (step S3). Here, "i" is set to "3". Thereafter, the determination unit 12 repeats the processing of steps S2 and S3 until the monitored person Ob takes the first action.

判定部12が、例えば、j番目のフレームが撮像された時点で、被監視者Obが第1の行動をしたと判定したとき(ステップS2でYes)、判定部12は、「i+1」を「i」に設定する(ステップS4)。ここでは、「i」が「j+1」に設定される。 For example, when the determination unit 12 determines that the monitored person Ob has taken the first action when the j-th frame is captured (Yes in step S2), the determination unit 12 replaces "i+1" with " i” (step S4). Here, "i" is set to "j+1".

判定部12は、i番目(j+1番目)のフレームに対して第2の行動判定アルゴリズムの処理をする。これにより、判定部12は、i番目(j+1番目)のフレームが撮像された時点で、被監視者Obが第2の行動をしたか否かを判定する(ステップS5)。 The determination unit 12 processes the second action determination algorithm for the i-th (j+1-th) frame. Accordingly, the determination unit 12 determines whether or not the monitored person Ob has taken the second action when the i-th (j+1-th) frame is captured (step S5).

判定部12が、i番目(j+1番目)のフレームが撮像された時点で、被監視者Obが第2の行動をしていないと判定したとき(ステップS5でNo)、判定部12は、「i+1」を「i」に設定する(ステップS6)。ここでは、「i」が「j+2」に設定される。以下、被監視者Obが第2の行動をするまで、判定部12は、ステップS5及びステップS6の処理を繰り返す。 When the determining unit 12 determines that the person to be monitored Ob is not taking the second action at the time when the i-th (j+1-th) frame is captured (No in step S5), the determining unit 12 i+1" is set to "i" (step S6). Here, "i" is set to "j+2". Thereafter, the determination unit 12 repeats the processing of steps S5 and S6 until the monitored person Ob takes the second action.

判定部12が、例えば、k番目のフレームが撮像された時点で、被監視者Obが第2の行動をしたと判定したとき(ステップS5でYes)、判定部12は、被監視者Obが起床したと判定する(ステップS7)。 For example, when the determination unit 12 determines that the monitored person Ob has taken the second action when the k-th frame is captured (Yes in step S5), the determination unit 12 determines that the monitored person Ob It is determined that the user has woken up (step S7).

実施形態の主な効果を説明する。実施形態は、人が起床するとき、この前提として寝床1(図2)で寝ている姿勢をとっていることに着目する。図3及び図11を参照して、判定部12は、被監視者Obが寝床1で寝ている姿勢をとっている判定(第1の行動をした判定)をし(ステップS2でYes)、次に、被監視者Obが寝床1から体の一部分(例えば、脚部)を出す判定(第2の行動をした判定)をしたとき(ステップS5でYes)、被監視者Obが起床したと判定する(ステップS7)。 Main effects of the embodiment will be described. The embodiment focuses on this premise that when a person wakes up, he/she assumes a sleeping posture on the bed 1 (FIG. 2). 3 and 11, the determination unit 12 determines that the monitored person Ob is in a sleeping posture on the bed 1 (determines that the first action has taken place) (Yes in step S2), Next, when the monitored person Ob determines that a part of the body (for example, the leg) has moved out of the bed 1 (determined that the second action has taken place) (Yes in step S5), it is determined that the monitored person Ob has woken up. Determine (step S7).

寝床1に寝ている被監視者Obが起床するとき、被監視者Obは、一連の動作として、上半身を起こす動作をし、寝床1の側部に座って床に足をつく動作をし、そして、立ち上がる動作をする。寝床1の側部に座って床に足をつく動作が、実施形態の第2の行動に対応する。被監視者Obが第2の行動をした判定のみで起床と判定する手法を考える。被監視者Obの中には、筋力が弱いので、寝床1の側部に座って床に足をつき、立ち上がる動作をスムーズにできない者がある。このような者は、寝床1の側部に座った状態で体を揺らし、この反動を利用して、立ち上がる。被監視者Obがこのような行動をした場合、第2の行動の判定アルゴリズムだけでは、起床の判定を繰り返す可能性がある(すなわち、誤判定が発生する可能性がある)。図1を参照して、センサ装置SUが、被監視者Obの起床を判定する毎に、携帯端末装置TAに報知すれば、起床の報知が繰り返され、そのたびに、監視者NSは携帯端末装置TAを確認しなければならず、監視者NSの負担が大きくなる。 When the monitored person Ob lying on the bed 1 wakes up, the monitored person Ob, as a series of actions, raises the upper body, sits on the side of the bed 1, and puts the feet on the floor. Then act to stand up. The action of sitting on the side of the bed 1 and putting the feet on the floor corresponds to the second action of the embodiment. Consider a method of determining that the person to be monitored Ob has woken up only by determining that the person to be monitored Ob has taken the second action. Among the persons to be monitored Ob, there are those who cannot smoothly sit on the side of the bed 1, put their feet on the floor, and stand up due to their weak muscles. Such a person shakes the body while sitting on the side of the bed 1, and uses this recoil to stand up. If the person to be monitored Ob behaves in this way, there is a possibility that the determination of waking up will be repeated only with the second behavior determination algorithm (that is, an erroneous determination may occur). Referring to FIG. 1, sensor device SU notifies mobile terminal device TA each time it determines that monitored person Ob has woken up. The device TA must be confirmed, which increases the burden on the supervisor NS.

これに対して、実施形態は、上述したように、被監視者Obが寝床1で寝ている姿勢をとっている判定(第1の行動をした判定)をした後、被監視者Obが寝床1から体の一部分を出す判定(第2の行動をした判定)をしたとき、被監視者Obが起床したと判定する。実施形態によれば、被監視者Obが第2の行動をした判定のみで、起床と判定する手法と比較して、起床の誤判定を少なくすることができる。 On the other hand, in the embodiment, as described above, after it is determined that the monitored person Ob is sleeping on the bed 1 (determination that the monitored person Ob has taken the first action), the monitored person Ob is placed on the bed. From 1, it is determined that the monitored person Ob has woken up when it is determined that a part of the body has been taken out (determined that the second action has been performed). According to the embodiment, it is possible to reduce erroneous determinations of getting up as compared with the method of determining that the person to be monitored Ob has taken the second action, as compared with the method of determining that the monitored person Ob has taken the second action.

実施形態には、変形例1及び変形例2がある。変形例1から説明する。実施形態は、被監視者Obが第1の行動をした後、第2の行動をしたとき、被監視者Obが起床したと判定する。変形例1は、被監視者Obが第1の行動をした後、第2の行動をしたとき、被監視者Obが離床したと判定する。 The embodiment has Modification 1 and Modification 2. FIG. Modification 1 will be described first. The embodiment determines that the monitored person Ob has woken up when the monitored person Ob performs the first action and then the second action. Modification 1 determines that the monitored person Ob has left the bed when the monitored person Ob performs the first action and then the second action.

変形例1では、図2に示す撮像部10が寝床1の斜め上に配置されている。図12は、寝床1の斜め上側に配置された撮像部10によって撮像された画像30-4を説明する説明図である。画像30-4には、寝床領域22が含まれる。寝床領域22は、立体的に写されている。図4に示す画像30-1は、画像30-1を規定する線が示されているが、図12に示す画像30-4は、画像30-4を規定する線を省略している。 In Modification 1, the imaging unit 10 shown in FIG. 2 is arranged diagonally above the bed 1 . FIG. 12 is an explanatory diagram for explaining an image 30-4 captured by the imaging section 10 arranged diagonally above the bed 1. As shown in FIG. Image 30-4 includes bedding area 22. FIG. The bed area 22 is shown stereoscopically. The image 30-1 shown in FIG. 4 shows the lines defining the image 30-1, but the image 30-4 shown in FIG. 12 omits the lines defining the image 30-4.

画像30-4に注目領域が設定される。図13は、注目領域24が設定された画像30-4を説明する説明図である。注目領域24-3が、画像30-4に設定されている。注目領域24-3は、図5に示す注目領域24-3と同じである。注目領域24-3は、第2の行動をしたか否かの判定に用いられる。変形例1において、第2の行動は、被監視者Obが離床したと推定される動作である。 A region of interest is set in the image 30-4. FIG. 13 is an explanatory diagram for explaining the image 30-4 in which the attention area 24 is set. A region of interest 24-3 is set in the image 30-4. The attention area 24-3 is the same as the attention area 24-3 shown in FIG. The attention area 24-3 is used for determining whether or not the second action has been taken. In Modified Example 1, the second action is a motion that is estimated to have caused the monitored person Ob to get out of bed.

3つの注目領域24(注目領域24-5,24-6,24-7)が、画像30-4に設定されている。注目領域24-5,24-6,24-7は、複数の第1の注目領域の一例であり、第1の行動をしたか否かの判定に用いられる。変形例1において、第1の行動は、被監視者Obが寝床1に入る動作である。 Three attention areas 24 (attention areas 24-5, 24-6, 24-7) are set in the image 30-4. The attention areas 24-5, 24-6, and 24-7 are examples of a plurality of first attention areas, and are used for determining whether or not the first action has been taken. In Modified Example 1, the first action is the action of the monitored person Ob entering the bed 1 .

注目領域24-5,24-6,24-7は、矩形形状を有しており、注目領域24-5,24-6,24-7の長手方向は、寝床領域22の長手方向と同じである。注目領域24-5,24-6,24-7は、これらの長手方向と直交する方向に沿って、距離間隔をあけて設定される。注目領域24-5と注目領域24-7との間に、注目領域24-6が設定される。 The attention areas 24-5, 24-6, 24-7 have a rectangular shape, and the longitudinal direction of the attention areas 24-5, 24-6, 24-7 is the same as the longitudinal direction of the bed area 22. be. The attention areas 24-5, 24-6, 24-7 are set at intervals along the direction perpendicular to the longitudinal direction. A region of interest 24-6 is set between the region of interest 24-5 and the region of interest 24-7.

注目領域24-6は、画像30-4において寝床領域22と重なる中間注目領域である。注目領域24-6は、寝床領域22の側部において、注目領域24-3と重なっている。注目領域24-6は、被監視者Obが寝床1の側部に座る場所と対応する。注目領域24-5は、画像30-4において中間注目領域の下に位置する下側注目領域である。注目領域24-7は、画像30-4において中間注目領域の上に位置する上側注目領域である。 Region of interest 24-6 is an intermediate region of interest that overlaps bed region 22 in image 30-4. The attention area 24 - 6 overlaps the attention area 24 - 3 on the side of the bed area 22 . The region of interest 24-6 corresponds to the place where the monitored person Ob sits on the side of the bed 1. FIG. Region of interest 24-5 is the lower region of interest located below the middle region of interest in image 30-4. Region of interest 24-7 is the upper region of interest located above the middle region of interest in image 30-4.

図14は、被監視者Obが寝床1の手前に立っているときに、撮像部10によって撮像されたフレーム(画像30-5)を説明する説明図である。図15は、被監視者Obが寝床1の側部に座ったときに、撮像部10によって撮像されたフレーム(画像30-6)を説明する説明図である。図16は、被監視者Obが寝床1に脚部を入れたときに、撮像部10によって撮像されたフレーム(画像30-7)を説明する説明図である。これらの画像は、図12に示す画像30-4と同様に、画像を規定する線を省略している。図14~図16において、被監視者領域26-3は、被監視者Obの全身の像に対応する。 FIG. 14 is an explanatory diagram for explaining a frame (image 30-5) captured by the imaging unit 10 when the monitored person Ob is standing in front of the bed 1. As shown in FIG. FIG. 15 is an explanatory diagram for explaining a frame (image 30-6) captured by the imaging unit 10 when the monitored person Ob sits on the side of the bed 1. As shown in FIG. FIG. 16 is an explanatory diagram for explaining a frame (image 30-7) captured by the imaging unit 10 when the monitored person Ob puts his/her legs in the bed 1. As shown in FIG. These images, like image 30-4 shown in FIG. 12, omit the lines defining the images. 14 to 16, the monitored person area 26-3 corresponds to the whole image of the monitored person Ob.

図14を参照して、注目領域24-5(下側注目領域)及び注目領域24-6(中間注目領域)は、被監視者Obが寝床1の手前に立っているときに、被監視者Obの体の一部分を含む領域である。ここでは、注目領域24-5は、被監視者Obの脚部の一部分を含む領域である。この領域と注目領域24-5とが重なる領域が、被監視者領域26-31である。注目領域24-6は、被監視者Obの腕部の一部分及び背中の一部分を含む領域である。この領域と注目領域24-6とが重なる領域が、被監視者領域26-32である。 Referring to FIG. 14, an attention area 24-5 (lower attention area) and an attention area 24-6 (intermediate attention area) are displayed when the monitored person Ob stands in front of the bed 1. A region containing a portion of Ob's body. Here, the attention area 24-5 is an area including part of the leg of the monitored person Ob. The area where this area and the attention area 24-5 overlap is the monitored person area 26-31. The region of interest 24-6 is a region including part of the arm and part of the back of the monitored person Ob. The area where this area and the attention area 24-6 overlap is the monitored person area 26-32.

図15を参照して、注目領域24-6(中間注目領域)及び注目領域24-7(上側注目領域)は、被監視者Obが寝床1の側部に座ったときに、被監視者Obの体の一部分を含む領域である。ここでは、注目領域24-6は、被監視者Obの脚部の一部分及び腰部を含む領域である。この領域と注目領域24-6とが重なる領域が、被監視者領域26-33である。注目領域24-7は、被監視者Obの頭部の一部分を含む領域である。この領域と注目領域24-7とが重なる領域が、被監視者領域26-34である。 Referring to FIG. 15, an attention area 24-6 (intermediate attention area) and an attention area 24-7 (upper attention area) are displayed when the monitored person Ob sits on the side of the bed 1. It is a region that contains part of the body of the Here, the region of interest 24-6 is a region including part of the legs and waist of the monitored person Ob. The area where this area and the attention area 24-6 overlap is the monitored person area 26-33. The attention area 24-7 is an area including a portion of the monitored person Ob's head. The area where this area and the attention area 24-7 overlap is the monitored person area 26-34.

図16を参照して、注目領域24-6(中間注目領域)は、被監視者Obが寝床1に脚部を入れるときに、被監視者Obの体の一部分を含む領域である。ここでは、注目領域24-6は、被監視者Obの腕部の一部分及び脚部の一部分を含む領域である。この領域と注目領域24-6とが重なる領域が、被監視者領域26-35である。 Referring to FIG. 16, an attention area 24-6 (intermediate attention area) is an area including a part of the monitored person Ob's body when the monitored person Ob puts his/her legs in the bed 1. As shown in FIG. Here, the region of interest 24-6 is a region including part of the arm and part of the leg of the monitored person Ob. The area where this area and the attention area 24-6 overlap is the monitored person area 26-35.

第1の行動の判定アルゴリズムについて説明する。図3及び図14を参照して、被監視者Obが寝床1に近づく動作をしたとき、抽出部11は、注目領域24-5に位置する被監視者領域26-31を人体領域として抽出し、注目領域24-6に位置する被監視者領域26-32を人体領域として抽出する。 A first action determination algorithm will be described. With reference to FIGS. 3 and 14, when monitored person Ob moves closer to bed 1, extraction unit 11 extracts monitored person region 26-31 located in attention region 24-5 as a human body region. , the monitored person region 26-32 located in the attention region 24-6 is extracted as the human body region.

図3及び図15を参照して、被監視者Obが寝床1の側部に座る動作をしたとき、抽出部11は、注目領域24-6に位置する被監視者領域26-33を人体領域として抽出し、注目領域24-7に位置する被監視者領域26-34を人体領域として抽出する。 Referring to FIGS. 3 and 15, when monitored person Ob makes a motion to sit on the side of bed 1, extraction unit 11 converts monitored person region 26-33 located in region of interest 24-6 to human body region. , and the monitored person area 26-34 located in the attention area 24-7 is extracted as the human body area.

図3及び図16を参照して、被監視者Obが寝床1に脚部を入れる動作をしたとき、抽出部11は、注目領域24-6に位置する被監視者領域26-35を人体領域として抽出する。 With reference to FIGS. 3 and 16, when monitored person Ob puts his/her legs into bed 1, extraction unit 11 converts monitored person region 26-35 located in region of interest 24-6 to human body region. Extract as

図14~図16で説明した人体領域の抽出の手法は、実施形態と同じである。 The method of extracting the human body region described with reference to FIGS. 14 to 16 is the same as in the embodiment.

判定部12が、最初に、注目領域24-5,24-6に人体領域がある判定をし、かつ、注目領域24-7に人体領域がない判定をし(図14)、次に、注目領域24-6,24-7に人体領域がある判定をし、かつ、注目領域24-5に人体領域がない判定をし(図15)、最後に、注目領域24-6に人体領域がある判定をし、かつ、注目領域24-5,24-7に人体領域がない判定をしたとする(図16)。判定部12が、これら3つの判定を所定の期間(例えば、60秒)内にしたとき、判定部12は、被監視者Obが寝床1に入る動作(第1の行動)をしたことを判定する。 The determination unit 12 first determines that the attention areas 24-5 and 24-6 have a human body area, and determines that the attention area 24-7 does not have a human body area (FIG. 14). It is determined that there is a human body area in the areas 24-6 and 24-7 and that there is no human body area in the attention area 24-5 (FIG. 15), and finally, there is a human body area in the attention area 24-6. Suppose that the determination is made and that there is no human body area in the attention areas 24-5 and 24-7 (FIG. 16). When the determination unit 12 makes these three determinations within a predetermined period (for example, 60 seconds), the determination unit 12 determines that the person to be monitored Ob made an action of entering the bed 1 (first action). do.

第2の行動の判定アルゴリズムを説明する。図17は、被監視者Obが離床したと推定される動作をしているときに、撮像部10によって撮像されたフレーム(画像30-8)を説明する説明図である。注目領域24-3外の領域と被監視者Obとが重なる領域が、被監視者領域26-36となる(斜線で示す領域)。判定部12は、例えば、被監視者領域26-36の面積(画素数)が所定の第4の閾値を超えたとき、被監視者Obが第2の行動(離床したと推定される動作)をしたことを判定する。 A second action determination algorithm will be described. FIG. 17 is an explanatory diagram for explaining a frame (image 30-8) captured by the imaging unit 10 when the person to be monitored Ob is performing an action presumed to have left the bed. The area where the monitored person Ob overlaps with the area outside the attention area 24-3 becomes the monitored person area 26-36 (the shaded area). For example, when the area (the number of pixels) of the monitored person regions 26 to 36 exceeds a predetermined fourth threshold value, the determination unit 12 determines that the monitored person Ob performs the second action (movement presumed to have left the bed). determine that you have done

変形例1の主な効果を説明する。変形例1は、人が離床するとき、この前提として寝床1に入る動作をすることに着目する。変形例1は、被監視者Obが寝床1に入る動作(第1の行動)をした判定をし、次に、被監視者Obが離床したと推定される動作(第2の行動)をした判定をしたとき、被監視者Obが離床したと判定する。変形例1によれば、被監視者Obが第2の行動をした判定のみで、離床と判定する手法と比較して、離床の誤判定を少なくすることができる。 Main effects of Modification 1 will be described. Modification 1 pays attention to the fact that when a person leaves the bed, the motion of entering the bed 1 is performed as a premise. In Modified Example 1, it is determined that the person to be monitored Ob has made an action (first action) to enter the bed 1, and then the person to be monitored Ob has taken an action (second action) that is presumed to have left the bed. When the determination is made, it is determined that the monitored person Ob has left the bed. According to Modification 1, it is possible to reduce erroneous determinations of getting out of bed, compared to the method of determining that the person to be monitored Ob has left the bed only by determining that the person to be monitored Ob has taken the second action.

変形例2を説明する。図3を参照して、実施形態において、抽出部11及び判定部12が、センサ装置SUに備えられる。これに対して、変形例2において、これらは、図1に示す管理サーバ装置SVに備えられる。変形例に備えられるSU制御処理部13は、SU通信IF部14に対して、撮像部10が撮像した動画MIを、管理サーバ装置SVに送信する命令をする。SU通信IF部14は、その動画MIを、管理サーバ装置SVの通信部(不図示)と通信可能な通信信号に変更して、管理サーバ装置SVに送信する。 Modification 2 will be described. Referring to FIG. 3, in the embodiment, an extraction unit 11 and a determination unit 12 are provided in the sensor device SU. On the other hand, in Modification 2, these are provided in the management server device SV shown in FIG. The SU control processing unit 13 provided in the modification commands the SU communication IF unit 14 to transmit the moving image MI captured by the imaging unit 10 to the management server device SV. The SU communication IF unit 14 converts the moving image MI into a communication signal that can communicate with a communication unit (not shown) of the management server device SV, and transmits the communication signal to the management server device SV.

実施形態では、撮像部10が、被監視者Obを含む所定の範囲の第1の画像及び第2の画像を取得する取得部として機能する。これに対して、変形例2では、管理サーバ装置SVの上記通信部が取得部の機能を有する。 In the embodiment, the imaging unit 10 functions as an acquisition unit that acquires a first image and a second image within a predetermined range including the monitored person Ob. On the other hand, in Modification 2, the communication unit of the management server device SV has the function of the acquisition unit.

(実施形態の纏め)
実施形態の第1の局面に係る行動判定装置は、監視対象となる被監視者を含む所定の範囲の第1の画像及び第2の画像を取得する取得部と、前記第1の画像及び前記第2の画像から人体領域を抽出する抽出部と、予め定められた第1の行動をしたか否かの判定に用いられる複数の第1の注目領域を、距離間隔をあけて前記第1の画像に設定する第1の設定をし、複数の前記第1の注目領域及び前記人体領域を基にして、前記被監視者が前記第1の行動をしたか否かを判定し、予め定められた第2の行動をしたか否かの判定に用いられる第2の注目領域を、前記第2の画像に設定する第2の設定をし、前記第2の注目領域及び前記人体領域を基にして、前記被監視者が前記第2の行動をしたか否かを判定する判定部と、を備える。
(Summary of embodiments)
A behavior determination device according to a first aspect of an embodiment includes an acquisition unit that acquires a first image and a second image in a predetermined range including a monitored person to be monitored, and the first image and the an extraction unit that extracts a human body region from a second image; performing a first setting to be set on an image, determining whether or not the monitored person has performed the first action based on the plurality of first attention areas and the human body area; a second setting for setting a second region of interest used for determining whether or not a second action has been taken in the second image, and based on the second region of interest and the human body region; and a determination unit that determines whether or not the monitored person has taken the second action.

実施形態の第1の局面に係る行動判定装置では、第1の行動の判定に用いる注目領域(距離間隔をあけて設定された複数の第1の注目領域)と第2の行動の判定に用いる注目領域(第2の注目領域)とを別々にしている。従って、判定したい行動に応じて、画像に設定する注目領域を変えることができる。例えば、第1の行動の判定に最適な注目領域を、第1の行動の判定に用いる注目領域にすることができ、第2の行動の判定に最適な注目領域を、第2の行動の判定に用いる注目領域にすることができる。よって、実施形態の第1の局面に係る行動判定装置によれば、誤判定を少なくすることができる。 In the behavior determination device according to the first aspect of the embodiment, attention areas (a plurality of first attention areas set at intervals) used for determination of the first behavior and used for determination of the second behavior A region of interest (second region of interest) is separated. Therefore, it is possible to change the attention area to be set in the image according to the behavior to be determined. For example, the optimal attention area for determining the first action can be the attention area used for the first action determination, and the attention area optimal for the second action determination can be used for the second action determination. can be a region of interest used for Therefore, according to the behavior determination device according to the first aspect of the embodiment, erroneous determination can be reduced.

第1の画像と第2の画像とは、同じ画像でもよいし、異なる画像でもよい。 The first image and the second image may be the same image or different images.

上記構成において、前記判定部は、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が所定の行動をしたと判定する。 In the above configuration, when the monitored person has determined that the monitored person has taken the second action after determining that the monitored person has taken the first action, the monitored person has taken a predetermined action. determined to have acted.

この構成は、第1の行動と第2行動とを組み合わせて、所定の行動を判定する。この構成には、以下の第1の態様及び第2の態様がある。 This configuration combines the first behavior and the second behavior to determine a predetermined behavior. This configuration has the following first and second aspects.

第1の態様において、前記第1の画像及び前記第2の画像は、寝床を示す領域である寝床領域を含み、前記第1の行動は、前記被監視者が前記寝床で寝ている姿勢をとることであり、前記第2の行動は、前記被監視者が前記寝床から体の一部分を出すことであり、前記判定部は、前記第1の設定として、複数の前記第1の注目領域を、前記寝床領域の長手方向に沿って距離間隔をあけて前記寝床領域に並べる設定をし、複数の前記第1の注目領域のそれぞれに前記人体領域が存在するとき、前記被監視者が前記第1の行動をしたと判定し、前記判定部は、前記第2の設定として、前記第2の注目領域を、前記寝床領域を規定する線に沿って設定をし、前記第2の注目領域外に位置する前記人体領域の面積を基にして、前記被監視者が前記第2の行動をしたか否かを判定し、前記判定部は、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が起床したと判定する。 In the first aspect, the first image and the second image each include a bed area indicating a bed, and the first action is a posture in which the monitored person is sleeping on the bed. the second action is the monitored person taking out a part of the body from the bed; , when the human body region is set to be arranged in the bed region with a distance interval along the longitudinal direction of the bed region, and the human body region exists in each of the plurality of the first attention regions, the monitored person is in the first region of interest. 1 action is determined, and the determination unit sets the second attention area along the line defining the bed area as the second setting, and sets the second attention area outside the second attention area as the second setting. determining whether the monitored person has taken the second action based on the area of the human body region located at the and then, when it is determined that the monitored person has taken the second action, it is determined that the monitored person has woken up.

第1の態様は、人が起床するとき、この前提として寝床で寝ている姿勢をとっていることに着目する。判定部は、被監視者が寝床で寝ている姿勢をとっている判定(第1の行動をした判定)をし、次に、被監視者が寝床から体の一部分(例えば、脚部)を出す判定(第2の行動をした判定)をしたとき、被監視者が起床したと判定する。第1の態様によれば、被監視者が第2の行動をした判定のみで、起床と判定する手法と比較して、起床の誤判定を少なくすることができる。 The first aspect focuses on the assumption that when a person wakes up, he/she assumes the posture of sleeping on the bed. The determination unit determines that the monitored person is in a sleeping posture on the bed (determines that the monitored person has taken the first action), and then the monitored person lifts a part of the body (for example, legs) from the bed. It is determined that the monitored person has woken up when it is determined that the monitored person has taken the second action. According to the first aspect, it is possible to reduce erroneous determination of waking up compared to a method of determining waking up only by determining that the monitored person has taken the second action.

人が寝床で寝る姿勢をとるとき、複数の第1の注目領域のそれぞれに(すなわち、複数の第1の注目領域の全てに)人体領域が存在する。そこで、判定部は、複数の第1の注目領域のそれぞれに人体領域が存在するとき、被監視者が第1の行動をしたと判定する。なお、通常、人が寝床に入り、寝床で寝ている姿勢をとるとき、頭及び脚部を同時に寝床につけるのではなく、いずれかを順番に、あるいは、少しずつ交互に動かしながら寝て、最終的に頭及び脚部の両方を寝床につける。よって、判定部は、第1の注目領域の少なくともいずれかに人体領域が存在する判定をした後、残りの注目領域についても人体領域が存在することを判定する。以上を考慮すると、好ましくは、判定部は、所定期間(例えば、10秒)内に、複数の第1の注目領域のそれぞれに人体領域が存在する判定をしたとき、被監視者が第1の行動をしたと判定する。 When a person takes a sleeping posture on a bed, a human body area exists in each of the plurality of first attention areas (that is, in all of the plurality of first attention areas). Therefore, the determination unit determines that the monitored person has taken the first action when the human body region exists in each of the plurality of first attention regions. Normally, when a person enters the bed and assumes a sleeping position on the bed, the head and legs are not put on the bed at the same time, but one of them is moved in order or alternately little by little. Finally, both the head and legs are placed on the bed. Therefore, after determining that the human body region exists in at least one of the first attention regions, the determination unit determines that the human body region also exists in the remaining attention regions. Considering the above, preferably, when the determination unit determines that a human body region exists in each of the plurality of first attention regions within a predetermined period of time (for example, 10 seconds), the monitored person is in the first region of interest. determined to have acted.

第2の注目領域外に位置する人体領域の面積(画素数)を基にして、被監視者が第2の行動をしたか否かを判定する手法としては、様々あるが、一例は、以下の通りである。判定部は、第2の注目領域外に位置する人体領域の画素数÷(第2の注目領域内に位置する人体領域の画素数+第2の注目領域外に位置する人体領域の画素数)が、所定の閾値を超えたとき、第2の行動をしたと判定する。 There are various methods for determining whether or not the monitored person has taken the second action based on the area (the number of pixels) of the human body region located outside the second region of interest. is as follows. The determining unit divides the number of pixels in the human body region located outside the second region of interest/(the number of pixels in the human body region located in the second region of interest + the number of pixels in the human body region located outside the second region of interest). exceeds a predetermined threshold, it is determined that the second action has been taken.

第2の態様において、前記第1の画像及び前記第2の画像は、寝床を示す領域である寝床領域を含み、前記第1の画像及び前記第2の画像を撮像する撮像部は、前記寝床の斜め上側に配置されており、前記第1の行動は、前記被監視者が前記寝床に入る動作であり、前記第2の行動は、前記被監視者が離床したと推定される動作であり、複数の前記第1の注目領域は、前記第1の画像において前記寝床領域と重なる中間注目領域、前記画像において前記中間注目領域の下に位置する下側注目領域、前記画像において前記中間注目領域の上に位置する上側注目領域により構成されており、前記判定部は、前記第1の設定として、前記下側注目領域、前記中間注目領域、及び、前記上側注目領域を設定し、前記下側注目領域及び前記中間注目領域に前記人体領域が存在し、かつ、前記上側注目領域に前記人体領域が存在しない第1の状態と、前記中間注目領域及び前記上側注目領域に前記人体領域が存在し、かつ、前記下側注目領域に前記人体領域が存在しない第2の状態と、前記中間注目領域に前記人体領域が存在し、かつ、前記下側注目領域及び前記上側注目領域に前記人体領域が存在しない第3の状態とが、前記第1の状態、前記第2の状態、前記第3の状態の順で発生したと判断したとき、前記被監視者が前記第1の行動をしたと判定し、前記判定部は、前記第2の設定として、前記第2の注目領域を、前記寝床領域を規定する線に沿って設定をし、前記第2の注目領域外に位置する前記人体領域の面積を基にして、前記被監視者が前記第2の行動をしたか否かを判定し、前記判定部は、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が離床したと判定する。 In the second aspect, the first image and the second image include a bed area that indicates a bed, and the imaging unit that captures the first image and the second image captures the bed The first action is a motion of the monitored person getting into the bed, and the second action is an estimated motion of the monitored person leaving the bed. , the plurality of first regions of interest include a middle region of interest overlapping the bed region in the first image, a lower region of interest positioned below the middle region of interest in the image, and the middle region of interest in the image. The determination unit sets the lower attention area, the intermediate attention area, and the upper attention area as the first settings, and the lower attention area is configured by an upper attention area positioned above the lower attention area. a first state in which the human body region exists in the region of interest and the intermediate region of interest and the human body region does not exist in the upper region of interest; a second state in which the human body region does not exist in the lower region of interest; When it is determined that the nonexistent third state occurs in the order of the first state, the second state, and the third state, it is determined that the monitored person has taken the first action. and, as the second setting, the determination unit sets the second attention area along a line defining the bed area, and determines the human body area located outside the second attention area. Based on the area, it is determined whether or not the monitored person has taken the second action, and after the determination unit has determined that the monitored person has taken the first action, the monitored person When it is determined that the monitored person has taken the second action, it is determined that the monitored person has left the bed.

第2の態様は、人が離床するとき、この前提として寝床に入る動作をすることに着目する。第2の態様は、被監視者が寝床に入る動作(第1の行動)をした判定をし、次に、被監視者が離床したと推定される動作(第2の行動)をした判定をしたとき、被監視者が離床したと判定する。第2の態様によれば、被監視者が第2の行動をした判定のみで、離床と判定する手法と比較して、離床の誤判定を少なくすることができる。 The second mode focuses on the motion of getting into bed as a premise when a person leaves the bed. In the second mode, it is determined that the monitored person has made a motion of going into bed (first behavior), and then it is determined that the monitored person has made a behavior that is presumed to have left the bed (second behavior). Then, it is determined that the monitored person has left the bed. According to the second aspect, it is possible to reduce erroneous determinations of getting out of bed compared to a method of determining that the monitored person has left the bed only by determining that the person to be monitored has taken the second action.

第2の注目領域外に位置する人体領域の面積(画素数)を基にして、被監視者が第2の行動をしたか否かを判定する手法としては、様々あるが、一例は、以下の通りである。判定部は、第2の注目領域外に位置する人体領域の画素数が、所定の閾値を超えたとき、第2の行動をしたと判定する。 There are various methods for determining whether or not the monitored person has taken the second action based on the area (the number of pixels) of the human body region located outside the second region of interest. is as follows. The determination unit determines that the second action is taken when the number of pixels of the human body region located outside the second region of interest exceeds a predetermined threshold.

実施形態の第2の局面に係る行動判定方法は、監視対象となる被監視者を含む所定の範囲の第1の画像及び第2の画像を取得する取得ステップと、前記第1の画像及び前記第2の画像から人体領域を抽出する抽出ステップと、予め定められた第1の行動をしたか否かの判定に用いられる複数の第1の注目領域を、距離間隔をあけて前記第1の画像に設定する第1の設定をし、複数の前記第1の注目領域及び前記人体領域を基にして、前記被監視者が前記第1の行動をしたか否かを判定し、予め定められた第2の行動をしたか否かの判定に用いられる第2の注目領域を、前記第2の画像に設定する第2の設定をし、前記第2の注目領域及び前記人体領域を基にして、前記被監視者が前記第2の行動をしたか否かを判定する判定ステップと、を備える。 A behavior determination method according to a second aspect of an embodiment includes an acquisition step of acquiring a first image and a second image in a predetermined range including a monitored person to be monitored; an extraction step of extracting a human body region from a second image; performing a first setting to be set on an image, determining whether or not the monitored person has performed the first action based on the plurality of first attention areas and the human body area; a second setting for setting a second region of interest used for determining whether or not a second action has been taken in the second image, and based on the second region of interest and the human body region; and a determination step of determining whether or not the monitored person has taken the second action.

実施形態の第2の局面に係る行動判定方法は、実施形態の第1の局面にかかる行動判定装置を方法の観点から規定しており、実施形態の第1の局面にかかる行動判定装置と同様の作用効果を有する。 The behavior determination method according to the second aspect of the embodiment defines the behavior determination device according to the first aspect of the embodiment from the viewpoint of the method, and is similar to the behavior determination device according to the first aspect of the embodiment. has the action and effect of

この出願は、2016年7月12日に出願された日本国特許出願特願2016-137422を基礎とするものであり、その内容は、本願に含まれるものである。 This application is based on Japanese Patent Application No. 2016-137422 filed on July 12, 2016, the content of which is included in the present application.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。 Although the present invention has been adequately and fully described above through embodiments with reference to the drawings in order to express the present invention, modifications and/or improvements to the above-described embodiments can easily be made by those skilled in the art. It should be recognized that it is possible. Therefore, to the extent that modifications or improvements made by those skilled in the art do not depart from the scope of the claims set forth in the claims, such modifications or improvements do not fall within the scope of the claims. is interpreted to be subsumed by

本発明によれば、行動判定装置及び行動判定方法を提供することができる。 According to the present invention, it is possible to provide a behavior determination device and a behavior determination method.

Claims (3)

天井に配置され、監視対象となる被監視者を含む所定の範囲の第1の画像及び第2の画像を取得する取得部と、
前記第1の画像及び前記第2の画像から人体領域を抽出する抽出部と、
予め定められた第1の行動をしたか否かの判定に用いられる複数の第1の注目領域を、距離間隔をあけて前記第1の画像に設定する第1の設定をし、複数の前記第1の注目領域及び前記人体領域を基にして、前記被監視者が前記第1の行動をしたか否かを判定し、予め定められた第2の行動をしたか否かの判定に用いられる第2の注目領域を、前記第2の画像に設定する第2の設定をし、前記第2の注目領域及び前記人体領域を基にして、前記被監視者が前記第2の行動をしたか否かを判定する判定部と、を備え、
前記判定部は、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が所定の行動をしたと判定し
記第1の画像及び前記第2の画像は、寝床を示す領域である寝床領域を含み
前記第1の行動は、前記被監視者が前記寝床で寝ている姿勢をとることであり
前記第2の行動は、前記被監視者が前記寝床から体の一部分を出すことであり
前記判定部は、前記第1の設定として、複数の前記第1の注目領域を、前記寝床領域の長手方向に沿って距離間隔をあけて前記寝床領域に並べる設定をし、複数の前記第1の注目領域のそれぞれに前記人体領域が存在するとき、前記被監視者が前記第1の行動をしたと判定し
前記判定部は、前記第2の設定として、前記第2の注目領域を、前記寝床領域を規定する線に沿って設定をし、前記第2の注目領域外に位置する前記人体領域の面積を基にして、前記被監視者が前記第2の行動をしたか否かを判定し
前記判定部は、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が起床したと判定する行動判定装置。
an acquisition unit arranged on a ceiling for acquiring a first image and a second image of a predetermined range including a monitored person to be monitored;
an extraction unit that extracts a human body region from the first image and the second image;
performing a first setting of setting a plurality of first regions of interest used for determining whether or not a predetermined first action is performed in the first image at intervals of a distance; Based on the first region of interest and the human body region, it is determined whether or not the monitored person has taken the first action, and is used to determine whether or not the person has taken a predetermined second action. A second setting is performed to set a second attention area to be observed in the second image, and the monitored person performs the second action based on the second attention area and the human body area. A determination unit that determines whether or not,
The determination unit determines that the monitored person has taken a predetermined action when it is determined that the monitored person has taken the second action after determining that the monitored person has taken the first action. judge ,
The first image and the second image include a bed area, which is an area indicating a bed ,
the first action is that the monitored person assumes a sleeping position on the bed ;
the second action is the monitored person leaving a part of the body from the bed ;
The determination unit sets, as the first setting, the plurality of first attention areas to be arranged in the bedding area with distance intervals along the longitudinal direction of the bedding area, and determining that the monitored person has taken the first action when the human body region exists in each of the attention regions of
As the second setting, the determination unit sets the second region of interest along a line defining the bed region, and determines the area of the human body region located outside the second region of interest. determining whether the monitored person has taken the second action based on
The determination unit determines that the monitored person has woken up when it is determined that the monitored person has performed the second behavior after determining that the monitored person has performed the first behavior. Action judgment device.
監視対象となる被監視者を含む所定の範囲の第1の画像及び第2の画像を取得する取得部と、
前記第1の画像及び前記第2の画像から人体領域を抽出する抽出部と、
予め定められた第1の行動をしたか否かの判定に用いられる複数の第1の注目領域を、距離間隔をあけて前記第1の画像に設定する第1の設定をし、複数の前記第1の注目領域及び前記人体領域を基にして、前記被監視者が前記第1の行動をしたか否かを判定し、予め定められた第2の行動をしたか否かの判定に用いられる第2の注目領域を、前記第2の画像に設定する第2の設定をし、前記第2の注目領域及び前記人体領域を基にして、前記被監視者が前記第2の行動をしたか否かを判定する判定部と、を備え、
前記判定部は、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が所定の行動をしたと判定し、
前記第1の画像及び前記第2の画像は、寝床を示す領域である寝床領域を含み、
前記第1の画像及び前記第2の画像を撮像する撮像部は、前記寝床の斜め上側に配置されており、
前記第1の行動は、前記被監視者が前記寝床に入る動作であり、
前記第2の行動は、前記被監視者が離床したと推定される動作であり、
複数の前記第1の注目領域は、前記第1の画像において前記寝床領域と重なる中間注目領域、前記画像において前記中間注目領域の下に位置する下側注目領域、前記画像において前記中間注目領域の上に位置する上側注目領域により構成されており、
前記判定部は、前記第1の設定として、前記下側注目領域、前記中間注目領域、及び、前記上側注目領域を設定し、前記下側注目領域及び前記中間注目領域に前記人体領域が存在し、かつ、前記上側注目領域に前記人体領域が存在しない第1の状態と、前記中間注目領域及び前記上側注目領域に前記人体領域が存在し、かつ、前記下側注目領域に前記人体領域が存在しない第2の状態と、前記中間注目領域に前記人体領域が存在し、かつ、前記下側注目領域及び前記上側注目領域に前記人体領域が存在しない第3の状態とが、前記第1の状態、前記第2の状態、前記第3の状態の順で発生したと判断したとき、前記被監視者が前記第1の行動をしたと判定し、
前記判定部は、前記第2の設定として、前記第2の注目領域を、前記寝床領域を規定する線に沿って設定をし、前記第2の注目領域外に位置する前記人体領域の面積を基にして、前記被監視者が前記第2の行動をしたか否かを判定し、
前記判定部は、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が離床したと判定する行動判定装置。
an acquisition unit that acquires a first image and a second image of a predetermined range including a monitored person to be monitored;
an extraction unit that extracts a human body region from the first image and the second image;
performing a first setting of setting a plurality of first regions of interest used for determining whether or not a predetermined first action is performed in the first image at intervals of a distance; Based on the first region of interest and the human body region, it is determined whether or not the monitored person has taken the first action, and is used to determine whether or not the person has taken a predetermined second action. A second setting is performed to set a second attention area to be observed in the second image, and the monitored person performs the second action based on the second attention area and the human body area. A determination unit that determines whether or not,
The determination unit determines that the monitored person has taken a predetermined action when it is determined that the monitored person has taken the second action after determining that the monitored person has taken the first action. judge,
The first image and the second image include a bed area, which is an area indicating a bed,
an imaging unit that captures the first image and the second image is arranged diagonally above the bed,
the first action is an action of the monitored person entering the bed;
the second action is a motion presumed to have caused the monitored person to get out of bed;
The plurality of first attention areas includes an intermediate attention area overlapping the bed area in the first image, a lower attention area positioned below the intermediate attention area in the image, and an intermediate attention area in the image. It is composed of an upper region of interest located above,
The determination unit sets the lower attention area, the intermediate attention area, and the upper attention area as the first settings, and the human body area exists in the lower attention area and the intermediate attention area. and a first state in which the human body region does not exist in the upper region of interest, the human body region exists in the intermediate region of interest and the upper region of interest, and the human body region exists in the lower region of interest. and a third state in which the human body region exists in the intermediate region of interest and no human body region exists in the lower region of interest and the upper region of interest are the first state. , when determining that the second state and the third state have occurred in this order, determining that the monitored person has performed the first action;
As the second setting, the determination unit sets the second region of interest along a line defining the bed region, and determines the area of the human body region located outside the second region of interest. determining whether the monitored person has taken the second action based on
The determination unit determines that the monitored person has left the bed when determining that the monitored person has performed the second behavior after determining that the monitored person has performed the first behavior. judgment device.
天井に配置されたカメラによって、監視対象となる被監視者を含む所定の範囲の第1の画像及び第2の画像を取得する取得ステップと、
前記第1の画像及び前記第2の画像から人体領域を抽出する抽出ステップと、
予め定められた第1の行動をしたか否かの判定に用いられる複数の第1の注目領域を、距離間隔をあけて前記第1の画像に設定する第1の設定をし、複数の前記第1の注目領域及び前記人体領域を基にして、前記被監視者が前記第1の行動をしたか否かを判定し、予め定められた第2の行動をしたか否かの判定に用いられる第2の注目領域を、前記第2の画像に設定する第2の設定をし、前記第2の注目領域及び前記人体領域を基にして、前記被監視者が前記第2の行動をしたか否かを判定する判定ステップと、を備え、
記第1の画像及び前記第2の画像は、寝床を示す領域である寝床領域を含み
前記第1の行動は、前記被監視者が前記寝床で寝ている姿勢をとることであり
前記第2の行動は、前記被監視者が前記寝床から体の一部分を出すことであり
前記判定ステップは、前記第1の設定として、複数の前記第1の注目領域を、前記寝床領域の長手方向に沿って距離間隔をあけて前記寝床領域に並べる設定をし、複数の前記第1の注目領域のそれぞれに前記人体領域が存在するとき、前記被監視者が前記第1の行動をしたと判定し
前記判定ステップは、前記第2の設定として、前記第2の注目領域を、前記寝床領域を規定する線に沿って設定をし、前記第2の注目領域外に位置する前記人体領域の面積を基にして、前記被監視者が前記第2の行動をしたか否かを判定し
前記判定ステップは、前記被監視者が前記第1の行動をした判定をした後、前記被監視者が前記第2の行動をした判定をしたとき、前記被監視者が起床したと判定する行動判定方法。
an acquisition step of acquiring a first image and a second image of a predetermined range including a monitored person to be monitored by a camera arranged on the ceiling;
an extracting step of extracting a human body region from the first image and the second image;
performing a first setting of setting a plurality of first regions of interest used for determining whether or not a predetermined first action is performed in the first image at intervals of a distance; Based on the first region of interest and the human body region, it is determined whether or not the monitored person has taken the first action, and is used to determine whether or not the person has taken a predetermined second action. A second setting is performed to set a second attention area to be observed in the second image, and the monitored person performs the second action based on the second attention area and the human body area. and a determination step of determining whether
The first image and the second image include a bed area, which is an area indicating a bed ,
the first action is that the monitored person assumes a sleeping position on the bed ;
the second action is the monitored person leaving a part of the body from the bed ;
In the determining step, as the first setting, a plurality of the first attention areas are set to be arranged in the bedding area at intervals along the longitudinal direction of the bedding area; determining that the monitored person has taken the first action when the human body region exists in each of the attention regions of
In the determination step, as the second setting, the second region of interest is set along a line defining the bed region, and the area of the human body region located outside the second region of interest is determined. determining whether the monitored person has taken the second action based on
The determining step determines that the monitored person has woken up when it is determined that the monitored person has performed the second behavior after determining that the monitored person has performed the first behavior. Action judgment method.
JP2018527582A 2016-07-12 2017-07-07 Behavior determination device and behavior determination method Active JP7183788B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016137422 2016-07-12
JP2016137422 2016-07-12
PCT/JP2017/024999 WO2018012432A1 (en) 2016-07-12 2017-07-07 Behavior determination device and behavior determination method

Publications (2)

Publication Number Publication Date
JPWO2018012432A1 JPWO2018012432A1 (en) 2019-05-09
JP7183788B2 true JP7183788B2 (en) 2022-12-06

Family

ID=60951771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018527582A Active JP7183788B2 (en) 2016-07-12 2017-07-07 Behavior determination device and behavior determination method

Country Status (3)

Country Link
EP (1) EP3486868A4 (en)
JP (1) JP7183788B2 (en)
WO (1) WO2018012432A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7160932B2 (en) * 2018-02-20 2022-10-25 アップリフト ラブズ インコーポレイテッド Generating prescriptive analytics using motion identification and motion information
JP2020109582A (en) * 2019-01-07 2020-07-16 エイアイビューライフ株式会社 Information processing device
CN113255606A (en) * 2021-06-30 2021-08-13 深圳市商汤科技有限公司 Behavior recognition method and device, computer equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120140068A1 (en) 2005-05-06 2012-06-07 E-Watch, Inc. Medical Situational Awareness System
JP2012170483A (en) 2011-02-17 2012-09-10 Fujitsu Ltd State detection device and state detection method
JP2015139550A (en) 2014-01-29 2015-08-03 シャープ株式会社 Bed-leaving determination device and bed-leaving determination method
WO2015118953A1 (en) 2014-02-07 2015-08-13 Nkワークス株式会社 Information processing device, information processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4590745B2 (en) 2001-01-31 2010-12-01 パナソニック電工株式会社 Image processing device
JP6167563B2 (en) * 2013-02-28 2017-07-26 ノーリツプレシジョン株式会社 Information processing apparatus, information processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120140068A1 (en) 2005-05-06 2012-06-07 E-Watch, Inc. Medical Situational Awareness System
JP2012170483A (en) 2011-02-17 2012-09-10 Fujitsu Ltd State detection device and state detection method
JP2015139550A (en) 2014-01-29 2015-08-03 シャープ株式会社 Bed-leaving determination device and bed-leaving determination method
WO2015114902A1 (en) 2014-01-29 2015-08-06 シャープ株式会社 Bed exiting determination device and bed exiting determination method
WO2015118953A1 (en) 2014-02-07 2015-08-13 Nkワークス株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
EP3486868A1 (en) 2019-05-22
JPWO2018012432A1 (en) 2019-05-09
EP3486868A4 (en) 2019-07-17
WO2018012432A1 (en) 2018-01-18

Similar Documents

Publication Publication Date Title
JP6520831B2 (en) Display control apparatus, display control system, display control method, display control program, recording medium
JP6852733B2 (en) Living body monitoring device and living body monitoring method
JP6806145B2 (en) Monitored person monitoring system and monitored person monitoring method
JP6115692B1 (en) Behavior detecting device, method and program, and monitored person monitoring device
JP7183788B2 (en) Behavior determination device and behavior determination method
JP2024038108A (en) Information processing equipment, monitoring system, and control program
JP2023178322A (en) Fall detection device, method thereof, and monitored person monitoring support system
WO2017183603A1 (en) Monitoring-subject monitoring system and method for monitoring subject
WO2018003752A1 (en) Breathing abnormality detection device and breathing abnormality detection method
JP6908028B2 (en) Observer monitoring device, method, system and program
JP7264065B2 (en) Monitored Person Monitoring Support System and Monitored Person Monitoring Support Method
JP7180601B2 (en) SLEEP STATE DETECTION DEVICE AND METHOD, AND MONITORED PERSON MONITORING SUPPORT SYSTEM
JP7268604B2 (en) Monitored Person Monitoring Support Device, Monitored Person Monitoring Support System, Monitored Person Monitoring Support Method, and Monitored Person Monitoring Support Program
JP7147787B2 (en) Monitored Person Monitoring Support Device, Monitored Person Monitoring Support Method, and Monitored Person Monitoring Support Program
JP2020052808A (en) Supervision device, supervision system, supervision program, and supervision method
JP7327396B2 (en) Control program, report output method, and report output device
JP7259540B2 (en) Determination device, control program for determination device, and determination method
JP7425413B2 (en) Monitored person monitoring support device, monitored person monitoring support method, monitored person monitoring support system, and monitored person monitoring support server device
JP7268387B2 (en) Monitoring device and program for monitoring device
JP6930536B2 (en) Bio-monitoring system and bio-monitoring system program
JP6737089B2 (en) Monitored person monitoring system and monitored person monitoring method
WO2018096805A1 (en) Setting device for monitored subject monitoring device, setting method for same, and monitored subject monitoring system
JP2021197072A (en) Control program, arithmetic device, control system, and control method
JP2021060730A (en) Control program, information processor, and information processing system
JP2020140418A (en) Mobile terminal control program, mobile terminal, and monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220901

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220912

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221107

R150 Certificate of patent or registration of utility model

Ref document number: 7183788

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150