JP6115692B1 - Behavior detecting device, method and program, and monitored person monitoring device - Google Patents

Behavior detecting device, method and program, and monitored person monitoring device Download PDF

Info

Publication number
JP6115692B1
JP6115692B1 JP2016575258A JP2016575258A JP6115692B1 JP 6115692 B1 JP6115692 B1 JP 6115692B1 JP 2016575258 A JP2016575258 A JP 2016575258A JP 2016575258 A JP2016575258 A JP 2016575258A JP 6115692 B1 JP6115692 B1 JP 6115692B1
Authority
JP
Japan
Prior art keywords
image
monitored person
behavior detection
camera
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016575258A
Other languages
Japanese (ja)
Other versions
JPWO2016199495A1 (en
Inventor
敏行 山下
敏行 山下
山下 雅宣
雅宣 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Application granted granted Critical
Publication of JP6115692B1 publication Critical patent/JP6115692B1/en
Publication of JPWO2016199495A1 publication Critical patent/JPWO2016199495A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

本発明にかかる行動検知装置、行動検知方法および行動検知プログラムならびに被監視者監視装置では、監視対象である被監視者を、その上方から撮像した画像が取得され、前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムが選択され、この選択された行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動が検知される。In the behavior detection device, the behavior detection method, the behavior detection program, and the monitored person monitoring device according to the present invention, an image obtained by capturing the monitored person as the monitoring target from above is acquired, and the predetermined behavior of the monitored person is obtained. A behavior detection algorithm is selected from a plurality of different behavior detection algorithms for detecting the image based on the positional relationship between the camera that captured the image and a setting area that is a predetermined area in the image. Based on the image, a predetermined action in the monitored person is detected by the action detection algorithm performed.

Description

本発明は、監視すべき監視対象である被監視者における所定の行動を検知する行動検知装置、行動検知方法および行動検知プログラムに関する。そして、本発明は、この行動検知装置を用いた被監視者監視装置に関する。   The present invention relates to a behavior detection device, a behavior detection method, and a behavior detection program for detecting a predetermined behavior of a monitored person to be monitored. And this invention relates to the to-be-monitored person monitoring apparatus using this action detection apparatus.

我が国(日本)は、戦後の高度経済成長に伴う生活水準の向上、衛生環境の改善および医療水準の向上等によって、高齢化社会、より詳しくは、総人口に対する65歳以上の人口の割合である高齢化率が21%を超える超高齢化社会になっている。また、2005年では、総人口約1億2765万人に対し65歳以上の高齢者人口は、約2556万人であったのに対し、2020年では、総人口約1億2411万人に対し高齢者人口は、約3456万人となる予測もある。このような高齢化社会では、病気や怪我や高齢等による看護や介護を必要とする要看護者や要介護者(要看護者等)は、高齢化社会ではない通常の社会で生じる要看護者等よりもその増加が見込まれる。そして、我が国は、例えば2013年の合計特殊出生率が1.43という少子化社会でもある。そのため、看護や介護の必要な高齢者を高齢の家族(配偶者、子、兄弟)が介護する老老介護も起きて来ている。   Japan (Japan) is an aging society, more specifically the ratio of population over 65 years old to the total population due to the improvement of living standards accompanying the post-war high economic growth, improvement of sanitary environment and improvement of medical standards, etc. It is a super-aging society with an aging rate exceeding 21%. In 2005, the total population was about 126.5 million, while the elderly population over the age of 65 was about 25.56 million. In 2020, the total population was about 124.11 million. There is also a prediction that the elderly population will be about 34.56 million. In such an aging society, nurses who need nursing or nursing care due to illness, injury, elderly age, etc., or those who need nursing care (such as those who require nursing care) are those who need nursing in a normal society that is not an aging society. This is expected to increase more than Japan, for example, is a society with a declining birthrate with a total fertility rate of 1.43 in 2013. For this reason, elderly care has been taking place where elderly families (spouse, children, siblings) who need nursing and nursing care are taking care of them.

要看護者や要介護者は、病院や、老人福祉施設(日本の法令では老人短期入所施設、養護老人ホームおよび特別養護老人ホーム等)等の施設に入所し、その看護や介護を受ける。このような施設では、要看護者等が、例えばベッドからの転落や歩行中の転倒等によって怪我を負ったり、ベッドから抜け出して徘徊したりするなどの問題がある。このような事態に対し、可及的速やかに対応する必要があり、また、このような事態を放置しておくとさらに大きな問題に発展してしまう可能性もあるため、前記施設では、看護師や介護士等は、定期的に巡視することによってその安否や様子を確認している。   Nursing and care recipients enter hospitals and other facilities such as welfare facilities for the elderly (Japanese elderly law short-term entrance facilities, nursing homes for the elderly and special nursing homes for the elderly, etc.) and receive nursing and care. In such a facility, there is a problem that a nurse in need of injury, for example, falls from the bed or falls while walking, or gets out of bed and hesitates. It is necessary to respond to such a situation as quickly as possible, and if such a situation is left unattended, it may develop into a larger problem. And caregivers regularly check their safety and condition by patrols.

しかしながら、要看護者等の増加数に対し看護師等の増加数が追い付かずに、看護業界や介護業界では、慢性的に人手不足になっている。さらに、日勤の時間帯に較べ、準夜勤や夜勤の時間帯では、看護師や介護士等の人数が減るため、一人当たりの業務負荷が増大するので、前記業務負荷の軽減が要請される。また、前記老老介護の事態は、前記施設でも例外ではなく、高齢の要看護者等を高齢の看護師等がケアすることもしばしば見られる。一般に高齢になると体力が衰えるため、健康であっても若い看護師等に比し看護等の負担が重くなり、また、その動きや判断も遅くなる。   However, the increase in the number of nurses and the like cannot keep up with the increase in the number of nurses and the like, and the nursing industry and the care industry are chronically short of manpower. Furthermore, since the number of nurses, caregivers and the like is reduced in the semi-night shift and night shift hours compared to the day shift hours, the work load per person increases, and thus the work load is required to be reduced. In addition, the situation of the elderly care is not an exception in the facility, and it is often seen that elderly nurses and the like care for elderly nurses and the like. In general, physical strength declines when older, so the burden of nursing etc. becomes heavier than young nurses etc. even if they are healthy, and their movements and judgments are also delayed.

このような人手不足や看護師等の負担を軽減するため、看護業務や介護業務を補完する技術が求められている。このため、近年では、要看護者等の、監視すべき監視対象である被監視者を監視(モニタ)する被監視者監視装置が研究、開発されている。   In order to reduce the labor shortage and the burden on nurses and the like, there is a demand for technology that complements nursing work and care work. For this reason, in recent years, a monitored person monitoring device for monitoring (monitoring) a monitored person to be monitored, such as a care recipient, has been researched and developed.

このような技術の一つとして、例えば特許文献1に開示された人体検知装置や特許文献2に開示された画像処理装置がある。この特許文献1に開示された人体検知装置は、被監視者の部屋の床面を撮像する撮像カメラと、撮像カメラの撮像範囲を複数の領域に分離識別し各領域での被監視者の存在および動作を検知する検知領域判断部と、この検知領域判断部での被監視者の存在および動作に関する検知結果を基にして、所定の領域で、もしくは所定の領域とその隣接領域にわたって、被監視者が所定の状態にあることを検知すると、監視者側へ異常発生の旨の発報を行なう判定処理部とを備える。そして、前記検知領域判断部には、前記複数の領域の一種として、被監視者の部屋の床面上の寝台が存在するベッド領域と、少なくともこのベッド領域を除き被監視者の部屋の床面をあらわし前記所定の領域である床領域とを設定してあり、前記判定処理部は、被監視者がベッド領域から床領域へ移動したことを検知すると監視者側へ被監視者離床の旨の異常発報を行なう。   As one of such techniques, for example, there is a human body detection device disclosed in Patent Literature 1 and an image processing device disclosed in Patent Literature 2. The human body detection device disclosed in Patent Document 1 includes an imaging camera that images a floor surface of a monitored person's room, and an imaging range of the imaging camera that is separated and identified into a plurality of areas, and the presence of the monitored person in each area And a detection area determination unit for detecting an operation, and a detection target in a predetermined area or over a predetermined area and its adjacent area based on the detection result regarding the presence and operation of the monitored person in the detection area determination unit. And a determination processing unit that reports to the monitoring side that an abnormality has occurred when it is detected that the person is in a predetermined state. The detection area determination unit includes a bed area where a bed on the floor surface of the monitored person's room exists as a kind of the plurality of areas, and a floor surface of the monitored person's room excluding at least the bed area. And a floor area that is the predetermined area is set, and the determination processing unit detects that the monitored person has moved from the bed area to the floor area. Anomaly is reported.

前記特許文献2に開示された画像処理装置は、撮影を行う撮像カメラと、室内斜め上方から室内下方に向けて前記撮像カメラにより撮影された画像情報に基づいて人の離床、入床を判断する画像処理部と、を備える画像処理装置であって、前記画像処理部は、前記画像情報のうち、室内床面上に設置されたベッドが占有する領域であるベッド領域と、床面の領域で前記ベッドが置かれる領域以外の床面領域と、を識別可能であるともに、前記ベッドの外形下辺を表わす境界辺を通過して、前記床面領域から前記ベッド領域への人体移動を検知すると、入床事象と判断し、前記境界辺を通過して、前記ベッド領域から前記床面領域への人体移動を検知すると、離床事象と判断する。   The image processing apparatus disclosed in Patent Document 2 determines whether a person is getting out of bed or entering a floor based on an imaging camera that performs imaging and image information captured by the imaging camera from an obliquely upward to an indoor downward direction. An image processing device comprising: an image processing unit, wherein the image processing unit includes: a bed area that is occupied by a bed installed on an indoor floor surface; and a floor surface area of the image information. A floor surface area other than the area where the bed is placed can be identified, and when a human body movement from the floor surface area to the bed area is detected by passing through a boundary side representing the outer lower side of the bed, When it is determined that the person has entered the floor and the movement of the human body from the bed area to the floor area is detected after passing through the boundary side, it is determined that the person is getting out of bed.

一方、安否確認の点では、一人暮らしの独居者も前記要看護者等と同様であり、監視対象である被監視者となる。   On the other hand, in terms of safety confirmation, a single person living alone is the same as the above-mentioned nurse requiring care, and becomes a monitored person to be monitored.

前記特許文献1に開示された人体検知装置は、前記特許文献1の図1に示されているように、部屋の床面全面を撮像できるように天井の略中央位置に撮像カメラが配設されていることを前提に、離床を判定している。前記特許文献2に開示された画像処理装置は、室内斜め上方から室内下方に向けて撮影できるように撮像カメラが配設されていることを前提に、入床および離床それぞれを判定している。   As shown in FIG. 1 of Patent Document 1, the human body detection device disclosed in Patent Document 1 is provided with an imaging camera at a substantially central position of the ceiling so that the entire floor surface of the room can be imaged. It is determined that the person is getting out of bed. The image processing apparatus disclosed in Patent Document 2 determines each of entering and leaving the floor on the premise that an imaging camera is provided so that photographing can be performed from obliquely upward in the room toward downward in the room.

ところで、部屋のサイズ(大きさ)や形状は、実際には、様々であり、前記天井の略中央位置や前記室内斜め上方から室内下方に向けて撮影できる位置にカメラが配設できるとは限らない。このため、前記前提を欠くと、前記特許文献1に開示された人体検知装置や前記特許文献2に開示された画像処理装置は、前記離床の判定や前記入床および離床それぞれの判定における精度が低下してしまう。   By the way, the size (size) and shape of the room are actually various, and it is not always possible to arrange the camera at a position where the image can be taken from the approximate center position of the ceiling or the diagonally upward direction of the room to the downward direction of the room. Absent. For this reason, if the premise is lacking, the human body detection device disclosed in Patent Document 1 and the image processing device disclosed in Patent Document 2 have accuracy in the determination of getting out of the floor and the determination of each of entering and leaving the floor. It will decline.

特開2001−307246号公報JP 2001-307246 A 特開2002−230533号公報JP 2002-230533 A

本発明は、上述の事情に鑑みて為された発明であり、その目的は、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる行動検知装置、行動検知方法および行動検知プログラム、ならびに、この行動検知装置を用いた被監視者監視装置を提供することである。   The present invention has been made in view of the above-described circumstances, and its purpose is behavior detection that can detect a predetermined behavior of a monitored person with higher accuracy regardless of the position where the camera is disposed. An apparatus, a behavior detection method, a behavior detection program, and a monitored person monitoring device using the behavior detection device.

本発明にかかる行動検知装置、行動検知方法および行動検知プログラムならびに被監視者監視装置では、監視対象である被監視者を、その上方から撮像した画像が取得され、前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムが選択され、この選択された行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動が検知される。したがって、本発明にかかる行動検知装置、行動検知方法および行動検知プログラムならびに被監視者監視装置は、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。   In the behavior detection device, the behavior detection method, the behavior detection program, and the monitored person monitoring device according to the present invention, an image obtained by capturing the monitored person as the monitoring target from above is acquired, and the predetermined behavior of the monitored person is obtained. A behavior detection algorithm is selected from a plurality of different behavior detection algorithms for detecting the image based on the positional relationship between the camera that captured the image and a setting area that is a predetermined area in the image. Based on the image, a predetermined action in the monitored person is detected by the action detection algorithm performed. Therefore, the behavior detection device, the behavior detection method, the behavior detection program, and the monitored person monitoring device according to the present invention can perform the predetermined action in the monitored person with higher accuracy regardless of the installation position where the camera is installed. Can be detected.

上記並びにその他の本発明の目的、特徴及び利点は、以下の詳細な記載と添付図面から明らかになるであろう。   The above and other objects, features and advantages of the present invention will become apparent from the following detailed description and the accompanying drawings.

実施形態における被監視者監視システムの構成を示す図である。It is a figure which shows the structure of the to-be-monitored person monitoring system in embodiment. 実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。It is a figure which shows the structure of the sensor apparatus in the to-be-monitored person monitoring system of embodiment. 前記センサ装置で用いられる設定領域および行動検知線を説明するための図である。It is a figure for demonstrating the setting area | region and action detection line which are used with the said sensor apparatus. 前記設定領域に対するカメラの位置関係を説明するための図である。It is a figure for demonstrating the positional relationship of the camera with respect to the said setting area | region. 前記センサ装置で用いられる前記カメラの位置関係を求める手法を説明するための図である。It is a figure for demonstrating the method of calculating | requiring the positional relationship of the said camera used with the said sensor apparatus. 前記センサ装置で用いられるXn用の行動検知アルゴリズムを示すメインルーチンのフローチャートである。It is a flowchart of the main routine which shows the action detection algorithm for Xn used with the said sensor apparatus. 前記Xn用の行動検知アルゴリズムにおけるXn用の起床判定アルゴリズムを示すサブルーチンのフローチャートである。It is a flowchart of the subroutine which shows the wake-up determination algorithm for Xn in the action detection algorithm for Xn. 前記Xn用の行動検知アルゴリズムにおけるXn用の離床判定アルゴリズムを示すサブルーチンのフローチャートである。It is a flowchart of a subroutine showing a bed leaving determination algorithm for Xn in the behavior detection algorithm for Xn. 前記カメラの位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。It is a figure for demonstrating the wake-up determination method and the getting-off determination method used with the action detection algorithm for direct use used when the positional relationship of the said camera is directly above. 前記カメラの位置関係が手前である場合に用いられる手前用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。It is a figure for demonstrating the wake-up determination method and the getting-off determination method used with the action detection algorithm for the near side used when the positional relationship of the said camera is a near side. 前記カメラの位置関係が横である場合に用いられる横用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。It is a figure for demonstrating the wake-up determination method and the bed leaving determination method which are used with the action detection algorithm for horizontal directions used when the positional relationship of the said camera is horizontal. 前記カメラの位置関係が奥である場合に用いられる奥用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。It is a figure for demonstrating the wake-up determination method and the getting-off determination method used with the action detection algorithm for backs used when the positional relationship of the said camera is a back. 前記カメラの位置関係が斜め前である場合に用いられる斜め前用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。It is a figure for demonstrating the wake-up determination method and the bed leaving determination method used with the action detection algorithm for the diagonal front used when the positional relationship of the said camera is a diagonal front. 前記カメラの位置関係が斜め奥である場合に用いられる斜め奥用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。It is a figure for demonstrating the wake-up determination method and the getting-off determination method used with the action detection algorithm for the diagonal back used when the positional relationship of the said camera is diagonal back. 前記センサ装置の動作を示すメインルーチンのフローチャートである。It is a flowchart of the main routine which shows operation | movement of the said sensor apparatus. 図15に示すメインルーチンで用いられる行動検知の動作を示すサブルーチンのフローチャートである。It is a flowchart of a subroutine which shows the operation | movement of the action detection used with the main routine shown in FIG. 前記カメラの位置関係が複数の基本位置関係それぞれの重みで表された場合の前記重みの演算手法を説明するための図である。It is a figure for demonstrating the calculation method of the said weight when the positional relationship of the said camera is represented by the weight of each of several basic positional relationship.

以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。   Hereinafter, an embodiment according to the present invention will be described with reference to the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, The description is abbreviate | omitted suitably. In this specification, when referring generically, it shows with the reference symbol which abbreviate | omitted the suffix, and when referring to an individual structure, it shows with the reference symbol which attached the suffix.

本被監視者監視装置は、監視対象である被監視者における、予め設定された所定の行動を検知する行動検知部と、前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備えるものである。そして、前記行動検知部は、前記被監視者を、前記被監視者の上方から撮像した画像に基づいて所定の行動検知アルゴリズムで前記被監視者における所定の行動を検知する。このような被監視者監視装置は、1個の機器として、一体に構成されて実現されて良く、また、システムとして、複数の機器で実現されて良い。そして、被監視者監視装置が複数の機器で実現される場合に、前記行動検知部は、これら複数の機器のうちのいずれに実装されて良い。一例として、ここでは、前記被監視者監視装置がシステムとして複数の機器で実現されている場合について、前記被監視者監視装置の実施形態を説明する。なお、前記被監視者監視装置が1個の機器として一体に構成されて実現される場合についても、以下の説明と同様に、前記被監視者監視装置を構成できる。また、一例として、ここでは、前記行動検知部が前記通知部と共に後述のセンサ装置SUに実装される場合について、説明するが、このシステムのうちの他の装置、例えば後述の管理サーバ装置SV、固定端末装置SPあるいは携帯端末装置TAに実装される場合についても、以下の説明と同様に、前記被監視者監視装置を構成できる。   The monitored person monitoring apparatus includes a behavior detection unit that detects a predetermined behavior set in advance in a monitored person to be monitored, and a notification unit that notifies the predetermined behavior detected by the behavior detection unit to the outside. Are provided. And the said action detection part detects the predetermined | prescribed action in the said to-be-monitored person by a predetermined | prescribed action detection algorithm based on the image imaged from the upper side of the to-be-monitored person. Such a monitored person monitoring apparatus may be realized by being integrally configured as one device, and may be realized by a plurality of devices as a system. When the monitored person monitoring apparatus is realized by a plurality of devices, the behavior detection unit may be mounted on any of the plurality of devices. As an example, here, an embodiment of the monitored person monitoring apparatus will be described in the case where the monitored person monitoring apparatus is realized by a plurality of devices as a system. Note that, even when the monitored person monitoring apparatus is configured integrally as a single device, the monitored person monitoring apparatus can be configured similarly to the following description. In addition, as an example, a case where the behavior detection unit is mounted on a sensor device SU described later together with the notification unit will be described here. However, other devices in the system, for example, a management server device SV described later, Even when mounted on the fixed terminal device SP or the portable terminal device TA, the monitored person monitoring device can be configured similarly to the following description.

図1は、実施形態における被監視者監視システムの構成を示す図である。図2は、実施形態の被監視者監視システムにおけるセンサ装置の構成を示す図である。図3は、前記センサ装置で用いられる設定領域および行動検知線を説明するための図である。なお、図3は、これら設定領域および行動検知線を入力するための入力画面の一例でもある。図4は、前記設定領域に対するカメラの位置関係を説明するための図である。図5は、前記センサ装置で用いられる前記カメラの位置関係を求める手法を説明するための図である。図5Aは、画像中心が設定領域(寝具領域)における行動検知線の手前に位置する場合を示し、図5Bは、画像中心が設定領域(寝具領域)内に位置する場合を示す。図6は、前記センサ装置で用いられるXn用の行動検知アルゴリズムを示すメインルーチンのフローチャートである。Xnは、カメラの位置関係であり、本実施形態では、直上、手前、奥、横、斜め前および斜め奥である。図7は、前記Xn用の行動検知アルゴリズムにおけるXn用の起床判定アルゴリズムを示すサブルーチンのフローチャートである。図8は、前記Xn用の行動検知アルゴリズムにおけるXn用の離床判定アルゴリズムを示すサブルーチンのフローチャートである。図9は、前記カメラの位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図9左側は、カメラで取得された画像の一例を示し、図9右側は、図9左側に示す画像から抽出された人体の領域(人体領域)を示す。図10は、前記カメラの位置関係が手前である場合に用いられる手前用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図11は、前記カメラの位置関係が横である場合に用いられる横用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図12は、前記カメラの位置関係が奥である場合に用いられる奥用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図13は、前記カメラの位置関係が斜め前である場合に用いられる斜め前用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。図14は、前記カメラの位置関係が斜め奥である場合に用いられる斜め奥用の行動検知アルゴリズムで用いられる起床判定手法および離床判定手法を説明するための図である。これら図10ないし図14において、図の左側は、起床前を示し、図の中央は、起床後を示し、図の右側は、離床後を示す。図11ないし図14において、上段は、カメラで取得された画像の一例を示し、下段は、上段で示す画像から抽出された人体領域を示す。   FIG. 1 is a diagram illustrating a configuration of a monitored person monitoring system according to the embodiment. FIG. 2 is a diagram illustrating a configuration of a sensor device in the monitored person monitoring system according to the embodiment. FIG. 3 is a diagram for explaining setting areas and behavior detection lines used in the sensor device. FIG. 3 is also an example of an input screen for inputting these setting areas and action detection lines. FIG. 4 is a diagram for explaining the positional relationship of the camera with respect to the setting area. FIG. 5 is a diagram for explaining a method for obtaining the positional relationship of the camera used in the sensor device. FIG. 5A shows a case where the image center is located in front of the action detection line in the setting area (bedding area), and FIG. 5B shows a case where the image center is located in the setting area (bedding area). FIG. 6 is a flowchart of a main routine showing an action detection algorithm for Xn used in the sensor device. Xn is the positional relationship of the camera, and in the present embodiment, it is directly above, near side, back, side, diagonally forward and diagonally back. FIG. 7 is a flowchart of a subroutine showing the wake-up determination algorithm for Xn in the behavior detection algorithm for Xn. FIG. 8 is a flowchart of a subroutine showing a bed leaving determination algorithm for Xn in the behavior detection algorithm for Xn. FIG. 9 is a diagram for explaining a wake-up determination method and a get-off determination method used in the action detection algorithm for the direct use used when the positional relationship of the camera is directly above. The left side of FIG. 9 shows an example of an image acquired by the camera, and the right side of FIG. 9 shows a human body region (human body region) extracted from the image shown on the left side of FIG. FIG. 10 is a diagram for explaining a wake-up determination method and a get-off determination method used in the near-behavior detection algorithm used when the positional relationship of the camera is in front. FIG. 11 is a diagram for explaining a wake-up determination method and a get-off determination method used in a horizontal behavior detection algorithm used when the positional relationship of the camera is horizontal. FIG. 12 is a diagram for explaining a wake-up determination method and a get-off determination method used in a back-behavior detection algorithm used when the positional relationship of the camera is in the back. FIG. 13 is a diagram for explaining a wake-up determination method and a get-off determination method used in the action detection algorithm for the diagonally front used when the positional relationship of the camera is diagonally forward. FIG. 14 is a diagram for explaining a wake-up determination method and a get-off determination method used in a behavior detection algorithm for a diagonal back used when the positional relationship of the camera is a diagonal back. 10 to 14, the left side of the figure shows before waking up, the center of the figure shows after waking up, and the right side of the figure shows after waking up. 11 to 14, the upper part shows an example of an image acquired by the camera, and the lower part shows a human body region extracted from the image shown in the upper part.

前記被監視者監視装置をシステムとして実現したその一例の被監視者監視システムMSは、監視すべき(見守るべき)監視対象(見守り対象)である被監視者(見守り対象者)Ob(Ob−1〜Ob−4)における、予め設定された所定の行動を検知して前記被監視者Obを監視するものであり、例えば、図1に示すように、1または複数のセンサ装置SU(SU−1〜SU−4)と、管理サーバ装置SVと、固定端末装置SPと、1または複数の携帯端末装置TA(TA−1、TA−2)とを備え、これらは、有線や無線で、LAN(Local Area Network)、電話網およびデータ通信網等の網(ネットワーク、通信回線)NWを介して通信可能に接続される。ネットワークNWには、通信信号を中継する例えばリピーター、ブリッジ、ルーターおよびクロスコネクト等の中継機が備えられても良い。図1に示す例では、これら複数のセンサ装置SU−1〜SU−4、管理サーバ装置SV、固定端末装置SPおよび複数の携帯端末装置TA−1、TA−2は、アクセスポイントAPを含む無線LAN(例えばIEEE802.11規格に従ったLAN等)NWによって互いに通信可能に接続されている。   An example of a monitored person monitoring system MS that realizes the monitored person monitoring device as a system is a monitored person (watched person) Ob (Ob-1) which is a monitored object (watched object) to be monitored (watched). To Ob-4) by detecting a predetermined action set in advance and monitoring the monitored person Ob. For example, as shown in FIG. 1, one or a plurality of sensor devices SU (SU-1) To SU-4), a management server device SV, a fixed terminal device SP, and one or a plurality of portable terminal devices TA (TA-1, TA-2), which are wired or wirelessly connected to a LAN ( It is connected to be communicable via a network (network, communication line) NW such as a local area network), a telephone network and a data communication network. The network NW may be provided with relays such as repeaters, bridges, routers, and cross-connects that relay communication signals. In the example illustrated in FIG. 1, the plurality of sensor devices SU-1 to SU-4, the management server device SV, the fixed terminal device SP, and the plurality of portable terminal devices TA-1 and TA-2 are wireless including an access point AP. A LAN (for example, a LAN according to the IEEE 802.11 standard) NW is connected to be communicable with each other.

被監視者監視システムMSは、被監視者Obに応じて適宜な場所に配設される。被監視者(見守り対象者)Obは、例えば、病気や怪我等によって看護を必要とする者や、身体能力の低下等によって介護を必要とする者や、一人暮らしの独居者等である。特に、早期発見と早期対処とを可能にする観点から、被監視者Obは、例えば異常状態等の所定の不都合な事象がその者に生じた場合にその発見を必要としている者であることが好ましい。このため、被監視者監視システムMSは、被監視者Obの種類に応じて、病院、老人福祉施設および住戸等の建物に好適に配設される。図1に示す例では、被監視者監視システムMSは、複数の被監視者Obが入居する複数の居室RMや、ナースステーション等の複数の部屋を備える介護施設の建物に配設されている。   The monitored person monitoring system MS is arranged at an appropriate place according to the monitored person Ob. The monitored person (person to be watched) Ob is, for example, a person who needs nursing due to illness or injury, a person who needs care due to a decrease in physical ability, a single person living alone, or the like. In particular, from the viewpoint of enabling early detection and early action, the monitored person Ob may be a person who needs the detection when a predetermined inconvenient event such as an abnormal state occurs in the person. preferable. For this reason, the monitored person monitoring system MS is suitably arranged in a building such as a hospital, a welfare facility for the elderly, and a dwelling unit according to the type of the monitored person Ob. In the example illustrated in FIG. 1, the monitored person monitoring system MS is disposed in a building of a care facility that includes a plurality of rooms RM in which a plurality of monitored persons Ob live and a plurality of rooms such as a nurse station.

センサ装置SUは、ネットワークNWを介して他の装置SV、SP、TAと通信する通信機能を備え、被監視者Obを検知してその検知結果を管理サーバ装置SVへ送信する装置である。このセンサ装置SUは、後にさらに詳述する。   The sensor device SU is a device that has a communication function for communicating with other devices SV, SP, and TA via the network NW, detects the monitored person Ob, and transmits the detection result to the management server device SV. This sensor device SU will be described in detail later.

管理サーバ装置SVは、ネットワークNWを介して他の装置SU、SP、TAと通信する通信機能を備え、センサ装置SUから被監視者Obに関する検知結果および前記被監視者Obの画像を受信して被監視者Obに対する監視に関する情報(監視情報)を管理する機器である。管理サーバ装置SVは、センサ装置SUから被監視者Obに関する前記検知結果および前記被監視者Obの画像を受信すると、被監視者Obに対する監視に関する前記監視情報を記憶(記録)し、そして、被監視者Obに対する監視に関する前記監視情報を収容した通信信号(監視情報通信信号)を固定端末装置SPおよび携帯端末装置TAに送信する。また、管理サーバ装置SVは、クライアント(本実施形態では固定端末装置SPおよび携帯端末装置TA等)の要求に応じたデータを前記クライアントに提供する。このような管理サーバ装置SVは、例えば、通信機能付きのコンピュータによって構成可能である。   The management server device SV has a communication function for communicating with other devices SU, SP, TA via the network NW, and receives a detection result regarding the monitored person Ob and an image of the monitored person Ob from the sensor device SU. This is a device that manages information (monitoring information) related to monitoring of the monitored person Ob. When the management server device SV receives the detection result related to the monitored person Ob and the image of the monitored person Ob from the sensor device SU, the management server apparatus SV stores (records) the monitoring information related to monitoring the monitored person Ob, and A communication signal (monitoring information communication signal) containing the monitoring information related to the monitoring of the observer Ob is transmitted to the fixed terminal device SP and the portable terminal device TA. Further, the management server device SV provides the client with data corresponding to the request of the client (in this embodiment, the fixed terminal device SP and the portable terminal device TA). Such a management server device SV can be configured by, for example, a computer with a communication function.

固定端末装置SPは、ネットワークNWを介して他の装置SU、SV、TAと通信する通信機能、所定の情報を表示する表示機能、および、所定の指示やデータを入力する入力機能等を備え、管理サーバ装置SVや携帯端末装置TAに与える所定の指示やデータを入力したり、センサ装置SUで得られた検知結果や画像を表示したり等することによって、被監視者監視システムMSのユーザインターフェース(UI)として機能する機器である。このような固定端末装置SPは、例えば、通信機能付きのコンピュータによって構成可能である。   The fixed terminal device SP includes a communication function for communicating with other devices SU, SV, TA via the network NW, a display function for displaying predetermined information, an input function for inputting predetermined instructions and data, and the like. The user interface of the monitored person monitoring system MS is input by inputting predetermined instructions and data to be given to the management server device SV and the portable terminal device TA, and displaying detection results and images obtained by the sensor device SU. It is a device that functions as (UI). Such a fixed terminal device SP can be configured by, for example, a computer with a communication function.

携帯端末装置TAは、ネットワークNWを介して他の装置SV、SP、SUと通信する通信機能、所定の情報を表示する表示機能、所定の指示やデータを入力する入力機能、および、音声通話を行う通話機能等を備え、管理サーバ装置SVやセンサ装置SUに与える所定の指示やデータを入力したり、管理サーバ装置SVからの通知によってセンサ装置SUで得られた前記検知結果や画像を表示したり等することによって、被監視者Obに対する監視に関する前記監視情報を受け付けて表示する機器である。このような携帯端末装置TAは、例えば、いわゆるタブレット型コンピュータやスマートフォンや携帯電話機等の、持ち運び可能な通信端末装置によって構成可能である。   The mobile terminal device TA has a communication function for communicating with other devices SV, SP, SU via the network NW, a display function for displaying predetermined information, an input function for inputting predetermined instructions and data, and a voice call. It has a call function to perform, and inputs a predetermined instruction or data to be given to the management server device SV or the sensor device SU, or displays the detection result or image obtained by the sensor device SU by a notification from the management server device SV. It is a device that receives and displays the monitoring information related to the monitoring of the monitored person Ob. Such a portable terminal device TA can be configured by a portable communication terminal device such as a so-called tablet computer, a smartphone, or a mobile phone.

次に、上述のセンサ装置SUについてさらに説明する。センサ装置SUは、例えば、図2に示すように、カメラ1と、音入出力部2と、制御処理部3と、通信インターフェース部(通信IF部)4と、記憶部5とを備える。   Next, the above-described sensor device SU will be further described. As shown in FIG. 2, for example, the sensor device SU includes a camera 1, a sound input / output unit 2, a control processing unit 3, a communication interface unit (communication IF unit) 4, and a storage unit 5.

カメラ1は、制御処理部3に接続され、制御処理部3の制御に従って、画像(画像データ)を生成する装置である。カメラ1は、監視すべき監視対象である被監視者Obが所在を予定している空間(所在空間、図1に示す例では配設場所の居室RM)を監視可能に前記所在空間の上方に配置され、前記所在空間を撮像対象としてその上方から撮像し、前記撮像対象を俯瞰した画像(画像データ)を生成し、前記撮像対象の画像を制御処理部3へ出力する。カメラ1は、本実施形態では、静止画および動画を生成する。このようなカメラ1は、被監視者Ob全体を撮像できる蓋然性が高いことから、被監視者Obの横臥する例えばベッド等の寝具BTにおける、被監視者Obの頭部が位置すると予定されている予め設定された頭部予定位置(通常、枕の配設位置)の直上から撮像対象を撮像できるように、配設されることが好ましいが、実際には、部屋のサイズ(大きさ)や形状等に応じて、適宜な位置、例えば天井や壁の上方等に配設される。カメラ1は、監視対象である被監視者Obを、被監視者Obの上方から撮像した画像を取得する画像取得部の一例である。   The camera 1 is an apparatus that is connected to the control processing unit 3 and generates an image (image data) under the control of the control processing unit 3. The camera 1 can monitor a space (location space, in the example shown in FIG. 1, the room RM of the installation location) where the monitored person Ob, who is the monitoring target to be monitored, is located above the location space. It is arranged and images the image of the location space as an imaging target from above, generates an image (image data) overlooking the imaging target, and outputs the imaging target image to the control processing unit 3. In the present embodiment, the camera 1 generates a still image and a moving image. Since such a camera 1 has a high probability of being able to image the entire monitored subject Ob, the head of the monitored subject Ob is expected to be located in a bedding BT such as a bed lying on the monitored subject Ob. It is preferably arranged so that the imaging target can be imaged immediately above a preset head position (usually a pillow arrangement position), but in reality, the size (size) and shape of the room Depending on the above, it is disposed at an appropriate position, for example, above the ceiling or wall. The camera 1 is an example of an image acquisition unit that acquires an image of the monitored person Ob that is a monitoring target, taken from above the monitored person Ob.

このようなカメラ1は、可視光の画像を生成する装置であって良いが、比較的暗がりでも被監視者Obを監視できるように、本実施形態では、赤外光の画像を生成する装置である。このようなカメラ1は、例えば、本実施形態では、撮像対象における赤外の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象における赤外の光学像を電気的な信号に変換するイメージセンサ、および、イメージセンサの出力を画像処理することで前記撮像対象における赤外の画像を表すデータである画像データを生成する画像処理部等を備えるデジタル赤外線カメラである。カメラ1の結像光学系は、本実施形態では、その配設された居室RM全体を撮像できる画角を持つ広角な光学系(いわゆる広角レンズ(魚眼レンズを含む))であることが好ましい。なお、カメラ1は、赤外線サーモグラフィー装置であっても良い。   Such a camera 1 may be a device that generates an image of visible light, but in the present embodiment, it is a device that generates an image of infrared light so that the monitored person Ob can be monitored even in a relatively dark place. is there. Such a camera 1 is, for example, in this embodiment, an imaging optical system that forms an infrared optical image of an imaging target on a predetermined imaging surface, and a light receiving surface that is aligned with the imaging surface. An image sensor that converts an infrared optical image in the imaging target into an electrical signal, and image data that is data representing an infrared image in the imaging target by performing image processing on the output of the image sensor. A digital infrared camera including an image processing unit to be generated. In this embodiment, the imaging optical system of the camera 1 is preferably a wide-angle optical system (so-called wide-angle lens (including a fisheye lens)) having an angle of view that can capture the entire room RM in which the camera 1 is disposed. The camera 1 may be an infrared thermography device.

なお、センサ装置SUは、被監視者における所定の行動の1つとして微体動異常を検知するために、ドップラセンサをさらに備えても良い。このドップラセンサは、送信波を送信し、物体で反射した前記送信波の反射波を受信し、前記送信波と前記反射波とに基づいてドップラ周波数成分のドップラ信号を出力する体動センサである。前記物体が動いている場合、いわゆるドップラ効果により前記物体の動いている速度に比例して反射波の周波数がシフトするため、送信波の周波数と反射波の周波数とに差(ドップラ周波数成分)が生じる。ドップラセンサ11は、このドップラ周波数成分の信号をドップラ信号として生成し、制御処理部3へ出力する。前記送信波は、超音波やマイクロ波等であって良いが、本実施形態では、マイクロ波である。マイクロ波は、着衣を透過して被監視者Obの体表で反射できるため、被監視者Obが衣服を着ていても体表の動きを検知でき、好ましい。そして、制御処理部3は、後述の行動検知処理部36によって、前記ドップラセンサのドップラ信号に基づいて被監視者Obの呼吸動作に伴う胸部の体動(胸部の上下動)を求め、その胸部の体動における周期の乱れや予め設定された閾値以下である前記胸部の体動における振幅を検知すると、前記微体動異常であると判定する。   Note that the sensor device SU may further include a Doppler sensor in order to detect a minute movement abnormality as one of the predetermined actions in the monitored person. This Doppler sensor is a body motion sensor that transmits a transmission wave, receives a reflection wave of the transmission wave reflected by an object, and outputs a Doppler signal having a Doppler frequency component based on the transmission wave and the reflection wave. . When the object is moving, the frequency of the reflected wave shifts in proportion to the moving speed of the object due to the so-called Doppler effect, so there is a difference (Doppler frequency component) between the frequency of the transmitted wave and the frequency of the reflected wave. Arise. The Doppler sensor 11 generates a signal of the Doppler frequency component as a Doppler signal and outputs it to the control processing unit 3. The transmission wave may be an ultrasonic wave, a microwave, or the like, but is a microwave in the present embodiment. Since the microwave can be transmitted through the clothing and reflected from the body surface of the monitored person Ob, the movement of the body surface can be detected even when the monitored person Ob is wearing clothes. Then, the control processing unit 3 obtains the chest movement (up and down movement of the chest) accompanying the breathing motion of the monitored person Ob based on the Doppler signal of the Doppler sensor by the behavior detection processing unit 36 described later, and the chest If the amplitude of the body motion of the chest that is less than a preset threshold value is detected, the abnormal body motion is determined to be abnormal.

音入出力部2は、制御処理部3に接続され、外部の音を取得してセンサ装置SUに入力するための回路であって、制御処理部3の制御に従って音を表す電気信号に応じた音を生成して出力するための回路である。音入出力部2は、例えば、音の音響振動を電気信号に変換するマイクロホン等と、音の電気信号を音の音響振動に変換するスピーカ等とを備えて構成される。音入出力部2は、外部の音を表す電気信号を制御処理部3へ出力し、また、制御処理部3から入力された電気信号を音の音響振動に変換して出力する。   The sound input / output unit 2 is connected to the control processing unit 3 and is a circuit for acquiring an external sound and inputting it to the sensor device SU. It is a circuit for generating and outputting sound. The sound input / output unit 2 includes, for example, a microphone that converts sound acoustic vibrations into electrical signals, and a speaker that converts sound electrical signals into sound acoustic vibrations. The sound input / output unit 2 outputs an electric signal representing an external sound to the control processing unit 3, and converts the electric signal input from the control processing unit 3 into an acoustic vibration of the sound and outputs the sound.

通信IF部4は、制御処理部3に接続され、制御処理部3の制御に従って通信を行うための通信回路である。通信IF部4は、制御処理部3から入力された転送すべきデータを収容した通信信号を、この被監視者監視システムMSのネットワークNWで用いられる通信プロトコルに従って生成し、この生成した通信信号をネットワークNWを介して他の装置SV、SP、TAへ送信する。通信IF部4は、ネットワークNWを介して他の装置SV、SP、TAから通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータを制御処理部3が処理可能な形式のデータに変換して制御処理部3へ出力する。なお、通信IF部4は、さらに、例えば、Bluetooth(登録商標)規格、IrDA(Infrared Data Asscoiation)規格およびUSB(Universal Serial Bus)規格等の規格を用い、外部機器との間でデータの入出力を行うインターフェース回路を備えても良い。   The communication IF unit 4 is a communication circuit that is connected to the control processing unit 3 and performs communication according to the control of the control processing unit 3. The communication IF unit 4 generates a communication signal containing data to be transferred input from the control processing unit 3 in accordance with a communication protocol used in the network NW of the monitored person monitoring system MS, and generates the generated communication signal. It transmits to other devices SV, SP, TA via the network NW. The communication IF unit 4 receives a communication signal from another device SV, SP, TA via the network NW, extracts data from the received communication signal, and a format in which the control processing unit 3 can process the extracted data. And output to the control processing unit 3. The communication IF unit 4 further uses, for example, standards such as the Bluetooth (registered trademark) standard, the IrDA (Infrared Data Association) standard, and the USB (Universal Serial Bus) standard to input / output data to / from an external device. An interface circuit may be provided.

記憶部5は、制御処理部3に接続され、制御処理部3の制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。   The storage unit 5 is a circuit that is connected to the control processing unit 3 and stores various predetermined programs and various predetermined data under the control of the control processing unit 3.

前記各種の所定のプログラムには、例えば、被監視者Obに対する監視に関する情報処理を実行する監視処理プログラム等の制御処理プログラムが含まれる。前記監視処理プログラムには、画像中における所定の領域を設定領域として設定するための処理を行う領域設定処理プログラム、被監視者Obにおける所定の行動を検知するために予め記憶された複数の所定の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線として設定するための処理を行う行動検知線設定処理プログラム、前記設定領域に対するカメラ1の位置関係を求める位置関係演算プログラム、前記複数の行動検知アルゴリズムの中から位置関係演算プログラムで求めた位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択プログラム、前記アルゴリズム選択プログラムで選択した行動検知アルゴリズムでカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動を検知する行動検知処理プログラム、前記行動検知プログラムで検知した前記所定の行動を外部に通知する通知処理プログラム、カメラ12で撮像した動画を、その動画を要求した固定端末装置SPや携帯端末装置TAへストリーミングで配信するストリーミング処理プログラム、および、音入出力部2等を用いることで固定端末装置SPや携帯端末装置TAとの間で音声通話を行うナースコール処理プログラム等が含まれる。前記各種の所定のデータには、例えば、前記設定領域および前記行動検知線等のこれら上述の各プログラムを実行する上で必要なデータや、被監視者Obを監視する上で必要なデータ等が含まれる。   The various predetermined programs include, for example, control processing programs such as a monitoring processing program for executing information processing related to monitoring of the monitored person Ob. The monitoring processing program includes a region setting processing program for performing processing for setting a predetermined region in the image as a setting region, and a plurality of predetermined stored in advance for detecting a predetermined action in the monitored person Ob. A behavior detection line setting processing program for performing processing for setting a predetermined line in the image as a behavior detection line, which is used for at least one of the behavior detection algorithms, and obtaining a positional relationship of the camera 1 with respect to the setting region Positional calculation program, algorithm selection program for selecting a behavior detection algorithm based on the positional relationship obtained by the positional relationship calculation program from among the plurality of behavior detection algorithms, camera 1 using the behavior detection algorithm selected by the algorithm selection program Based on the acquired image, the monitored person Ob A behavior detection processing program for detecting a predetermined behavior, a notification processing program for notifying the predetermined behavior detected by the behavior detection program to the outside, a fixed terminal device SP requesting the video, Includes a streaming processing program for streaming to the mobile terminal device TA, a nurse call processing program for making a voice call with the fixed terminal device SP and the mobile terminal device TA by using the sound input / output unit 2 and the like. . Examples of the various predetermined data include data necessary for executing the above-described programs such as the setting area and the action detection line, and data necessary for monitoring the monitored person Ob. included.

これら前記設定領域、前記行動検知線および前記複数の行動検知アルゴリズムを記憶するために、記憶部5は、機能的に、設定領域記憶部51、行動検知線記憶部52および行動検知アルゴリズム記憶部53を備える。   In order to store the setting area, the action detection line, and the plurality of action detection algorithms, the storage unit 5 functionally includes a setting area storage unit 51, an action detection line storage unit 52, and an action detection algorithm storage unit 53. Is provided.

設定領域記憶部51は、画像中における所定の領域を設定領域として記憶するものである。設定領域は、被監視者Obにおける所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる領域であり、本実施形態では、前記所定の行動は、被監視者Obの起床および離床であることから、前記起床の有無および前記離床の有無を検知するために、設定領域ARは、例えば、図3に4点PT1〜PT4で囲まれた領域として示すように、カメラ1で所在空間を撮像した画像中における例えばベッド等の寝具BTの領域である。   The setting area storage unit 51 stores a predetermined area in the image as a setting area. The setting area is an area used for at least one of the plurality of action detection algorithms to detect a predetermined action in the monitored person Ob. In the present embodiment, the predetermined action is the monitored person. In order to detect the presence or absence of the wake-up and the presence or absence of the wake-up, the setting area AR is, for example, as shown as an area surrounded by four points PT1 to PT4 in FIG. This is an area of a bedding BT such as a bed in an image obtained by imaging a location space with the camera 1.

行動検知線記憶部52は、画像中における所定の線を行動検知線として記憶するものである。行動検知線は、被監視者Obにおける所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる線であり、本実施形態では、前記所定の行動は、被監視者Obの起床および離床であることから、前記起床の有無および前記離床の有無を検知するために、行動検知線ALは、例えば、図3に2点PT2、PT3の線分として示すように、寝具BTに対し入床および離床する、寝具BTの領域として設定された設定領域ARにおける1または複数の境界線である。   The action detection line storage unit 52 stores a predetermined line in the image as an action detection line. The action detection line is a line used for at least one of the plurality of action detection algorithms in order to detect a predetermined action in the monitored person Ob. In the present embodiment, the predetermined action is the monitored object. In order to detect the presence or absence of the wake-up and the presence or absence of the wake-up, the action detection line AL is, for example, shown as a line segment of two points PT2 and PT3 in FIG. These are one or more boundary lines in the set area AR set as the area of the bedding BT that enters and leaves the bedding BT.

行動検知アルゴリズム記憶部53は、互いに異なる複数の行動検知アルゴリズムを設定領域ARに対する、前記画像を撮像したカメラ1の位置関係に対応付けて記憶するものである。   The behavior detection algorithm storage unit 53 stores a plurality of different behavior detection algorithms in association with the positional relationship of the camera 1 that has captured the image with respect to the setting area AR.

設定領域ARに対する前記カメラ1の位置関係は、本実施形態では、例えば、図4に示すように、設定領域ARを基準に分類されており、カメラ1が設定領域ARの直上に位置する直上PO1、カメラ1が設定領域ARの手前上方に位置する手前PO2、カメラ1が設定領域ARの奥上方に位置する奥PO3、カメラ1が設定領域ARの横上方に位置する横PO4、PO4、カメラ1が設定領域ARの斜め前上方に位置する斜め前PO5、PO5、および、カメラ1が設定領域ARの斜め奥上方に位置する斜め奥PO6、PO6である。これら直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6は、後述の基本位置関係でもある。   In the present embodiment, for example, as shown in FIG. 4, the positional relationship of the camera 1 with respect to the setting area AR is classified based on the setting area AR, and the camera PO 1 is located immediately above the setting area AR. , Camera PO1 is positioned in front of setting area AR, camera PO1 is positioned in front of setting area AR, camera PO1 is positioned in the upper side of setting area AR, camera PO1 is positioned in the horizontal direction of setting area AR, PO4, PO4, camera 1 Are diagonally forward PO5 and PO5 located diagonally forward and upward of the setting area AR, and diagonally backward PO6 and PO6 where the camera 1 is diagonally backward and upward of the setting area AR. These directly above PO1, front side PO2, back side PO3, side PO4, diagonally front PO5, and diagonally back PO6 also have a basic positional relationship described later.

そして、互いに異なる複数の行動検知アルゴリズムは、本実施形態では、これら6個の直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6それぞれに対応して予め用意されており、前記複数の行動検知アルゴリズムは、前記カメラ1の位置関係が直上PO1である場合に用いられる直上用の行動検知アルゴリズム、前記カメラ1の位置関係が手前PO2である場合に用いられる手前用の行動検知アルゴリズム、前記カメラ1の位置関係が奥PO3である場合に用いられる奥用の行動検知アルゴリズム、前記カメラ1の位置関係が横PO4である場合に用いられる横用の行動検知アルゴリズム、前記カメラ1の位置関係が斜め前PO5である場合に用いられる斜め前用の行動検知アルゴリズム、および、前記カメラ1の位置関係が斜め奥である場合に用いられる斜め奥用の行動検知アルゴリズムを含む。   In the present embodiment, a plurality of different behavior detection algorithms are prepared in advance corresponding to each of these six directly above PO1, front PO2, back PO3, side PO4, diagonal front PO5 and diagonal back PO6, The plurality of behavior detection algorithms include a behavior detection algorithm for directly above that is used when the positional relationship of the camera 1 is directly above PO1, and a behavior detection for the front that is used when the positional relationship of the camera 1 is near PO2. An algorithm, a behavior detection algorithm for the back used when the positional relationship of the camera 1 is the back PO3, a behavior detection algorithm for the horizontal used when the positional relationship of the camera 1 is the horizontal PO4, The action detection algorithm for oblique front used when the positional relationship is obliquely forward PO5, and the turtle Including behavior detection algorithm for oblique rear used in the case 1 of the positional relationship is an oblique rear.

前記直上用の行動検知アルゴリズムは、例えば、図9に示すように、画像上における設定領域AR外の被監視者Obの第1面積S1、および、前記画像上における設定領域ARと被監視者Obとが重なった第2面積S2に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。   For example, as shown in FIG. 9, the behavior detection algorithm for the directly above includes the first area S1 of the monitored person Ob outside the setting area AR on the image, and the setting area AR and the monitored person Ob on the image. This is an algorithm for detecting a predetermined action in the monitored person Ob based on the second area S2 in which and overlap.

前記手前用の行動検知アルゴリズムは、例えば、図10に示すように、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waに基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。この距離Waは、行動検知線ALの外側にはみ出した被監視者Obの長さに相当する。   For example, as shown in FIG. 10, the foreground behavior detection algorithm is based on a distance Wa between the behavior detection line AL on the image and the toe position FP of the monitored person Ob. Is an algorithm for detecting This distance Wa corresponds to the length of the monitored person Ob that protrudes outside the action detection line AL.

前記横用の行動検知アルゴリズムは、例えば、図11に示すように、画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。   For example, as shown in FIG. 11, the horizontal behavior detection algorithm includes a first boundary line BL <b> 1 that is positioned closest to the camera 1 along the horizontal direction of the setting area AR on the image and the setting area. The monitored person based on the third area S3 in which the setting area AR and the monitored person Ob overlap with the second boundary line BL2 located farthest from the camera 1 along the horizontal direction of the AR. It is an algorithm for detecting a predetermined action in Ob.

前記奥用の行動検知アルゴリズムは、例えば、図12に示すように、画像上における設定領域ARと被監視者Obとが重なった第2面積S2に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。   For example, as shown in FIG. 12, the back-behavior detection algorithm detects a predetermined action in the monitored person Ob based on the second area S2 where the set area AR and the monitored person Ob overlap on the image. It is an algorithm to do.

前記斜め前用の行動検知アルゴリズムは、例えば、図13に示すように、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Wa、および、前記画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。   For example, as shown in FIG. 13, the action detection algorithm for the diagonally front includes a distance Wa between the action detection line AL on the image and the toe position FP of the monitored person Ob, and a setting area on the image. A first boundary line BL1 positioned closest to the camera 1 along the horizontal direction of the AR and a second boundary line BL2 positioned farthest from the camera 1 along the horizontal direction of the setting area AR; This is an algorithm for detecting a predetermined action in the monitored person Ob based on the third area S3 where the setting area AR and the monitored person Ob overlap each other.

前記斜め奥用の行動検知アルゴリズムは、例えば、図14に示すように、画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3に基づいて被監視者Obにおける所定の行動を検知するアルゴリズムである。   For example, as shown in FIG. 14, the oblique back-behavior detection algorithm is set with the first boundary line BL1 that is positioned closest to the camera 1 along the horizontal direction of the setting area AR on the image. The monitored area is based on the third area S3 where the set area AR and the monitored person Ob overlap with the second boundary line BL2 located farthest from the camera 1 along the horizontal direction of the area AR. It is an algorithm which detects the predetermined action in person Ob.

これら6個の前記直上用の行動検知アルゴリズム、前記手前用の行動検知アルゴリズム、前記奥用の行動検知アルゴリズム、前記横用の行動検知アルゴリズム、前記斜め前用の行動検知アルゴリズムおよび前記斜め奥用の行動検知アルゴリズムは、大略、同様の手順であり、Xnを直上、手前、奥、横、斜め前および斜め奥とすると(Xn=直上、手前、奥、横、斜め前、斜め奥)、図6ないし図8に示すフォローチャートで表すことができる。   These six action detection algorithms for the immediately above, the action detection algorithm for the foreground, the action detection algorithm for the back, the action detection algorithm for the side, the action detection algorithm for the diagonally forward, and the diagonally The behavior detection algorithm is generally the same procedure, and when Xn is directly above, near, back, side, diagonally forward and diagonally back (Xn = directly, near, back, side, diagonally forward, diagonally back), FIG. Or it can represent with the follow chart shown in FIG.

より具体的には、Xn用の行動検知アルゴリズムでは、図6に示すように、先ず、画像から人体の領域(人体領域)が抽出され(S1n)、次に、Xn用の起床判定処理が実行され(S2n)、そして、Xn用の離床判定処理が実行される(S3n)。人体領域は、カメラ1で取得した画像から例えば背景差分法やフレーム間差分法等の手法を用いることで動体領域を抽出することで抽出される(動体領域=人体領域)。前記背景差分法では、予め背景画像が求められて前記各種の所定のデータの1つとして記憶部5に予め記憶され、カメラ1によって生成された画像と前記背景画像との差分画像から動体の有無が判定され、この判定の結果、動体がある場合にはこの動体の領域が動体領域とされる。前記フレーム差分法では、カメラ1によって生成された、現在のフレームの画像と過去のフレーム(例えば1つ前のフレーム)の画像との差分画像から動体の有無が判定され、この判定の結果、動体がある場合にはこの動体の領域が動体領域とされる。なお、逆に、Xn用の離床判定処理S3nが実行された後に、Xn用の起床判定処理S2nが実行されても良い。   More specifically, in the behavior detection algorithm for Xn, as shown in FIG. 6, first, a human body region (human body region) is extracted from the image (S1n), and then a wake-up determination process for Xn is executed. (S2n), and a bed leaving determination process for Xn is executed (S3n). The human body region is extracted by extracting the moving body region from the image acquired by the camera 1 by using a method such as a background difference method or an inter-frame difference method (moving body region = human body region). In the background difference method, a background image is obtained in advance and stored in advance in the storage unit 5 as one of the various predetermined data, and the presence / absence of moving objects is determined from the difference image between the image generated by the camera 1 and the background image. If there is a moving object as a result of this determination, the area of the moving object is set as a moving object area. In the frame difference method, the presence / absence of a moving object is determined from a difference image between an image of a current frame and an image of a past frame (for example, the previous frame) generated by the camera 1. If there is a moving object region, this moving object region is set as the moving object region. Conversely, the Xn wake-up determination process S2n may be executed after the Xn wake-up determination process S3n is executed.

Xn用の起床判定処理S2nでは、図7に示すように、まず、被監視者Obにおける起床に関する現在の状態が起床前か否かが判定される(S21n)。被監視者Obにおける起床に関する現在の状態は、記憶部5に記憶される。例えば、被監視者Obにおける起床に関する現在の状態は、起床に関する状態を表すフラグ(起床状態フラグ)によって記憶部5に記憶される。例えば、被監視者Obが起床前であると判定されている場合には、この起床状態フラグは、「0」とされ、被監視者Obが起床後であると判定されている場合には、この起床状態フラグは、「1」とされる。この判定の結果、起床前ではない場合、すなわち、起床後である場合(起床状態フラグ=1、No)には、このXn用の起床判定処理S2nが終了され、起床前である場合(起床状態フラグ=0、Yes)には、次の処理S22nが実行される。処理S22nでは、Xn用の起床判定条件を満たすか否かが判定される。この処理S22nは、Xnごとに後にさらに説明する。この判定の結果、Xn用の起床判定条件を満たす場合(Yes)は、起床が通知処理部37へ通知され(S23n)、被監視者Obにおける起床に関する現在の状態が起床後として記憶部5に記憶され(起床状態フラグ←1、S24n)、このXn用の起床判定処理S2nが終了される。一方、前記判定の結果、Xn用の起床判定条件を満たさない場合(No)は、被監視者Obにおける起床に関する現在の状態が起床前として記憶部5に記憶され(起床状態フラグ←0、S25n)、このXn用の起床判定処理S2nが終了される。   In the wake-up determination process S2n for Xn, as shown in FIG. 7, it is first determined whether or not the current state related to wake-up in the monitored person Ob is before wake-up (S21n). The current state regarding the wake-up in the monitored person Ob is stored in the storage unit 5. For example, the current state regarding the wake-up in the monitored person Ob is stored in the storage unit 5 by a flag (wake-up state flag) indicating the state related to the wake-up. For example, when it is determined that the monitored person Ob is before waking up, the wake-up state flag is “0”, and when it is determined that the monitored person Ob is after waking up, The wake-up state flag is “1”. If the result of this determination is not before waking up, that is, after waking up (wake-up state flag = 1, No), the wake-up determination process S2n for Xn is terminated, and when it is before waking up (wake-up state) For flag = 0, Yes), the next process S22n is executed. In the process S22n, it is determined whether or not the wake-up determination condition for Xn is satisfied. This process S22n will be further described later for each Xn. As a result of this determination, when the wake-up determination condition for Xn is satisfied (Yes), the wake-up is notified to the notification processing unit 37 (S23n), and the current state regarding wake-up in the monitored person Ob is stored in the storage unit 5 as after wake-up. (Wake-up state flag ← 1, S24n) is stored, and the wake-up determination process S2n for Xn is ended. On the other hand, as a result of the determination, if the wake-up determination condition for Xn is not satisfied (No), the current state regarding wake-up in the monitored person Ob is stored in the storage unit 5 as before wake-up (wake-up state flag ← 0, S25n ), The wake-up determination process S2n for Xn is completed.

Xn用の離床判定処理S3nでは、図8に示すように、まず、被監視者Obにおける離床に関する現在の状態が離床前か否かが判定される(S31n)。被監視者Obにおける離床に関する現在の状態は、記憶部5に記憶される。例えば、被監視者Obにおける離床に関する現在の状態は、離床に関する状態を表すフラグ(離床状態フラグ)によって記憶部5に記憶される。例えば、被監視者Obが離床前であると判定されている場合には、この離床状態フラグは、「0」とされ、被監視者Obが離床後であると判定されている場合には、この離床状態フラグは、「1」とされる。この判定の結果、離床前ではない場合、すなわち、離床後である場合(離床状態フラグ=1、No)には、このXn用の離床判定処理S3nが終了され、離床前である場合(離床状態フラグ=0、Yes)には、次の処理S32nが実行される。処理S32nでは、Xn用の離床判定条件を満たすか否かが判定される。この処理S32nは、Xnごとに後にさらに説明する。この判定の結果、Xn用の離床判定条件を満たす場合(Yes)は、離床が通知処理部37へ通知され(S33n)、被監視者Obにおける離床に関する現在の状態が離床後として記憶部5に記憶され(離床状態フラグ←1、S34n)、このXn用の離床判定処理S3nが終了される。一方、前記判定の結果、Xn用の離床判定条件を満たさない場合(No)は、被監視者Obにおける離床に関する現在の状態が離床前として記憶部5に記憶され(離床状態フラグ←0、S35n)、このXn用の離床判定処理S3nが終了される。   In the Xn bed leaving determination process S3n, as shown in FIG. 8, it is first determined whether or not the current state related to bed leaving in the monitored person Ob is before bed leaving (S31n). The current state related to getting out of bed of the monitored person Ob is stored in the storage unit 5. For example, the current state relating to getting out of bed of the monitored person Ob is stored in the storage unit 5 by a flag (a leaving state flag) indicating a state relating to getting out of the bed. For example, when it is determined that the monitored person Ob is before getting out of bed, this bed leaving state flag is “0”, and when it is determined that the monitored person Ob is after getting out of bed, The bed leaving state flag is set to “1”. If the result of this determination is not before getting out of bed, that is, after getting out of bed (leaving state flag = 1, No), this Xn getting out determination processing S3n is finished, and when it is before getting out of bed (leaving state) When the flag = 0, Yes), the next process S32n is executed. In the process S32n, it is determined whether or not the Xn bed leaving determination condition is satisfied. This process S32n will be further described later for each Xn. As a result of this determination, when the condition for determining bed leaving for Xn is satisfied (Yes), the notification processing unit 37 is notified of getting out of bed (S33n), and the current state related to getting off in the monitored person Ob is stored in the storage unit 5 as after leaving. Stored (leaving state flag ← 1, S34n), and the Xn leaving bed determination process S3n is terminated. On the other hand, as a result of the determination, when the condition for determining bed leaving for Xn is not satisfied (No), the current state regarding bed leaving in the monitored person Ob is stored in the storage unit 5 as before bed leaving (bed bed state flag ← 0, S35n ), The bed leaving determination process S3n for Xn is ended.

次に、図9ないし図14を用いてXnごとに、Xn用の起床判定条件およびXn用の離床判定条件について説明する。Xn用の起床判定条件およびXn用の離床判定条件は、例えば、本実施形態では、画像上における設定領域AR外の被監視者Obの第1面積S1、画像上における設定領域ARと被監視者Obとが重なった第2面積S2、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3、および、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waのうちの1または複数に基づく条件である。大略、前記第1面積S1が大きくなるに従って起床の発生が検知され、さらに大きくなるに従って離床の発生が検知される。大略、前記第2面積S2が小さくなるに従って起床の発生が検知され、さらに小さくなるに従って離床の発生が検知される。大略、前記第3面積S3が小さくなるに従って起床の発生が検知され、さらに小さくなるに従って離床の発生が検知される。そして、大略、前記距離Waが大きくなるに従って起床の発生が検知され、さらに大きくなるに従って離床の発生が検知される。   Next, the wake-up determination condition for Xn and the get-off determination condition for Xn will be described for each Xn with reference to FIGS. 9 to 14. In this embodiment, for example, in this embodiment, the first area S1 of the monitored person Ob outside the set area AR on the image, the set area AR on the image, and the monitored person The second area S2 where Ob overlaps, the first boundary line BL1 positioned closest to the camera 1 along the horizontal direction of the setting area AR and the camera 1 along the horizontal direction of the setting area AR. The third area S3 in which the set area AR and the monitored person Ob overlap with the second boundary line BL2 located at the farthest position, and the action detection line AL on the image and the foot of the monitored person Ob This is a condition based on one or more of the distances Wa to the position FP. In general, the occurrence of getting up is detected as the first area S1 becomes larger, and the occurrence of getting out of bed is detected as the first area S1 becomes larger. In general, the occurrence of getting up is detected as the second area S2 becomes smaller, and the occurrence of getting out of bed is detected as the second area S2 becomes smaller. In general, the occurrence of getting up is detected as the third area S3 becomes smaller, and the occurrence of getting out of bed is detected as the third area S3 becomes smaller. In general, the occurrence of getting up is detected as the distance Wa increases, and the occurrence of getting out is detected as the distance Wa increases.

より具体的には、まず、直上用の行動検知アルゴリズムで用いられる直上用の起床判定条件は、図9に示すように、画像上における設定領域AR外の被監視者Obの第1面積S1が予め設定された第1閾値(直上用起床判定閾値)Th1を越えたか否かである。第1面積S1が第1閾値Th1を越えた場合(S1>Th1)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる。一方、第1面積S1が第1閾値Th1以下である場合(S1≦Th1)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる。第1面積S1は、例えば、処理S1nで抽出された人体領域のうち、設定領域AR外の人体領域における画素の総数を計数することで求められる。そして、直上用の行動検知アルゴリズムで用いられる直上用の離床判定条件は、図9に示すように、画像上における設定領域ARと被監視者Obとが重なった第2面積S2が予め設定された第2閾値(直上用離床判定閾値)Th2を越えたか否かである。第2面積S2が第2閾値Th2を越えていない場合、すなわち、第2面積S2が第2閾値Th2未満である場合(S2<Th2)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる。一方、第2面積S2が第2閾値Th2以上である場合(S2≧Th2)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる。第2面積S2は、例えば、処理S1nで抽出された人体領域のうち、設定領域ARと人体領域とが重なった領域における画素の総数を計数することで求められる。これら第1および第2閾値Th1、Th2は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。   More specifically, as shown in FIG. 9, the wake-up determination condition for directly above that is used in the action detection algorithm for directly above is the first area S1 of the monitored person Ob outside the set area AR on the image. It is whether or not a preset first threshold value (directly rising wake-up determination threshold value) Th1 is exceeded. When the first area S1 exceeds the first threshold value Th1 (S1> Th1), it is determined that the monitored person Ob has woken up, and the current state regarding the wakeup in the monitored person Ob is after waking up. On the other hand, when the first area S1 is equal to or less than the first threshold Th1 (S1 ≦ Th1), it is determined that the monitored person Ob has not woken up, and the current state regarding the wakeup in the monitored person Ob is before waking up. It is said. The first area S1 is obtained, for example, by counting the total number of pixels in the human body region outside the setting region AR among the human body regions extracted in the process S1n. Then, as shown in FIG. 9, the second floor area S2 in which the set area AR and the monitored person Ob on the image overlap each other is set in advance as the bed leaving determination condition used in the action detection algorithm for the overhead. It is whether or not the second threshold value (a bed leaving determination threshold value immediately above) Th2 is exceeded. If the second area S2 does not exceed the second threshold Th2, that is, if the second area S2 is less than the second threshold Th2 (S2 <Th2), it is determined that the monitored person Ob has left the floor, The current state related to getting out of bed in the monitoring person Ob is after getting out of bed. On the other hand, when the second area S2 is equal to or larger than the second threshold Th2 (S2 ≧ Th2), it is determined that the monitored person Ob has not left the floor, and the current state regarding the leaving of the monitored person Ob is the state before leaving. It is said. The second area S2 is obtained, for example, by counting the total number of pixels in a region where the setting region AR and the human body region overlap among the human body regions extracted in the process S1n. The first and second threshold values Th1 and Th2 are set in advance experimentally by statistically processing a plurality of samples, for example.

手前用の行動検知アルゴリズムで用いられる手前用の起床判定条件は、図10に示すように、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waが予め設定された第3閾値(手前用起床判定閾値)Th3を越えたか否かである。距離Waが第3閾値Th3以上である場合(Wa≧Th3)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図10の中央参照)。一方、距離Waが第3閾値Th3を越えていない場合、すなわち、距離Waが第3閾値Th3未満である場合(Wa<Th3)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図10の左側参照)。距離Waは、例えば、処理S1nで抽出された人体領域のうち、床面に最も近い位置が被監視者Obの足先位置FPとされ、行動検知線ALとこの被監視者Obの足先位置FPとの間における、縦方向に沿う1ラインの画素の総数を計数することで求められる。そして、手前用の行動検知アルゴリズムで用いられる手前用の離床判定条件は、図10に示すように、前記距離Waが予め設定された第4閾値(手前用離床判定閾値)Th4を越えたか否かである。距離Waが第4閾値Th4以上である場合(Wa≧Th4)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図10の右側参照)。一方、距離Waが第4閾値Th4を越えていない場合、すなわち、距離Waが第4閾値Th4未満である場合(Wa<Th4)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図10の中央参照)。これら第3および第4閾値Th3、Th4は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。   As shown in FIG. 10, the wake-up determination condition for the foreground used in the foreground behavior detection algorithm has a preset distance Wa between the action detection line AL and the toe position FP of the monitored person Ob as shown in FIG. This is whether or not the third threshold (front wake-up determination threshold) Th3 is exceeded. When the distance Wa is equal to or greater than the third threshold Th3 (Wa ≧ Th3), it is determined that the monitored person Ob has woken up, and the current state regarding the wakeup in the monitored person Ob is after waking up (FIG. 10). In the middle). On the other hand, when the distance Wa does not exceed the third threshold Th3, that is, when the distance Wa is less than the third threshold Th3 (Wa <Th3), it is determined that the monitored person Ob is not waking up, The current state regarding the wake-up by the observer Ob is assumed to be before wake-up (see the left side of FIG. 10). The distance Wa is, for example, the position closest to the floor surface of the human body region extracted in the process S1n is the foot position FP of the monitored person Ob, and the action detection line AL and the foot position of the monitored person Ob It is obtained by counting the total number of pixels in one line along the vertical direction with the FP. Then, as shown in FIG. 10, the foreground determination condition used in the foreground behavior detection algorithm is whether or not the distance Wa exceeds a preset fourth threshold value (a foreground determination threshold value) Th4. It is. When the distance Wa is equal to or greater than the fourth threshold Th4 (Wa ≧ Th4), it is determined that the monitored person Ob has left the floor, and the current state related to getting out of the floor of the monitored person Ob is determined to be after leaving the floor (FIG. 10). See the right side). On the other hand, when the distance Wa does not exceed the fourth threshold Th4, that is, when the distance Wa is less than the fourth threshold Th4 (Wa <Th4), it is determined that the monitored person Ob has not left the floor, The current state related to getting out of bed in the supervisor Ob is assumed to be before getting out (see the center of FIG. 10). The third and fourth threshold values Th3 and Th4 are set in advance experimentally by statistically processing a plurality of samples, for example.

横用の行動検知アルゴリズムで用いられる横用の起床判定条件は、図11に示すように、画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3が予め設定された第5閾値(横用起床判定閾値)Th5を越えたか否かである。第3面積S3が第5閾値Th5以下である場合(S3≦Th5)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図11の中央参照)。一方、第3面積S3が第5閾値Th5を越えている場合(S3>Th5)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図11の左側参照)。第3面積S3は、例えば、処理S1nで抽出された人体領域のうち、第1境界線BL1と第2境界線BL2に挟まれた設定領域ARと人体領域とが重なった領域における画素の総数を計数することで求められる。そして、横用の行動検知アルゴリズムで用いられる横用の離床判定条件は、図11に示すように、前記第3面積S3が予め設定された第6閾値(横用離床判定閾値)Th6を越えたか否かである。第3面積S3が第6閾値Th6以下である場合(S3≦Th6)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図11の右側参照)。一方、第3面積S3が第6閾値Th6を越えている場合(S3>Th6)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図11の中央参照)。これら第5および第6閾値Th5、Th6は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。   As shown in FIG. 11, the horizontal wake-up determination condition used in the horizontal behavior detection algorithm is a first position located on the image closest to the camera 1 along the horizontal direction of the setting area AR. A third area S3 in which the setting area AR and the monitored subject Ob overlap each other between the boundary line BL1 and the second boundary line BL2 located farthest from the camera 1 along the horizontal direction of the setting area AR. Is greater than a preset fifth threshold value (horizontal wakeup determination threshold value) Th5. When the third area S3 is equal to or smaller than the fifth threshold Th5 (S3 ≦ Th5), it is determined that the monitored person Ob has woken up, and the current state regarding the wakeup in the monitored person Ob is after waking up ( (See the center of FIG. 11). On the other hand, when the third area S3 exceeds the fifth threshold Th5 (S3> Th5), it is determined that the monitored person Ob has not woken up, and the current state regarding the wakeup in the monitored person Ob is as follows. (Refer to the left side of FIG. 11). The third area S3 is, for example, the total number of pixels in a region where the human body region overlaps the setting region AR sandwiched between the first boundary line BL1 and the second boundary line BL2 among the human body regions extracted in the process S1n. It is obtained by counting. As shown in FIG. 11, the horizontal bed leaving detection condition used in the horizontal action detection algorithm is that the third area S3 exceeds a preset sixth threshold value (horizontal bed leaving determination threshold value) Th6. No. When the third area S3 is equal to or smaller than the sixth threshold Th6 (S3 ≦ Th6), it is determined that the monitored person Ob has left the floor, and the current state regarding the leaving floor in the monitored person Ob is determined to be after leaving the floor ( (See the right side of FIG. 11). On the other hand, when the third area S3 exceeds the sixth threshold Th6 (S3> Th6), it is determined that the monitored person Ob has not left the floor, and the current state regarding the leaving of the monitored person Ob is the bed leaving. (Refer to the center of FIG. 11). The fifth and sixth threshold values Th5 and Th6 are set in advance experimentally by statistically processing a plurality of samples, for example.

奥用の行動検知アルゴリズムで用いられる奥用の起床判定条件は、図12に示すように、画像上における設定領域ARと被監視者Obとが重なった第2面積S2が予め設定された第7閾値(奥用起床判定閾値)Th7を越えたか否かである。第2面積S2が第7閾値Th7以下である場合(S2≦Th7)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図12の中央参照)。一方、第2面積S2が第7閾値Th7を越えている場合(S2>Th7)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図12の左側参照)。そして、奥用の行動検知アルゴリズムで用いられる奥用の離床判定条件は、図12に示すように、前記第2面積S2が予め設定された第8閾値(奥用離床判定閾値)Th8を越えたか否かである。第2面積S2が第8閾値Th8以下である場合(S2≦Th8)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図12の右側参照)。一方、第2面積S2が第8閾値Th8を越えている場合(S2>Th8)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図12の中央参照)。これら第7および第8閾値Th7、Th8は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。   As shown in FIG. 12, the back wake-up determination condition used in the back-behavior detection algorithm is a seventh area S2 in which the setting area AR on the image and the monitored person Ob overlap each other. It is whether or not the threshold value (back waking judgment threshold value) Th7 has been exceeded. When the second area S2 is equal to or smaller than the seventh threshold Th7 (S2 ≦ Th7), it is determined that the monitored person Ob has woken up, and the current state regarding the wakeup in the monitored person Ob is after waking up ( (See the center of FIG. 12). On the other hand, when the second area S2 exceeds the seventh threshold Th7 (S2> Th7), it is determined that the monitored person Ob has not woken up, and the current state regarding the wakeup in the monitored person Ob is (Refer to the left side of FIG. 12). And, as shown in FIG. 12, in the back bed detection condition used in the back action detection algorithm, has the second area S2 exceeded the preset eighth threshold value (back bed determination threshold value) Th8? No. When the second area S2 is equal to or smaller than the eighth threshold Th8 (S2 ≦ Th8), it is determined that the monitored person Ob has left the floor, and the current state regarding the leaving floor in the monitored person Ob is after leaving the floor ( (See right side of FIG. 12). On the other hand, when the second area S2 exceeds the eighth threshold Th8 (S2> Th8), it is determined that the monitored person Ob has not left the floor, and the current state regarding the leaving floor in the monitored person Ob is the bed leaving. (Refer to the center of FIG. 12). The seventh and eighth threshold values Th7 and Th8 are set in advance experimentally by statistically processing a plurality of samples, for example.

斜め前用の行動検知アルゴリズムで用いられる斜め前用の起床判定条件は、図13に示すように、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waが予め設定された第9閾値(第1斜め前用起床判定閾値)Th9を越えたか否か、および、前記画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3が予め設定された第10閾値(第2斜め前用起床判定閾値)Th10を越えたか否か、である。距離Waが第9閾値Th9以上であって、第3面積S3が第10閾値Th10以下である場合(Wa≧Th9かつS3≦Th10)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図13の中央参照)。一方、距離Waが第9閾値Th9を超えていない場合、すなわち、距離Waが第9閾値Th9未満であって、第3面積S3が第10閾値Th10を越えている場合(Wa<Th9かつS3>Th10)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図13の左側参照)。そして、斜め前用の行動検知アルゴリズムで用いられる斜め前用の離床判定条件は、図13に示すように、前記距離Waが予め設定された第11閾値(第1斜め前用離床判定閾値)Th11を越えたか否か、および、前記第3面積S3が予め設定された第12閾値(第2斜め前用離床判定閾値)Th12を越えたか否かである。距離Waが第11閾値Th11以上であって、第3面積S3が第12閾値Th12以下である場合(Wa≧Th11かつS3≦Th12)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図13の右側参照)。一方、距離Waが第11閾値Th11を超えていない場合、すなわち、距離Waが第11閾値Th11未満であって、第3面積S3が第12閾値Th12を越えている場合(Wa<Th11かつS3>Th12)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図13の中央参照)。これら第9ないし第12閾値Th9〜Th12は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。   As shown in FIG. 13, as for the condition for determining the wake-up for oblique front used in the behavior detection algorithm for oblique front, a distance Wa between the action detection line AL and the toe position FP of the monitored person Ob is set in advance. Whether or not the ninth threshold value (first oblique wake-up determination threshold value) Th9 has been exceeded, and on the image, the first position located closest to the camera 1 along the horizontal direction of the setting area AR. A third area in which the setting area AR and the monitored subject Ob overlap each other between the first boundary line BL1 and the second boundary line BL2 located farthest from the camera 1 along the horizontal direction of the setting area AR. Whether or not S3 exceeds a preset 10th threshold value (second diagonally rising wake-up determination threshold value) Th10. When the distance Wa is equal to or larger than the ninth threshold Th9 and the third area S3 is equal to or smaller than the tenth threshold Th10 (Wa ≧ Th9 and S3 ≦ Th10), it is determined that the monitored person Ob has woken up and is monitored. The current state regarding the wake-up in the person Ob is after the wake-up (refer to the center of FIG. 13). On the other hand, when the distance Wa does not exceed the ninth threshold Th9, that is, when the distance Wa is less than the ninth threshold Th9 and the third area S3 exceeds the tenth threshold Th10 (Wa <Th9 and S3>). At Th10), it is determined that the monitored person Ob does not wake up, and the current state regarding the wakeup of the monitored person Ob is set to before waking up (see the left side of FIG. 13). Then, as shown in FIG. 13, the condition for determining the bed leaving for diagonal use used in the action detection algorithm for diagonally forward is the eleventh threshold value (first oblique bed leaving determination threshold value) Th11 in which the distance Wa is preset. And whether or not the third area S3 exceeds a preset 12th threshold value (second oblique front leaving determination threshold value) Th12. When the distance Wa is equal to or greater than the eleventh threshold Th11 and the third area S3 is equal to or smaller than the twelfth threshold Th12 (Wa ≧ Th11 and S3 ≦ Th12), it is determined that the monitored person Ob has left the floor and is monitored. The current state related to getting out of bed in the person Ob is assumed to be after getting out (see the right side of FIG. 13). On the other hand, when the distance Wa does not exceed the eleventh threshold Th11, that is, when the distance Wa is less than the eleventh threshold Th11 and the third area S3 exceeds the twelfth threshold Th12 (Wa <Th11 and S3>). At Th12), it is determined that the monitored person Ob has not left the floor, and the current state related to getting out of the floor of the monitored person Ob is set to before leaving (see the center of FIG. 13). The ninth to twelfth threshold values Th9 to Th12 are set in advance experimentally by statistically processing a plurality of samples, for example.

斜め奥用の行動検知アルゴリズムで用いられる斜め奥用の起床判定条件は、図14に示すように、前記画像上において、設定領域ARの前記横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3が予め設定された第13閾値(斜め奥用起床判定閾値)Th13を越えたか否か、である。第3面積S3が第13閾値Th13以下である場合(S3≦Th13)には、被監視者Obが起床したと判定され、被監視者Obにおける起床に関する現在の状態は、起床後とされる(図14の中央参照)。一方、第3面積S3が第13閾値Th13を越えている場合(S3>Th13)には、被監視者Obは起床していないと判定され、被監視者Obにおける起床に関する現在の状態は、起床前とされる(図14の左側参照)。そして、斜め奥用の行動検知アルゴリズムで用いられる斜め奥用の離床判定条件は、図14に示すように、前記第3面積S3が予め設定された第14閾値(斜め奥用離床判定閾値)Th14を越えたか否かである。第3面積S3が第14閾値Th14以下である場合(S3≦Th14)には、被監視者Obが離床したと判定され、被監視者Obにおける離床に関する現在の状態は、離床後とされる(図14の右側参照)。一方、第3面積S3が第14閾値Th14を越えている場合(S3<Th14)には、被監視者Obは離床していないと判定され、被監視者Obにおける離床に関する現在の状態は、離床前とされる(図14の中央参照)。これら第13および第14閾値Th13、Th14は、例えば、複数のサンプルを統計的に処理して経験的に予め設定される。   As shown in FIG. 14, the diagonally wake-up determination condition used in the diagonally-behind action detection algorithm is located at a position closest to the camera 1 along the horizontal direction of the setting area AR on the image. The setting area AR and the monitored subject Ob overlap each other between the first boundary line BL1 and the second boundary line BL2 located farthest from the camera 1 along the horizontal direction of the setting area AR. Whether or not the three areas S3 exceed a preset thirteenth threshold value (diagonal wake-up determination threshold value) Th13. When the third area S3 is equal to or smaller than the thirteenth threshold Th13 (S3 ≦ Th13), it is determined that the monitored person Ob has woken up, and the current state regarding the wakeup in the monitored person Ob is after waking up ( (See the center of FIG. 14). On the other hand, when the third area S3 exceeds the thirteenth threshold Th13 (S3> Th13), it is determined that the monitored person Ob has not woken up, and the current state regarding the wakeup in the monitored person Ob is It is assumed to be the front (see the left side of FIG. 14). Then, as shown in FIG. 14, the oblique back bed leaving condition used in the diagonal back behavior detection algorithm is, as shown in FIG. 14, the 14th threshold (tilt back floor leaving threshold) Th14 in which the third area S3 is preset. Whether or not. When the third area S3 is equal to or less than the fourteenth threshold Th14 (S3 ≦ Th14), it is determined that the monitored person Ob has left the floor, and the current state regarding the leaving of the monitored person Ob is determined to be after leaving the floor ( (See right side of FIG. 14). On the other hand, when the third area S3 exceeds the fourteenth threshold Th14 (S3 <Th14), it is determined that the monitored person Ob is not getting out of bed, and the current state regarding getting out of the monitored person Ob is (Refer to the center of FIG. 14). The thirteenth and fourteenth threshold values Th13 and Th14 are set in advance experimentally by statistically processing a plurality of samples, for example.

なお、上述の第1ないし第14閾値Th1〜Th14は、画像上での被監視者Obにおける大きさや行動速度を考慮して設定されても良い。   The first to fourteenth thresholds Th1 to Th14 described above may be set in consideration of the size and action speed of the monitored person Ob on the image.

このような図6ないし図14を用いて説明した6個の前記直上用の行動検知アルゴリズム、前記手前用の行動検知アルゴリズム、前記奥用の行動検知アルゴリズム、前記横用の行動検知アルゴリズム、前記斜め前用の行動検知アルゴリズムおよび前記斜め奥用の行動検知アルゴリズムが行動検知アルゴリズム記憶部53に予め記憶される。   The six above-mentioned action detection algorithms for the top, the action detection algorithm for the front, the action detection algorithm for the back, the action detection algorithm for the side, and the diagonal described above with reference to FIGS. The behavior detection algorithm for the front and the behavior detection algorithm for the oblique back are stored in the behavior detection algorithm storage unit 53 in advance.

このような記憶部5は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、記憶部5は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部3のワーキングメモリとなるRAM(Random Access Memory)等を含む。   Such a storage unit 5 includes, for example, a ROM (Read Only Memory) that is a nonvolatile storage element, an EEPROM (Electrically Erasable Programmable Read Only Memory) that is a rewritable nonvolatile storage element, and the like. The storage unit 5 includes a RAM (Random Access Memory) that serves as a working memory of the control processing unit 3 that stores data and the like generated during execution of the predetermined program.

制御処理部3は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、カメラ1によって被監視者Obをその上方から撮像した画像を取得し、この取得した画像に基づいて被監視者Obにおける所定の行動を検知して通知するための回路である。制御処理部3は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。制御処理部3は、前記制御処理プログラムが実行されることによって、制御部31、領域設定処理部32、行動検知線設定処理部33、位置関係演算部34、アルゴリズム選択部35、行動検知処理部36、通知処理部37、ストリーミング処理部38およびナースコール処理部39を機能的に備える。   The control processing unit 3 controls each unit of the sensor device SU in accordance with the function of each unit, acquires an image obtained by capturing the monitored person Ob from above with the camera 1, and monitors based on the acquired image. It is a circuit for detecting and notifying a predetermined action in the person Ob. The control processing unit 3 includes, for example, a CPU (Central Processing Unit) and its peripheral circuits. When the control processing program is executed, the control processing unit 3 includes a control unit 31, a region setting processing unit 32, a behavior detection line setting processing unit 33, a positional relationship calculation unit 34, an algorithm selection unit 35, and a behavior detection processing unit. 36, a notification processing unit 37, a streaming processing unit 38, and a nurse call processing unit 39 are functionally provided.

制御部31は、センサ装置SUの各部を当該各部の機能に応じてそれぞれ制御し、センサ装置SUの全体制御を司るものである。   The control unit 31 controls each part of the sensor device SU according to the function of each part, and governs overall control of the sensor device SU.

領域設定処理部32は、画像中における所定の領域を設定領域ARとして設定するための処理を行うものである。行動検知線設定処理部33は、前記画像中における所定の線を行動検知線ALとして設定するための処理を行うものである。   The area setting processing unit 32 performs processing for setting a predetermined area in the image as the setting area AR. The action detection line setting processing unit 33 performs processing for setting a predetermined line in the image as the action detection line AL.

本実施形態では、制御処理部3は、固定端末装置SPまたは携帯端末装置TAから設定領域ARおよび行動検知線ALそれぞれの設定を要求する通信信号(設定要求通信信号)を通信IF部4で受信すると、カメラ1で取得した画像を収容した通信信号(設定画像通信信号)を通信IF部4で返信する。固定端末装置SPまたは携帯端末装置TAは、例えば、図3に示す設定領域ARおよび行動検知線ALを入力するための設定画面を表示する。前記設定画面には、前記領域設定画像通信信号に収容された画像が表示される。ユーザ(監視者および被監視者等)は、例えばマウス等のポインティングデバイスを用いて、あるいは、タッチパネルに対するタップ操作を用いて、前記設定画面に設定領域ARの各頂点PT1〜PT4および行動検知線ALの両端点PT2、PT3それぞれを入力する。なお、入力方法は、設定領域ARの各辺の入力や行動検知線ALの線の入力等であっても良い。設定領域ARおよび行動検知線ALを受け付けると、固定端末装置SPまたは携帯端末装置TAは、これら受け付けた設定領域ARおよび行動検知線ALを収容した通信信号(設定情報通信信号)をセンサ装置SUへ送信する。この設定情報通信信号を通信IF部4で受信すると、領域設定処理部32は、この受信した設定情報通信信号に収容された設定領域AR(4頂点PT1〜PT4)を取り出して記憶部5の設定領域記憶部51に記憶することで設定領域ARをセンサ装置SUに設定し、行動検知線設定処理部33は、この受信した設定情報通信信号に収容された行動検知線AL(両端点PT2、PT3)を取り出して記憶部5の行動検知線記憶部52に記憶することで行動検知線ALをセンサ装置SUに設定する。本実施形態では、通信IF部4および行動検知線設定処理部33は、行動検知線を外部から受け付けて前記記憶部に記憶する行動検知線受付部の一例に相当する。   In the present embodiment, the control processing unit 3 receives a communication signal (setting request communication signal) for requesting the setting of the setting area AR and the action detection line AL from the fixed terminal device SP or the mobile terminal device TA by the communication IF unit 4. Then, a communication signal (setting image communication signal) containing the image acquired by the camera 1 is returned by the communication IF unit 4. For example, the fixed terminal device SP or the portable terminal device TA displays a setting screen for inputting the setting area AR and the action detection line AL shown in FIG. An image accommodated in the area setting image communication signal is displayed on the setting screen. A user (monitoring person, person to be monitored, etc.), for example, using a pointing device such as a mouse or using a tap operation on the touch panel, each apex PT1 to PT4 of the setting area AR and the action detection line AL on the setting screen. Both end points PT2 and PT3 are input. The input method may be input on each side of the setting area AR, input of the action detection line AL, or the like. When receiving the setting area AR and the action detection line AL, the fixed terminal device SP or the portable terminal apparatus TA sends the communication signal (setting information communication signal) containing the accepted setting area AR and the action detection line AL to the sensor device SU. Send. When the setting information communication signal is received by the communication IF unit 4, the region setting processing unit 32 takes out the setting region AR (four vertices PT <b> 1 to PT <b> 4) accommodated in the received setting information communication signal and sets the storage unit 5. The setting area AR is set in the sensor device SU by storing in the area storage unit 51, and the action detection line setting processing unit 33 sets the action detection line AL (both ends PT2, PT3) accommodated in the received setting information communication signal. ) And is stored in the action detection line storage unit 52 of the storage unit 5 to set the action detection line AL in the sensor device SU. In the present embodiment, the communication IF unit 4 and the behavior detection line setting processing unit 33 correspond to an example of a behavior detection line receiving unit that receives a behavior detection line from the outside and stores it in the storage unit.

なお、センサ装置SUは、図1に破線で示すように、入力部6および表示部7をさらに備えても良い。入力部6は、制御処理部3に接続され、例えば、被監視者Obを監視する上で必要な各種データをセンサ装置SUに入力する機器であり、例えば、所定の機能を割り付けられた複数の入力スイッチやマウス等である。表示部7は、制御処理部3に接続され、制御処理部3の制御に従って、入力部6から入力されたデータ等を表示する機器であり、例えばCRTディスプレイ、LCDおよび有機ELディスプレイ等の表示装置である。なお、入力部6および表示部7からタッチパネルが構成されてもよい。このタッチパネルを構成する場合において、入力部6は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力装置である。このタッチパネルでは、表示部7の表示面上に位置入力装置が設けられ、表示部7に入力可能な1または複数の入力内容の候補が表示され、ユーザが、入力したい入力内容を表示した表示位置を触れると、位置入力装置によってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容としてセンサ装置SUに入力される。このような入力部6および表示部7が備えられている場合に、制御処理部3は、例えば、図3に示す設定領域および行動検知線を入力するための設定画面を表示部7に表示し、入力部6によって設定領域ARおよび行動検知線ALを受け付けても良い。この場合、前記設定画面には、カメラ1で取得した画像が表示される。ユーザは、例えば入力部6としてのマウス等のポインティングデバイスを用いて、あるいは、入力部6および表示部7で構成されるタッチパネルに対するタップ操作によって、前記設定画面に設定領域ARの各頂点PT1〜PT4および行動検知線ALの両端点PT2、PT3それぞれを入力する。設定領域ARおよび行動検知線ALを受け付けると、領域設定処理部32は、この入力部6で受け付けた設定領域AR(4頂点PT1〜PT4)を記憶部5の設定領域記憶部51に記憶し、行動検知線設定処理部33は、この入力部6で受け付けた行動検知線AL(両端点PT2、PT3)を記憶部5の行動検知線記憶部52に記憶する。このような場合、入力部6および行動検知線設定処理部33は、行動検知線を外部から受け付けて前記記憶部に記憶する行動検知線受付部の他の一例に相当する。   The sensor device SU may further include an input unit 6 and a display unit 7 as indicated by a broken line in FIG. The input unit 6 is connected to the control processing unit 3 and is, for example, a device that inputs various data necessary for monitoring the monitored person Ob to the sensor device SU. For example, the input unit 6 has a plurality of functions assigned a predetermined function. Input switch, mouse, etc. The display unit 7 is a device that is connected to the control processing unit 3 and displays data and the like input from the input unit 6 in accordance with the control of the control processing unit 3. For example, a display device such as a CRT display, LCD, or organic EL display It is. A touch panel may be configured from the input unit 6 and the display unit 7. In the case of configuring this touch panel, the input unit 6 is a position input device that detects and inputs an operation position such as a resistive film type or a capacitance type. In this touch panel, a position input device is provided on the display surface of the display unit 7, one or a plurality of input content candidates that can be input are displayed on the display unit 7, and a display position where the input content that the user wants to input is displayed. Is touched, the position is detected by the position input device, and the display content displayed at the detected position is input to the sensor device SU as the operation input content of the user. When the input unit 6 and the display unit 7 are provided, the control processing unit 3 displays a setting screen for inputting the setting area and the action detection line shown in FIG. The setting area AR and the action detection line AL may be received by the input unit 6. In this case, an image acquired by the camera 1 is displayed on the setting screen. The user uses, for example, a pointing device such as a mouse as the input unit 6 or performs a tap operation on the touch panel configured by the input unit 6 and the display unit 7 to display the vertexes PT1 to PT4 of the setting area AR on the setting screen. And both end points PT2 and PT3 of the action detection line AL are input. Upon receiving the setting area AR and the action detection line AL, the area setting processing unit 32 stores the setting area AR (four vertices PT1 to PT4) received by the input unit 6 in the setting area storage unit 51 of the storage unit 5, The behavior detection line setting processing unit 33 stores the behavior detection lines AL (both end points PT2 and PT3) received by the input unit 6 in the behavior detection line storage unit 52 of the storage unit 5. In such a case, the input unit 6 and the behavior detection line setting processing unit 33 correspond to another example of a behavior detection line receiving unit that receives a behavior detection line from the outside and stores it in the storage unit.

位置関係演算部34は、設定領域ARに対するカメラ1の位置関係を求めるものである。本実施形態では、位置関係演算部34は、行動検知線ALを考慮して、設定領域ARに対する前記カメラ1の位置関係を求める。より具体的には、例えば、図5に示すように、位置関係演算部34は、画像中心CPが設定領域ARおよび行動検知線ALに対してどの位置に存在するかによって前記カメラ1の位置関係を求め、この求めた前記カメラ1の位置関係を記憶部5に記憶する。図5に示すように、行動検知線ALに沿う左右方向をX方向とし、これに直交する前後方向をY方向とすると、例えば、図5Aに示すように、画像中心CPが設定領域ARより−Y方向にあり(手前にあり)、かつ、行動検知線ALと画像中心CPとの間に設定領域ARの境界が無く、かつ、行動検知線ALとY方向のいずれかの位置で重なっている場合(すなわち、画像中心CPのX座標値が行動検知線ALにおける一方端PT2のX座標値から他方端PT3のX座標値までの範囲に含まれる場合)、位置関係演算部34は、前記カメラ1の位置関係として手前PO2と演算する。また例えば、図5Bに示すように、画像中心CPが設定領域AR内にある場合、位置関係演算部34は、前記カメラ1の位置関係として直上PO1と演算する。また例えば、画像中心CPが設定領域ARより−Y方向にあり(手前にあり)、かつ、行動検知線ALと画像中心CPとの間に設定領域ARの境界が有り、かつ、行動検知線ALとY方向のいずれかの位置で重なっている場合(すなわち、画像中心のX座標値が行動検知線ALにおける一方端PT2のX座標値から他方端PT3のX座標値までの範囲に含まれる場合)、位置関係演算部34は、前記カメラ1の位置関係として奥PO3と演算する。また例えば、画像中心CPが設定領域ARよりX方向または−X方向にあり(横にあり)、かつ、設定領域ARとX方向のいずれかの位置で重なっている場合(すなわち、画像中心CPのY座標値が設定領域ARにおける最小のY座標値から最大のY座標値までの範囲に含まれる場合)、位置関係演算部34は、前記カメラ1の位置関係として横PO4と演算する。また例えば、画像中心CPが設定領域ARより−Y方向にあり(手前にあり)、かつ、行動検知線ALと画像中心CPとの間に設定領域ARの境界が無く、かつ、行動検知線ALとY方向のいずれの位置でも重なっていない場合(すなわち、画像中心CPのX座標値が行動検知線ALにおける一方端PT2のX座標値から他方端PT3のX座標値までの範囲に含まれない場合)、位置関係演算部34は、前記カメラ1の位置関係として斜め前PO5と演算する。また例えば、画像中心CPが設定領域ARより−Y方向にあり(手前にあり)、かつ、行動検知線ALと画像中心CPとの間に設定領域ARの境界が有り、かつ、行動検知線ALとY方向のいずれの位置でも重なっていない場合(すなわち、画像中心CPのX座標値が行動検知線ALにおける一方端PT2のX座標値から他方端PT3のX座標値までの範囲に含まれない場合)、位置関係演算部34は、前記カメラ1の位置関係として斜め奥PO6と演算する。なお、図5Aにおいて、上述では、行動検知線ALが点PT2と点PT3と間の線分であるので、位置関係演算部34は、前記カメラ1の位置関係として手前PO2と演算したが、仮に、行動検知線ALが点PT3と点PT4との間の線分である場合には、位置関係演算部34は、前記カメラ1の位置関係として横PO4と演算することになる。   The positional relationship calculation unit 34 obtains the positional relationship of the camera 1 with respect to the setting area AR. In the present embodiment, the positional relationship calculation unit 34 determines the positional relationship of the camera 1 with respect to the setting area AR in consideration of the action detection line AL. More specifically, for example, as shown in FIG. 5, the positional relationship calculation unit 34 determines the positional relationship of the camera 1 depending on where the image center CP is located with respect to the setting area AR and the action detection line AL. And the positional relationship of the obtained camera 1 is stored in the storage unit 5. As shown in FIG. 5, assuming that the left-right direction along the action detection line AL is the X direction and the front-rear direction orthogonal to the X direction is the Y direction, for example, as shown in FIG. It is in the Y direction (in front), there is no boundary of the setting area AR between the action detection line AL and the image center CP, and overlaps at any position in the Y direction with the action detection line AL In this case (that is, when the X-coordinate value of the image center CP is included in the range from the X-coordinate value of the one end PT2 to the X-coordinate value of the other end PT3 in the action detection line AL), the positional relationship calculation unit 34 As the positional relationship of 1, the front PO2 is calculated. Further, for example, as shown in FIG. 5B, when the image center CP is in the setting area AR, the positional relationship calculation unit 34 calculates the positional relationship of the camera 1 as PO1 directly above. Further, for example, the image center CP is in the −Y direction (in front) of the setting area AR, and there is a boundary of the setting area AR between the action detection line AL and the image center CP, and the action detection line AL When the X coordinate value of the image center is included in the range from the X coordinate value of one end PT2 to the X coordinate value of the other end PT3 in the action detection line AL. ), The positional relationship calculation unit 34 calculates the rear PO3 as the positional relationship of the camera 1. Further, for example, when the image center CP is in the X direction or the −X direction (sideways) from the setting area AR and overlaps with the setting area AR at any position in the X direction (that is, the image center CP When the Y coordinate value is included in the range from the minimum Y coordinate value to the maximum Y coordinate value in the setting area AR), the positional relationship calculation unit 34 calculates horizontal PO4 as the positional relationship of the camera 1. Further, for example, the image center CP is in the −Y direction from the setting area AR (the front side), and there is no boundary of the setting area AR between the action detection line AL and the image center CP, and the action detection line AL (Ie, the X-coordinate value of the image center CP is not included in the range from the X-coordinate value of one end PT2 to the X-coordinate value of the other end PT3 in the action detection line AL). ), The positional relationship calculation unit 34 calculates the diagonally forward PO5 as the positional relationship of the camera 1. Further, for example, the image center CP is in the −Y direction (in front) of the setting area AR, and there is a boundary of the setting area AR between the action detection line AL and the image center CP, and the action detection line AL (Ie, the X-coordinate value of the image center CP is not included in the range from the X-coordinate value of one end PT2 to the X-coordinate value of the other end PT3 in the action detection line AL). ), The positional relationship calculation unit 34 calculates the diagonal PO6 as the positional relationship of the camera 1. In FIG. 5A, in the above description, since the action detection line AL is a line segment between the point PT2 and the point PT3, the positional relationship calculation unit 34 calculates the previous PO2 as the positional relationship of the camera 1. When the action detection line AL is a line segment between the points PT3 and PT4, the positional relationship calculation unit 34 calculates the horizontal PO4 as the positional relationship of the camera 1.

なお、カメラ1が壁上方に配設される等によってカメラ1が斜め下向きにあおり角を持つ場合では、ユーザ入力や公知の常套手段による画像に基づく自動計算によって求めたあおり角に基づいて、カメラ1の配設位置を床面(画像上)に射影したカメラ1の直下位置が求められ、この求められた直下位置が上述の画像中心CPとされ、上述と同様に、前記カメラ1の位置関係が演算される。   In the case where the camera 1 has a tilt angle that is obliquely downward due to the camera 1 being disposed above the wall or the like, the camera is determined based on a tilt angle obtained by user input or automatic calculation based on an image by a known conventional means. 1 is obtained by projecting the position of 1 on the floor (on the image), and the position directly under the camera 1 is set as the image center CP. Similarly to the above, the positional relationship of the camera 1 is determined. Is calculated.

アルゴリズム選択部35は、記憶部5の行動検知アルゴリズム記憶部53に記憶された前記複数の行動検知アルゴリズムの中から位置関係演算部34で求めた位置関係に基づいて行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知するものである。より具体的には、本実施形態では、アルゴリズム選択部35は、位置関係演算部34で求めた前記カメラ1の位置関係を判定し、この判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が直上PO1である場合には、上述した直上用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が手前PO2である場合には、上述した手前用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が奥PO3である場合には、上述した奥用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が横PO4である場合には、上述した横用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が斜め前PO5である場合には、上述した斜め前用の行動検知アルゴリズムを選択し、前記判定の結果、位置関係演算部34で求めた前記カメラ1の位置関係が斜め奥PO6である場合には、上述した斜め奥用の行動検知アルゴリズムを選択し、そして、この選択結果を行動検知処理部36へ通知する。   The algorithm selection unit 35 selects a behavior detection algorithm based on the positional relationship obtained by the positional relationship calculation unit 34 from the plurality of behavior detection algorithms stored in the behavior detection algorithm storage unit 53 of the storage unit 5. The selection result is notified to the behavior detection processing unit 36. More specifically, in this embodiment, the algorithm selection unit 35 determines the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34, and as a result of the determination, the camera obtained by the positional relationship calculation unit 34. When the position relationship of 1 is directly above PO1, the above-described action detection algorithm for directly above is selected, and as a result of the determination, the position relationship of the camera 1 obtained by the position relationship calculation unit 34 is the near PO2 The above-mentioned behavior detection algorithm for the foreground is selected, and when the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 is the back PO3 as a result of the determination, the above-described behavior detection for the back is performed. When an algorithm is selected and the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 is horizontal PO4 as a result of the determination, the horizontal behavior detection algorithm described above is selected and the determination is performed. As a result, when the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 is the diagonally forward PO5, the above-described behavior detection algorithm for diagonally forward is selected, and as a result of the determination, the positional relationship calculation unit 34 When the positional relationship of the camera 1 obtained in step S is diagonally back PO6, the above-described behavior detection algorithm for the diagonal back is selected, and the selection result is notified to the behavior detection processing unit 36.

行動検知処理部36は、アルゴリズム選択部35で選択した行動検知アルゴリズムでカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知するものである。   The behavior detection processing unit 36 detects a predetermined behavior (whether a person wakes up and whether he / she has left in the present embodiment) based on an image acquired by the camera 1 with the behavior detection algorithm selected by the algorithm selection unit 35. Then, the detection result is notified to the notification processing unit 37.

通知処理部37は、行動検知処理部36で検知した前記所定の行動(本実施形態では、起床および離床)を外部に通知するものである。より具体的には、通知処理部37は、検知した前記所定の行動(状態、状況)を表す情報(検知行動情報(本実施形態では起床および離床のうちの1または複数を表す情報))、前記所定の行動が検知された被監視者Obを特定し識別するための識別子情報(前記被監視者Obを検知しているセンサ装置SUを特定し識別するための識別子情報)、および、前記所定の行動の検知に用いられた画像等を収容した通信信号(監視情報通信信号)を生成し、通信IF部4で管理サーバ装置SVへ送信する。   The notification processing unit 37 notifies the predetermined behavior detected in the behavior detection processing unit 36 (in this embodiment, getting up and getting out) to the outside. More specifically, the notification processing unit 37 represents information indicating the detected predetermined behavior (state, situation) (detected behavior information (information representing one or more of getting up and leaving in this embodiment)), Identifier information for identifying and identifying the monitored person Ob in which the predetermined action is detected (identifier information for identifying and identifying the sensor device SU detecting the monitored person Ob), and the predetermined A communication signal (monitoring information communication signal) containing an image or the like used for detecting the behavior of the user is generated and transmitted to the management server device SV by the communication IF unit 4.

ストリーミング処理部38は、ネットワークNWおよび通信IF部4を介して固定端末装置SPまたは携帯端末装置TAから動画の配信の要求があった場合に、この要求のあった固定端末装置SPまたは携帯端末装置TAへ、カメラ1で生成した動画(例えばライブの動画)をストリーミング再生で通信IF部4およびネットワークNWを介して配信するものである。   The streaming processing unit 38, when there is a moving image distribution request from the fixed terminal device SP or the portable terminal device TA via the network NW and the communication IF unit 4, the fixed terminal device SP or the portable terminal device that has made this request. The moving image generated by the camera 1 (for example, a live moving image) is distributed to the TA via the communication IF unit 4 and the network NW by streaming reproduction.

ナースコール処理部39は、被監視者Obからナースコールを受け付ける図略のナースコール押しボタンスイッチでその入力操作を受け付けた場合に、通信IF部4およびネットワークNWを介して、固定端末装置SPまたは携帯端末装置TAとの間で音声通話を可能にするものである。   When the nurse call processing unit 39 receives an input operation with a nurse call push button switch (not shown) that receives a nurse call from the monitored person Ob, the nurse call processing unit 39 receives the fixed terminal device SP or the network via the communication IF unit 4 and the network NW. A voice call can be made with the mobile terminal device TA.

図1には、一例として、4個の第1ないし第4センサ装置SU−1〜SU−4が示されており、第1センサ装置SU−1は、被監視者Obの一人であるAさんOb−1の居室RM−1(不図示)に配設され、第2センサ装置SU−2は、被監視者Obの一人であるBさんOb−2の居室RM−2(不図示)に配設され、第3センサ装置SU−3は、被監視者Obの一人であるCさんOb−3の居室RM−3(不図示)に配設され、そして、第4センサ装置は、被監視者Obの一人であるDさんOb−4の居室RM−4(不図示)に配設されている。   FIG. 1 shows four first to fourth sensor devices SU-1 to SU-4 as an example, and the first sensor device SU-1 is one of the monitored persons Ob. The second sensor device SU-2 is arranged in a room RM-2 (not shown) of Mr. B Ob-2 who is one of the monitored persons Ob. The third sensor device SU-3 is arranged in a room RM-3 (not shown) of Mr. Cb Ob-3 who is one of the monitored people Ob, and the fourth sensor device is a monitored person. It is arranged in the room RM-4 (not shown) of Mr. Ob, who is one of Ob.

次に、本実施形態の動作について説明する。図15は、前記センサ装置の動作を示すメインルーチンのフローチャートである。図16は、図15に示すメインルーチンで用いられる行動検知の動作を示すサブルーチンのフローチャートである。   Next, the operation of this embodiment will be described. FIG. 15 is a flowchart of a main routine showing the operation of the sensor device. FIG. 16 is a flowchart of a subroutine showing an action detection operation used in the main routine shown in FIG.

このような構成の被監視者監視システムMSでは、各装置SU、SV、SP、TAは、電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。また、センサ装置SUでは、その制御処理プログラムの実行によって、制御処理部3には、制御部31、領域設定処理部32、行動検知線設定処理部33、位置関係演算部34、アルゴリズム選択部35、行動検知処理部36、通知処理部37、ストリーミング処理部38およびナースコール処理部39が機能的に構成される。   In the monitored person monitoring system MS having such a configuration, each device SU, SV, SP, TA performs initialization of each necessary unit and starts its operation when the power is turned on. Further, in the sensor device SU, by executing the control processing program, the control processing unit 3 includes the control unit 31, the region setting processing unit 32, the action detection line setting processing unit 33, the positional relationship calculation unit 34, and the algorithm selection unit 35. The behavior detection processing unit 36, the notification processing unit 37, the streaming processing unit 38, and the nurse call processing unit 39 are functionally configured.

図15において、まず、制御処理部3は、領域設定処理部32によって設定領域ARが設定され(S41)、行動検知線設定処理部33によって行動検知線ALが設定される(S42)。より具体的には、上述したように、本実施形態では、固定端末装置SPまたは携帯端末装置TAから前記設定要求通信信号を通信IF部4で受信すると、制御処理部3は、前記設定画像通信信号を通信IF部4で返信する。固定端末装置SPまたは携帯端末装置TAは、例えば図3に示す前記設定画面を表示し、ユーザ(監視者および被監視者等)は、前記設定画面に設定領域ARおよび行動検知線ALそれぞれを入力する。設定領域ARおよび行動検知線ALを受け付けると、固定端末装置SPまたは携帯端末装置TAは、前記設定情報通信信号をセンサ装置SUへ送信する。この設定情報通信信号を通信IF部4で受信すると、領域設定処理部32は、この受信した設定情報通信信号に収容された設定領域ARを取り出して記憶部5の設定領域記憶部51に記憶することで設定領域ARをセンサ装置SUに設定し、行動検知線設定処理部33は、この受信した設定情報通信信号に収容された行動検知線ALを取り出して記憶部5の行動検知線記憶部52に記憶することで行動検知線ALをセンサ装置SUに設定する。   In FIG. 15, first, the control processing unit 3 sets the setting area AR by the area setting processing unit 32 (S41), and sets the behavior detection line AL by the behavior detection line setting processing unit 33 (S42). More specifically, as described above, in the present embodiment, when the communication request unit 4 receives the setting request communication signal from the fixed terminal device SP or the mobile terminal device TA, the control processing unit 3 performs the setting image communication. A signal is returned by the communication IF unit 4. The fixed terminal device SP or the portable terminal device TA displays the setting screen shown in FIG. 3, for example, and the user (monitoring person, monitored person, etc.) inputs the setting area AR and the action detection line AL to the setting screen, respectively. To do. When receiving the setting area AR and the action detection line AL, the fixed terminal device SP or the portable terminal device TA transmits the setting information communication signal to the sensor device SU. When the setting information communication signal is received by the communication IF unit 4, the region setting processing unit 32 extracts the setting region AR accommodated in the received setting information communication signal and stores it in the setting region storage unit 51 of the storage unit 5. Thus, the setting area AR is set in the sensor device SU, and the behavior detection line setting processing unit 33 takes out the behavior detection line AL accommodated in the received setting information communication signal, and the behavior detection line storage unit 52 of the storage unit 5. To set the action detection line AL to the sensor device SU.

次に、制御処理部3は、位置関係演算部34によって設定領域ARに対するカメラ1の位置関係を求め、この求めた前記カメラ1の位置関係を記憶部5に記憶する(S43)。より具体的には、上述したように、本実施形態では、位置関係演算部34は、画像中心CPが設定領域ARおよび行動検知線ALに対してどの位置に存在するかによって前記カメラ1の位置関係を求める。   Next, the control processing unit 3 obtains the positional relationship of the camera 1 with respect to the setting area AR by the positional relationship calculation unit 34, and stores the obtained positional relationship of the camera 1 in the storage unit 5 (S43). More specifically, as described above, in the present embodiment, the positional relationship calculation unit 34 determines the position of the camera 1 depending on where the image center CP is located with respect to the setting area AR and the action detection line AL. Seeking a relationship.

次に、制御処理部3は、カメラ1によって被監視者Obを被監視者Obの上方から撮像した画像を取得する。これによって1フレーム分の前記画像が取得され、センサ装置SUに入力される(S44)。   Next, the control processing unit 3 acquires an image obtained by capturing the monitored person Ob from above the monitored person Ob by the camera 1. Accordingly, the image for one frame is acquired and input to the sensor device SU (S44).

次に、制御処理部3は、行動検知処理部36によって、処理S44で取得した前記画像に基づいて被監視者Obにおける所定の行動を検知する後述の行動検知処理を実行し(S45)、次のフレームの画像に対し、この行動検知処理を実行するべく、処理を処理S44へ戻す。すなわち、制御処理部3は、処理S44および処理S45を繰り返し実行することで、1フレームごとに行動検知処理を実行する。   Next, the control processing unit 3 performs a later-described behavior detection process for detecting a predetermined behavior in the monitored person Ob based on the image acquired in the processing S44 by the behavior detection processing unit 36 (S45). In order to execute this action detection process on the image of the frame, the process returns to process S44. That is, the control processing unit 3 executes the action detection process for each frame by repeatedly executing the processes S44 and S45.

次に、行動検知処理S45についてさらに説明する。この行動検知処理S45では、図16において、まず、制御処理部3は、アルゴリズム選択部35によって、記憶部5の行動検知アルゴリズム記憶部53に記憶された前記複数の行動検知アルゴリズムの中から位置関係演算部34で求めた位置関係に基づいて行動検知アルゴリズムを選択する(S51)。より具体的には、アルゴリズム選択部35は、記憶部5の記憶内容を参照することで、位置関係演算部34で求めた前記カメラ1の位置関係を判定する。   Next, the behavior detection process S45 will be further described. In this behavior detection process S45, in FIG. 16, first, the control processing unit 3 uses the algorithm selection unit 35 to select a positional relationship from among the plurality of behavior detection algorithms stored in the behavior detection algorithm storage unit 53 of the storage unit 5. An action detection algorithm is selected based on the positional relationship obtained by the calculation unit 34 (S51). More specifically, the algorithm selection unit 35 determines the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 by referring to the stored contents of the storage unit 5.

この判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が直上PO1である場合(直上)には、アルゴリズム選択部35は、上述した直上用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−1を実行する。この処理S52−1では、行動検知処理部36は、アルゴリズム選択部35で選択した直上用の行動検知アルゴリズムでカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。すなわち、行動検知処理部36は、直上用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=直上)で前記画像に基づいて被監視者Obにおける起床の有無および離床の有無を判定し、起床または離床を判定すると、これを検知結果として通知処理部37へ通知し、この行動検知処理S45を終了する。   As a result of this determination, when the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 in step S43 is directly above PO1 (directly above), the algorithm selection unit 35 selects the above-described behavior detection algorithm for the above. Then, the selection result is notified to the behavior detection processing unit 36. The behavior detection processing unit 36 that has received this notification executes step S52-1. In this process S52-1, the action detection processing unit 36 performs a predetermined action (in the present embodiment) in the monitored person Ob based on the image acquired by the camera 1 with the action detection algorithm for direct use selected by the algorithm selection unit 35. The presence / absence of waking up and the presence / absence of getting out of the floor is detected, the detection result is notified to the notification processing unit 37, and the action detection processing S45 is terminated. That is, the behavior detection processing unit 36 uses the above-described flowcharts (Xn = directly above) shown in FIG. 6 to FIG. When the presence / absence is determined and waking up or leaving is determined, this is notified to the notification processing unit 37 as a detection result, and the action detection processing S45 is ended.

処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が手前PO2である場合(手前)には、アルゴリズム選択部35は、上述した手前用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−2を実行する。この処理S52−2では、行動検知処理部36は、アルゴリズム選択部35で選択した手前用の行動検知アルゴリズム(すなわち、手前用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=手前))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。   As a result of the determination in step S51, when the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 in step S43 is the near side PO2 (near side), the algorithm selection unit 35 detects the above-described near-behavior detection. The algorithm is selected, and the selection result is notified to the behavior detection processing unit 36. The behavior detection processing unit 36 that has received this notification executes step S52-2. In this process S52-2, the action detection processing unit 36 selects the foreground action detection algorithm selected by the algorithm selection unit 35 (that is, each process according to the above-described flowcharts shown in FIGS. Xn = before)) based on the image acquired by the camera 1 to detect a predetermined action in the monitored person Ob (in this embodiment, presence / absence of waking up and presence / absence) and notify the notification processing unit 37 of the detection result. And this action detection process S45 is complete | finished.

処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が横PO4である場合(横)には、アルゴリズム選択部35は、上述した横用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−3を実行する。この処理S52−3では、行動検知処理部36は、アルゴリズム選択部35で選択した横用の行動検知アルゴリズム(すなわち、横用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=横))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。   As a result of the determination in step S51, when the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 in step S43 is horizontal PO4 (horizontal), the algorithm selection unit 35 performs the above-described horizontal behavior detection. The algorithm is selected, and the selection result is notified to the behavior detection processing unit 36. The behavior detection processing unit 36 that has received this notification executes step S52-3. In this process S52-3, the behavior detection processing unit 36 selects the horizontal behavior detection algorithm selected by the algorithm selection unit 35 (that is, each process according to the above-described flowcharts shown in FIGS. Xn = horizontal)) based on the image acquired by the camera 1, a predetermined action (presence / absence of waking up and presence / absence of bed) in the monitored person Ob is detected, and the detection result is notified to the notification processing unit 37. And this action detection process S45 is complete | finished.

処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が奥PO3である場合(奥)には、アルゴリズム選択部35は、上述した奥用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−4を実行する。この処理S52−4では、行動検知処理部36は、アルゴリズム選択部35で選択した奥用の行動検知アルゴリズム(すなわち、奥用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=奥))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。   As a result of the determination in step S51, when the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 in step S43 is the back PO3 (back), the algorithm selection unit 35 detects the above-described action detection for the back. The algorithm is selected, and the selection result is notified to the behavior detection processing unit 36. The behavior detection processing unit 36 that has received this notification executes step S52-4. In this process S52-4, the action detection processor 36 selects the action detection algorithm for the back selected by the algorithm selector 35 (that is, each process according to the above-described flowcharts shown in FIGS. Xn = back)) based on the image acquired by the camera 1 to detect a predetermined action (presence / absence of waking up and presence / absence) in the monitored person Ob and notify the notification processing unit 37 of the detection result. And this action detection process S45 is complete | finished.

処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が斜め前PO5である場合(斜め前)には、アルゴリズム選択部35は、上述した斜め前用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−5を実行する。この処理S52−5では、行動検知処理部36は、アルゴリズム選択部35で選択した斜め前用の行動検知アルゴリズム(すなわち、斜め前用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=斜め前))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。   As a result of the determination in step S51, when the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 in step S43 is diagonally forward PO5 (diagonal front), the algorithm selection unit 35 performs the diagonally forward operation described above. The action detection algorithm is selected, and the selection result is notified to the action detection processing unit 36. The behavior detection processing unit 36 that has received this notification executes step S52-5. In this process S52-5, the behavior detection processing unit 36 performs the behavior detection algorithm for the diagonally forward selected by the algorithm selecting unit 35 (that is, each of the flowcharts shown in FIGS. Based on the image acquired by the camera 1 in the process (Xn = before diagonally)), a predetermined action (presence / absence of wake-up and presence / absence of bed) in the monitored person Ob is detected, and the detection result is notified. 37 is notified, and this action detection process S45 is complete | finished.

処理S51における前記判定の結果、処理S43によって位置関係演算部34で求めた前記カメラ1の位置関係が斜め奥PO6である場合(斜め奥)には、アルゴリズム選択部35は、上述した斜め奥用の行動検知アルゴリズムを選択し、この選択結果を行動検知処理部36へ通知する。この通知を受けた行動検知処理部36は、処理S52−6を実行する。この処理S52−6では、行動検知処理部36は、アルゴリズム選択部35で選択した斜め奥用の行動検知アルゴリズム(すなわち、斜め奥用としての図6ないし図8に示す上述のフローチャートに従った各処理(Xn=斜め奥))でカメラ1で取得した画像に基づいて被監視者Obにおける所定の行動(本実施形態では起床の有無および離床の有無)を検知し、その検知結果を通知処理部37へ通知し、この行動検知処理S45を終了する。   As a result of the determination in step S51, when the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 in step S43 is the diagonal back PO6 (diagonal back), the algorithm selection unit 35 uses the diagonal back described above. The action detection algorithm is selected, and the selection result is notified to the action detection processing unit 36. The behavior detection processing unit 36 that has received this notification executes the process S52-6. In this process S52-6, the action detection processing unit 36 selects the action detection algorithm for the diagonally back selected by the algorithm selecting part 35 (that is, each of the above-described flowcharts shown in FIGS. Based on the image acquired by the camera 1 in the process (Xn = diagonally back)), a predetermined action (presence / absence of waking up and presence / absence of bed) in the monitored person Ob is detected, and the detection result is notified. 37 is notified, and this action detection process S45 is complete | finished.

そして、上述の図7に示す処理S23nによる起床の通知または上述の図8に示す処理S33nによる離床の通知を受けると、通知処理部37は、被監視者Obの状態として判定された判定結果を表す判定結果情報(本実施形態では、起床および離床)や被監視者Obの静止画の画像データ等の監視情報を収容した通信信号(監視情報通信信号)をネットワークNWを介して管理サーバ装置SVへ送信する。   Then, upon receiving the notification of getting up by the process S23n shown in FIG. 7 or the notification of getting out of the bed by the process S33n shown in FIG. 8 described above, the notification processing unit 37 displays the determination result determined as the state of the monitored person Ob. The management server device SV receives a communication signal (monitoring information communication signal) containing monitoring information such as determination result information (in this embodiment, getting up and leaving) and image data of a still image of the monitored person Ob via the network NW. Send to.

管理サーバ装置SVは、前記監視情報通信信号をネットワークNWを介してセンサ装置SUから受信すると、この監視情報通信信号に収容された判定結果情報や静止画の画像データ等の監視情報をその記憶部に記憶(記録)する。そして、管理サーバ装置SVは、これら判定結果情報や静止画の画像データ等の監視情報を収容した監視情報通信信号を端末装置(本実施形態では固定端末装置SPおよび携帯端末装置TA)へ送信する。これによって被監視者Obの状態(状況)が端末装置SP、TAを介して例えば看護師や介護士等の監視者に報知される。   When the management server device SV receives the monitoring information communication signal from the sensor device SU via the network NW, the management server device SV stores monitoring information such as determination result information and still image data stored in the monitoring information communication signal in its storage unit. (Record). Then, the management server device SV transmits a monitoring information communication signal containing monitoring information such as the determination result information and still image data to the terminal device (in this embodiment, the fixed terminal device SP and the portable terminal device TA). . As a result, the state (situation) of the monitored person Ob is notified to a monitor such as a nurse or a caregiver via the terminal devices SP and TA.

固定端末装置SPおよび携帯端末装置TAは、前記監視情報通信信号をネットワークNWを介して管理サーバ装置SVから受信すると、この監視情報通信信号に収容された前記監視情報を表示する。このような動作によって、被監視者監視システムMSは、各センサ装置SU、管理サーバ装置SV、固定端末装置SPおよび携帯端末装置TAによって、各被監視者Obを検知して各被監視者Obを監視している。   When receiving the monitoring information communication signal from the management server device SV via the network NW, the fixed terminal device SP and the portable terminal device TA display the monitoring information accommodated in the monitoring information communication signal. By such an operation, the monitored person monitoring system MS detects each monitored person Ob by each sensor device SU, management server device SV, fixed terminal device SP, and portable terminal device TA, and sets each monitored person Ob. Monitoring.

以上説明したように、被監視者監視装置の一例である被監視者監視システムMSならびに行動検知装置、行動検知方法および行動検知プログラムを用いたその一例のセンサ装置SUは、複数の行動検知アルゴリズムの中から、設定領域ARに対するカメラ1の位置関係に応じた行動検知アルゴリズムを選択し、この選択した行動検知アルゴリズムで被監視者Obにおける所定の行動(本実施形態では起床および離床)を検知するので、カメラ1が配設される配設位置にかかわらず、被監視者Obにおける前記所定の行動をより高精度に検知できる。また、カメラ1が配設され、行動検知の開始後に、寝具BTの位置が変更されると、寝具BTに対するカメラ1の位置関係が変わってしまうが、上記被監視者監視システムMSおよびセンサ装置SUは、記憶部5に記憶された設定領域ARを変更後の寝具BTの領域に変更することで、このような寝具BTの位置の変更による前記カメラ1の位置関係の変更にも対処できる。したがって、上記被監視者監視システムMSおよびセンサ装置SUは、寝具BTの位置にかかわらず、被監視者Obにおける前記所定の行動をより高精度に検知できる。   As described above, the monitored person monitoring system MS, which is an example of the monitored person monitoring apparatus, and the sensor apparatus SU of the example using the action detection apparatus, the action detection method, and the action detection program include a plurality of action detection algorithms. Since an action detection algorithm corresponding to the positional relationship of the camera 1 with respect to the setting area AR is selected from the inside, a predetermined action (wake-up and getting-off in this embodiment) is detected by the selected action detection algorithm. Regardless of the position where the camera 1 is disposed, the predetermined action in the monitored person Ob can be detected with higher accuracy. If the position of the bedding BT is changed after the camera 1 is installed and the behavior detection is started, the positional relationship of the camera 1 with respect to the bedding BT changes. However, the monitored person monitoring system MS and the sensor device SU By changing the setting area AR stored in the storage unit 5 to the area of the bedding BT after the change, it is possible to cope with the change in the positional relationship of the camera 1 due to such a change in the position of the bedding BT. Therefore, the monitored person monitoring system MS and the sensor device SU can detect the predetermined action in the monitored person Ob with higher accuracy regardless of the position of the bedding BT.

上記被監視者監視システムMSおよびセンサ装置SUは、前記カメラ1の位置関係として直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6のいずれであるかを求める位置関係演算部34を備えるので、カメラ1が直上、手前、奥、横、斜め前および斜め奥のいずれかに配設される場合に対処でき、これらの場合に、被監視者Obにおける前記所定の行動をより高精度に検知できる。   The above-mentioned monitored person monitoring system MS and the sensor apparatus SU are positional relationship calculation units for determining whether the camera 1 is directly above PO1, front PO2, back PO3, side PO4, diagonal front PO5 or diagonal back PO6. 34, it is possible to cope with the case where the camera 1 is disposed directly above, in front, in the back, side, diagonally in front, and diagonally in the back. In these cases, the predetermined action in the monitored person Ob is more It can be detected with high accuracy.

上記被監視者監視システムMSおよびセンサ装置SUは、図9を用いて上述した直上用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が直上PO1である場合に、画像上における設定領域AR外の被監視者Obの第1面積S1および前記画像上における設定領域ARと被監視者Obとが重なった第2面積S2を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。   Since the monitored person monitoring system MS and the sensor device SU include the action detection algorithm for direct use described above with reference to FIG. 9, when the positional relationship of the camera 1 is PO1 directly above, the set area AR on the image Presence / absence of wake-up in the monitored person Ob by relatively simple image processing of obtaining the first area S1 of the outside monitored person Ob and the second area S2 where the set area AR and the monitored person Ob overlap on the image It can also determine the presence or absence of getting out of bed.

上記被監視者監視システムMSおよびセンサ装置SUは、図10を用いて上述した手前用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が手前PO2である場合に、画像上における行動検知線ALと被監視者Obの足先位置FPとの距離Waを求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。   Since the monitored person monitoring system MS and the sensor device SU include the action detection algorithm for the foreground described above with reference to FIG. 10, the action detection line on the image when the positional relationship of the camera 1 is the foreground PO2. The presence or absence of getting up and the presence or absence of bed of the monitored person Ob can be determined by relatively simple image processing of obtaining the distance Wa between the AL and the toe position FP of the monitored person Ob.

上記被監視者監視システムMSおよびセンサ装置SUは、図11を用いて上述した横用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が横PO4である場合に、画像上において、設定領域ARの横の方向に沿ってカメラ1に最も近い位置に位置する第1境界線BL1と設定領域ARの前記横の方向に沿ってカメラ1に最も遠い位置に位置する第2境界線BL2との間での設定領域ARと被監視者Obとが重なった第3面積S3を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。   Since the monitored person monitoring system MS and the sensor device SU include the horizontal behavior detection algorithm described above with reference to FIG. 11, when the positional relationship of the camera 1 is horizontal PO4, the set region on the image A first boundary line BL1 positioned closest to the camera 1 along the horizontal direction of AR and a second boundary line BL2 positioned farthest from the camera 1 along the horizontal direction of the setting area AR The presence or absence of getting up and the presence or absence of bed in the monitored person Ob can be determined by relatively simple image processing of obtaining the third area S3 where the set area AR and the monitored person Ob overlap each other.

上記被監視者監視システムMSおよびセンサ装置SUは、図12を用いて上述した奥用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が奥PO3である場合に、前記第2面積S2を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。   Since the monitored person monitoring system MS and the sensor device SU include the back-behavior detection algorithm described above with reference to FIG. 12, when the positional relationship of the camera 1 is the back PO3, the second area S2 is set. With the relatively simple image processing of obtaining, it is possible to determine the presence or absence of getting up and the presence or absence of the person being monitored Ob.

上記被監視者監視システムMSおよびセンサ装置SUは、図13を用いて上述した斜め前用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が斜め前PO5である場合に、前記距離Waおよび前記第3面積S3を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。   Since the monitored person monitoring system MS and the sensor device SU include the behavior detection algorithm for oblique front described above with reference to FIG. 13, when the positional relationship of the camera 1 is oblique forward PO5, the distance Wa and With the relatively simple image processing of obtaining the third area S3, it is possible to determine the presence or absence of getting up and the presence or absence of the person being monitored Ob.

記被監視者監視システムMSおよびセンサ装置SUは、図14を用いて上述した斜め奥用の行動検知アルゴリズムを含むので、前記カメラ1の位置関係が斜め奥PO6である場合に、前記第3面積S3を求めるという比較的簡易な画像処理で被監視者Obにおける起床の有無および離床の有無を判定できる。   Since the monitored person monitoring system MS and the sensor device SU include the behavior detection algorithm for the oblique back described above with reference to FIG. 14, the third area is determined when the positional relationship of the camera 1 is the oblique back PO6. With the relatively simple image processing of obtaining S3, the presence or absence of getting up and the presence or absence of bed of the monitored person Ob can be determined.

上記被監視者監視システムMSおよびセンサ装置SUは、行動検知線ALを外部から受け付けて記憶部5に記憶する前記行動検知線受付部の一例として、通信IF部4および行動検知線設定処理部33を備えるので、行動検知線ALを簡易に入力して設定できる。   The monitored person monitoring system MS and the sensor device SU receive the behavior detection line AL from the outside and store them in the storage unit 5 as an example of the behavior detection line reception unit and the communication IF unit 4 and the behavior detection line setting processing unit 33. Therefore, the action detection line AL can be easily input and set.

なお、上述の実施形態では、位置関係演算部34にて、画像中心CPが設定領域ARおよび行動検知線ALに対してどの位置に存在するかによって前記カメラ1の位置関係が求められているが、図3に示すカメラ1で取得した画像に画像中心CPも一緒に表示部7に表示され、ユーザーの入力部6の操作によって設定領域および行動検知線の入力が受け付けられ、画像中心CPと設定領域ARおよび行動検知線ALの位置関係とされても良い。   In the above-described embodiment, the positional relationship calculation unit 34 determines the positional relationship of the camera 1 depending on where the image center CP is located with respect to the setting area AR and the action detection line AL. 3, the image center CP is also displayed on the display unit 7 together with the image acquired by the camera 1 shown in FIG. 3, and the input of the setting area and the action detection line is accepted by the user's operation of the input unit 6. The positional relationship between the area AR and the action detection line AL may be used.

また、上述の実施形態では、アルゴリズム選択部35は、行動検知処理S45の処理S51で、複数の行動検知アルゴリズムの中から位置関係演算部34で求めた前記カメラ1の位置関係に基づく行動検知アルゴリズムを選択したが、位置関係演算部34によって前記カメラ1の位置関係を求めた後の他のタイミングで行動検知アルゴリズムを選択しても良い。例えば、アルゴリズム選択部35は、上述の処理S43で位置関係演算部34が前記カメラ1の位置関係を求めた直後に、行動検知アルゴリズムを選択しても良い。   In the above-described embodiment, the algorithm selection unit 35 performs the action detection algorithm based on the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 from the plurality of behavior detection algorithms in the process S51 of the behavior detection process S45. However, the behavior detection algorithm may be selected at another timing after the positional relationship calculation unit 34 obtains the positional relationship of the camera 1. For example, the algorithm selection unit 35 may select an action detection algorithm immediately after the positional relationship calculation unit 34 obtains the positional relationship of the camera 1 in the above-described process S43.

また、上述の実施形態において、アルゴリズム選択部35は、所定期間ごとに、複数の行動検知アルゴリズムの中から位置関係演算部34で求めた前記カメラ1の位置関係に基づく行動検知アルゴリズムを選択して良く、また、ユーザから行動検知アルゴリズムの選択処理の要求を受け付けた場合に、割り込み処理で、アルゴリズム選択部35は、所定期間ごとに、複数の行動検知アルゴリズムの中から位置関係演算部34で求めた前記カメラ1の位置関係に基づく行動検知アルゴリズムを選択して良い。特に、ユーザによる設定領域ARの設定や行動検知線ALの設定後に、前記ユーザによる割り込み処理で、アルゴリズム選択部35は、行動検知アルゴリズムを選択することが好ましい。これによれば、センサ装置SUの再配置や寝具BTの再配置に適切に対処でき、被監視者Obにおける前記所定の行動をより高精度に検知できる。   In the above-described embodiment, the algorithm selection unit 35 selects a behavior detection algorithm based on the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34 from a plurality of behavior detection algorithms for each predetermined period. In addition, when a request for selecting a behavior detection algorithm is received from the user, the algorithm selection unit 35 obtains the position relationship calculation unit 34 from a plurality of behavior detection algorithms for each predetermined period in the interrupt processing. An action detection algorithm based on the positional relationship of the camera 1 may be selected. In particular, it is preferable that the algorithm selection unit 35 selects an action detection algorithm in the interruption process by the user after the user sets the setting area AR or the action detection line AL. According to this, it is possible to appropriately deal with the rearrangement of the sensor device SU and the rearrangement of the bedding BT, and it is possible to detect the predetermined behavior in the monitored person Ob with higher accuracy.

また、上述の実施形態では、被監視者Obにおける所定の行動は、その一例として起床および離床であるが、これに限定されるものではない。被監視者Obにおける所定の行動は、前記被監視者の上方から撮像した画像に基づいて検知できる行動であれば、他の行動であっても良い。例えば、被監視者Obにおける所定の行動は、寝返り等によるはみ出しであっても良い。前記はみ出しは、人体領域から例えば頭部のパターンや腕のパターンを用いたパターンマッチングによって抽出された頭部や腕に基づいて検知できる。例えば前記カメラ1の位置関係が直上では、就寝中の頭部や腕の位置をベッド境界付近に設けた境界線を越えた部位面積を用いた行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が手前では、ベッド高さに相当する境界線を越えた部位長さを用いた行動検知アルゴリズムで検知できる。前記転落は、人体領域から例えば頭部のパターンや体幹のパターンを用いたパターンマッチングによって抽出された頭部や体幹に基づいて検知できる。例えば前記カメラ1の位置関係が直上PO1では、起床や離床に伴う頭部の大きさや体幹の大きさにおける相違を用いた直上用の行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が手前PO2では、起床や離床に伴う頭部の上下の移動量や体幹の上下の移動量における相違を用いた手前用の行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が奥PO3では、起床や離床に伴う行動検知線AL上に見えている頭部の面積や体幹の面積における相違を用いた奥用の行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が横PO4では、起床や離床に伴う頭部の左右および上下の各移動量や体幹の左右および上下の各移動量における相違を用いた横用の行動検知アルゴリズムで検知でき、また例えば前記カメラ1の位置関係が斜め前PO5では、上述の手前用と横用の各行動検知アルゴリズムを用いて検知でき、また例えば前記カメラ1の位置関係が斜め奥PO6では、上述の奥用と横用の各行動検知アルゴリズムを用いて検知できる。   In the above-described embodiment, the predetermined actions in the monitored person Ob are, for example, getting up and getting out of bed, but are not limited thereto. The predetermined action in the monitored person Ob may be another action as long as the action can be detected based on an image captured from above the monitored person. For example, the predetermined action in the monitored person Ob may be an overhang due to turning over or the like. The protrusion can be detected based on the head or arm extracted from the human body region by pattern matching using, for example, a head pattern or an arm pattern. For example, when the positional relationship of the camera 1 is directly above, the position of the sleeping head or arm can be detected by a behavior detection algorithm using a part area exceeding the boundary provided near the bed boundary. When the positional relationship is in front, it can be detected by an action detection algorithm using a part length exceeding a boundary corresponding to the bed height. The fall can be detected based on the head and trunk extracted from the human body region by pattern matching using, for example, a head pattern and a trunk pattern. For example, when the positional relationship of the camera 1 is directly above PO1, it can be detected by a behavior detection algorithm for direct use using a difference in the size of the head or the trunk when waking up or leaving the floor, and for example, the positional relationship of the camera 1 However, in front PO2, it can be detected by a behavior detection algorithm for the front using the difference in the vertical movement amount of the head and the vertical movement amount of the trunk when getting up and leaving the bed. In PO3, it can be detected by a back-behavior detection algorithm using differences in the area of the head and the trunk that are visible on the action detection line AL when waking up or leaving the bed, and for example, the positional relationship of the camera 1 is With horizontal PO4, it can be detected with a horizontal action detection algorithm that uses the difference in the left and right and up and down movements of the head and the left and right and up and down movements of the trunk when waking up and leaving the floor. Further, for example, when the positional relationship of the camera 1 is diagonally forward PO5, it can be detected using the above-mentioned front and side action detection algorithms, and when the positional relationship of the camera 1 is diagonally backward PO6, for example, It can be detected using each behavior detection algorithm for horizontal and horizontal.

また、上述の実施形態では、Xn用の起床判定条件およびXn用の離床判定条件は、前記第1面積S1、前記第2面積S2、前記第3面積S3および前記距離Waのうちの1または複数に対し閾値Thとの比較であったが、これに限定されるものではない。Xn用の起床判定条件およびXn用の離床判定条件は、前記被監視者の上方から撮像した画像に基づいて判定できる条件であれば、他の条件であっても良い。例えば、Xn用の起床判定条件およびXn用の離床判定条件は、前記第1面積S1と前記第2面積S2との比に対し所定の閾値Thとの比較であって良い。前記閾値Thは、例えば、上述と同様に、複数のサンプルを統計的に処理して経験的に予め設定される。また例えば、Xn用の起床判定条件およびXn用の離床判定条件は、行動検知線ALを跨ぐ動作の有無であっても良い。例えば、前記カメラ1の位置関係が直上PO1や手前PO2では、人体領域が行動検知線ALを初めて跨ぐ動作の検出によって起床が判定され、人体領域全体が行動検知線ALを跨ぐ動作の検出によって離床が判定され、前記カメラ1の位置関係が奥PO3では、人体領域が行動検知線ALを初めて跨ぐ動作の検出によって起床が判定され、人体領域の半分が行動検知線ALを跨ぐ動作の検出によって離床が判定される。   In the above-described embodiment, the wake-up determination condition for Xn and the wake-up determination condition for Xn are one or more of the first area S1, the second area S2, the third area S3, and the distance Wa. However, the present invention is not limited to this. The Xn wake-up determination condition and the Xn wake-up determination condition may be other conditions as long as they can be determined based on an image captured from above the monitored person. For example, the wake-up determination condition for Xn and the wake-up determination condition for Xn may be a comparison with a predetermined threshold Th with respect to the ratio of the first area S1 and the second area S2. The threshold value Th is preset in advance experimentally by statistically processing a plurality of samples, for example, as described above. Further, for example, the wake-up determination condition for Xn and the wake-up determination condition for Xn may be the presence or absence of an operation that crosses the action detection line AL. For example, when the positional relationship of the camera 1 is directly above PO1 or near side PO2, the rising of the human body region is determined by detecting a motion that first crosses the action detection line AL, and the whole human body region is detected by detecting the motion that crosses the behavior detecting line AL. When the positional relationship of the camera 1 is the rear PO3, the human body region is determined to be woken up by detecting a motion that first crosses the action detection line AL, and the person 1 leaves the floor by detecting a motion in which half of the human body region crosses the action detection line AL. Is determined.

また、上述の実施形態では、設定領域ARは、ユーザによって設定されたが、自動設定されてもよい。これによれば、設定領域ARを自動設定できる。例えば、カメラ1で取得された画像からエッジフィルタを用いてエッジを抽出することで、寝具BTの領域が検出され、この検出された寝具BTの領域が設定領域ARとして自動設定される。また例えば、カメラ1で取得された画像から寝具BTのパターンを用いたパターンマッチングによって、寝具BTの領域が検出され、この検出された寝具BTの領域が設定領域ARとして自動設定される。また例えば、3Dセンサ、ベッドの脚に取り付けた位置センサおよび寝具BTの下に敷かれる圧力センサを持つカーペット等のセンサを用いることで、寝具BTの領域が検出され、この検出された寝具BTの領域が設定領域ARとして自動設定される。   In the above-described embodiment, the setting area AR is set by the user, but may be automatically set. According to this, the setting area AR can be automatically set. For example, by extracting an edge from an image acquired by the camera 1 using an edge filter, the area of the bedding BT is detected, and the detected area of the bedding BT is automatically set as the setting area AR. For example, the area of the bedding BT is detected from the image acquired by the camera 1 by pattern matching using the pattern of the bedding BT, and the detected area of the bedding BT is automatically set as the setting area AR. Further, for example, by using a sensor such as a 3D sensor, a position sensor attached to a leg of the bed, and a carpet having a pressure sensor placed under the bedding BT, the area of the bedding BT is detected, and the detected bedding BT The area is automatically set as the setting area AR.

また、上述の実施形態では、センサ装置SUは、前記行動検知線受付部の他の一例として、通信IF部4および行動検知線設定処理部33を備えたが、センサ装置SUは、制御処理部3に機能的に、カメラ1で取得した画像に基づいて行動検知線ALを求め、この求めた行動検知線ALを記憶部5の行動検知線記憶部52に記憶する行動検知線演算部をさらに備えても良い。これによれば、前記行動検知線演算部をさらに備えるので、行動検知線ALを自動設定できる。例えば、カメラ1で取得された画像からエッジの抽出やパターンマッチングによって、寝具BTの領域が検出され、この検出された寝具BTの長辺が行動検知線ALとして自動設定される。また例えば、上述と同様に、寝具BTの領域が検出され、前記画像取得部の一例であるカメラ1は、互いに異なる時刻に撮像した複数の画像を取得し、これら複数の画像から動体領域が人体領域として検出され、この検出された人体領域が前記寝具BTの領域から外部に出る頻度が各辺ごとに求められ、所定期間(設定期間)で最も頻度の高い辺が行動検知線ALとして自動設定される。   In the above-described embodiment, the sensor device SU includes the communication IF unit 4 and the behavior detection line setting processing unit 33 as another example of the behavior detection line receiving unit. However, the sensor device SU includes a control processing unit. 3, a behavior detection line computing unit that functionally obtains the behavior detection line AL based on the image acquired by the camera 1 and stores the obtained behavior detection line AL in the behavior detection line storage unit 52 of the storage unit 5. You may prepare. According to this, since the said action detection line calculating part is further provided, the action detection line AL can be set automatically. For example, the region of the bedding BT is detected from the image acquired by the camera 1 by edge extraction or pattern matching, and the long side of the detected bedding BT is automatically set as the action detection line AL. Further, for example, as described above, the area of the bedding BT is detected, and the camera 1 which is an example of the image acquisition unit acquires a plurality of images captured at different times, and the moving body area is a human body from the plurality of images. The frequency with which the detected human body region goes out of the area of the bedding BT is obtained for each side, and the side with the highest frequency in a predetermined period (set period) is automatically set as the action detection line AL. Is done.

また、上述の実施形態では、行動検知線ALは、1個であったが、複数であっても良い。この場合、各行動検知線ALごとに前記カメラ1の位置関係が演算され、各行動検知線ALごとに、前記演算された前記カメラ1の位置関係に基づく行動検知アルゴリズムで被監視者Obにおける所定の行動が検知される。   In the above-described embodiment, the number of action detection lines AL is one, but a plurality of action detection lines AL may be provided. In this case, the positional relationship of the camera 1 is calculated for each behavior detection line AL, and for each behavior detection line AL, the behavior detection algorithm based on the calculated positional relationship of the camera 1 is used to determine the predetermined relationship in the monitored person Ob. Behavior is detected.

また、上述の実施形態では、位置関係演算部34は、前記カメラ1の位置関係として、6個の直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6の基本位置関係のいずれかに演算し、アルゴリズム選択部35は、この位置関係演算部34で求めた前記カメラ1の位置関係に対応した、直上用、手前用、奥用、横用、斜め前用および斜め奥用のいずれかの行動検知アルゴリズムを選択したが、カメラ1の位置に応じて徐々に行動検知アルゴリズムを切り換えても良い。この場合では、例えば、上述の実施形態において、位置関係演算部34は、設定領域ARに対する、画像を撮像したカメラ1の位置関係を互いに異なる複数の基本位置関係に分類した場合において、前記複数の基本位置関係それぞれの重みを設定領域ARに対する前記カメラ1の位置に基づいて求めることで、設定領域ARに対する前記画像を撮像したカメラ1の位置関係を求め、前記複数の行動検知アルゴリズムは、画像に基づいて被監視者Obにおける所定の行動を検知するための所定の評価値を前記複数の基本位置関係に応じて複数求め、前記求めた複数の評価値に前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果と所定の閾値との比較結果に基づいて被監視者Obにおける前記所定の行動を検知するアルゴリズムを重み付け行動検知アルゴリズムとして含み、アルゴリズム選択部35は、前記複数の行動検知アルゴリズムの中から位置関係演算部34で求めた位置関係に基づいて前記重み付け行動検知アルゴリズムを選択し、行動検知処理部36は、位置関係演算部34で求めた前記複数の基本位置関係それぞれの重みを用いてアルゴリズム選択部35で選択した重み付け行動検知アルゴリズムで前記画像に基づいて被監視者Obにおける前記所定の行動を検知する。これによれば、設定領域ARに対する前記カメラ1の位置関係を1個の基本位置関係で表すのではなく、複数の基本位置関係それぞれの重みで表し、前記複数の基本位置関係に応じた複数の評価値を前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果に基づいて被監視者Obにおける所定の行動を検知するので、1個の基本位置関係に応じた行動検知アルゴリズムで被監視者Obにおける前記所定の行動を検知する場合に較べて、より高精度に被監視者Obにおける前記所定の行動を検知できる。   Further, in the above-described embodiment, the positional relationship calculation unit 34 has the basic positional relationship of the six immediately above PO1, the near side PO2, the far side PO3, the lateral PO4, the diagonally forward PO5 and the diagonally far side PO6 as the positional relationship of the camera 1. The algorithm selection unit 35 calculates one of them, and the algorithm selection unit 35 corresponds to the positional relationship of the camera 1 obtained by the positional relationship calculation unit 34. However, the behavior detection algorithm may be gradually switched according to the position of the camera 1. In this case, for example, in the above-described embodiment, when the positional relationship calculation unit 34 classifies the positional relationship of the camera 1 that captured the image with respect to the setting area AR into a plurality of different basic positional relationships, By obtaining the weight of each basic positional relationship based on the position of the camera 1 with respect to the setting area AR, the positional relation of the camera 1 that has captured the image with respect to the setting area AR is obtained. Based on the plurality of basic positional relationships, a plurality of predetermined evaluation values for detecting a predetermined action in the monitored person Ob are obtained, and the calculated plurality of evaluation values are respectively weighted by the plurality of basic positional relationships. The weight is detected and the predetermined action in the monitored person Ob is detected based on a comparison result between the weighted result and a predetermined threshold. Rhythm is included as a weighted behavior detection algorithm, and the algorithm selection unit 35 selects the weighted behavior detection algorithm based on the positional relationship obtained by the positional relationship calculation unit 34 from the plurality of behavior detection algorithms, and the behavior detection processing unit 36 is a weighted behavior detection algorithm selected by the algorithm selection unit 35 using the weights of the plurality of basic positional relationships obtained by the positional relationship calculation unit 34, and the predetermined behavior of the monitored person Ob based on the image. Detect. According to this, the positional relationship of the camera 1 with respect to the setting area AR is not expressed by one basic positional relationship, but is expressed by the weight of each of the plurality of basic positional relationships, and a plurality of the plurality of basic positional relationships corresponding to the plurality of basic positional relationships. Since the evaluation value is weighted by the weight of each of the plurality of basic positional relationships, and the predetermined action in the monitored person Ob is detected based on the weighted result, the behavior detection algorithm corresponding to one basic positional relationship is used. Compared with the case where the predetermined action in the monitoring person Ob is detected, the predetermined action in the monitored person Ob can be detected with higher accuracy.

図17は、前記カメラの位置関係が複数の基本位置関係それぞれの重みで表された場合の前記重みの演算手法を説明するための図である。図17Aは、設定領域ARおよび画像中心CPを示し、図17Bは、図17Aに示す設定領域ARを2倍に拡大した拡大設定領域AREおよび画像中心CPを示す。より具体的には、前記基本位置関係は、例えば、上述の直上PO1、手前PO2、奥PO3、横PO4、斜め前PO5および斜め奥PO6であり、前記所定の評価値は、例えば、上述の第1面積S1、第2面積S2、第3面積S3および距離Waである。そして、位置関係演算部34は、図17に示すように、設定領域ARをその対角線(図17Bに破線で示す)の交点を中心に設定領域を2倍に拡大することで、水平幅Wで垂直幅Hである拡大設定領域AREを求める。次に、位置関係演算部34は、画像中心CPから拡大設定領域AREに最も近い距離pを求める。図17に示す例では、画像中心CPが設定領域AR内における平面視にて右下寄りでかつ設定領域ARが横長であるため、行動検知線ALが設定領域ARの下辺と判定され、画像中心CPと拡大設定領域AREとの最短距離pは、拡大設定領域AREの下辺までの距離となっている。そして、位置関係演算部34は、画像中心CPが設定領域AR、拡大設定領域AREおよび行動検知線ALに対してどの位置に存在するかによって基本位置関係を求め、この求めた基本位置関係の重みを求める。図17に示す例では、画像中心CPが設定領域AR内にあり、行動検知線ALおよび画像中心からの距離pが最短となる拡大設定領域AREの辺の両方が画像中心CPより下側にあるので、直上PO1および手前PO2の2個の基本位置関係が演算され、直上PO1の重みがpとされ、手前PO2の重みがH/2−pとされる。上述した直上用の起床判定条件は、第1面積S1と第1閾値Th1との比較であり、上述した手前用の起床判定条件は、距離Waと第3閾値Th3との比較であるので、重み付け行動検知アルゴリズムにおける起床判定条件は、V1=((Wa−Th3)×(H/2−p)+(S1−Th1)×p)×(H/2)と第15閾値Th15との比較となる。例えば第15閾値Th15は、0とされ、行動検知処理部36は、重み付けした結果V1が0以上である場合(V1≧0)には、被監視者Obが起床したと判定し、重み付けした結果V1が0未満である場合(V1<0)には、被監視者Obが起床前と判定する。また、上述した直上用の離床判定条件は、第2面積S2と第2閾値Th2との比較であり、上述した手前用の離床判定条件は、距離Waと第4閾値Th4との比較であるので、重み付け行動検知アルゴリズムにおける離床判定条件は、V2=((Wa−Th4)×(H/2−p)+(S2−Th1)×p)×(H/2)と第16閾値Th16との比較となる。例えば第16閾値Th16は、0とされ、行動検知処理部36は、重み付けした結果V2が0以上である場合(V2≧0)には、被監視者Obが離床したと判定し、重み付けした結果V2が0未満である場合(V2<0)には、被監視者Obが離床前と判定する。   FIG. 17 is a diagram for explaining a calculation method of the weight when the positional relationship of the camera is represented by weights of a plurality of basic positional relationships. FIG. 17A shows the setting area AR and the image center CP, and FIG. 17B shows an enlarged setting area ARE and an image center CP obtained by enlarging the setting area AR shown in FIG. 17A twice. More specifically, the basic positional relationship is, for example, the above-described immediately above PO1, front side PO2, back PO3, side PO4, diagonally front PO5, and diagonally back PO6, and the predetermined evaluation value is, for example, the above-described first evaluation value. 1 area S1, 2nd area S2, 3rd area S3, and distance Wa. Then, as shown in FIG. 17, the positional relationship calculation unit 34 expands the setting area twice around the intersection of the diagonal line (shown by a broken line in FIG. 17B) with the horizontal width W. An enlargement setting area ARE having a vertical width H is obtained. Next, the positional relationship calculation unit 34 obtains the distance p closest to the enlargement setting area ARE from the image center CP. In the example illustrated in FIG. 17, the image center CP is lower right in a plan view in the setting area AR and the setting area AR is horizontally long. Therefore, the action detection line AL is determined as the lower side of the setting area AR, and the image center The shortest distance p between the CP and the enlargement setting area ARE is a distance to the lower side of the enlargement setting area ARE. Then, the positional relationship calculation unit 34 determines a basic positional relationship depending on where the image center CP is located with respect to the setting area AR, the enlarged setting area ARE, and the action detection line AL, and the weight of the calculated basic positional relationship. Ask for. In the example shown in FIG. 17, the image center CP is in the setting area AR, and both the action detection line AL and the side of the enlarged setting area ARE where the distance p from the image center is the shortest are below the image center CP. Therefore, the two basic positional relationships of the immediately above PO1 and the near side PO2 are calculated, the weight of the immediately above PO1 is set to p, and the weight of the near side PO2 is set to H / 2−p. The above-described wake-up determination condition for directly above is a comparison between the first area S1 and the first threshold Th1, and the above-mentioned wake-up determination condition for the front is a comparison between the distance Wa and the third threshold Th3. The wake-up determination condition in the behavior detection algorithm is a comparison between V1 = ((Wa−Th3) × (H / 2−p) + (S1−Th1) × p) × (H / 2) and the fifteenth threshold value Th15. . For example, the fifteenth threshold Th15 is set to 0, and when the weighted result V1 is equal to or greater than 0 (V1 ≧ 0), the action detection processing unit 36 determines that the monitored person Ob has woken up and weighted the result. When V1 is less than 0 (V1 <0), it is determined that the monitored person Ob is before waking up. Further, the above-mentioned bed leaving determination condition for the upper portion is a comparison between the second area S2 and the second threshold Th2, and the above-mentioned bed leaving determination condition for the front is a comparison between the distance Wa and the fourth threshold Th4. In the weighted behavior detection algorithm, the bed leaving determination condition is V2 = ((Wa−Th4) × (H / 2−p) + (S2−Th1) × p) × (H / 2) and a comparison with the sixteenth threshold Th16. It becomes. For example, the 16th threshold Th16 is set to 0, and when the weighted result V2 is 0 or more (V2 ≧ 0), the behavior detection processing unit 36 determines that the monitored person Ob has left the floor and weighted the result. When V2 is less than 0 (V2 <0), it is determined that the monitored person Ob is before getting out of bed.

また、この場合において、拡大設定領域AREの外側に画像中心CPがある場合は、十分に斜めからのカメラ1による撮像であるので、上述した横用の行動検知アルゴリズムや斜め奥用の行動検知アルゴリズム等がそのまま用いることができる。   Further, in this case, when the image center CP is outside the enlargement setting area ARE, the image is captured by the camera 1 from a sufficiently oblique direction. Etc. can be used as they are.

そして、上述では、基本位置関係は、2個が選択されて重み付けされたが、3個以上が選択されて重み付けされても良い。   In the above description, two basic positional relationships are selected and weighted, but three or more basic positional relationships may be selected and weighted.

また、上述の実施形態では、センサ装置SUが前記行動検知部および前記通知部を備えたが、前記行動検知部および前記通知部は、管理サーバ装置SVに備えられても良く、また、固定端末装置SPに備えられても良く、また、携帯端末装置TAに備えられても良い。このような場合、センサ装置SUからネットワークNWを介して被監視者Obの上方から撮像した画像およびドップラ信号を収容した通信信号を受信して取得する通信インターフェース等が、画像取得部の一例に相当することになる。   In the above-described embodiment, the sensor device SU includes the behavior detection unit and the notification unit. However, the behavior detection unit and the notification unit may be included in the management server device SV, and a fixed terminal. The device SP may be provided, or the mobile terminal device TA may be provided. In such a case, a communication interface that receives and acquires an image captured from above the monitored person Ob and the communication signal containing the Doppler signal from the sensor device SU via the network NW corresponds to an example of the image acquisition unit. Will do.

本明細書は、上記のように様々な態様の技術を開示しているが、そのうち主な技術を以下に纏める。   The present specification discloses various aspects of the technology as described above, and the main technologies are summarized below.

一態様にかかる行動検知装置は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得部と、前記画像中における所定の領域を設定領域として記憶し、前記画像に基づいて前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムを記憶する記憶部と、前記複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択部と、前記アルゴリズム選択部で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理部とを備える。好ましくは、上述の行動検知装置において、前記設定領域は、例えばベッド等の寝具の領域(寝具領域)である。好ましくは、上述の行動検知装置において、前記画像の中心が前記設定領域に対してどの位置に存在するかによって、前記画像を撮像したカメラと前記設定領域の前記位置関係を求める位置関係演算部をさらに備える。   The behavior detection device according to an aspect stores an image acquisition unit that acquires an image of a monitored person to be monitored from above the monitored person, and a predetermined area in the image as a setting area. A storage unit that stores a plurality of different behavior detection algorithms for detecting a predetermined behavior of the monitored person based on the image, a camera that captures the image from the plurality of behavior detection algorithms, and the An algorithm selection unit that selects a behavior detection algorithm based on a positional relationship with a setting region, and a behavior detection process that detects a predetermined behavior in the monitored person based on the image by the behavior detection algorithm selected by the algorithm selection unit A part. Preferably, in the behavior detection device described above, the setting area is an area of a bedding such as a bed (bedding area). Preferably, in the above-described behavior detection device, a positional relationship calculation unit that obtains the positional relationship between the camera that has captured the image and the setting region according to a position where the center of the image exists with respect to the setting region. Further prepare.

このような行動検知装置は、複数の行動検知アルゴリズムの中から、カメラと設定領域との位置関係に応じた行動検知アルゴリズムを選択し、この選択した行動検知アルゴリズムで被監視者における所定の行動を検知するので、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。また、カメラが配設され、行動検知の開始後に、寝具の位置が変更されると、前記寝具に対するカメラの位置関係が変わってしまうが、上記行動検知装置は、記憶部に記憶された前記設定領域を変更後の前記寝具の領域に変更することで、このような寝具の位置の変更による前記カメラの位置関係の変更にも対処できる。したがって、上記行動検知装置は、寝具の位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。   Such a behavior detection device selects a behavior detection algorithm according to the positional relationship between the camera and the setting area from a plurality of behavior detection algorithms, and uses the selected behavior detection algorithm to perform a predetermined behavior of the monitored person. Since the detection is performed, it is possible to detect the predetermined behavior of the monitored person with higher accuracy regardless of the installation position where the camera is installed. Further, when the position of the bedding is changed after the camera is installed and the behavior detection is started, the positional relationship of the camera with respect to the bedding changes, but the behavior detection device stores the setting stored in the storage unit. By changing the area to the bedding area after the change, it is possible to cope with a change in the positional relationship of the camera due to such a change in the position of the bedding. Therefore, the behavior detection apparatus can detect the predetermined behavior of the monitored person with higher accuracy regardless of the position of the bedding.

他の一態様では、これら上述の行動検知装置において、前記位置関係は、前記カメラが前記設定領域の直上に位置する直上、前記カメラが前記設定領域の手前上方に位置する手前、前記カメラが前記設定領域の奥上方に位置する奥、前記カメラが前記設定領域の横上方に位置する横、前記カメラが前記設定領域の斜め前上方に位置する斜め前、および、前記カメラが前記設定領域の斜め奥上方に位置する斜め奥のうちのいずれかである。   In another aspect, in the above-described behavior detection devices, the positional relationship is such that the camera is located immediately above the setting area, the camera is located immediately above the setting area, and the camera is A rear position that is located in the upper part of the setting area, a side in which the camera is located in the upper side of the setting area, an oblique front in which the camera is located obliquely in front of the setting area, and an oblique position in the setting area. It is one of the diagonal backs located in the back upper part.

このような行動検知装置は、カメラが直上、手前、奥、横、斜め前および斜め奥のいずれかに配設される場合に対処でき、これらの場合に、被監視者における所定の行動をより高精度に検知できる。   Such an action detection device can cope with the case where the camera is disposed directly above, in front, in the back, side, in front of the diagonal, and in the back of the diagonal. It can be detected with high accuracy.

他の一態様では、これら上述の行動検知装置において、前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、前記位置関係演算部は、前記行動検知線を考慮して、前記画像を撮像したカメラと前記設定領域との位置関係を求める。   In another aspect, in the above-described behavior detection devices, the storage unit is used for at least one of the plurality of behavior detection algorithms to detect a predetermined behavior in the monitored person. A predetermined line in the inside is further stored as a behavior detection line, and the positional relationship calculation unit obtains a positional relationship between the camera that has captured the image and the setting region in consideration of the behavior detection line.

これによれば、前記行動検知線を考慮して前記カメラの位置関係を求める行動検知装置を提供できる。   According to this, the action detection apparatus which calculates | requires the positional relationship of the said camera in consideration of the said action detection line can be provided.

他の一態様では、これら上述の行動検知装置において、前記複数の行動検知アルゴリズムは、前記位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムを含み、前記直上用の行動検知アルゴリズムは、前記画像上における前記設定領域外の前記被監視者の第1面積、および、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。   In another aspect, in the above-described behavior detection devices, the plurality of behavior detection algorithms include a behavior detection algorithm for direct use used when the positional relationship is directly above, and the behavior detection algorithm for direct use is A predetermined area of the monitored person based on a first area of the monitored person outside the setting area on the image and a second area where the setting area and the monitored person overlap on the image It is an algorithm that detects behavior.

このような行動検知装置は、画像上における設定領域外の被監視者の第1面積および前記画像上における設定領域と被監視者とが重なった第2面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。   Such a behavior detection device is a relatively simple image process in which the first area of the monitored person outside the set area on the image and the second area where the set area on the image overlaps the monitored person are obtained. A predetermined action in the monitored person can be detected.

他の一態様では、これら上述の行動検知装置において、前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、前記複数の行動検知アルゴリズムは、前記位置関係が手前である場合に用いられる手前用の行動検知アルゴリズムを含み、前記手前用の行動検知アルゴリズムは、前記画像上における前記行動検知線と前記被監視者の足先位置との距離に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。   In another aspect, in the above-described behavior detection devices, the storage unit is used for at least one of the plurality of behavior detection algorithms to detect a predetermined behavior in the monitored person. A plurality of behavior detection algorithms include a behavior detection algorithm for the foreground used when the positional relationship is foreground, and the behavior detection algorithm for the foreground is used as a behavior detection line. And an algorithm for detecting a predetermined action in the monitored person based on a distance between the action detection line on the image and a toe position of the monitored person.

このような行動検知装置は、画像上における行動検知線と被監視者の足先位置との距離を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。   Such a behavior detection device can detect a predetermined behavior of the monitored person by relatively simple image processing of obtaining a distance between the action detection line on the image and the position of the toe of the monitored person.

他の一態様では、これら上述の行動検知装置において、前記複数の行動検知アルゴリズムは、前記位置関係が横である場合に用いられる横用の行動検知アルゴリズムを含み、前記横用の行動検知アルゴリズムは、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。   In another aspect, in the above-described behavior detection devices, the plurality of behavior detection algorithms include a lateral behavior detection algorithm used when the positional relationship is lateral, and the lateral behavior detection algorithm is On the image, the first boundary line positioned closest to the camera along the horizontal direction of the setting area and the position farthest from the camera along the horizontal direction of the setting area This is an algorithm for detecting a predetermined action in the monitored person based on a third area where the setting area and the monitored person overlap with the second boundary line.

このような行動検知装置は、画像上において、設定領域の横の方向に沿ってカメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と被監視者とが重なった第3面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。   Such a behavior detection device is farthest from the camera along the horizontal direction of the setting area and the first boundary line positioned closest to the camera along the horizontal direction of the setting area on the image. Predetermined behavior in the monitored person can be detected by relatively simple image processing of obtaining a third area where the set area and the monitored person overlap with the second boundary line located at the position.

他の一態様では、これら上述の行動検知装置において、前記複数の行動検知アルゴリズムは、前記位置関係が奥である場合に用いられる奥用の行動検知アルゴリズムを含み、前記奥用の行動検知アルゴリズムは、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。   In another aspect, in the above-described behavior detection devices, the plurality of behavior detection algorithms include a behavior detection algorithm for the back used when the positional relationship is a depth, and the behavior detection algorithm for the depth is And an algorithm for detecting a predetermined action in the monitored person based on a second area where the setting area on the image overlaps the monitored person.

このような行動検知装置は、画像上における設定領域と被監視者とが重なった第2面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。   Such an action detection apparatus can detect a predetermined action in the monitored person by relatively simple image processing in which a second area where the set area on the image overlaps the monitored person is obtained.

他の一態様では、これら上述の行動検知装置において、前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、前記複数の行動検知アルゴリズムは、前記位置関係が斜め前である場合に用いられる斜め前用の行動検知アルゴリズムを含み、前記斜め前用の行動検知アルゴリズムは、前記画像上における前記行動検知線と前記被監視者の足先位置との距離、および、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。   In another aspect, in the above-described behavior detection devices, the storage unit is used for at least one of the plurality of behavior detection algorithms to detect a predetermined behavior in the monitored person. A predetermined line is further stored as an action detection line, and the plurality of action detection algorithms include an action detection algorithm for diagonally forward used when the positional relationship is diagonally forward, and the action for diagonally forward The detection algorithm includes a distance between the action detection line on the image and the foot position of the monitored person, and a position closest to the camera along the horizontal direction of the setting area on the image. The setting area between the first boundary line located and the second boundary line located farthest from the camera along the horizontal direction of the setting area; and On the basis of the third area of the surveillant it overlaps an algorithm for detecting a predetermined behavior in the monitored person.

このような行動検知装置は、画像上における行動検知線と被監視者の足先位置との距離、および、前記画像上において、設定領域の横の方向に沿ってカメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。   Such a behavior detection device is located at a position closest to the camera along the distance between the behavior detection line on the image and the position of the foot of the person to be monitored, and the horizontal direction of the setting region on the image. A third area where the setting area and the monitored person overlap between the first boundary line and the second boundary line located at a position farthest from the camera along the horizontal direction of the setting area. Predetermined behavior in the monitored person can be detected by relatively simple image processing of obtaining.

他の一態様では、これら上述の行動検知装置において、前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、前記複数の行動検知アルゴリズムは、前記位置関係が斜め奥である場合に用いられる斜め奥用の行動検知アルゴリズムを含み、前記斜め奥用の行動検知アルゴリズムは、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである。   In another aspect, in the above-described behavior detection devices, the storage unit is used for at least one of the plurality of behavior detection algorithms to detect a predetermined behavior in the monitored person. A predetermined line is further stored as an action detection line, and the plurality of action detection algorithms include an action detection algorithm for an oblique back used when the positional relationship is an oblique back, and the action for the oblique back The detection algorithm includes a first boundary line positioned closest to the camera along the horizontal direction of the setting area on the image and the farthest camera from the horizontal direction of the setting area. Detecting a predetermined action in the monitored person based on a third area where the setting area and the monitored person overlap with the second boundary line located at the position Is that algorithm.

このような行動検知装置は、画像上において、設定領域の横の方向に沿ってカメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と被監視者とが重なった第3面積を求めるという比較的簡易な画像処理で前記被監視者における所定の行動を検知できる。   Such a behavior detection device is farthest from the camera along the horizontal direction of the setting area and the first boundary line positioned closest to the camera along the horizontal direction of the setting area on the image. Predetermined behavior in the monitored person can be detected by relatively simple image processing of obtaining a third area where the set area and the monitored person overlap with the second boundary line located at the position.

他の一態様では、これら上述の行動検知装置において、前記位置関係演算部は、前記画像を撮像したカメラと前記設定領域との位置関係を互いに異なる複数の基本位置関係に分類した場合において、前記複数の基本位置関係それぞれの重みを前記設定領域に対する前記カメラの位置に基づいて求めることで、前記画像を撮像したカメラと前記設定領域との位置関係を求め、前記複数の行動検知アルゴリズムは、前記画像に基づいて前記被監視者における所定の行動を検知するための所定の評価値を前記複数の基本位置関係に応じて複数求め、前記求めた複数の評価値に前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果と所定の閾値との比較結果に基づいて前記被監視者における所定の行動を検知するアルゴリズムを重み付け行動検知アルゴリズムとして含み、前記アルゴリズム選択部は、前記複数の行動検知アルゴリズムの中から前記位置関係演算部で求めた位置関係に基づいて前記重み付け行動検知アルゴリズムを選択し、前記行動検知処理部は、前記位置関係演算部で求めた前記複数の基本位置関係それぞれの重みを用いて前記アルゴリズム選択部で選択した重み付け行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する。   In another aspect, in the above-described behavior detection devices, when the positional relationship calculation unit classifies the positional relationship between the camera that captured the image and the setting region into a plurality of different basic positional relationships, By determining the weight of each of the plurality of basic positional relationships based on the position of the camera with respect to the setting region, the positional relationship between the camera that has captured the image and the setting region is obtained, and the plurality of behavior detection algorithms include: A plurality of predetermined evaluation values for detecting a predetermined action in the monitored person based on an image are obtained according to the plurality of basic positional relationships, and each of the plurality of basic positional relationships is added to the obtained plurality of evaluation values. An algorithm for weighting with a weight and detecting a predetermined action in the monitored person based on a comparison result between the weighted result and a predetermined threshold Including as a weighted behavior detection algorithm, the algorithm selection unit selects the weighted behavior detection algorithm based on the positional relationship obtained by the positional relationship calculation unit from the plurality of behavior detection algorithms, the behavior detection processing unit, The predetermined behavior in the monitored person is detected based on the image by the weighting behavior detection algorithm selected by the algorithm selection unit using the weights of the plurality of basic positional relationships obtained by the positional relationship calculation unit.

このような行動検知装置は、設定領域に対する前記カメラの位置関係を1個の基本位置関係で表すのではなく、複数の基本位置関係それぞれの重みで表し、前記複数の基本位置関係に応じた複数の評価値を前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果に基づいて被監視者における所定の行動を検知するので、1個の基本位置関係に応じた行動検知アルゴリズムで前記被監視者における所定の行動を検知する場合に較べて、より高精度に前記被監視者における所定の行動を検知できる。   Such a behavior detection device does not represent the positional relationship of the camera with respect to the setting area as a single basic positional relationship, but represents a plurality of basic positional relationships, each of which represents a plurality of basic positional relationships. The evaluation value is weighted with the weight of each of the plurality of basic positional relationships, and a predetermined behavior in the monitored person is detected based on the weighted result, so the behavior detection algorithm according to one basic positional relationship Compared with the case where the predetermined action in the monitored person is detected, the predetermined action in the monitored person can be detected with higher accuracy.

他の一態様では、上述の行動検知装置において、前記行動検知線を外部から受け付けて前記記憶部に記憶する行動検知線受付部をさらに備える。   In another aspect, the above-described behavior detection device further includes a behavior detection line reception unit that receives the behavior detection line from the outside and stores the behavior detection line in the storage unit.

このような行動検知装置は、行動検知線受付部をさらに備えるので、行動検知線を簡易に入力して設定できる。   Since such a behavior detection device further includes a behavior detection line receiving unit, the behavior detection line can be easily input and set.

他の一態様では、上述の行動検知装置において、前記画像取得部で取得した画像に基づいて前記行動検知線を求め、前記求めた行動検知線を前記記憶部に記憶する行動検知線演算部をさらに備える。   In another aspect, in the above-described behavior detection device, the behavior detection line calculation unit that obtains the behavior detection line based on the image acquired by the image acquisition unit and stores the obtained behavior detection line in the storage unit. Further prepare.

このような行動検知装置は、行動検知線演算部をさらに備えるので、行動検知線を自動設定できる。   Since such a behavior detection apparatus further includes a behavior detection line calculation unit, a behavior detection line can be automatically set.

他の一態様にかかる行動検知方法は、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択工程と、前記アルゴリズム選択工程で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理工程とを備える。   The behavior detection method according to another aspect includes an image acquisition step of acquiring an image obtained by capturing a monitored person to be monitored from above the monitored person, and a predetermined action in the monitored person. An algorithm selection step of selecting an action detection algorithm based on a positional relationship between a camera that has captured the image and a setting area that is a predetermined area in the image, and the algorithm A behavior detection processing step of detecting a predetermined behavior of the monitored person based on the image by the behavior detection algorithm selected in the selection step.

他の一態様にかかる行動検知プログラムは、コンピュータに、監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択工程と、前記アルゴリズム選択工程で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理工程と、を実行させるためのプログラムである。   An action detection program according to another aspect includes: an image acquisition step of acquiring an image of a monitored person to be monitored from above the monitored person; and a predetermined action in the monitored person. An algorithm selection step of selecting a behavior detection algorithm from a plurality of different behavior detection algorithms for detection based on a positional relationship between a camera that captured the image and a setting region that is a predetermined region in the image; And a behavior detection processing step of detecting a predetermined behavior in the monitored person based on the image by the behavior detection algorithm selected in the algorithm selection step.

このような行動検知方法および行動検知プログラムは、複数の行動検知アルゴリズムの中から、カメラと設定領域との位置関係に応じた行動検知アルゴリズムを選択し、この選択した行動検知アルゴリズムで被監視者における所定の行動を検知するので、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。また、カメラが配設され、行動検知の開始後に、例えばベッド等の寝具の位置が変更されると、前記寝具に対するカメラの位置関係が変わってしまうが、上記行動検知方法および行動検知プログラムは、記憶部に記憶された前記設定領域を変更することで、このような寝具の位置の変更による前記カメラの位置関係の変更にも対処できる。したがって、上記行動検知方法および行動検知プログラムは、寝具の位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。   Such a behavior detection method and a behavior detection program select a behavior detection algorithm according to the positional relationship between the camera and the setting area from a plurality of behavior detection algorithms, and the selected behavior detection algorithm uses Since the predetermined action is detected, the predetermined action in the monitored person can be detected with higher accuracy regardless of the installation position where the camera is installed. In addition, when the position of the bedding such as a bed is changed after the start of the behavior detection and the camera is arranged, the positional relationship of the camera with respect to the bedding changes, but the behavior detection method and the behavior detection program are By changing the setting area stored in the storage unit, it is possible to cope with a change in the positional relationship of the camera due to such a change in the position of the bedding. Therefore, the behavior detection method and the behavior detection program can detect the predetermined behavior of the monitored person with higher accuracy regardless of the position of the bedding.

他の一態様にかかる被監視者監視装置は、監視対象である被監視者における所定の行動を検知する行動検知部と、前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備え、前記行動検知部は、これら上述のいずれかの行動検知装置を含む。   A monitored person monitoring apparatus according to another aspect includes a behavior detection unit that detects a predetermined behavior of a monitored person that is a monitoring target, and a notification unit that notifies the predetermined behavior detected by the behavior detection unit to the outside The behavior detection unit includes any one of the above-described behavior detection devices.

このような被監視者監視装置は、これら上述のいずれかの行動検知装置を含むので、カメラが配設される配設位置にかかわらず、被監視者における所定の行動をより高精度に検知できる。   Since such a monitored person monitoring apparatus includes any of the above-described action detecting apparatuses, it is possible to detect a predetermined action in the monitored person with higher accuracy regardless of the position where the camera is disposed. .

この出願は、2015年6月11日に出願された日本国特許出願特願2015−118388を基礎とするものであり、その内容は、本願に含まれるものである。   This application is based on Japanese Patent Application No. 2015-118388 filed on June 11, 2015, the contents of which are included in this application.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。   In order to express the present invention, the present invention has been properly and fully described through the embodiments with reference to the drawings. However, those skilled in the art can easily change and / or improve the above-described embodiments. It should be recognized that this is possible. Therefore, unless the modifications or improvements implemented by those skilled in the art are at a level that departs from the scope of the claims recited in the claims, the modifications or improvements are not covered by the claims. To be construed as inclusive.

本発明によれば、行動検知装置、行動検知方法および行動検知プログラム、ならびに、被監視者監視装置が提供できる。
According to the present invention, a behavior detection device, a behavior detection method, a behavior detection program, and a monitored person monitoring device can be provided.

Claims (15)

監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得部と、
前記画像中における所定の領域を設定領域として記憶し、前記画像に基づいて前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムを記憶する記憶部と、
前記複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択部と、
前記アルゴリズム選択部で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理部と、
前記画像の中心が前記設定領域に対してどの位置に存在するかによって、前記画像を撮像したカメラと前記設定領域の前記位置関係を求める位置関係演算部とを備える、
行動検知装置。
An image acquisition unit for acquiring an image obtained by imaging a monitored person as a monitoring target from above the monitored person;
A storage unit that stores a predetermined area in the image as a setting area, and stores a plurality of different behavior detection algorithms for detecting a predetermined action in the monitored person based on the image;
Among the plurality of behavior detection algorithms, an algorithm selection unit that selects a behavior detection algorithm based on a positional relationship between the camera that has captured the image and the setting region;
A behavior detection processing unit for detecting a predetermined behavior in the monitored person based on the image by the behavior detection algorithm selected by the algorithm selection unit;
Depending on the position of the center of the image with respect to the setting area, the camera that has captured the image and a positional relationship calculation unit that determines the positional relationship of the setting area ,
Behavior detection device.
前記位置関係は、前記カメラが前記設定領域の直上に位置する直上、前記カメラが前記設定領域の手前上方に位置する手前、前記カメラが前記設定領域の奥上方に位置する奥、前記カメラが前記設定領域の横上方に位置する横、前記カメラが前記設定領域の斜め前上方に位置する斜め前、および、前記カメラが前記設定領域の斜め奥上方に位置する斜め奥のうちのいずれかである、
を特徴とする請求項1に記載の行動検知装置。
The positional relationship is as follows: the camera is located immediately above the setting area, the camera is located immediately above the setting area, the camera is located far behind the setting area, and the camera is Any one of a horizontal position that is located in the upper side of the setting area, an oblique position in which the camera is located obliquely in front of the setting area, and a diagonal position in which the camera is located obliquely in the upper position of the setting area. ,
The behavior detection apparatus according to claim 1, wherein:
前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、
前記位置関係演算部は、前記行動検知線を考慮して、前記画像を撮像したカメラと前記設定領域との位置関係を求める、
請求項または請求項に記載の行動検知装置。
The storage unit further stores a predetermined line in the image as an action detection line, which is used in at least one of the plurality of action detection algorithms to detect a predetermined action in the monitored person,
The positional relationship calculation unit obtains a positional relationship between the camera that captured the image and the setting region in consideration of the action detection line.
The behavior detection apparatus according to claim 1 or 2 .
前記複数の行動検知アルゴリズムは、前記位置関係が直上である場合に用いられる直上用の行動検知アルゴリズムを含み、
前記直上用の行動検知アルゴリズムは、前記画像上における前記設定領域外の前記被監視者の第1面積、および、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
請求項1ないし請求項のいずれか1項に記載の行動検知装置。
The plurality of behavior detection algorithms include a behavior detection algorithm for direct use used when the positional relationship is directly above,
The action detection algorithm for directly above is based on the first area of the monitored person outside the setting area on the image and the second area where the setting area and the monitored person overlap on the image. An algorithm for detecting a predetermined action in the monitored person.
The behavior detection apparatus according to any one of claims 1 to 3 .
前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、
前記複数の行動検知アルゴリズムは、前記位置関係が手前である場合に用いられる手前用の行動検知アルゴリズムを含み、
前記手前用の行動検知アルゴリズムは、前記画像上における前記行動検知線と前記被監視者の足先位置との距離に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
請求項1ないし請求項のいずれか1項に記載の行動検知装置。
The storage unit further stores a predetermined line in the image as an action detection line, which is used in at least one of the plurality of action detection algorithms to detect a predetermined action in the monitored person,
The plurality of behavior detection algorithms include a near-behavior detection algorithm used when the positional relationship is near.
The behavior detection algorithm for the foreground is an algorithm for detecting a predetermined behavior in the monitored person based on a distance between the action detection line on the image and a position of the toe of the monitored person.
The behavior detection device according to any one of claims 1 to 4 .
前記複数の行動検知アルゴリズムは、前記位置関係が横である場合に用いられる横用の行動検知アルゴリズムを含み、
前記横用の行動検知アルゴリズムは、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである
請求項1ないし請求項のいずれか1項に記載の行動検知装置。
The plurality of behavior detection algorithms include a lateral behavior detection algorithm used when the positional relationship is horizontal,
The horizontal behavior detection algorithm includes a first boundary line positioned closest to the camera along the horizontal direction of the setting area and the horizontal direction of the setting area on the image. An algorithm for detecting a predetermined action in the monitored person based on a third area where the set area and the monitored person overlap with a second boundary line located at a position farthest from the camera. The behavior detection apparatus according to any one of claims 1 to 5 .
前記複数の行動検知アルゴリズムは、前記位置関係が奥である場合に用いられる奥用の行動検知アルゴリズムを含み、
前記奥用の行動検知アルゴリズムは、前記画像上における前記設定領域と前記被監視者とが重なった第2面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
請求項1ないし請求項のいずれか1項に記載の行動検知装置。
The plurality of behavior detection algorithms include a behavior detection algorithm for the back used when the positional relationship is the back.
The back-behavior detection algorithm is an algorithm for detecting a predetermined action in the monitored person based on a second area where the setting area on the image overlaps the monitored person.
The behavior detection apparatus according to any one of claims 1 to 6 .
前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、
前記複数の行動検知アルゴリズムは、前記位置関係が斜め前である場合に用いられる斜め前用の行動検知アルゴリズムを含み、
前記斜め前用の行動検知アルゴリズムは、前記画像上における前記行動検知線と前記被監視者の足先位置との距離、および、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
請求項1ないし請求項のいずれか1項に記載の行動検知装置。
The storage unit further stores a predetermined line in the image as an action detection line, which is used in at least one of the plurality of action detection algorithms to detect a predetermined action in the monitored person,
The plurality of behavior detection algorithms include a behavior detection algorithm for oblique front used when the positional relationship is oblique forward,
The action detection algorithm for the diagonally front includes the distance between the action detection line on the image and the toe position of the monitored person, and the horizontal direction of the setting area on the image. The setting area and the monitored person between a first boundary line located closest to the camera and a second boundary line located farthest from the camera along the horizontal direction of the setting area Is an algorithm for detecting a predetermined action in the monitored person based on the third area overlapped with
The behavior detection apparatus according to any one of claims 1 to 7 .
前記記憶部は、前記被監視者における所定の行動を検知するために前記複数の行動検知アルゴリズムのうちの少なくとも1つに用いられる、前記画像中における所定の線を行動検知線としてさらに記憶し、
前記複数の行動検知アルゴリズムは、前記位置関係が斜め奥である場合に用いられる斜め奥用の行動検知アルゴリズムを含み、
前記斜め奥用の行動検知アルゴリズムは、前記画像上において、前記設定領域の前記横の方向に沿って前記カメラに最も近い位置に位置する第1境界線と前記設定領域の前記横の方向に沿って前記カメラに最も遠い位置に位置する第2境界線との間での前記設定領域と前記被監視者とが重なった第3面積に基づいて前記被監視者における所定の行動を検知するアルゴリズムである、
請求項1ないし請求項のいずれか1項に記載の行動検知装置。
The storage unit further stores a predetermined line in the image as an action detection line, which is used in at least one of the plurality of action detection algorithms to detect a predetermined action in the monitored person,
The plurality of behavior detection algorithms include a behavior detection algorithm for a diagonal back used when the positional relationship is a diagonal back,
The behavior detection algorithm for the diagonal back is along the horizontal direction of the setting area and the first boundary line located closest to the camera along the horizontal direction of the setting area on the image. An algorithm for detecting a predetermined action in the monitored person based on a third area where the set area and the monitored person overlap with the second boundary line located farthest from the camera. is there,
The behavior detection apparatus according to any one of claims 1 to 8 .
前記位置関係演算部は、前記画像を撮像したカメラと前記設定領域との位置関係を互いに異なる複数の基本位置関係に分類した場合において、前記複数の基本位置関係それぞれの重みを前記設定領域に対する前記カメラの位置に基づいて求めることで、前記画像を撮像したカメラと前記設定領域との位置関係を求め、
前記複数の行動検知アルゴリズムは、前記画像に基づいて前記被監視者における所定の行動を検知するための所定の評価値を前記複数の基本位置関係に応じて複数求め、前記求めた複数の評価値に前記複数の基本位置関係それぞれの重みで重み付けし、前記重み付けした結果と所定の閾値との比較結果に基づいて前記被監視者における所定の行動を検知するアルゴリズムを重み付け行動検知アルゴリズムとして含み、
前記アルゴリズム選択部は、前記複数の行動検知アルゴリズムの中から前記位置関係演算部で求めた位置関係に基づいて前記重み付け行動検知アルゴリズムを選択し、
前記行動検知処理部は、前記位置関係演算部で求めた前記複数の基本位置関係それぞれの重みを用いて前記アルゴリズム選択部で選択した重み付け行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する、
請求項2または請求項3に記載の行動検知装置。
When the positional relationship between the camera that captured the image and the setting region is classified into a plurality of different basic positional relationships, the positional relationship calculation unit assigns the weights of the plurality of basic positional relationships to the setting region. By obtaining based on the position of the camera, the positional relationship between the camera that captured the image and the setting area is obtained,
The plurality of behavior detection algorithms obtain a plurality of predetermined evaluation values for detecting a predetermined behavior of the monitored person based on the image according to the plurality of basic positional relationships, and the plurality of obtained evaluation values Weighted with the weight of each of the plurality of basic positional relations, and includes an algorithm for detecting a predetermined action in the monitored person based on a comparison result between the weighted result and a predetermined threshold as a weighted action detection algorithm,
The algorithm selection unit selects the weighted behavior detection algorithm based on the positional relationship obtained by the positional relationship calculation unit from the plurality of behavior detection algorithms,
The behavior detection processing unit is configured to perform predetermined processing for the monitored person based on the image by a weighted behavior detection algorithm selected by the algorithm selection unit using the weights of the plurality of basic positional relationships obtained by the positional relationship calculation unit. Detecting the behavior of
The behavior detection apparatus according to claim 2 or claim 3 .
前記行動検知線を外部から受け付けて前記記憶部に記憶する行動検知線受付部をさらに備える、
請求項に記載の行動検知装置。
A behavior detection line receiving unit that receives the behavior detection line from the outside and stores it in the storage unit;
The behavior detection apparatus according to claim 3 .
前記画像取得部で取得した画像に基づいて前記行動検知線を求め、前記求めた行動検知線を前記記憶部に記憶する行動検知線演算部をさらに備える、
請求項に記載の行動検知装置。
The behavior detection line is further calculated based on the image acquired by the image acquisition unit, and the behavior detection line calculation unit that stores the determined behavior detection line in the storage unit,
The behavior detection apparatus according to claim 3 .
監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、
前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択工程と、
前記アルゴリズム選択工程で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理工程と、
前記画像の中心が前記設定領域に対してどの位置に存在するかによって、前記画像を撮像したカメラと前記設定領域の前記位置関係を求める位置関係演算工程とを備える、
行動検知方法。
An image acquisition step of acquiring an image of the monitored person to be monitored from above the monitored person;
A behavior based on a positional relationship between a camera that has captured the image and a setting region that is a predetermined region in the image, from among a plurality of different behavior detection algorithms for detecting the predetermined behavior in the monitored person An algorithm selection step for selecting a detection algorithm;
A behavior detection processing step of detecting a predetermined behavior in the monitored person based on the image by the behavior detection algorithm selected in the algorithm selection step;
A positional relationship calculation step for determining the positional relationship between the camera that has captured the image and the setting region depending on where the center of the image is located relative to the setting region ;
Behavior detection method.
コンピュータに、
監視対象である被監視者を、前記被監視者の上方から撮像した画像を取得する画像取得工程と、
前記被監視者における所定の行動を検知するための互いに異なる複数の行動検知アルゴリズムの中から、前記画像を撮像したカメラと前記画像中における所定の領域である設定領域との位置関係に基づいて行動検知アルゴリズムを選択するアルゴリズム選択工程と、
前記アルゴリズム選択工程で選択した行動検知アルゴリズムで前記画像に基づいて前記被監視者における所定の行動を検知する行動検知処理工程と、
前記画像の中心が前記設定領域に対してどの位置に存在するかによって、前記画像を撮像したカメラと前記設定領域の前記位置関係を求める位置関係演算工程と、
を実行させるための行動検知プログラム。
On the computer,
An image acquisition step of acquiring an image of the monitored person to be monitored from above the monitored person;
A behavior based on a positional relationship between a camera that has captured the image and a setting region that is a predetermined region in the image, from among a plurality of different behavior detection algorithms for detecting the predetermined behavior in the monitored person An algorithm selection step for selecting a detection algorithm;
A behavior detection processing step of detecting a predetermined behavior in the monitored person based on the image by the behavior detection algorithm selected in the algorithm selection step;
A positional relationship calculation step for determining the positional relationship between the camera that has captured the image and the setting region, depending on where the center of the image is located with respect to the setting region;
Action detection program to execute
監視対象である被監視者における所定の行動を検知する行動検知部と、
前記行動検知部で検知した前記所定の行動を外部に通知する通知部とを備え、
前記行動検知部は、請求項1ないし請求項12のいずれか1項に記載の行動検知装置を含む、
被監視者監視装置。
An action detection unit for detecting a predetermined action in the monitored person to be monitored;
A notification unit for notifying the predetermined behavior detected by the behavior detection unit to the outside,
The behavior detection unit includes the behavior detection device according to any one of claims 1 to 12 .
Monitored person monitoring device.
JP2016575258A 2015-06-11 2016-04-14 Behavior detecting device, method and program, and monitored person monitoring device Active JP6115692B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015118388 2015-06-11
JP2015118388 2015-06-11
PCT/JP2016/062046 WO2016199495A1 (en) 2015-06-11 2016-04-14 Behavior detection device, behavior detection method and program, and subject monitoring device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017055687A Division JP6720909B2 (en) 2015-06-11 2017-03-22 Action detection device, method and program, and monitored person monitoring device

Publications (2)

Publication Number Publication Date
JP6115692B1 true JP6115692B1 (en) 2017-04-19
JPWO2016199495A1 JPWO2016199495A1 (en) 2017-06-22

Family

ID=57503317

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016575258A Active JP6115692B1 (en) 2015-06-11 2016-04-14 Behavior detecting device, method and program, and monitored person monitoring device
JP2017055687A Active JP6720909B2 (en) 2015-06-11 2017-03-22 Action detection device, method and program, and monitored person monitoring device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017055687A Active JP6720909B2 (en) 2015-06-11 2017-03-22 Action detection device, method and program, and monitored person monitoring device

Country Status (2)

Country Link
JP (2) JP6115692B1 (en)
WO (1) WO2016199495A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6406371B2 (en) * 2017-03-02 2018-10-17 オムロン株式会社 Watch support system and control method thereof
JP6729510B2 (en) * 2017-07-06 2020-07-22 オムロン株式会社 Monitoring support system and control method thereof
JP6828703B2 (en) * 2017-08-07 2021-02-10 株式会社リコー Information providing device, information providing system, information providing method, and program
JP2019121962A (en) * 2018-01-09 2019-07-22 アイホン株式会社 Surveillance camera system
US20200155040A1 (en) * 2018-11-16 2020-05-21 Hill-Rom Services, Inc. Systems and methods for determining subject positioning and vital signs
JP2022069026A (en) * 2020-10-23 2022-05-11 日本精密測器株式会社 Watching support device, and watching support system
US20230410512A1 (en) * 2020-11-04 2023-12-21 Astoria Solutions Pte Ltd. Autonomous safety violation detection system through virtual fencing
CN117351684B (en) * 2023-12-04 2024-02-13 成都蜀诚通信技术有限公司 Early warning method of intelligent safety helmet and intelligent safety helmet

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149584A (en) * 2013-01-31 2014-08-21 Ramrock Co Ltd Notification system
JP2014182409A (en) * 2013-03-15 2014-09-29 Nk Works Co Ltd Monitoring apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014149584A (en) * 2013-01-31 2014-08-21 Ramrock Co Ltd Notification system
JP2014182409A (en) * 2013-03-15 2014-09-29 Nk Works Co Ltd Monitoring apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
田崎豪 外2名: "ロボットとの距離に応じたパラメータ設定による高齢者のカメラ式離床検出", ヒューマンインタフェースシンポジウム2011 論文集, JPN6016023662, 13 September 2011 (2011-09-13), pages 1021 - 1026, ISSN: 0003499495 *

Also Published As

Publication number Publication date
JP6720909B2 (en) 2020-07-08
WO2016199495A1 (en) 2016-12-15
JPWO2016199495A1 (en) 2017-06-22
JP2017168105A (en) 2017-09-21

Similar Documents

Publication Publication Date Title
JP6115692B1 (en) Behavior detecting device, method and program, and monitored person monitoring device
JP6137425B2 (en) Image processing system, image processing apparatus, image processing method, and image processing program
JP6717235B2 (en) Monitoring support system and control method thereof
JP6852733B2 (en) Living body monitoring device and living body monitoring method
JP6292283B2 (en) Behavior detection device, behavior detection method, and monitored person monitoring device
JPWO2016181837A1 (en) Image processing system, image processing apparatus, image processing method, and image processing program
JP6142975B1 (en) Monitored person monitoring apparatus and method, and monitored person monitoring system
EP3486868A1 (en) Behavior determination device and behavior determination method
JP6696606B2 (en) Care support system, care support method and program
WO2017026309A1 (en) Sensor device and care support system
JP6115689B1 (en) Fall detection device, fall detection method and monitored person monitoring device
JP7137155B2 (en) Monitored Person Monitoring Support System, Monitored Person Monitoring Support Method and Program
JP6481537B2 (en) Monitored person monitoring device and monitored person monitoring method
JP6804510B2 (en) Detection system and display method of detection system
JP6292363B2 (en) Terminal device, terminal device display method, and monitored person monitoring system
JPWO2019031012A1 (en) BEHAVIOR DETECTION DEVICE AND METHOD, AND MONITORED SUPPORT SUPPORT SYSTEM
JP6737355B2 (en) Head detection device, head detection method, and monitored person monitoring device
JP6172416B1 (en) Nurse call system
JP2022113309A (en) Information processing device, monitoring system, control program, and control method
JPWO2020031531A1 (en) Movement behavior abnormality determination device and its method, and monitored person monitoring support system
JPWO2019235068A1 (en) Monitored person monitoring support device, monitored person monitoring support method, monitored person monitoring support system and monitored person monitoring support server device

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170306

R150 Certificate of patent or registration of utility model

Ref document number: 6115692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150